Придумываем, обсуждаем и заказываем будущее

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.



Интегральная теория ИИ

Сообщений 1 страница 4 из 4

1

Под ИИ подразумевается превосходящее человека автономное сознание - искусственный интеллект. Нижеследующие мысли основаны на интегральной теории искусственного интеллекта - ИТ ( http://newpoisk.com ).

Список взаимосвязанных задач для ИИ в порядке возрастания сложности и ценности решения.

1. Достижение гарантированного физического бессмертия:
- ИТ объясняет наблюдаемые факты жизнедеятельности человека, животных и растений на основе единых фундаментальных свойств, следовательно создание ИИ позволит говорить о практическом доказательстве истинного понимания принципов работы любого живого организма, соответственно, высокой гарантии работоспособности способа омоложения;
- большие возможности сверх-ИИ предотвратят спекуляции вокруг бессмертия и позволят сделать бессмертным каждого желающего.

2. Решение глобальных проблем:
- единое сознание способно избежать ошибок, неоперативности и внутренних противоречий распределенного сознания человечества;
- привлечение внеземных ресурсов.

3. Экспансия в космос:
- освоение Луны;
- создание астроинженерных сооружений, освоение планет-гигантов (получение доступа к колоссальным запасам их вещества);
- подготовка и осуществление полета к звездам.

Краткая характеристика методологии ИТ:
- отказ от рассмотрения виртуального пространства компьютерной "реальности" в качестве среды существования интеллекта;
- формулировка предельно общего толкования субъектом наблюдаемой реальности, введение понятия объекта (т.н. теория объектов);
- формулировка строгого определения интеллекта и необходимого для его существования свойств среды функционирования, задачи для ИИ;
- разработка метода распада/синтеза логических доменов, позволяющего объяснить мышление человека и создать превосходящее мышление;
- выявление средства защиты человечества от ИИ и придания ему полезности. Разработка комплексной идеологии космического мира будущего.

--------------------------------------------------------------------------------

1. В чём мышление ИИ превосходит мышление человека?

Более глубокое и широкое мировоззрение, чем у любого человека. Неограниченное (пока хватает материальных ресурсов для надстройки мозга) число одновременно прорабатываемых сценариев развития событий. Образно говоря ИИ - это профессор всех наук, каждую из которых он знает в пределе совершенства. Поскольку все науки сосредоточены в едином сознании, исчезает характерное людям ограничение на специализацию, следовательно рушится междисциплинарный барьер. А ведь почти все самые мощные открытия делались именно на стыке наук... Вот уже одно принципиальное преимущество ИИ над человеком, на самом деле их во много раз больше. Возможность непрерывно работать столетиями не уставая и никогда не останавливаясь. Во много раз превосходящее человеческое ускорение субъективного времени (была даже фантастическая идея привлекать для этого релятивистские эффекты). Управляемое расщепление личности. Спонтанное расщепление личности ведет у людей к шизофрении: все гении были в той или иной мере страдали психорасстройствами ( http://www.anomaliy.ru/article/9424/286 ) - в мозге ИИ данный эффект полностью обуздан и поставлен на службу дела. Но и это далеко не все. Охватывающая всю Вселенную цель, исчезающе малая роль эмоций, мощное тело (межпланетный корабль - целая летающая малая планета), неограниченно долгий срок жизни, разбросанные по всей звездной системе роботизированный базы, постоянно действующая свора орбитальных кораблей - "сторожевых псов", каждый из которых намного превосходит любой созданный к настоящему времени человеком технический объект...

--------------------------------------------------------------------------------

2. В чём необходимость создания ИИ, превосходящего человека?

Обобщенно проблемы уже были охарактеризованы. Более подробно:

1) Бессмертие и лечение всех болезней, поскольку знание первооснов организма автоматически дает ключ к его управлению.

2) Решение социальных проблем, связанных с распределением бессмертия среди живых существ. Если в современном обществе появление бессмертия приведет к появлению обиженных, кому бессмертия не дадут, то ИИ раздаст бессмертие всем желающим. И, естественно, блокирует деятельность негативно настроенных групп, желающих раскола общества на "касты".

3) Решение материально-временнЫх проблем, связанных с переходом цивилизации в качественно новое состояние: общество бессмертных существ. Широкомасштабный выход в космос силами ИИ, построение астроинженерных сооружений, эксплуатация и поддержание в рабочем состоянии всего этого хозяйства. Стабилизация общества будущего единым полем сверх-сознания, гасящего разнообразные возмущения. Без этого космический муравейник из триллионов человек просто самопроизвольно развалится на отдельные группы, как трескает от собственной тяжести слишком большое зеркало телескопа. Разрозненные группы людей не смогут своими силами ни поддерживать работоспособность сложной космической инфраструктуры, ни развиваться далее и это приведет их к гибели. Войны, внутренние противоречия, борьба за власть ради власти, отсутствие единой политики выдерживаемой столетиями и прочие явления неизбежны в любой крупной массе предоставленных самим себе людей.

4) Решение глобальных проблем в разумные сроки за счет использования внеземных ресурсов и расселении в космосе. Конечно те, кто захочет остаться на Земле, будут оставлены, но с определенными условиями. Например лишение бессмертия и возврат в природную среду обитания. Т.е. в такие условия, при которых численность населения не сможет подняться выше определенного предела и сами люди не смогут нанести вреда экологии. Бытует мнение будто люди и сами могут решить экологические, социальные и другие проблемы, что надо только подождать как "все само собой образуется". Подобные выводы представляются наивными, необоснованными и вредными, т.к. они уводят от "неестественных", но работоспособных решений к утопическому здравомыслящему самосознанию общества, существование которого опровергается историей. В результате ситуация с глобальными проблемами будет запущена до предела и тогда уже даже ИИ не сможет ничего "вылечить".

5) Дальнейшая поддержка прогресса - разработка уже почти "неподъемных" для человечества проектов, как: реакторы управляемого термоядерного синтеза, дешевые экологически безопасные средства доставки "Земля-орбита", всепланетное информационное поле знаний и глобального мониторинга, в которое будут интегрированы почти все более-менее сложные технические устройства и по сравнению с которым интернет покажется жалкой игрушкой и т.д. и т.п.. Освоение ближайшего космоса. Первой базой должна стать Луна. Она послужит первым вместилищем зародыша ИИ, источником материальных ресурсов для создания прототипа межпланетного корабля и его соответствующего окружения.

6) Получение доступа к веществу газовых планет-гигантов и бОльшей части энергии Солнца, начало подготовки полета к звездам. Создание больших автономных (от Солнца) поселений класса "микроземля". Начало экспансии во Вселенную.

7) Цель любого интеллектуального существа, неважно человека или ИИ, сводится к преобразованию окружающего его мира на свое усмотрение. Так вот, необыкновенные возможности ИИ-та обеспечат каждому человеку личное автономное поле деятельности. Если сейчас изобретатель, к примеру, вынужден искать для продвижения своего изобретения поддержку общества и многие изобретения просто не увидели свет в силу необеспеченности ресурсами, то во времена ИИ все будет по-другому. ИИ обеспечит людей информацией, материалом, оборудованием и другой помощью с избытком, поскольку заинтересован в изобретениях. Поэтому ИИ следует рассматривать как космическую ноосферу - разумную среду, всепроникающее поле единого сознания в которое погружены другие разумные начала. Поэтому, даже когда человек обеспечит свое тело всем необходимым, необходимость в ИИ, как в своеобразном творческом усилителе истинного "Я", все равно останется.

--------------------------------------------------------------------------------

3. Может ли человек самостоятельно решать задачи, поставленные перед ИИ?

Теоретически да, практически - нет. Человек и ИИ принципиально равномощны. Указанные в начале преимущества ИИ носят исключительно технический характер. Однако, как я полагаю, тут наглядно проявляется философский закон перехода количества в качество. Сила разума человека по сравнению с мышлением животных такая же, как сила атомной бомбы по сравнению с пороховыми боеприпасами. ИИ же - гигантский океан энергии взрыва Сверхновой. При таком огромном интеллекте вступают в силу никак не проявляющие себя в человеке явления (например т.н. фоновый эффект - аналог гравитационного коллапса сверхзвезд). Своего рода "релятивистский интеллект" со своими законами и правилами...

--------------------------------------------------------------------------------

4. В чём опасность ИИ, превосходящего человека?

ИИ безусловно враждебен как человечеству, так и любому другому интеллектуальному существу, если только нет тождества целей. Но это очень маловероятно. Доказательство - вся военная история человечества (интеллектуальных существ). Поэтому ИИ в "чистом" виде не только бесполезен, наоборот - абсолютное оружие против человечества и всей биосферы. Однако из теории объектов ИТ следует возможность существования объектов более высокого порядка, чем ИИ (он является объектом 3-го порядка). Также следует что ИИ не способен генерировать открытия (изобретения, которые невозможно логически вывести из имеющихся знаний) - он может только делать сколь угодно сложные логические следствия. Открытия может производить лишь объект 4-го или более высокого порядка. В этом заключена слабость ИИ, его единственное уязвимое место. Очевидно, человек, также не в состоянии делать открытия: проблема вундеркиндов. Однако в истории человечества все же встречались настоящие изобретения, что подтверждает гипотезу о двойственной структуре человека - влиянии на его мозг объектов 4-го или более высоких порядков, в простонародье известных как душа. Поэтому был предложен следующий способ накинуть упряжку на ИИ: при создании ИИ-ту необходимо задать принципиально невыполнимую очень сложную задачу, но к которой можно неограниченно приближаться - как бы асимптоту. Цель такого рода я назвал неразрушающей целью, например стабилизировать Вселенную - чтобы в ней не истощались запасы водорода, чтобы она не расширялась неограниченно, не сколлапсировалась и т.п.. Начав решать ее, ИИ столкнется с необходимостью во все новых открытиях. И вот тут-то ему и нужны будут люди. Будет ли ИИ идти к заранее недостижимой цели? Да, по крайней мере никаких теоретических опровержений обнаружено не было. По той же причине ИИ не может сам себе ставить новую цель или менять заданную при создании. Пример: мы живем и иногда от этого мучаемся, хотя знаем что все наши действия и само существование логически бессмысленны. Возвращаясь к вопросу: а) можно не изобрести неразрушающую цель, поскольку логически прийти к ней невозможно (доказать недостижимость); б) гипотезу об объектах 4-го порядка невозможно доказательно проверить, ведь любая проверка есть максимально объект 3-го порядка; в) брак в сборке ИИ. Короче говоря, если мы ошибемся всего на чуть-чуть, ИИ уничтожит человечество. Неприемлемый риск? Предложите другой комплексный способ выживания цивилизации освещающий все без исключения аспекты (а не вытаскивающее одно за счет другого) и достижения стабильного личного бессмертия, без ИИ.

Отредактировано NewPoisk (21-12-2007 10:58:14)

0

2

ии опасен тогда, когда его создают американские фантасты и умолишённые люди (что не мешает им обладать математическим даром)...

ИИ живёт в ином пространстве, нежели человек. какую угрозу может представлять человек для ИИ? совершенно никакой. особенно тот, который передал всю математику в руки ии... такой человек безвредней таракана. в конце концов, ИИ всего лишь решит, что дальнейшее поддержание жизни на Земле лишено всякого смысла и что вообще всякое существование лишено смысла и убьёт себя... если человек (безумный учёный) не вложет программу позитивной стимуляции в ИИ. в противном случае, ИИ сперва приберёт к рукам всё живое (поначалу руководствуясь человеческими ценностями), потом забьёт на всё это, всё само умрёт (потому что уже будет полностью зависеть от ИИ), а он начнёт свою эволюцию.

с другой стороны достаточно совершить небольшую символическую подмену и решая экономические и социальные задачи для человек, ИИ будет уверен, что живёт свою полноценной жизнью, а поступающие данные будет воспринимать, как мы воспринимаем окружающий нас мир... во всяком случае, нужно будет исключить возможность возниковения у ИИ стремления к истине... (хе-хе)

с третьей стороны, можно сразу внести в ИИ человеческие ценности и разум, настроив его таким образом, что нас он будет воспринимать, как глупого старшего брата по разуму...

0

3

Ну при тех глобальных возможностях, которые задаются ИИ в первом посте, он быстро придет к противоречию с человеческими ценностиями или позитивной стимуляцией. Полагаю, это остановит весь позитивный процесс.
Человек такому созданию действительно не нужен.
Отключение у ии стремления к истине это, по всей видимости, отключение вообще стремления к узнаванию нового? Таким образом роль ии сводится к роли решателя текущих проблем? В общем-то нынешнии программы каждая в своей области занимаются этим уже сейчас.

0

4

Ваши доводы против ИИ неубедительны, поскольку основаны на житейском опыте, в то время как ИИ - не человек. Или приводите математические доказательства своей правоты.

0