top of page
Фото автораSyntropism

Иллюзия опасности искусственного интеллекта.

Обновлено: 17 мая 2018 г.

Последнее время, становиться популярной тема приближающейся опасности со стороны искусственного интеллекта.

Некоторые ученые, даже предрекают неминуемую сингулярность, как рубеж, после которого, развитие машинного разума станет в принципе неуправляемым со стороны человека.



Может ли это произойти в действительности, и как такие перспективы укладываются в рамки научной концепции Синтропизма .

Люди вовлеченные в эту дискуссию, могут справедливо спросить, почему при построении своей модели будущего, мы совсем игнорируем возможность доминанты интеллекта компьютеров над человеческим разумом.


Для того, чтоб исчерпывающе ответить на этот вопрос, нужно прежде разобраться в истоках его возникновения.


Компьютерные системы, как собственно и сам искусственный интеллект, появились сравнительно недавно.

Всего за несколько десятилетий, благодаря практически взрывному росту производительности и столь-же стремительному уменьшению и удешевлению составляющих элементов, электронно вычислительные системы стали нашими постоянными спутниками, как дома, так и на работе.


Наши ощущения от этого динамичного прогресса, можна сравнить только с приступом внезапно вспыхнувшей любви.

Мы любим наши гаждеты, нам нравится, когда на наших рабочих местах, интеллектуальные системы управления, делают рутинную работу точно и без нашего участия.


Мы ощущаем прогресс и склонны идеализировать дальнейший путь развития машинного интеллекта.

Но давайте снимем розовые очки и посмотрим реальности в лицо.

Первое что нужно оценить, это насколько архитектура кремниевых элементов современных вычислительных систем близка к своему конструктивному пределу совершенства.


Да сейчас компьютерные системы все еще структурно уменьшаются (компактифицируются ), но технологии создания вычислительных единиц на основе кремния, вплотную приблизились к 10 нанометрам (это порядка 20 атомов), а значить дальнейшая миниатюризация уже не возможна.


Плюс, растущая проблема теплоотдачи, которая заставляет искать новые и порой совершенно экзотические решения отвода тепловой энергии.


Все это говорит о том что мы практически достигли фундаментального предела функционального роста компьютерных процессоров на традиционной кремниевой технологии.


Но ключ к пониманию реальности, лежит в соотношении вычислительной емкости и энергопотребления.

Давайте вспомним, что мозг человека способен работать, потребляя всего 20 ватт энергии, а электронная система сопоставимой вычислительной емкости, будет нуждаться в 20000 мватт мощности.

Чтобы осознать, насколько это гигантская разница, стоит отметить, что если вы уважаемый читатель, захотите загрузить себя самого в компьютерную систему современного уровня, вам потребуется столько-же энергии сколько производят некоторые крупнейшие атомные или гидроэлектростанции.


Сейчас есть аргументированные прогнозы, которые утверждают, что при достижении уровня 10 гига - вычислений на джоуль, дальнейшее развитие упрется в стену энергоэффективности и даже на таком недостижимом пока по экономичности уровне, компьютерная система будет отставать от биологического мозга более чем в 10000 раз!


Многообещающие квантовые компьютеры, любимые сегодня футурологами, так-же как оказывается, не смогут решить эту фундаментальную проблему низкой эффективности.

Да, манипулировать главной единицей вычислений (квантовый кубит), в виде атома, можно с малой затратой энергии, но связать в единую сеть все вычислительные элементы со всеми квантовыми состояниями будет сложно и крайне энергозатратно.

Результативный баланс, может оказаться даже хуже чем в случае с обычными кремниевыми системами.


Вывод один - бесконечного роста вычислительной мощности точно не будет, если пользоваться современными технологиями, а следовательно не будет и машинного разума сопоставимого с человеческим по сумме основных характеристик.


Похоже природа и эволюция движутся по пути создания биологических разумных систем, не по тому, что это произошло по воле случая, а исходя из принципов максимально возможной эффективности.


Хотя с точки зрения Синтропизма и это, еще далеко, не вся правда .

Если теория двойной структуры головного мозга человека, лежащая в основе научной доктрины Синтропизма, будет доказана экспериментально, преимущество биологического мозга перед любым типом машинного интеллекта станет совершенно неоспоримым.


Физическая неуязвимость инопространственного компонента, человеческой нервной системы, перед лицом любого внешнего воздействия в границах этого трехмерного пространства, будет означать что такая интеллектуальная система фактически бессмертна в рамках традиционного понимания процесса смерти и физической деструкции.


Даже через сотни лет развития, вычислительные системы созданные нашими потомками, будут фундаментально и конструктивно отставать от нашей уникальной двойной ЦНС (центральной нервной системы), а значить и от нас самих.


Синтропизм говорит нам о том, что восстания машин точно не будет .

Это не случится по ряду причин.

Первая из которых, это структурная или конструктивная уязвимость любой системы искусственного интеллекта созданной из обычной барионной материи нашего пространства.


Второй причиной, длительное время будет слабая результативная энергоэффективность, которая вероятно, будет преодолена в тот момент, когда человечество научится добывать энергию из вакуума, фактически из уровня пространственно-динамического равновесия между пространствами и манипулировать скоростными характеристиками барионной материи нашей вселенной.


Но, даже после этого фундаментального прорыва, соотношение вычислительной емкости и энергопотребления станет сопоставимо с биологическим мозгом человека, но будет отставать от общих показателей двойной системы (неокортекс+ инопространственный компонент).


Мы пока еще не понимаем насколько сложен и безупречен наш мозг, но новые идеи и научные теории которые придут вместе с Синтропизмом, позволят нам смотреть на окружающий мир, и собственное технологическое развитие намного увереннее, и точно без страха.


79 просмотров0 комментариев

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page