Искусственный интеллект, генетические алгоритмы

Наверное, как только появились компьютеры, так сразу и появилось желание научить их самих думать. Время шло, а прорыва в этом направлении все не было и не было. Хотя некоторые направления были довольно интересными и многообещающими. Так например идея нейросетей состояла в том, чтобы имитровать принцип функционирования человеческого мозга.
Во время учебы в институте у нас был преподаватель, серьезно занимавшися этими вопросами а написавший множество трудов на эту тему. Когда его слушаешь, кажется, что вот-вот компьютеры сами думать будут. Однако наши лабораторные работы по этим нейронным сетям показали, что не все так просто и обучить нормально эту нейросеть очень и очень непросто, а иногда и вообще не получается. Видимо все же не так глубоки человеческие познания в строении мозга, раз человек легко обучается, а нейросеть, созданная по его подобие — трудно.
С тех пор я недоверчиво относился к использованию нейросетей в своих проектах. Позже я узнал об еще одном интересном направлении — генетических алгоритмах. Суть в том, что имитруются гены и процесс их изменения у разных поколений под воздействием условий окружающей среды. Что мне понравилось в сравнении с нейросетями — так это то, что алгоритм «обучения» очень прост.
И вот в моем очередном проекте понадобилось как то формализовать набор данных, трудно поддающийся формаизации обычными функциями. Вот и решил попробовать применить тут генетические алгоритмы. Написал небольшую программку и попробовал обучить простой линейной функции. Обучилось! И весьма быстро. «Вот оно торжество искусственного интеллекта» подумал я. И перенес этот код на реальные данные. А вот тут меня после многих часов экспериментов ждало большое разочарование. Как ни пробовал менять я разные коэфициенты и параметры, каких-нибудь приемлимых результатов я так и не добился.
Поэтому я сделал для себя вывод — никакого искусственного интеллекта в обозримом будущем не будет. Я не прав ?

Запись опубликована автором в рубрике Без рубрики.

Искусственный интеллект, генетические алгоритмы: 3 комментария

  1. plastaller

    Нейронные сети, являющиеся одним из перспективных направлений исследований в области искусственного интеллекта, были созданы в результате наблюдения за процессами, происходящими в нервной системе человека. Примерно также были «изобретены» и генетические алгоритмы, но наблюдали уже не за нервной системой человека, а за процессом эволюции живых организмов.

  2. Евгений

    Что такое Искусственный «Интеллект». Тема 1.
    Сороковые годы прошлого века сформировали множество задач. Термоядерный синтез, космос, код ДНК, Коллайдер и т. д. Все они успешно решены, кроме проблемы ИИ, и это странно… Успешно множатся лишь определения темы, инвестиции и соискатели. Напомню, количество формулировок задачи прямо пропорционально расстоянию до её решения… Можно также утверждать, что определённая область знаний, отвечающая за создание ИИ, значительно деградировала. Поэтому, очень вероятно, что очередной всплеск интереса к этой теме может повторить участь предыдущих. Предлагаю, провести коллективное «расследование» этой загадочной сущности. Следует отбраковать массу формулировок. Предложить не стандартные подходы в аналитике и к моделированию ИИ и, конечно, описать риски этого инструмента. Назовём это: не «там», не «те», и не «то».
    Не «там». Факт первый. Тему ИИ разрабатывают представители точных наук. Разберёмся. Качество любых знаний оценивается эффективностью аналитики собственного поля. Например, качество аналитики поля точных наук более 90%. Их возможности ограничены лишь бюджетом. Качество аналитики прогнозирования метеорологии более 46%. Хромают системы счета и алгоритмическая база, поэтому она полна сюрпризов. Качество экспертной аналитики социального поля (социологии) всего 6 — 8%. Заявления Санта-Фе о 16% эффективности, это блеф, поскольку справедливо только для устойчивых систем. Нет алгоритмической базы, систем счета и т. д. но есть сплошные «сюрпризы». Факт второй. В социуме отсутствует важнейшая наука — Высокотехнологичная Социология (ВС). И так, причин кризиса ИИ много. Но главная причина — он находится не «там», а в зоне отсутствующих знаний, т. е. социальных.
    Не «те». Парадокс, но кибернетики имеют к ИИ весьма условное отношение. По сути, все сформированные ими кибернетические продукты функционируют по принципу банальной комбинаторики. Конечно, только они могут научить боеголовку попадать точно в цель… А описать смыслы, сущности, творчество и т. д. как продукт человеческого интеллекта, понять их алгоритмическое выражение, это уж точно не их профиль. Это задача ВС. В самом начале, кибернетики решили, что ИИ, это их приз. Поэтому более 60 лет лицо тренда приходится сохранять фигурой речи, а инвестиции осваивать посредством формирования ложных целей.
    «Не то». Количество формулировок ИИ «замылило» суть задачи. Интеллект, это лишь «мыслительное начало», т. е. нечто виртуальное. Это не позволяет конкретизировать цель поиска. Суть в следующем. Пока существует факт выживания и времени, будут существовать риски. Оценка рисков — доминанта функций человеческого (и не только) мозга. Только на первый взгляд деньги, секс, сон, пища или доминирование это просто реализация потребностей. Нет. Вначале всегда идет выбор, то есть аналитика по оценке рисков этих и других процедур. Это факт эволюции. Без этого приложения человек бы не состоялся как вид. Можно заявлять разные цели, но подсознательно эксперты всегда будут конструировать подобие человеческой аналитики. То есть аналитики оценки рисков будущего. Разрабатывать следует не абстрактную сущность ИИ, допускающую манипуляции, а Искусственную Аналитику (ИА), база которой — ВС. Что делает понятными её функции задачи, цели и риски. Зная риски — Вы знаете всё.
    И так — дилемма. Точные науки доминируют в социальной среде в соотношении 90% к 6%, а Теории Пределов и Баланса нет. Кибернетики оказались в теме по ошибке (эффект «ложного следа» от А. Тьюринга), а социологии нет как науки. Пока мы имеем дело лишь с версионными знаниями. Инструменты для решения проблем ИИ лежат в зоне ВС, а её нет по определению. Качество 6% – 8% соц. аналитики это слишком мало для формирования её алгоритмической базы. Мозг, как творческое начало стремительно теряет в весе и уменьшился в среднем на 300 грамм. Почему? Отвечу. Уменьшились социальные риски. Мнения о его качественном улучшении — блеф. Только последние 30 лет компьютеризации сделали его аналитическим банкротом в соц. плане. Ситуация тупиковая для позитивного решения проблемы ИА, и именно поэтому мы приближаемся к 70- летнему юбилею этого неизвестного…
    Предположим нонсенс, ИИ создан. Вопрос, кто его будет обучать (социально адаптировать)? У кибернетиков (или в социуме) что, есть алгоритмы Общей теории социального поля? Причинно — следственных связей? Соц. энтропии, соц. иммунной системы, соц. аудита и т.д., то есть инструментов ВС? Или это потом?..
    Прецедент был… «ящик Пандоры» назывался. С существующим пещерным уровнем соц. аналитики (6-8%) заниматься созданием ИИ то же, что запускать атомную эл. станцию без систем стабилизации и защиты. Технологический вектор темы и роскошное финансирование опережает социальный более чем на 90%. Отсутствие возможности «стендовых испытаний» полуфабрикатов ИИ стимулирует формирование его хищной версии. Вопрос «красной кнопки» (социализации), тупиковый по определению. Поясню. У человека нет технологии понимания будущего. Его предел 6 – 8 минут, т. е. до ближайшего телефонного звонка, всё остальное это продукты синдрома амбициозности или примитивного самомнения. «Слабый ИИ, сильный ИИ и другие страшилки — это аналитическая безграмотность. Даже более примитивный инструмент позволит, например, обрушить мировую КФС, что приведет к соц. переформатированию…
    Сложившаяся ситуация позволяет утверждать, в перечне глобальных рисков ИИ является безоговорочным лидером.
    Крячко Евгений
    kem6656@mail.ru

  3. Евгений

    Что такое Искусственный «Интеллект». Тема 2.
    Научный мир озабочен рисками ИИ. Забавная ситуация сложилась. Нет ни четкой формулировки этого продукта, ни понимания его свойств, нет характеристик и качеств. Нет понимания конечной цели. Но есть чувство опасности. Так бывает. Натворишь чего то, а потом мучаешься смутными сомнениями, страхи гнетут всякие. Здесь следует уточнить. Чувство опасности свойственно только экспертам. Умельцам, которые участвуют в гонке за приз ИИ, которые понятия не имеют о теории Причинно-Следственных Связей, тем более о её алгоритмическом выражении, не дано сомневаться по определению. Другими словами, эксперт — это, прежде всего специалист по рискам продукта и лишь потом, по его сути. Чтобы оценить риски продукта, об архитектуре которого есть только смутное представление, надо выйти за рамки кибернетики. Вот тут следует поговорить о мозге.
    С учетом деградации мозга, как по весу, так и по качеству, выделим главную проблему. Проблему восприятия. Мы легко воспринимаем и адаптируем в себе математические картины полей. На новости высоких технологий, космоса, инженерии, вооружений и т. д. мы реагируем, как правило, «Wow», это круто! Мы можем мирно сомневаться в частностях, но общая картина нам понятна. Абсолютно иначе мы реагируем на социальный вброс. Политика, Трамп, Украина, Крым, Болотная, Сирия, коррупция и т. д. Вначале у нас поднимается давление. Затем, мы начинаем доказывать свою правоту, а если это не получается мы вытаскиваем «маузер», лезем на баррикады и крушим всех и вся. И это при том, что социологию мы можем понимать на 3 -5%. Заметьте, даже против этого утверждения у Вас уже чёткий протест. Парадокс. Социальный антагонизм — это явление, не имеющее ни теории, ни алгоритма, а, следовательно, антидота.
    Конечно, всё дело в мозге. Мозг легко формирует картины, где надо считать, но думать он всегда ленился. Думать и считать, это разные вещи. А поскольку в социологии нет алгоритмов и систем счёта, то мозг «глючит». Для него «стрелять» проще, чем думать. Заметьте, как легко он адаптирует социальную статистику. Это только потому, что там есть цифра. До тех пор пока социология будет версионным знанием, а не точной высокотехнологичной наукой, риск маузера будет всегда рядом. Как устранить гигантский разрыв социальных и технологических знаний (6% к 90%)? Тем самым решить проблемы рисков: «красной кнопки», сингулярности, социализации и т. д? Один из вариантов — «Церебральный Сортинг» (Сергей Савельев). У меня есть вопросы к этому инструменту, но пока это единственный выход устранить эволюционное отставание в социальном восприятии. Развить социологию. Наполнить, так называемый Искусственный Интеллект смыслами и сущностями, переформатировать его в Искусственную Аналитику, тем самым избавиться от тисков комбинаторики.
    Да, пока ИИ, это совершенный калькулятор, хищная версия которого может «выстрелить» в любой момент. В основе мировой экономики стоит КФС, но сделать её лежачей для ИИ элементарно, как и многое другое. Устойчивость мировой КФС, как не парадоксально, пока обеспечивают коэффициенты соц. загрязнения. Своей токсичностью они пока «парализуют» комбинаторную «логику» ИИ. Именно поэтому интуитивные опасения экспертов обоснованы. ИИ умет считать, но думать он не умеет. Думать ИИ могут научить только социологи, т. е. дать исходные алгоритмы. Вопрос в том, что они сами это пока плохо делают. По сути этот материал не для кибернетиков. Здесь будет явное отторжение. Социологам следует вникнуть в суть проблемы, уйти от соц. штампов, матриц и мантр и начать, не ожидая «Церебрального Сортинга» решать проблему ИИ не стандартно. Другими словами сделать ИИ своим призом.
    Крячко Евгений
    kem6656@mail.ru

Добавить комментарий

Ваш e-mail не будет опубликован.