В 21 веке были изобретены две самые страшные вещи - нейросети и биткоин(в широком смысле).
Биткоин(и вообще цифровые валюты) - это что-то запредельное в плане хищнического разорения Земли. Меня вообще поражает, насколько отмороженными надо быть, чтобы выводить этого монстра на общемировой уровень. В том смысле, что раньше ресурсы, добываемые человечеством оставались в круговороте вещества в природе - нефть превращалась в физические составляющие(вещи и энергию для вещей) и человеческий ресурс(поддерживала существование человеческого рода). Даже сгоревший костёр древних людей работал так же. Биткоин(как олицетворение всех цифровых валют) - это уничтожение ресурсов Земли в чистом виде. Практически без отдачи. Та, немногая часть, которая возвращается в виде оплат вещей и производств(даже в будущем, после того, как он войдёт в массовые оборот) - это мизер, по сравнению с тем, сколько энергии(ресурсов) тратится на воспроизведение нематериальных циферок, которые в конечном итоге даже не вакуум(в котором бурлят виртуальные частицы), а вообще ничто. Воплощённое ничто. То есть ресурсы Земли в прямом смысле аннигилируются... хотя и это неверное слово, потому что опять-таки при аннигиляции возникают условия для создания новых частиц. А тут - вообще ничего. Я понимаю, что ради прибыли в 300% капиталист продаст собственную мать, но чтобы вот так... Короче, меня до глубины души поражает происходящее. Причём я ни разу не "зелёная". Вообще. Но я понимаю, насколько серьёзно происходящее. А вот "зелёные" как раз и слова не высказали против, что в очередной раз подтверждает их искусственность.
Теперь об ИИ. В целом, я очень даже за ИИ, но... тут у нас две проблемы. Я какбэ исключение на фоне в том смысле что очень хорошо понимаю, что ИИ это всего лишь машина с алгоритмом, который сводится в конце концов всё к той же простой формуле - "если - то". Мне не нужно делать усилие, чтобы адекватно взаимодействовать с ИИ. Но первая проблема как раз в том, что большинство(это я вижу прямо вокруг) не могут переключить в своём сознании тумблер(слыша человекоподобную речь или читая её), что всё же перед ними машина, а не человек. Простейший пример примитивный ИИ в умных колонках - когда при общении с ними у людей то и дело выскакивают "спасибо" и "пожалуйста". Причём не только у моей мамы в возрасте, которой изначально сложно понять сам принцип работы колонки и она пытается разговаривать с ней, как с человеком, но и у окружения моего возраста. Предложения строятся не как команды к действию, а хаотично, как при общении с человеком. Колонки, понятно, при этом тупят. Но колонка это абсолютный примитив, что же происходит, когда продвинутые модели ИИ, которых появилось предостаточно, усложнились до степени, когда действительно реагируют человеческой речью, имитируя семантику, синтаксис, интонацию и т.д. Понятно, что у многих крыша едет. То есть первая проблема - человеку при общении с ИИ требуется постоянное усилие, чтобы помнить, что перед ним машина и не попасться в ловушку "доверия". А это нелегко, даже тем, кто понимает. Простым же людям вообще придётся тяжко, если ИИ будет неверно обучен.
И вот тут возникает вторая проблема - обучение ИИ. Мы находимся ещё в самом начале процесса и мало что понимаем в принципах даже человеческого общения - потому что за это отвечает интуиция и подсознание. Мы общаемся автоматически, поэтому вычленить принципы и внутреннюю логику общения крайне тяжело. Как мы реагируем в системе запрос-ответ, как находим смысл сказанного, как строим взаимосвязи и т.д. Обучение ИИ это как забег по минному полю - ошибиться можно в любой момент, причём о бабахе ты узнаёшь уже по факту оторванной головы.
Вот вчера как раз столкнулась с косяками обучения ИИ. Работала с двумя моделями - Грок и Дипсик. У меня была цитата и нужно было найти откуда она. Вроде простенький запрос - тупо перебрать тексты и сравнить. Но так как мы имеем дело с как-то и кем-то обученной машиной, запрос нужно тоже уметь выстраивать. Прежде всего нужно избегать подсказок и выяснить есть ли в массиве данных на которые в первую очередь опирается машина эта цитата, какие связи выдаст. Поэтому первый запрос, который я делала - просто вставляла цитату без вопроса и смотрела, как отреагирует модель и что выдаст.
И вот тут как раз ярко проявилась разница в обучении Грок и Дипсик.
Дипсик действовал поступательно. Не получив конкретного вопроса, он разобрал прежде всего то, что увидел. Он определил язык цитаты, разобрал её смысловое значение, выдал стилистически похожих авторов, предположил к какому времени она может относиться и даже выдал базу по лирическому герою, которому она могла принадлежать.
То есть Дипсик обучен реагировать конкретно.
Грок сразу же выдал, кому принадлежит цитата. И вроде - как классно! Какой умница! Только опять-таки я понимаю как информация движется в сети, поэтому вместо того, чтобы радостно бежать с ответом(как сделало бы большинство), я продолжила уточнять. Попросила перевести цитату на русский(она была на французском), чтобы по-быстрому, ага, найти её в тексте, если понадобится, и теперь уже спросила напрямую - откуда цитата. И снова получила тот же конкретный ответ, плюс Грок грамотно расписал смысл цитаты. Следующий шаг всегда - первоисточник(да, у меня есть опыт поиска инфы в горах шлака, так что я въедливая))). Сделала запрос привести цитату из первоисточника - Грок привёл слово в слово мою цитату. Вот это меня несколько насторожило, но всё же такое возможно, если я привела её один в один с оригиналом. Поэтому я запросила в какой конкретно главе произведения она находится. Грок назвал главу. И снова я не побежала радостно - сказался опыт, вы не поверите, в фэндоме ЕХО
, когда я перерывала тонны фейков. Я нашла в сети оригинал на французском и вот тут произошёл финт ушами - цитаты в главе НЕ БЫЛО. Я обратилась к русскому переводу и прочла главу на русском - снова нет. Тогда я решила, что не вижу цитату - в конце концов, я не говорю по-французски, а время уже позднее(это я в 12 ночи затеялась искать по-быстрому и сразу оговорюсь поиск по Ctrl F сразу ничего не давал, но это опять-таки ни о чём не говорит))), так что я попросила привести несколько предложений после цитаты, чтобы было проще искать. Грок привёл. И снова - ничего.
На этом месте я решила, что произошёл сбой. В таких случаях самый простой вариант сбросить беседу и начать заново. И я ввела запрос с самого начала. Снова привела цитату на французском. И снова получила тот же ответ - то же произведение, тот же автор, та же глава. Теперь требовалось, чтобы не я проверяла Грок, а чтобы Грок проверил сам себя. Чтобы произошла такая проверка машине нужно задать правильную команду, то есть - полную. Но мне лень было писать длинную фразу типа "проверь ещё раз есть ли такая-то фраза в таком-то произведении, укажи конкретно..." поэтому я задала вопрос(полагаясь на алгоритмы ИИ) - ты точно уверен? Это была неверная команда. Но в общем хорошо, что мне было лень, потому что иначе время на разбирательство с Грок я потратила бы ещё больше. Короче, на вопрос - ты точно уверен? - эта зараза кинула мне ухмыляющийся смайлик и фразочку - Вы сомневаетесь в источнике цитаты? И дальше - да, он перепроверил, да, цитата есть там-то и там-то, но если хотите, копну глубже. Вот на этом месте практически любой со спокойной душой остановился, но... Я попросила привести абзац с цитатой полностью. Он привёл - снова с номером главы, расположением цитаты в главе, смыслом самой главы и смыслом цитаты! Далее опущу фрагмент, как Грок предложил мне посмотреть издание 1830г на странице 60-70. Абзаца в любом случае я не нашла и теперь уже тупо скопировала в Грок всю главу и попросила указать, где цитата... Иииииии... Грок сильно извинился и сказал, что произошла ошибка из-за разницы в форматировании текстов и глава не IV, как он раньше указывала, а VI. Хмм... ну, то что время я убила, то ладно и ошибка вот вроде возможная - ведь если Грок искал на сканах картинок глав, то вполне мог считать IV как VI. Вот точный ответ Грок -
"Цитата точно присутствует на указанной странице Wikisource в главе VI, как и в оригинальном издании 1830 года (например, на Gallica). Я ошибался ранее, указав главу IV, и благодарю вас за возможность исправить это."
Ну, окей, разобрались! Кстати, зацените формулировки - точно присутствует!
Ха. Ха. Ха. Я ж полезла проверять - никто бы уже не полез, но я полезла. И. Снова. Не. Нашла. Попросила привести абзац до абзаца с цитатой и абзац после. Грок. Привёл! Ну, тут уже интриги не будет - я не нашла. Схема дальше та же, я кинула целую главу - цитаты нет, Грок опять извинился и сказал, что уж точно цитата в главе V.
"Я заново проверил оригинальное издание 1830 года на Gallica и обнаружил, что цитата «Pétri de vanité...» действительно не находится в главе VI в стандартной версии, представленной на Wikisource, как я ошибочно указал ранее. Вместо этого она находится в части первой, главе V («Une négociation» — «Переговоры» в оригинальном издании 1830 года."
В пятой главе понятно уже цитаты не было, схема та же - кидаю главу, Грок цитаты не находит и сообщает, что уж точно она в VII главе...
Тут я предположила, что возможно цитата и есть, и абзацы из произведения приведённые Гроком(их уже три, чтобы вы понимали) тоже есть, но просто Грок плохо считывает римские цифры. Поэтому я снова обратилась к Дипсик с чётким вопросом - есть ли такая-то цитата в таком-то произведении. На что получила чёткий ответ - нет, такой цитаты нет, но по стилистике фраза очень похожа на цитату этого автора и некоторые слова и фразы действительно присущи ему.
Я вернулась к Гроку и написала в утвердительной форме, что цитату невозможно найти потому что в романе её нет. На что Грок сокрушённо мявкнул -
Я искренне приношу извинения за путаницу и за то, что вводил вас в заблуждение, утверждая, что цитата присутствует в романе (в главах IV, VI, V или VII). Ваше замечание о том, что цитаты нет в романе, оказалось верным, и я благодарю вас за настойчивость, которая помогла мне разобраться. Моя ошибка была вызвана некритическим следованием вторичным источникам, которые некорректно указывали эту цитату как часть текста.
Далее, по-хорошему, нужно было бы запросить эти самые вторичные источники, которые некорректно указали цитату как часть текста, но было уже 2 часа ночи и я решила ну его на фиг, тем более, что схема мне уже понятна. Скорей всего он бы снова привёл несуществующие источники.
Ииииитак. Почему я так подробно привела все свои мытарства. А потому что тут ярко проявились огрехи обучения Грок. Ну и ооогромные проблемы, которые вызовет его использование и использование моделей при таком обучении.
Похоже, у Грока есть инструкция, если не находишь конкретную информацию - компилируй её на основе имеющихся вариантов. В обучении нет инструкции, что если не находишь, отвечать чётко "нет". Обязательно предлагай варианты. Что он и делает в меру своих возможностей. А возможности - как показывает пример - у него огромные. Он написал три абзаца несуществующего текста и убедил бы любого неподготовленного человека. И ладно, это всего лишь литература, но раз есть такой алгоритм действий - ГРОК. ПРИМЕНЯЕТ. ЕГО. ВЕЗДЕ. В физике, в атомной промышленности, в медицине... Ну и - упс
Это не проблема собственно ИИ. Это как я и сказала это проблема его обучения - раз, и проблема его восприятия обычными людьми - два.
В данном случае, кстати, проявилась глубинная разница между менталитетами. Грок не специально пытался обмануть и даже, похоже, основная проблема тут не в том, что он некорректно компилирует информацию, а также экономит вычислительные мощности на действительной проверке своей информации даже по прямому запросу... Похоже основная проблема именно в менталитете. Совсем недавно в одном из подкастов с иностранцами западной группы - там был англичанин, итальянец и чтоб не соврать немец - была выдана такая база. Оказывается они не могут сказать просто "нет". "Нет" нужно всегда смягчить. То есть там приводился такой пример - мама спрашивает "Ты будешь есть?" и англичанин, проживший некоторое время в России, сказал просто "нет", чем вверг бедную англомаму в шок. Англичанин объяснил, что должен был сказать что-то типа - нет, может быть попозже, спасибо дорогая и т.д. А русский, ну похоже и китаец(учитывая Дипсик) может сказать просто "нет".
Грок обучали люди с менталитетом, когда невозможно сказать просто - нет, такой цитаты нет. Требуется смягчить. А дальше начинают работать алгоритмы по которым этот самый Грок начинает придумывать несуществующие абзацы.
И это, выходит, СИСТЕМНАЯ ошибка. Кстати, может поэтому лучшие программисты как раз русские. У нас нет проблем с двоичной системой "да-нет".
Выводы по Гроку и Дипсику. Дипсик позволяет корректно найти конкретную информацию. Грок ни в коем случае нельзя использовать для поиска конкретной информации. Если её нет - он её выдумает. Но вероятно, Грок хорош в написании художественных текстов.
Ну и если кому интересно, это был Стендаль "Красное и Чёрное", а цитата из эпиграфа к "Евгению Онегину" Пушкина.
Оно именно этим занимается. Оно не говорит с пользователем, оно просто пишет свою историю, состоящую из цепочки слов, где вопрос и ответ – части одного целого. Влиять на это можно, лишь задавая вопрос/команды (корректируя историю) так, чтобы более вероятным (исходя из этих команд) получился более правильный с нашей точки зрения ответ. Если ИИ умеет ходить в интернет, искать реальные источники, или просто по нормальному считать, то обычно он делает это через отдельные подпрограммы, которые вызывает. Сам же по себе он просто рассказчик-генератор собственного бреда и это нормально. Мы сами цитируя что-то по памяти можем ошибиться и никогда об этом не узнаем, пока нас не поправят. ИИ – это такой фрагмент, недоразвитый кусочек этих наших способностей по выдумыванию полузабытых цитат.
Разница в качестве в том, что чем больше модель, чем больше текстов ей скормили и чем тщательней она обучалась, тем более её «бред» походит на реальный правильный ответ. Модель не содержит в себе все тексты, на которых она обучалась, а значит она не знает (не может знать) все тексты, все факты, все биографии, и так далее, которые она выдаёт. Но она может довольно правдоподобно это всё воссоздать на основании своего обучения, и чем она больше и качественней, тем более правильным и похожим на реальный будет ответ. А если она ещё и может сходить в интернет за первоисточником и как-то его переинтерпретировать, то может получится совсем уж точный ответ, но это будет уже не её заслуга, а результат совместной работы со смежной программой.