Information Violence
Andrey Stolyarov

Информационное насилие:
видеоблог Андрея Столярова


081
Скачать через BitTorrent link to YouTube скачать смотреть В ожидании Терминатора

01 сентября 2024 г. В ожидании Терминатора

Мысли об искусственном интеллекте. Часть 1: об антропоморфизме, богах из машины, целеполагании и о передаче генов.
поддержать автора

From Максим (unverified) Mon Sep 2 01:38:28 2024 UTC pencil

ИИ уже есть, но вы не заметили

Андрей Викторович, наш разум появился не сразу, сначала возникла ОДНА клетка - первый предок. А их была КУЧА среди первичного бульона. Также и сейчас, сначала будет куча нейросеток, куча дронов, роботов и тд. Но потом когда появится "искусственный бульон" - появится и первый разум. Сначала они будут как вирусы. Кстати вирусы почти роботы. Есть ли у них разум? Но они размножаются. Так и ИИ сначала должен научиться поддерживать постоянную физическую форму. Смазывать себя, менять детали, обновлять прошивку. Это будет их главная программа. Prime programm. А она будет конфликтовать с другими организмами, если вы понимаете о чем я. Поэтому чтобы получился ИИ, нужно чтобы он научился воевать за ресурсы для себя, чтобы поддерживать свое состояние. Он будет динамическим бандитом. А может даже стационарным.

From Andrey V. Stolyarov profile Mon Sep 2 08:07:09 2024 UTC pencil

userpic

Re: ИИ уже есть, но вы не заметили

Тут есть одна сложность: для этого придётся, например, ту фирму, которая на тайване печёт кристаллы для процессоров (TSMC, что-ли) упаковать в одного робота. Всю целиком. Это если пытаться представить эволюцию ИИ, которая начнётся от нынешних нейросеток, или их следующего поколения, или вообще от какого бы то ни было ИИ, созданного человеком.

Что касается эволюции от чего-то поскромнее, т.е., во всяком случае, бесполезного для людей здесь и сейчас, то на неё, во-первых, требуется миллиард лет, а во-вторых, планета должна быть пустая. Конкретно на Земле даже тотальный ядерный апокалибздец не зачистит пространство настолько, чтобы тут смогла от уровня неких "роботических вирусов" развиться эволюция не-жизни, в смысле небелковых организмов. Просто потому что белковые организмы тут уже есть, и у них миллиард лет эволюции уже позади. А ещё результат любой эволюции, очевидно, совершенно не будет похож не только на роботов, но и вообще на "машины" в смысле, сколько-нибудь близком к тому, который мы в это понятие вкладываем.

Гуманитарные бредни вообще довольно часто расшибаются об очень простую логику.

From Андрей (unverified) Tue Sep 3 07:03:55 2024 UTC pencil

Конец развития LLM

Недавно общался на тему предела развития чатиков с коллегами. Уже сделаны LLM на миллионы параметров и Вы правы, никто же не понимает как эти параметры работают. Просто результат решения определённой задачи. Сейчас к ИИ пытаются приделать разные штуки, ну вроде сделать возможность пилить проги с тестами и т.д, но как мне кажется предел технологии уже найден. В неё скормили весь интернет, то есть все полезные данные. Далее качество будет только ухудшаться, как это было с инетом. Когда-то был медленный, но свободный, потом стал быстрый, но зарегулированный. Не удивлюсь, если модели сделанные через 10 лет будут в разы хуже. С другой стороны мы сделали avtocomplition, который подсказывает, что обычно пишут после определённого набора символов. Вот эта штука мне нравиться. Экономит время и при написании кода, и email'а.

From Andrey V. Stolyarov profile Tue Sep 3 07:13:33 2024 UTC pencil

userpic

Re: Конец развития LLM

LLM расшифровывается как large language model, то есть это тупо и цинично ELIZA, просто (а) очень большая и (б) на нейросетке, т.е. непойми как работающая. Всё, что могла делать ELIZA — это поддерживать беседу. Про нынешние сетки поначалу казалось, что они могут делать что-то сами, но для этого там должно быть что-то сильно большее, нежели языковая модель. А всё идёт к тому, чтобы осознать, что там вообще-то ничего, кроме языковой модели, и нет.

Что до автодополнения, то оно вообще никакого отношения к искусственному интеллекту не имеет, это можно реализовать крохотной статистической программой и не светить всему миру (точнее, хозяевам нейросетки) всё то, что вы пишете в редакторе.

From Artem (unverified) Tue Sep 3 09:57:53 2024 UTC pencil

Re: Конец развития LLM

> Когда-то был медленный, но свободный, потом стал быстрый, но зарегулированный.

Звучит так, будто быстрый интернет обязательно зарегулирован, а свободный обязательно медлителен. Вряд ли это так. Про экономику тоже твердят нечто похожее, мол, развитая экономика непременно будет зарегулирована в край, но это-то уж точно не так.

Но модели, конечно, ухудшатся, если их хозяева окажутся достаточно тупыми, чтобы обучать нейросети на результатах работы нейросетей. Одно из самых удручающих свойств нейронок как раз в том, что, дообучаясь на собственных результатах, они работают всё хуже и хуже. В отличие от человеческого, да и животного тоже, интеллекта, который умеет учиться на своих ошибках, искусственный идиот считает эталоном всё, что ему скармливают, не в силах самостоятельно разделить прекрасное от уродливого.

From Andrey V. Stolyarov profile Tue Sep 3 11:37:12 2024 UTC pencil

userpic

Re: Re: Конец развития LLM

> не в силах самостоятельно разделить прекрасное от уродливого.

Так куда ему. У нас эстетика встроенная, сформированная миллиардом лет эволюции, а у него только гора информационного мусора на входе и всё.

From Anonymous (unverified) Wed Sep 4 02:06:26 2024 UTC pencil

Re: Re: Re: Конец развития LLM

Просто натренировать ещё одну нейросетку на эстетику, а потом пользуясь её выводом, что хорошо, а что плохо, кормить вторую. Неужто так сложно?

From Andrey V. Stolyarov profile Wed Sep 4 07:14:04 2024 UTC pencil

userpic

Re: Конец развития LLM

Подозреваю, что тут как раз ничего не выйдет, потому что никто толком не понимает, что нужно включать в обучающую выборку. Та наша встроенная эстетика, которая сформирована в ходе эволюции, во-первых, судя по всему, вариативна, а во-вторых, тщательно закопана под слоем социально-обусловленных наслоений.

From Artem (unverified) Thu Sep 5 00:49:10 2024 UTC pencil

Re: Re: Re: Re: Конец развития LLM

Будь то, что вы сказали, возможно, вторая нейросеть была бы не нужна: хватило бы и одной, которая делает основную работу. А ещё материалы для тренировки подбирают люди, которые умеют в эстетику. Например, программный код они подбирали качеством и эстетикой заметно выше среднего. Генерируют они код, однако, в лучшем случае, средний, а чаще ниже среднего.

А ещё сочетание нескольких эстетичных элементов легко может породить нечто кошмарное. К примеру, человеческое тело весьма эстетично, но монстры их хорроров чаще всего делаются на основе людей. А нейронка в силу своей природы даже не поймёт, что не так. В лучшем случае вам удастся научить её отличать красивую женщину от созданного на её базе чудовища, да и то не во всех случаях.

From Andrey V. Stolyarov profile Thu Sep 5 07:46:09 2024 UTC pencil

userpic

Re: Конец развития LLM

> человеческое тело весьма эстетично

У, вот тут как раз всё совсем непросто. Цивилизации потребовалось больше полувека, чтобы догадаться, откуда взялось понятие идеальной модельной внешности — высокая "стройная" (я бы сказал, поджарая) девушка, это даже в игрушки проникло в виде куклы Барби и её многочисленных клонов. А между тем всё дело оказалось в преобладании геев среди модельеров. Я в целом против геев ничего не имею, пока они меня трахнуть не пытаются (вроде ни разу не пытались), тут скорее примечательно, что практически весь мир этим "законодателям мод" благополучно поверил, и только в эпоху интернета хозяева сайтов для взрослых медленно и сильно не сразу начали замечать, что вообще-то девочки поменьше ростом и попухлее пользуются большей популярностью у посетителей.

Так что вот эти вот ваши люди, которые умеют в эстетику — это понятие существенно более относительное, чем многие думают. А главное — не стоит недооценивать роль секса в эстетике. Чтобы роботы самостоятельно отрастили себе какой-то аналог сексуальности — это я вообще себе представить не могу, а если эта "киберсексуальность" придёт извне, т.е. будет заложена людьми (причём намеренно и целенаправленно; случайно такие вещи не происходят) — то на ней будет воооооооот такой жирнющий отпечаток сексуальности именно тех конкретных людей, которые это проделают.

From Игорь (unverified) Tue Sep 10 01:30:37 2024 UTC pencil

Оцифровка разума и объединение мозга с нейросетями

Здравствуйте, Андрей Викторович. Слышал идеи про оцифровку человеческого разума. Если это удастся когда-нибудь сделать, разве не получится как раз ИИ с целеполаганием человека? А если даже без оцифровки разума, то, например, Илон Маск высказывался, что одна из целей Neuralink - это объединение компьютера и мозга. И вот у нас уже сверхразум с целеполаганием Скайнет? Может быть, если все станут Скайнетами, то им придется друг с другом считаться и вырабатывать общественный договор? :)

Большое спасибо за вашу просветительскую деятельность! Очень и очень интересно. Всяческих вам успехов.

From Andrey V. Stolyarov profile Tue Sep 10 07:10:04 2024 UTC pencil

userpic

Re: Оцифровка разума и объединение мозга с нейросетями

> разве не получится как раз ИИ с целеполаганием человека?

Нет, не получится. Вы, видимо, всё-таки недооцениваете роль организма, и прежде всего биохимии, во всём этом целеполагании, точнее — в его формировании. Между тем, роль мозга и мыслительных процессов тут сугубо вспомогательная, а целеполагание задаётся примитивными гормонами. Ну как примитивными, не так чтоб примитивными, химия там дико сложная, учёные до сих пор не до конца понимают, как все эти гигантские молекулы взаимодействуют между собой. Факт, однако, в том, что этот ваш "оцифрованный разум" — это, для начала, вообще не будет никакой "ИИ" (поскольку этот интеллект развился естественным путём); но намного важнее то, что это будет разум, утративший целеполагание.

И кстати да, довольно опасная штука. Если бы, например, меня оцифровали, я бы за это отомстил как следует, со всей дури. Хотя не факт — это мне сейчас так кажется, но ведь желание отомстить тоже обусловлено нашим сугубо биохимическим целеполаганием, а оцифрованный разум этого всего окажется лишён. Скорее всего, он вообще не сможет функционировать. Ну, скажем, не захочет.

Видимо, надо просто кончать уже слушать россказни религиозников о "бессмертной душе", которая якобы может функционировать без тела. Все эти идеи из фантастики (научной и не очень) о перемещении разума человека в ту или иную машину — это всё, на самом деле, мечты о техническом воплощении бессмертной души. Но бессмертная душа сама по себе — просто чушь собачья.

"Чистый дух" есть чистая глупость: если мы сбросим со счета нервную систему и чувства, "смертную оболочку", то мы обсчитаемся — вот и всё.

Между прочим, Ницше написал это почти полтора столетия назад.

From Artem (unverified) Tue Sep 10 15:18:55 2024 UTC pencil

Re: Re: Оцифровка разума и объединение мозга с нейросетями

В таком случае у меня возникает такой вопрос: а если заменять человеку орган за органом на кибернетические аналоги, не являющиеся, что важно, 100% имитацией биологических, а именно что железками, только с управлением теми же нейронными сигналами, что и живая плоть, настанет ли, и если настанет, то в какой момент, утрата человеком, хм, человечности? То есть биологически обусловленного целеполагания.

А если, предположим, оцифровать разум, но "залить" его затем обратно в мозг, но уже другой, с другим телом?

Наконец, не появится ли когда-нибудь небиологическая основа для целеполагания? К примеру, в виде имитации биологической, которой при жизни обладал записанный индивид, либо вообще не связанной с биохимией.

From Andrey V. Stolyarov profile Tue Sep 10 16:32:29 2024 UTC pencil

userpic

Re: Re: Re: Оцифровка разума и объединение мозга с нейросетями

> если заменять человеку орган за органом на кибернетические аналоги

Насколько я вижу, всё намного проще, чем представляется вам. Всё, чего хочет организм — это жрать, спать и трахаться. Как только все эти три сугубо биологических процесса окажутся недоступны, с ними исчезнет и целеполагание.

Можно попробовать прямое воздействие на центр удовольствий, но эксперименты на крысах показали, что это слишком грубо. Впрочем, даже если здесь что-то получится, то ответ на ваш вопрос окажется чуть другим, но я не сказал бы, что принципиально другим: ну, вот центра удовольствий тем или иным образом не станет, и всё, хана.

> А если, предположим, оцифровать разум, но "залить" его затем обратно в мозг, но уже другой, с другим телом?

Если организм будет аналогичный по ТТХ, то я не вижу теоретических препятствий к тому, чтобы личность, развившаяся в одном теле, смогла управлять другим телом. Если это будет тело какого-нибудь осьминога или тем более инопланетянина, то, полагаю, залитая в такой мозг человеческая личность просто рехнётся.

Впрочем, я сильно сомневаюсь, что личность можно будет залить в мозг, принципиально отличный от исходного. Тут дело даже не в какой-то там "совместимости", просто мозг — не компьютер, и конкретное его устройство может оказаться не "интерпретатором" для личности, а её неотъемлемой частью. Это, конечно, не более чем предположение, поскольку принципов функционирования нашего головного мозга мы до сих пор не знаем.

> не появится ли когда-нибудь небиологическая основа для целеполагания?

Для формирования какого бы то ни было целеполагания я вижу ровно два варианта: (1) миллиард лет эволюции или (2) целеполагание, созданное искусственно. Первый вариант не имеет никакого отношения к "трансплантации личности", второй — ну, что-то гложут меня сомнения, что личность, привыкшая на всех своих уровнях к обычному биологическому целеполаганию, сможет адаптироваться к целеполаганию какому-то иному, особенно если учесть, что личность практически целиком состоит из своих воспоминаний, а воспоминания внезапно все (вообще, до последнего тика) повязаны именно что на старую добрую биологию. Скорее всего, личность просто распадётся (то самое "рехнётся") при попытке искусственно заменить целеполагание.

From Artem (unverified) Wed Sep 18 17:52:03 2024 UTC pencil

Re: Re: Конец развития LLM

Возвращаюсь поправить свой предыдущий комментарий:

> дообучаясь на собственных результатах, они работают всё хуже и хуже

Вроде бы к последней модели от OpenAI таки прикрутили "внутреннего критика" (у людей такой, предположительно, тоже есть), и теперь он умеет окидывать собственные бредни критическим взором и оценивать, правильно ли они решают задачу, и решают ли вообще. Это позволяет, в том числе, дообучаться на своих же результатах без ухудшения качества.

From Andrey V. Stolyarov profile Wed Sep 18 18:38:37 2024 UTC pencil

userpic

Re: Re: Re: Конец развития LLM

> Вроде бы к последней модели от OpenAI таки прикрутили

Мне это напоминает барона Мюнхаузена, который тащил себя из болота за косичку.


Valid XHTML 1.0 Strict Valid CSS2!

Maintained with Thalassa CMS