cantanapoli: (Default)
[personal profile] cantanapoli

Насколько я понял из той научно-популярщины которую я прослушал, дальнейшее развитие ИИ не может и не будет идти теми темпами что оно шло до сейчас.

Причина та же самая что у всех технологических кризисов - заканчиваются легкодоступные ресурсы.

Фактически ИИ скормили всю хорошо структурированную и качественную информацию, которая было в свободном доступе.

И дальше, если пытаться улучшать модели за счет тренировки, нужно либо переходить к тяжелой и грязной информации из "нижнего интернета", либо искать совершенно новые ее источники.

В любом случае "легкая руда" уже добыта, и второго такого же быстрого и простого этапа впереди не ожидается.

Date: 2023-11-25 03:47 am (UTC)
From: [identity profile] akor168.livejournal.com
Фактически ИИ скормили всю хорошо структурированную и качественную информацию, которая было в свободном доступе.

Это не просто не так. Это совсем не так. Само по себе интересно, кто распространяет этот тезис.

ИИ скормили лишь небольшой кусочек некопирайтной информации. Мизерную долю книг(доли процента от написанных опять таки по копирайтным соображениям). Большинство классических копирайтных произведений он похоже не читал до сих пор. Это даже видно по его ответам.

Что будет когда ему скормят более менее всё накопленное человечеством не знает никто.

Date: 2023-11-25 11:08 am (UTC)
From: [identity profile] cantanapoli.livejournal.com

Удивлен. По поводу текстовой информации сказать не могу, но то что в плане графики ИИ кормили всеми картинками, включая произведения вполне живых и действующих художников — совершенно точно. Порукой этому многочисленные попытки судится.

Date: 2023-11-25 10:11 pm (UTC)
From: [identity profile] akor168.livejournal.com
И это скорее всего не так. Но здесь информации меньше в отличии к примеру от дата-сета на котором обучали ГПТ-3 (а значит и Чат-ГПТ), который описан.
https://sysblok.ru/linguistics/kak-rabotaet-gpt-3-samaja-prodvinutaja-jazykovaja-model/

Обучающие данные
Размеры модели значительно увеличились за счет набора данных Common Crawl — это веб-архив, собранный с 2011 года и состоящий из почти триллиона слов. Чтобы улучшить среднее качество наборов данных, разработчики сделали следующее:

отфильтровали версию CommonCrawl на основе сходства с рядом высококачественных эталонных корпусов;
выполнили нечеткую дедубликацию на уровне документа (внутри) и между наборами данных, чтобы предотвратить избыточность и сохранить целостность валидационного набора данных, применяемого для оценки переобучения;
для разнообразия добавили известные высококачественные эталонные корпуса в набор тренировочных данных: WebText, содержащий тексты с сайтов, страницы которых были отмечены пользователями, как полезные по контенту; корпуса книг Books1 и Books2; англоязычную Википедию.

Date: 2023-11-25 10:25 pm (UTC)
From: [identity profile] cantanapoli.livejournal.com

Тексты с сайтов — настолько широкое понятие что туда легко могло войти что угодно.

Date: 2023-11-25 11:03 pm (UTC)
From: [identity profile] akor168.livejournal.com
Размер тренировочного сета также описан. Туда банально не могло войти все что угодно — весь тренировочный сет уместится на одном диске — около триллиона токенов. То есть это где то на 3-6 порядков меньш, чем размер всего интернета/накопленного человечеством знаний.
Edited Date: 2023-11-25 11:15 pm (UTC)

Date: 2023-11-25 05:56 am (UTC)
From: [identity profile] roving-wiretrap.livejournal.com

Чего-то быстро кончились структурированные знания. Все книги прочитаны? Весь Интернет изучен? Чего-то не верится. Судя, как минимум, по переводческим программам, это явно не так.


И потом, ИИ может обучаться также, как наш с вами "И" — на основе собственной практики. Шахматные программы могут наращивать свою квалификацию, играя друг с другом. ИИ, управляющий автомобилем, может наращивать свою квалификацию, управляя автомобилем на практике. И т.д.

Date: 2023-11-25 06:57 am (UTC)
vitus_wagner: My photo 2005 (white)
From: [personal profile] vitus_wagner

Думаю, нас ожидает еще не один скачок. Ведь известно, что человек учится, используя гораздо меньший объем информации, чем сейчас расходуется на обучение нейронок. И вычислительная мощность у него намного меньше. А результаты достигаются гораздо лучшие. Так что еще есть куда расти. Хотя нынешний подход с большими лингвистическими моделями видимо, уже уперся в предел.

Date: 2023-11-25 10:23 pm (UTC)
From: [identity profile] akor168.livejournal.com
Хотя нынешний подход с большими лингвистическими моделями видимо, уже уперся в предел.

Какой предел. Там еще можно масштабировать по нескольку порядков чуть ли не в каждой характеристике современной ЛЛМ
1) размер сети с сотен миллиардов на сотни триллионов и даже дальше
2) размер обучающей выборки — этим системам скормили хорошо если 0.1% накопленной человечеством информации.
3) размер окна контекста — его уже за год увеличили более чем на порядок до 100К и в принципе есть предложения как его делать по сути неограниченным.
И это если не брать во внимание уже придуманные и будущие алгоритмы по оптимизации работы трансформер сетей.

Date: 2023-11-26 07:10 am (UTC)
vitus_wagner: My photo 2005 (white)
From: [personal profile] vitus_wagner

Увеличивать модель дальше не имеет смысла. Нет столько данных для обучения, чтобы эта разница в масштабах сыграла.


Большая часть накопленной человечеством информации — это белый шум и бред. Теодор Старджон говорил что 90% всего опубликованного — дерьмо. Но он это говорил про опубликованное. Т.е. отобранное редакторами и ими же вычитанное. В современном интернете куда пишут без редактуры и цензуры дерьма как раз примерно 99.9%.


Date: 2023-11-26 12:39 pm (UTC)
From: [identity profile] abolin.livejournal.com

Ну, да — самый начитанный человек за всю жизнь просматривает от силы несколько тысяч книг, а наизусть — знает радикально меньше. Если "модель мозгов" уже "выучила" сотни или даже тысячи книг, то проблема, видимо — с моделью, а не с количеством информации

Date: 2023-11-26 09:56 pm (UTC)
From: [identity profile] akor168.livejournal.com
чтобы эта разница в масштабах сыграла.

Эта разница уже сыграла. Системы уровня ГПТ-2 были лишь забавными игрушками, а про существование OpenAI никто толком и не знал. Фрики какие-то. Они скорее всего сами не верили, но что-то надо было делать.

Date: 2023-11-27 06:37 am (UTC)
vitus_wagner: My photo 2005 (white)
From: [personal profile] vitus_wagner

Вот она уже сыграла. Это отыгранная карта, в отбой ушла. Следующий раз она же уже не сыграет.

Date: 2023-11-25 10:37 pm (UTC)
From: [identity profile] akor168.livejournal.com
https://antimeridiem.livejournal.com/2324536.html

Вот очень хорошая демонстрация, что система уровня ЧатГПТ не читала исходных произведений, но что-то слышала про них и активно галлюционирует на тему.

Profile

cantanapoli: (Default)
cantanapoli

January 2026

S M T W T F S
     1 23
456 7 89 10
11121314151617
18192021222324
25262728293031
Page generated Jan. 12th, 2026 06:00 am
Powered by Dreamwidth Studios