Върху какво се обучават невронните мрежи, генериращи картинки по зададени параметри? Върху картинки, които вече са налични в интернет. А с какво все по-бързо се запълва интернет? С картинки, създадени от невронни мрежи.
Следващите поколения изкуствен интелект практически ще се обучават на несъвършените произведения на предходните поколения ИИ, казват учени от няколко видни изследователски центъра, които правят общо изследване по темата. Материал за техните проучвания е публикуван в изданието „Атлантик“.
Според изследователите, сегашната форма на самообучение на изкуствения интелект е дегенеративен процес. Те са провели експеримент, в който последователно са захранвали алгоритъма с негови собствени произведения, като след няколко етапа той е започнал да предлага абсолютно безсмислен текст.
В зората на развитието си невронните мрежи поглъщаха данни от сайтове като Уикипедия, „Гети имиджес“ и подобни. Те изучаваха това съдържание, за да генерират собствени текстове и изображения. След това изкуственият интелект продължи обучението си с всичко, което намери в интернет, като обработва големи количества данни и търси закономерности в тях. Но в интернет вече има огромно количество данни, създадени от самите невронни мрежи. Когато те спрат да различават сътвореното от човека от сътвореното от себе си, ще настане истински ад, твърдят изследователите.
Засега почти всички създадени от изкуствен интелект продукти – визуални или словесни – поразяват със своята преднамереност, абсурдност и несъответствие с реалността.
Иля Шумайлов, учен от Оскфордския университет, е категоричен – днешните грешки на ИИ ще преминат в следващите версии на програмите и количеството им ще се увеличава. Учените дори са използвали думата „деменция“ за описание на процеса, но после са я премахнали заради основателна критика, че ИИ е оприличен на стареещ човек.
Изкуственият интелект отговаря на ползвателя с отговор, който изглежда статистически най-вероятен. Това означава, че явления, които му се струват по-малко вероятни, независимо дали е заради грешка на алгоритъма или неподходящ подбор на данни, все по-често ще се появяват в резултатите и това ще доведе до неадекватно отразяване на многоликия свят, казват учените. ИИ ще пренебрегва нестандартните изрази, странните визуални форми, а при изобразяване на хора ще предпочита светлокожите. Всеки следващ ИИ, който ще се обучава върху отминал изкуствен интелект, ще губи информация за редки и необичайни явления и това ще се задълбочава.
Това вече се забелязва – чатботовете, обучени от расистките ранни версии на ChatGPT все по-често определят всеки образ на мюсюлманин като „терорист“.
Николас Паперно от университета на Торонто твърде, че в крайна сметка машината ще сметне за „статистически вярно“ съобщение, което за нас ще изглежда несвързано.
Учените наричат този процес още „прогресиращ канибализъм“, който не оставя след себе си нищо съществено.
За да бъдем още по-добри...
За да бъдем още по-добри и да продължим да бъдем независима медия, не можем да го направим без вас - подкрепете „Площад Славейков“!
Банковата ни сметка (в лева/BGN)
Площад Славейков ЕООД
IBAN: BG98UBBS80021093830440
BIC: UBBSBGSF
Банка: ОББ
Основание: Дарение