Софийска филхармония МЕГАБОРД

В „Площад Славейков“ пишат хора, а не изкуствен интелект.

ИИ не успя да отговори на въпрос за първокласници

Елементарна логическа задача затрудни повечето генеративни езикови модели

Чатботът „Gemini“ на Гугъл също не е успял да реши елементарната логическа задача. Снимка: ЕПА/БГНЕС - ИИ не успя да отговори на въпрос за първокласници

Чатботът „Gemini“ на Гугъл също не е успял да реши елементарната логическа задача. Снимка: ЕПА/БГНЕС

Елементарна логическа задача се оказа непосилна за някои от най-популярните езикови модели на изкуствения интелект, доказаха учени от организацията на изследване на ИИ LAION. Статията им по въпроса очаква рецензиране.

Учените са задали на различни модели генеративен ИИ въпроса:

Алиса има Х братя и Y сестри. Колко сестри има братът на Алиса?

Отговорът на простата логическа задача е на ниво на първокласник и всеки човек лесно го решава: например, ако Алиса има трима братя и две сестри, то всеки брат ще има по три сестри – Алиса и още две.

Отговорът обаче е затруднил езиковите модели на OpenAI: GPT-3, GPT-4, Anthropic Claude 3 Opus; „Gemini“ на Гугъл и модела „Llama“ на „Мета“, както и „Mextral“ на Mistral AI, Dbrx на Mosaic и Command R+ на Coher.

Единственият генеративен изкуствен интелект, отговорил правилно на поставената загадка, е новият GPT-4o. Нито един от останалите не е успял да разбере, че Алиса също е сестра на всеки от братята в нейното семейство.

ГРЕДИ АССА. ПЪТУВАНИЯ 27 февруари – 5 май 2024 г.

За да бъдем още по-добри...

За да бъдем още по-добри и да продължим да бъдем независима медия, не можем да го направим без вас - подкрепете „Площад Славейков“!

Банковата ни сметка (в лева/BGN)     С карта през ePay.bg

ДС