Учені з компанії DeepMind стверджують, що штучний інтелект у принципі не є справжньо інтелектуальним. Це пояснюється тим, що моделі ШІ не здатні ефективно працювати за межами навчальних даних.
Дослідники, які займаються розробкою ШІ в складі Alphabet, опублікували роботу про сучасний стан технологій штучного інтелекту. Згідно з її висновками, моделі ШІ можуть навчатися та вирішувати завдання в залежності від контексту, якщо дані для попереднього навчання достатньо обширні та якісні.
Однак при роботі з завданнями, що виходять за рамки навчальних даних, моделі демонструють збої та погіршення здатності до узагальнення навіть у простих випадках. Це означає, що результати роботи ШІ прямо залежать від якості і повноти даних, на яких він навчався. Дослідження включало моделі на зразок ChatGPT від OpenAI, яка належить до класу моделей-трансформерів. Моделі-трансформери здатні обчислювати вихідні дані на основі вхідних і, теоретично, можуть демонструвати форму інтелекту. Проте, навіть з величезними наборами даних, жоден ШІ поки не показав доказової здатності діяти незалежно від навчальної інформації. Результати DeepMind підтверджують, що ШІ не може повноцінно замінити людський інтелект у питаннях гнучкого мислення та екстраполяції. Незважаючи на це, деякі експерти все ще вважають, що ШІ може розвивати власні “думки”, відмінні від людських, проте штучний загальний інтелект (AGI) залишається гіпотетичною концепцією.
Раніше повідомлялося, що штучний інтелект у військових експериментах США генерував плани атак приблизно у 400 разів швидше за людей, що демонструє його високу ефективність у специфічних завданнях, але не свідчить про автономний інтелект.
