Киевская правда

Вчені розповіли про нову небезпеку штучного інтелекту

Вчені з Великої Британії та Канади вирішили дослідити, що буде, якщо контент, згенерований штучним інтелектом, почне розповсюджуватись по інтернету, а інші моделі ШІ навчатимуться на ньому, а не на створеному людиною. За словами дослідників, це призведе до появи «незворотних дефектів» у моделях, що отримуються, повідомляє Venture beat.
[see_also ids=»548661″]
У ході дослідження вчені розглядали генеративні моделі штучного інтелекту, які можуть створювати тексти на підставі введених слів та зображення на підставі наведених картинок. Вони дійшли висновку, що «навчання з урахуванням даних, створених іншими моделями, призводить до колапсу моделі — дегенеративного процесу, у якому згодом моделі забувають справжній базовий розподіл даних…». Вони додають, що це неминуче навіть у випадках із «майже ідеальними умовами для довгострокового навчання».
Вчені відзначають, що згодом помилки накопичуються, через що моделі ШІ, які навчаються на отриманих даних, ще більш неправильно сприймають навколишній світ.
«Ми були здивовані, побачивши, як швидко відбувається колапс моделі: вони можуть швидко забути більшу частину вихідних даних, на основі яких вони спочатку навчалися», — заявив один із авторів нового дослідження Ілля Шумайлов.
Простими словами, що більше модель ШІ навчається на даних, згенерованих іншими нейромережами, то більше помилок вона допускає у виробленому контенті, та її відповіді стають менш різноманітними.
«Так само, як ми закидали океани пластиковим сміттям і наповнили атмосферу вуглекислим газом, ми збираємося заповнити інтернет будь-якою нісенітницею. Це ускладнить навчання нових моделей шляхом парсингу веб-сторінок, що дасть перевагу фірмам, які вже зробили це або контролюють доступ до людських інтерфейсів у масштабі. Справді, ми вже бачимо, як стартапи в області ШІ забивають інтернет-архів для отримання навчальних даних», — заявив інший автор дослідження Росс Андерсон, професор техніки безпеки у Кембриджському та Единбурзькому університетах.
Раніше ізраїльський історик і футуролог Юваль Ной Харарі заявив про те, що для того, щоб штучний інтелект став загрозою для виживання людської цивілізації, він не повинен ні мати свідомості, ні бути здатним керувати об’єктами фізичного світу. Водночас, за словами вченого, ШІ вже зміг «зламати операційну систему людської цивілізації».