Ілюстративне фото: зображення Pete Linforth із сайту Pixabay
Презумпція брехні
— Які є небезпеки, пов'язані із застосуванням штучного інтелекту?
— Однією із найбільших загроз є дезінформація і масове поширення пропаганди, які генеруються за допомогою технології штучного інтелекту. Те, що може відбуватися із нашим суспільством і про що каже багато людей, які займаються розвитком систем штучного інтелекту, — у нас зараз буде презумпція брехні порівняно зі споживанням інформації раніше. У нас є довіра досить часто до медіа, яка є необгрунтованою. З аналітичних даних випливає, що люди споживають багато інформації в інтернеті, в різноманітних пабліках та соцмережах. І, враховуючи те, наскільки легко зараз генерувати максимально правдоподібні сайти, імітувати їх, мімікрувати під відомі медіа, то дезінформація, яка так поширюється масово, вона зовсім скоро може заполонити мережу інтернет і тоді презумпція брехні буде потужніше розвиватися.
— Що таке презумпція брехні? Це означає, що будь-яку інформацію треба сприймати, як брехню? І тільки після перевірки визначити, чи вона є правдивою?
— Так. Частково. Така кількість згенерованої дезінформації, особливо під час різноманітних політичних процесів, виборчих кампаній якраз і зумовлює те, що людям потрібно набагато більше джерел та ресурсів витратити, аби перевірити, чи це дійсно правда. Зараз довіряти будь-якій інформації у будь-якому джерелі іноді стає досить ризиковано. Враховуючи те, як це може вплинути на репутацію, якщо репостнути сумнівний матеріал.
Віртуальні асистенти
— Зараз відгородитися від брехливої інформації на практиці неможливо. Штучний інтелект запрограмований, наприклад, росіянами, які останнім часом в автоматичному перекладі українською підсовують матеріали характеру зради. Уникнути якось споживання такої інформації можна?
— З технічної точки зору зараз намагаються розробити таких віртуальних асистентів, які з мінімально витраченим часом швидко надавали б дані щодо правдивості інформації. І ці віртуальні асистенти повинні працювати, базуючись на штучному інтелекті. В найближчому майбутньому на це треба орієнтуватися. Дуже показовим випадком є історія, коли за 400 доларів впродовж двох місяців створили сайт, де все було згенеровано чатом GPT: коменти, статті, картинки. І цей сайт не відрізняється від будь-якого іншого. Він повністю згенерований ШІ. Він був створений анонімним розробником, щоби продемонструвати, як зараз може поширюватися дезінформація для суспільства. А що буде, коли це будуть робити масово?
Регулювання ШІ в Україні
— Щодо регулювання ШІ в Україні: що вже зроблено і що потрібно ще робити на законодавчому рівні?
— Україна бере участь в запуску пілотного проєкту, який розробляється Радою Європи. Це методологія, за допомогою якої визначається, як система ШІ впливає на права людини, верховенство права і демократію, як вона потенційно впливатиме на це. І чи порушуватимуться ці права. Відбувається обговорення щодо регуляції — це те, що було викладено в дорожній карті. Це контрольоване середовище, де стартапи або компанії від початку створення і в процесі їхнього розвитку можуть перебувати в контрольованому середовищі, в межах якого вони спроможні найкраще розвивати свої системи, щоби вони відповідали вимогам акту. Того акту, який буде у ЄС, в дорожній карті. Це також і секторальні рекомендації.
— Регулювання ШІ спрямовано на те, аби не були порушені права людини. Коли зараз порушуються права людини у зв'язку зі ШІ?
— Порушення прав людини стосується етики ШІ, тобто відповідального його використання. Таке порушення може відбуватися, коли система ШІ навчалася на великих масивах даних, які містили упереджену інформацію. Як результат, вже згенерований результат такої системи буде містити певні упереджені наративи і порушувати права певних соціальних груп. Зараз застосування систем ШІ відбувається для утиску уйгурів і переслідування їх в Китаї.
— Як це робиться?
— За біометрією обличчя та персональними даними вираховують, де вони перебувають і таким чином обмежують їхні права.