Публікуючи минулого місяця матеріал про онлайн курс «Використання штучного інтелекту у роботі медіа», що його проводив Український інститут підвищення кваліфікації працівників телебачення, радіомовлення і преси, ми анонсували, що буде і продовження. Нагадуємо, що нові знання викликали у більшості журналістів справжній захват. Та його дещо остудив огляд рекомендацій стосовно використання ШІ Комісії з журналістської етики та Національної ради з питань телебачення і радіомовлення, з яким виступила перед учасниками членкиня цієї Комісії, перша секретар Національної спілки журналістів України Ліна Кущ. Далі – основне з її виступу.
Ця тема недарма викликає величезну зацікавленість, адже це зовсім нове поле, на яке ми ступаємо. Я ж буду говорити не лише як людина, яка спробувала різні додатки з штучним інтелектом і різні види штучного інтелекту. А й як перша секретар Національної спілки журналістів України та членкиня Комісії з журналістської етики, котра в жовтні минулого року першою в Україні розробила рекомендації щодо застосування журналістами штучного інтелекту. Перш за все я закликаю всіх вивчати, знати і використовувати нові можливості, які надає штучний інтелект, точніше – його генеративні моделі, які стартували у 2022 році і спричинили своєрідний вибух в інформаційній сфері. Але при цьому варто враховувати цілу низку ризиків, про які йтиметься далі.
Отже, ці моделі можуть створити текст, який дуже схожий на аналогічні тексти в інших медіа. Цей текст може бути навіть кращий, ніж пише хтось із ваших авторів. Але моделі ШІ не здатні відрізняти правду від брехні, плагіат – від оригінального тексту, не здатні перевіряти факти так, як журналіст, не здатні критично мислити і уникати упереджень. Це все недоліки штучного інтелекту на фоні його вміння красиво і доречно складати слова в речення, а речення в абзаци. Друге, як я вже говорила – нездатність ШІ перевіряти факти, як журналіст, і нездатність нести відповідальність за перевірку тих чи інших фактів. Тому відповідальність за журналістський матеріал, написаний з допомогою ШІ текст, створене фото чи відео лежать винятково на редакції і авторі. Якщо немає редакційного контролю, якщо це автоматично створюється і поститься штучним інтелектом, приміром, стрічка новин, то відповідальність лежить на тій людині, яка очолює редакцію. Не можна перекладати відповідальність на самі додатки, тобто на машинні технології, вона завжди за журналістами.
Третє. В іноземних медіа раніше за українські почали розвивати різні політики використання штучного інтелекту, встановлювати різні правила, і я вивчала багато таких політик. Зокрема, міжнародних інформаційних агенцій Reuters та Associated Press, спілкувалася під час конференцій з колегами з Данії, Швеції, Німеччини про їхню практику. Так от, єдиного підходу щодо ШІ немає. В деяких редакціях дозволяється журналістам користуватися штучним інтелектом лише для генерування ідей та заголовків, і все. А в інших медіа співробітники можуть ширше експериментувати з генеративними моделями ШІ. Найбільш суворі в цьому питанні інформаційні агенції, чия конкурентна перевага – це швидкість і ексклюзив. Вони не довіряють штучному інтелекту такі речі з двох причин. Перша причина, яку озвучила представниця Politico, одного з найпопулярніших видань у Нідерландах, це те, що вони не хочуть навчати штучний інтелект завдяки роботі своїх журналістів. Адже все, що ви туди вводите і завантажуєте, весь зміст вашого спілкування з ним – це все навчає модель. Наприклад, мій перший досвід з чатом GPT був негативним, бо він дуже погано генерував тексти українською. Однак завдяки тому, що все більше українців стали активно використовувати цей чат, він тепер став досить добре створювати тексти нашою мовою. Його навчили, безкоштовно причому, хоч це коштує грошей. Тож провідні інформаційні агентства не хочуть навчати Ші на роботі своїх журналістів. А ще їхнє застереження в тому, що всі дані, які журналісти можуть завантажувати, це часто чутливі дані, дані з матеріалів, які ще не вийшли, які ще остаточно не перевірені тощо. І ми ж не знаємо, як саме обробляються такі запити, хто має доступ до введених даних, де вони зберігаються і кому потім відправляються, як потім поширюються. А якщо мова йде, скажімо, про журналістів-розслідувачів, то від витоку даних залежить безпека їхніх джерел. Так само журналісти часто працюють з якоюсь ексклюзивною інформацією. І першими її мають побачити редактор та читачі, а не якась машина, інакше невідомо, куди може витекти ця інформація. З усіх цих причин провідні медіа відмовляються від використання штучного інтелекту у повсякденній журналістській роботі.
Наступне застереження Комісії журналістської етики це те, що журналістам не варто використовувати згенеровані ШІ зображення для того, щоб проілюструвати актуальні новини. Ми всі мабуть пам’ятаємо фото хлопчика, начебто потерпілого від обстрілу у Дніпрі, яке виявилося штучно згенерованим зображенням, яке не мало стосунку до того місця, тієї події і потерпілих там людей. Але українцям впродовж останніх більше як двох років вистачає страждань і стресу, щоб їх ще й штучно примножувати. Якщо ж згенероване ШІ зображення є необхідною частиною матеріалу, то необхідно надавати відповідне пояснення для аудиторії. Так само, як і щодо текстів, вказуючи, що матеріал, наприклад, був написаний штучним інтелектом і відредагований працівником редакції. Або, що зображення чи фото було згенероване штучним інтелектом із метою захисту та безпеки джерела інформації. Приміром, якщо ви готуєте матеріал про події чи людей на окупованих територіях і не можете подавати реальні фото та відео. Але кожне таке використання повинно мати обґрунтування, а просто заради гарної картинки цього робити не варто.
Отже, якщо ви використовуєте ШІ, то повинні пояснити і надати попередження, і це – вимога європейського Акту про штучний інтелект, який був ухвалений нещодавно. Цей акт ще має пройти всі рівні імплементації і стосуватиметься країн Євросоюзу. Але Україна, як потенційний член ЄС, думаю, теж його імплементує. А от чого журналістам робити не варто, то це створювати уявлення про штучний інтелект як про авторитетне джерело або експерта. Багато журналістів уже готували матеріали про думку ШІ на ту чи іншу тему ( «Ми запитали у ШІ про те-то, і ось що він відповів…». Але таким чином і створюється уявлення про машину як про експерта в чомусь, насправді ж вона таким не є, а просто вгадує те, про що ви б хотіли почути і дізнатися.
І нарешті я б хотіла зазначити, що на основі рекомендацій Комісії з журналістської етики Міністерство цифрової трансформації України розробило більш широкі рекомендації з використання штучного інтелекту журналістами. І також важливо знати про Паризьку хартію щодо використання ШІ і журналістики, прийняту восени минулого року і підписану 11-ма провідними журналістськими організаціями і асоціаціями, в тому числі Європейською федерацією журналістів, до якої входить НСЖУ. В цій хартії також містяться застереження щодо застосування журналістами різного роду генеративних моделей штучного інтелекту.
В Україні деякі медіа уже прийняли редакційні політики, засновані як на іноземних рекомендаціях, так і на українських. Серед таких, приміром, «Українська правда».
З рекомендаціями Комісії з журналістської етики щодо використання штучного інтелекту для створення журналістських матеріалів можна ознайомитись за цим посиланням – https://cje.org.ua/statements/rekomendatsii-komisii-z-zhurnalistskoi-etyky-shchodo-vykorystannia-shtuchnoho-intelektu-dlia-stvorennia-zhurnalistskykh-materialiv/ .
Ілюстративне фото з Freepik