Рекомендація CM/Rec (2020)1 від 08.04.2020

Документ мовою оригіналу можна переглянути за посиланням.

 

Рекомендація CM / Rec (2020) 1 Комітету Міністрів державам-членам
щодо впливу алгоритмічних систем на права людини

(Прийнято Комітетом Міністрів 8 квітня 2020 року на 1373 -му засіданні заступників міністрів)

Преамбула

Комітет міністрів, відповідно до положень статті 15. b Статуту Ради Європи,

Враховуючи, що держави-члени Ради Європи зобов’язалися забезпечити права та свободи, закріплені в Конвенції про захист прав людини та основоположних свобод («Конвенція») всім, хто перебуває під їх юрисдикцією, і що цю прихильність покладена в основу протягом безперервних процесів технологічного прогресу та цифрової трансформації, які переживають європейські суспільства;

Повторно підтверджуючи, що, як результат, держави-члени повинні забезпечити, щоб будь-яке проектування, розробка та постійне розгортання алгоритмічних систем відбувалося відповідно до прав людини та основоположних свобод, які є універсальними, неподільними, взаємозалежними та взаємопов’язаними, з метою посилення позитивного впливу та запобігання або мінімізації можливих несприятливих наслідків;

Визнаючи безпрецедентне зростання використання цифрових додатків як найважливіших інструментів повсякденного життя, включаючи комунікації, освіту, охорону здоров’я, економічну діяльність та транспорт, їх зростаючу роль у структурах управління, адміністрування та розподілу ресурсів та те, що наскрізні технології, що використовують алгоритмічні системи з відповідними стимулами, мають потенціал для вирішення важливих проблем, включаючи зміни клімату та сталий розвиток;

Отже, усвідомлюючи розвиваючий вплив, який може бути позитивним чи негативним, що застосування алгоритмічних систем з автоматизованим збором даних, аналітикою, прийняттям рішень, оптимізацією або машинним навчальним потенціалом впливає на здійснення, реалізацію та захист усіх прав людини та основоположних свобод, а також і ті суттєві виклики, що стосуються демократичного суспільства та верховенства права, пов’язаних із зростанням опори на алгоритмічні системи у повсякденному житті;

Підкреслюючи необхідність забезпечити, щоб расові, гендерні та інші соціальні та трудові дисбаланси, які ще не були усунені з наших суспільств, не були навмисно чи випадково утворені за допомогою алгоритмічних систем, а також бажаність усунення цих дисбалансів за допомогою відповідних технологій;

Беручи до уваги, що цифрові технології мають значний потенціал для суспільно корисних інновацій та економічного розвитку, і що ці цілі мають бути пов’язані із спільними цінностями демократичних суспільств та за умови повної демократичної участі та контролю;

Отже, підтверджуючи, що стандарти верховенства права, які регулюють публічні та приватні відносини, такі як законність, прозорість, передбачуваність, підзвітність та контроль, також повинні підтримуватися в контексті алгоритмічних систем;

Враховуючи, що поточні ініціативи публічного та приватного секторів, спрямовані на розробку етичних вказівок та стандартів для проектування, розробки та постійного розгортання алгоритмічних систем, одночасно являючи собою вкрай привітне визнання ризиків, які ці системи становлять для нормативних цінностей, не звільняють держав-членів Ради Європи від своїх зобов’язань як головних оборонців Конвенції;

Нагадуючи про зобов’язання держав-членів відповідно до Конвенції утримуватися від порушень прав людини, в тому числі завдяки алгоритмічним системам, незалежно від того, використовуються вони самі або це відбувається в результаті їх застосування, і їх зобов’язання створити ефективні та передбачувані законодавчі, регуляторні та контрольні рамки, які б запобігали, виявляли, забороняли та виправляли порушення прав людини, незалежно від того, чи виходять вони від публічних або приватних суб’єктів та чи впливають вони на відносини між підприємствами, між підприємствами та споживачами або між підприємствами та іншими дотичними особами та групами;

Підкреслюючи, що держави-члени повинні забезпечити дотримання чинних законодавчих та регуляторних рамок та гарантувати процедурні, організаційні та основні гарантії та доступ до ефективних засобів юридичного захисту стосовно всіх відповідних суб’єктів, водночас сприяючи середовищу, в якому технологічні інновації поважають і розширюють права людини та відповідають фундаментальним зобов’язання, щоб усі обмеження прав людини були необхідними та пропорційними в демократичному суспільстві та здійснювалися відповідно до закону;

Беручи до уваги існуючі та спираючись на регіональні та міжнародні норми, стандарти та рекомендації Ради Європи, які із захистом прав людини та основних свобод у сучасному суспільстві, а також зважаючи на розвиток прецедентної практики Європейського суду з прав людини;

Підкреслюючи особливо важливість існуючих стандартів захисту персональних даних, зокрема Конвенція про захист осіб у зв’язку з автоматизованою обробкою персональних даних (ETS № 108), її модернізацію Протоколом про внесення змін до неї (CETS № 223, відкритого 10.10.2018 для підписання країнами-учасницями Конвенції ETS № 108), підкреслюючи, що вплив алгоритмічних систем на права людини є ширшим і вимагає додаткового захисту;

Крім того, нагадуючи, що суб’єкти приватного сектору, відповідно до Керівних принципів Організації Об’єднаних Націй у сфері бізнесу та прав людини, несуть корпоративну відповідальність за дотримання прав людини своїх клієнтів та всіх дотичних сторін, і що для цього слід використовувати гнучкі моделі управління, які б гарантували швидке та ефективне відшкодування та можливості компенсації у випадку виникнення інцидентів, гарантуючи, що відповідальність та захист прав людини будуть ефективними та чітко розподіленими на всіх етапах процесу, починаючи від стадії пропозиції до ідентифікації завдань, вибору даних, збір та аналіз, моделювання та проектування систем, аж до поточних вимог щодо їх розгортання, огляду та звітності;

Визнаючи той факт, що швидкоплинний соціально-технічний розвиток потребує постійного моніторингу та адаптації застосовних рамок управління задля ефективного захисту прав людини в складних глобальних умовах, і визнаючи необхідність регулярного надання керівних настанов усім відповідним суб’єктам публічного та приватного секторів,

Рекомендує урядам держав-членів:

1. переглянути свої законодавчі рамки та політику, а також власну практику щодо закупівель, проектування, розробки та постійного розгортання алгоритмічних систем, щоб переконатися, що вони відповідають керівним принципам, викладеним в додатку до цієї рекомендації; сприяти їх впровадженню у всіх відповідних сферах та оцінювати ефективність вжитих заходів через регулярні проміжки часу за участі всіх відповідних зацікавлених сторін;

2. забезпечити, щоб ця рекомендація, включаючи керівні принципи в додатку, були перекладені та розповсюджені якомога ширше та усіма доступними засобами серед компетентних органів та зацікавлених сторін (стейкхолдерів), включаючи парламенти, незалежні органи влади, спеціалізовані державні установи, національні установи з прав людини та організації, які опікуються питаннями рівності, організації громадянського суспільства та приватний сектор;

3. забезпечити, через відповідні законодавчі, регуляторні та наглядові рамки, пов’язані з алгоритмічними системами, щоб суб’єкти приватного сектору, які займаються проектуванням, розробкою та постійним впровадженням таких систем, дотримувалися чинних законів та виконували свої обов’язки щодо дотримання прав людини у відповідності з Керівними принципами ООН у сфері бізнесу та прав людини та відповідними регіональними та міжнародними стандартами;

4. наділяти відповідні національні установи з нагляду, контролю, оцінки ризиків та правозастосування необхідними ресурсами та повноваження для розслідування, контролю та координації відповідності їх відповідних законодавчих та регуляторних рамок, відповідно до цієї рекомендації;

5. брати участь у регулярних, всеосяжних та прозорих консультаціях, співпраці та діалозі з усіма відповідними стейкхолдерами (такими як громадянське суспільство, правозахисні організації, приватний сектор, академічна та професійна спільнота, засоби масової інформації, навчальні заклади, публічні бібліотеки, постачальники інфраструктури та основних публічних послуги, включаючи соціяльну допомогу та поліцію), приділяючи при цьому особливу увагу потребам та думці уразливих груп, з метою забезпечення впливу на права людини, що випливає з проектування, розробки та постійного впровадження алгоритмічних систем підлягало всебічному моніторингу, обговоренню та розгляду;

6. визначити пріоритет у галузі експертних знань у публічних та приватних установах, які беруть участь у інтеграції алгоритмічних систем у різні аспекти суспільства з метою ефективного захисту прав людини;

7. заохочувати та сприяти впровадженню ефективних та спеціяльно розроблених програм для ЗМІ про інформаційну та цифрову грамотність для того, щоб усі люди та групи мали можливість

а. розуміти функції та наслідки систем, що використовують автоматизоване прийняття рішень,

б. приймати обґрунтовані рішення під час використання таких систем,

c. користуватися перевагами, що виникають внаслідок використання алгоритмічних систем, та

г. мінімізувати вплив загроз та ризиків, пов’язаних із використанням таких систем,

в ефективній співпраці з усіма відповідними стейкхолдерами, включаючи приватний сектор, засоби масової інформації, громадянське суспільство, навчальні заклади, академічні та технічні установи;

8. враховувати вплив на навколишнє середовище розвитку великомасштабних цифрових послуг та вживати необхідних заходів для оптимізації використання та споживання природних ресурсів та енергії;

9. регулярно переглядати, консультуючись з усіма відповідними суб’єктами, та звітувати на національному рівні так і в межах Комітету міністрів про заходи, що вживаються для виконання цієї рекомендації та її керівних принципів з метою підвищення їх ефективності та адаптації до нових викликів. 

 

Додаток до Рекомендації CM / Rec (2020) 1

Керівні принципи щодо усунення впливу алгоритмічних систем на права людини

 

А. Сфера застосування та контекст

 

1. Ці керівні принципи покликані консультувати країни, а також суб’єктів публічного та приватного секторів у всіх їхніх діях щодо проектування, розробки та постійного розгортання алгоритмічних систем. Для забезпечення ефективного захисту прав людини та основоположних свобод усіх осіб, які закріплені у Конвенції про захист прав людини та основоположних свобод (“Конвенція”) та інших відповідних договорах, протягом усієї технологічної еволюції, держави-члени Ради Європи повинні утримуватися від порушення прав людини через використання алгоритмічних систем, а також розробити законодавчі та регуляторні рамки, що сприяють створенню середовища, коли всі суб’єкти поважають і сприяють правам людини та прагнуть запобігти можливим порушенням. Незалежно від державних зобов’язань та різних юрисдикцій, суб’єкти публічного та приватного секторів несуть відповідальність за дотримання міжнародно визнаних прав людини.

2. Для цілей цієї рекомендації “алгоритмічні системи” розуміються як додатки, які, часто використовуючи методи математичної оптимізації, виконують одне або більше завдань, таких як збір, об’єднання, очищення, сортування, класифікація та виведення даних, а також вибір, визначення пріоритетності, прийняття рекомендацій та прийняття рішень. Спираючись на один або кілька алгоритмів, щоб виконати свої вимоги в умовах, в яких вони застосовуються, алгоритмічні системи автоматизують діяльність таким чином, що дозволяє створювати адаптовані послуги в масштабі та в режимі реального часу .

3. Алгоритмічні системи, які, як правило працюють шляхом виявляння шаблонів у великих базах даних, пропонують потенціал для підвищення продуктивності послуг (особливо за рахунок підвищення точності, адресности та узгодженості), пропонують нові рішення та забезпечують віддачу в ефективності та результативності виконання завдань та продуктивності системи. Вони призвели до величезних удосконалень у категоризації та пошуку цифрової інформації та сприяли важливому прогресу у таких сферах, як медична діагностика, транспорт та логістика, що дозволило розширити та прискорити обмін інформацією в усьому світі та створюючи можливі нові форми співробітництва та координації. Як результат, вони пронизують багато аспектів життя сучасної людини.

4. Однак існують також значні виклики в галузі прав людини, пов’язані зі зростанням залежності від алгоритмічних систем в повсякденному житті, наприклад, щодо права на справедливий суд; право на конфіденційність та захист даних; право на свободу думки, совісті та релігії; право на свободу вираження поглядів; право на свободу зібрань; право на рівне ставлення; економічні та соціальні права. Функціональність алгоритмічних систем здебільшого базується на систематичному агрегуванні та аналізі даних, зібраних за допомогою цифрового відстеження в масштабах онлайн та офлайн ідентифікації та поведінки людей і груп. Окрім вторгнення у приватне життя особи та зростаючого потенціалу високоперсоніфікованих маніпуляцій, відстеження в наведених масштабах може мати серйозний негативний вплив на здійснення прав людини, що повинно враховуватися протягом усього життєвого циклу алгоритмічної системи, починаючи з стадія пропозиції далі.

5. Хоча часто стверджується, що витрати компенсуються за рахунок виграшу у раціоналізації та точності, важливо відзначити, що більшість алгоритмічних систем базуються на статистичних моделях, в яких помилки складають їх неминучу частину, іноді з циклами зворотного зв’язку, які підтримують, повторюють та посилюють попередньо існуючі упередження, помилки та припущення. Хоча може здатися, що більші бази даних забезпечують кращі шанси на пошук повторюваних патернів та кореляцій, темпи точності не збільшуються автоматично із розміром баз даних. Внаслідок великої кількості людей, які постраждали від алгоритмічних систем, кількість помилок у вигляді помилкових позитивних результатів та помилкових негативів, а також людей, які постраждали від цих помилок та вмонтованого упередження, також буде збільшуватися, викликаючи додаткові втручання в здійснення прав людини різними способами.

6. Алгоритмічні системи не обробляють та генерують результати лише на основі персональних даних. Вони також можуть функціонувати на основі даних, що не спостерігалися та не є персональними даними, таких як моделювання, синтетичні дані або узагальнені правила чи процедури. Однак права людини все ще можуть зазнавати негативного впливу від їх використання. Окремі особи та групи, дані яких не оброблялися або які іншим чином не були враховані, можуть бути безпосередньо занепокоєні та зазнати значного впливу, особливо коли алгоритмічні системи використовуються для інформування про прийняття рішень, адаптації рекомендацій або формування фізичного середовища.

7. Багато алгоритмічних систем використовують методи оптимізації, де етапи розробки та впровадження тісно переплітаються. Кожне використання алгоритмічної системи може викликати коригування в її функціонуванні з метою вдосконалення результатів, заснованих на вузькому діапазоні заздалегідь визначених результатів. Такі процеси можуть формувати і порушувати навколишнє середовище, особливо при роботі у відповідному масштабі. Вони надають пріоритет певним значенням порівняно з іншими, наприклад, загальними прибутками над конкретними втратами. Зазвичай це відбувається способами, які не є явними, прозорими, підзвітними або контролюються постраждалою особою, і які можуть спричинити несприятливі наслідки, особливо для меншин та маргіналізованих груп або груп, що перебувають у неблагополучному становищі.

8. Враховуючи широкий спектр типів та застосувань алгоритмічних систем у повсякденному житті, рівень їх впливу – позитивний і негативний – на права людини завжди буде залежати від конкретної мети, для якої вони використовуються, їх функціональності, точності, складності, їх впливу і масштабу, в якому вони розгорнуті. Їх вплив також залежатиме від більш широкого організаційного, тематичного, суспільного та правового контексту, в якому вони використовуються, кожен з яких пов’язаний з конкретними суспільними та етичними цінностями. Додатки дуже різноманітні, наприклад, для фільтрів спаму електронної пошти, для аналізу даних, пов’язаних зі здоров’ям, або для раціоналізації потоків трафіку. Алгоритмічні системи також використовуються з метою прогнозування у контексті поліцейської діяльності та прикордонного контролю, для боротьби з відмиванням грошей та шахрайством, або в сфері праці, зайнятості та освіти, у тому числі в рамках публічних та приватних процесів найму та відбору.

9. Оцінюючи потенційно негативний вплив на права людини, що випливає з проектування, розробки та постійного розгортання алгоритмічної системи, необхідно постійно оцінювати та документувати контекст, правові основи, призначення, точність, побічні ефекти та масштаби використання системи. Слід враховувати також властиві ризики нападу або плутанини в цих системах за допомогою змагального машинного навчання або іншими способами (включаючи кібератаки) через масштаб, характер та можливу цінність даних, що обробляються. Оцінка ступеня можливого впливу алгоритмічної системи на права людини має враховувати ступінь тяжкості, масштаби та ймовірності порушення прав людини.

10. Коли алгоритмічні системи мають потенціал для несприятливого впливу на права людини на певну групу, на певну групу чи на широке населення, включаючи вплив на демократичні процеси чи верховенство права, такий вплив обумовлює відповідні зобов’язання держави та зобов’язання приватного сектору стосовно прав людини.

11. У деяких випадках застосування алгоритмічної системи може спонукати до певного, більш високого ризику для прав людини, наприклад, тому що вона використовується державами для їх публічної служби чи ведення державної політики, і особа не має можливості відмовитися або зазнати негативних наслідків в результаті рішення відмовитися. Аналогічно підвищений ризик виникає внаслідок використання в контексті процесів прийняття рішень державними органами чи приватними особами в ситуаціях, що мають особливі вагу або юридичні наслідки. Наприклад, використання алгоритмічних систем у судовій сфері з метою правового аналізу, прогнозування чи індивідуального оцінювання ризику повинно бути запроваджено дуже обережно та відповідно до гарантій справедливого судового розгляду, передбачених статтею 6 Конвенції. У цій рекомендації термін “високий ризик” застосовується, коли йдеться про використання алгоритмічних систем у процесах чи рішеннях, які можуть спричинити серйозні наслідки для людей або в ситуаціях, коли відсутність альтернатив викликає особливо високу ймовірність порушення прав людини, у тому числі шляхом введення чи посилення розподільної несправедливості.

12. На особливу увагу при оцінці потенційних негативних наслідків щодо прав людини – і виникаючих з цього питань розподілу відповідальності – заслуговує широке коло використання алгоритмічних систем, які не є ні чітко публічними, ні чітко приватними. Це може мати місце у тому випадку, коли частини публічної послуги передаються стороннім постачальникам приватного сектора, які самі можуть залежати від інших постачальників послуг, коли державні установи закуповують алгоритмічні системи та послуги з приватного сектору, або коли компанія розгортає алгоритмічну систему для того, щоб досягти цілей державної політики, визначених державами.

13. Випадки, коли функції, які традиційно виконують органи державної влади, наприклад, пов’язані з транспортом або телекомунікаціями, повністю або частково залежать від надання алгоритмічних систем приватними сторонами також є доволі складними. Коли такі системи вилучаються з комерційних причин, результат може варіюватися від зниження якості та / або ефективності до втрати послуг, які особи і громади вважають важливими. Державам слід передбачити такі надзвичайні ситуації для забезпечення того, щоб основні послуги залишалися доступними незалежно від їх комерційної життєздатності, особливо в тих випадках, коли суб’єкти приватного сектору домінують на ринку таким чином, що це ставить їх на позицію впливу чи навіть контролю.

14. У проектування, розробку та постійне розгортання алгоритмічних систем залучають багатьох суб’єктів, включаючи розробників програмного забезпечення, програмістів, джерел даних, працівників про введенню даних даних, власників, продавців, користувачів або замовників, постачальників інфраструктури, а також публічних і приватних суб’єктів та установ. Крім того, багато алгоритмічних систем, незалежно від того, вивчені вони чи ні, працюють із значним рівнем непрозорості, іноді навіть навмисно. Навіть розробник або оператор, який зазвичай встановлює загальну мету і параметри системи, включаючи вхідні дані, мету оптимізації і модель, часто не знатиме, на яку інформацію покладається система, щоб прийняти своє рішення, і, ймовірно, буде стикатися з невизначеністю щодо прямого та опосередкованого впливу системи на користувачів та більш широкі середовища, в яких ці системи призначені для роботи.

15. Враховуючи таку складність, важливо, щоб держави-члени знали про специфічні наслідки цих процесів щодо прав людини, а також при будь-яких інвестиціях в такі системи слід адекватно враховували такі непередбачувані випадки для ефективного моніторингу, оцінки, перегляду та виправлення негативних наслідків або, де це необхідно, відмову від процесів, які не відповідають стандартам прав людини. Процеси управління ризиками повинні виявляти та запобігати згубному використанню алгоритмічних систем та їх негативному впливу. Держави-члени повинні застосовувати запобіжний підхід і вимагати відмови від певних систем, коли їх розгортання призводить до високих ризиків незворотної шкоди або коли через їх непрозорість контроль та нагляд з боку людини стає практично не здійсненим.

 

В. Зобов’язання держав щодо захисту та просування прав людини та основоположних свобод у контексті алгоритмічних систем

 

1. Загально застосовні принципи

1.1 Законодавство: Процес розробки, прийняття та оцінки політики та законодавства чи регуляторних актів, що застосовуються до проектування, розробки та постійного впровадження алгоритмічних систем, повинен бути прозорим, підзвітним та всеосяжним. Державам слід регулярно проводити консультації з усіма відповідними стейкхолдерами та сторонами, яких це може зачіпати, у тому числі на рівні сектору, де це доречно. Держави повинні забезпечити дотримання та виконання законів, у тому числі вимагаючи, щоб відповідні суб’єкти представили адекватну документацію для перевірки дотримання законодавства. Якщо суб’єкти державного та приватного секторів не виконують своїх юридичних обов’язків, вони повинні нести відповідальність.

1.2. Поточний огляд: Протягом усього життєвого циклу алгоритмічної системи, починаючи від стадії пропозиції до оцінки ефектів, слід регулярно оцінювати вплив окремих систем на права людини та їх взаємодію з іншими технологіями. Це необхідно робити через швидкість та масштаби, з якими ці системи функціонують, та швидко розвиваються в технологічному середовищі в якому вони працюють. Це слід робити на основі широких, ефективних консультацій з тими, хто постраждав або тими, кого це може торкнутися.

1.3 Демократична участь та обізнаність: Для забезпечення повного здійснення прав людини та демократичних свобод держави повинні сприяти поінформованості загальної громадськості про потенціал, потужність та наслідки впливу алгоритмічних систем, включаючи їх потенційне використання для маніпулювання, експлуатації, обману або поширення ресурсів з метою даючи можливість усім людям та групам усвідомлювати свої права та знати, як їх реалізувати на практиці та як використовувати цифрові технології для власної вигоди. Крім того, всі відповідні суб’єкти, у тому числі в державному, приватному та громадянському секторах, в яких алгоритмічні системи передбачаються або використовуються, повинні сприяти, заохочувати та підтримувати урахування їх всеосяжного характеру (з урахуванням різноманітності стосовно, наприклад, віку, статі, раси, етнічної приналежності, культурного або соціально-економічного походження), рівня медіа, цифрової та інформаційної грамотності, що дозволяє грамотно та критично враховувати та використовувати алгоритмічні системи.

1.4 Інституційні рамки: Держави повинні ідентифікувати та/або розробляти відповідні інституційні та регуляторні рамки і стандарти, які встановлюють загальні або галузеві орієнтири та гарантії, щоб забезпечити сумісність проектування, розробки та постійного розгортання алгоритмічних систем з правами людини. Зусилля повинні забезпечити негайне виявлення прямих чи опосередкованих ризиків для прав людини, включаючи можливі кумулятивні наслідки різних систем, і розпочати адекватні коригувальні дії. Держави повинні вкладати кошти у відповідну експертизу, щоб вона була доступною у відповідних ресурсних регуляторних та наглядових органах. Вони повинні надалі тісно співпрацювати з незалежними органами влади, органами з питань рівності, національними правозахисними установами, університетами, організаціями, що встановлюють стандарти, операторами послуг, розробниками алгоритмічних систем та відповідними неурядовими організаціями в різних галузях, таких яка, зокрема, займається захистом прав людини.

2. Управління даними

2.1 Інформаційне самовизначення: держави повинні забезпечити, щоб усі проекти, розробки та поточне розгортання алгоритмічних систем забезпечували можливість заздалегідь інформувати людей про відповідну обробку даних (включаючи її цілі та можливі результати) та контролювати свої дані, у т.ч. через взаємодію. Цілеспрямовані зусилля людей чи їх окремих груп, спрямовані на те щоб зробити себе, своє фізичне оточення чи свою діяльність непридатними до автоматизації чи інших форм машинного зчитування або маніпуляцій, у тому числі шляхом приховування, слід визнавати дійсним проявом інформаційного самовизначення, за умови можливих обмежень, необхідних в демократичному суспільстві та передбачені законом.

2.2 Бази даних: Під час проектування, розробці, постійному розгортанні та закупівлі алгоритмічних систем для них або за їх сприянням державам слід ретельно оцінювати, які правила в сфері прав людини та недискримінації можуть бути порушені внаслідок якості даних, що вводяться та вилучаються з алгоритмічних систем, оскільки вони часто містять упередженість і можуть виступати у якості підстави для класифікацій за такими критеріями, як стать, раса, релігія, політична думка або соціальне походження. Слід також ретельно оцінювати походження та можливі недоліки баз даних, можливість його нераціонального чи деконтекстуалізованого використання, негативні зовнішні наслідки, що виникають внаслідок цих недоліків та нераціонального використання, а також слід ретельно оцінювати умови, в яких база даних буде або може бути використана. Особливу увагу слід приділяти невід’ємним ризикам, наприклад, можлива ідентифікація осіб за допомогою даних, які раніше були оброблені на основі анонімності чи псевдонімності, та генерація нових, виведених, потенційно конфіденційних даних та форм їх категоризації за допомогою автоматизованих засобів. Виходячи з цих оцінок, держави повинні вжити відповідних заходів для запобігання та ефективної мінімізації негативних наслідків.

2.3 Інфраструктура: зростаюча централізація даних та можливостей їх обробки (включаючи хмарну обробку) та відсутності можливості вибору щодо інфраструктури можуть негативно вплинути на здатність держав виконувати свої зобов’язання з прав людини згідно з Конвенцією. Тому держави повинні сприяти розвитку альтернативної, безпечної та надійної інфраструктури, щоб гарантувати, що високоякісна обробка даних та обчислювальні можливості залишаються доступними як для державних, так і для приватних суб’єктів.

3. Аналіз та моделювання

3.1. Обчислювальні експерименти: держави повинні гарантувати, що обчислювальні експерименти, які можуть мати значні наслідки для прав людини, проводитимуться лише після оцінки впливу на права людини. Вільну, конкретну, усвідомлену та однозначну згоду осіб-учасників слід запитувати заздалегідь, використовуючи доступні засоби відкликання згоди. Експерименти, покликані створювати оманливі чи експлуататорські ефекти, повинні бути прямо заборонені.

3.2. Впровадження гарантій: Держави повинні гарантувати, що алгоритмічне проектування, розробка та поточні процеси розгортання включали в себе безпеку, конфіденційність, захист даних та гарантії безпеки за своїм задумом з метою запобігання та зменшення ризику порушення прав людини та інших несприятливих наслідків для людей та суспільства. Схеми сертифікації, що базуються на регіональних та міжнародних стандартах, повинні бути розроблені та застосовані для гарантування походження та якості баз даних та моделей. Такі гарантії також повинні складати частину процесів закупівель і повинні бути обумовлені та відповідати регуляторним рамкам, які забороняють певні види використання алгоритмічних систем.

3.3 Тестування: Регулярне тестування, оцінювання, звітування та аудит у відповідності до найсучасніших стандартів, що стосуються повноти, актуальності, конфіденційності, захисту даних, інших права людини, невиправданих дискримінаційними наслідками та порушень безпеки до, під час виробництва та після його розгортання повинні становити невід’ємну частину зусиль з тестування, особливо там, де автоматизовані системи тестуються в реальних умовах і створюють ефект в режимі реального часу. Зусилля держави повинні включати публічні, консультативні та незалежні оцінки правомірності та легітимізації цілі, яку система має на меті досягти або оптимізувати, та можливих наслідків щодо прав людини. Така оцінка також повинна бути частиною процесів закупівель. Будь-які суттєві обмеження прав людини, які були виявлені під час тестування таких систем, повинні спричинити негайне виправлення та, якщо цього не відбудеться, призупинення роботи системи до тих пір, поки такі виправлення не відбудуться.

3.4 Оцінка баз даних та зовнішніх систем: Держави мають забезпечити тестування та оцінку функціонування алгоритмічних систем, які вони впроваджують, з належним урахуванням того факту, що результати різняться залежно від конкретного контексту, в якому вони розгорнуті, та розміру і характеру баз даних, який використовувався для підготовки тренінгу систему, в тому числі щодо похибок та дискримінаційних результатів. Залежно від потенційного впливу алгоритмічної системи на права людини, тестування повинно, де це можливо, проводитися без використання реальних особистих даних осіб та керуватися різноманітним та репрезентативним процесом зацікавлених сторін з урахуванням зовнішніх факторів запропонованої системи про населення та його середовище до та після розгортання. Держави також повинні бути обізнані про можливість та ризики повторного використання зразків або результатів тестування у контекстах, відмінних від тих, для яких система спочатку була розроблена, у тому числі при використанні для розробки інших алгоритмічних систем. Це не повинно бути дозволено без нових випробувань та оцінки відповідності такого використання.

3.5 Тестування персональних даних:

Держави повинні гарантувати, що оцінювання та тестування алгоритмічних систем на персональних даних людей проводилися з різноманітними та достатньо представницькими вибірковими групами. Відповідні демографічні групи не повинні бути надмірно представлені або недооцінені. Держави також повинні гарантувати, що персонал, який бере участь у таких заходах, має достатньо різноманітний досвід, щоб уникнути навмисних чи ненавмисних помилок. Крім того, вони повинні забезпечити припинення розробки або розгортання алгоритмічних систем, якщо тестування передбачає екстерналізацію ризиків або втрат для конкретних людей, спільнот, груп населення та їх оточення. Відповідні регуляторні рамки повинні стримувати таку екстерналізацію. Слід особливо обережно ставитися до тестування в реальних умовах.

3.6 Альтернативний та паралельний підходи: Що стосується використання алгоритмічних систем у наданні публічних послуг та інших ситуаціях підвищеного ризику, в яких держави використовують такі технології, для оцінки алгоритмічної системи слід застосовувати методи, такі як альтернативне та паралельне моделювання. а також перевірити його ефективність та адекватність результату порівняно з іншими варіантами.

4. Прозорість, підзвітність та ефективні засоби правового захисту

4.1 Рівні прозорості: Державам слід встановити відповідні рівні прозорості стосовно державних закупівель, використання, проектування та основних критеріїв обробки і методів алгоритмічних систем, впроваджених ними та для них, або суб’єктами приватного сектору. Законодавчі рамки щодо інтелектуальної власності або комерційної таємниці не повинні перешкоджати такій прозорості, а також держави або приватні сторони не повинні намагатися використовувати їх для цієї мети. Рівень прозорості повинен бути максимально високим і пропорційним тяжкості негативного впливу на права людини, включаючи етичні маркери або шаблони для алгоритмічних систем, щоб користувачі могли переходити між системами. Використання алгоритмічних систем у процесах прийняття рішень, що несуть високий ризик для прав людини, повинно підлягати вимогам особливо високих стандартів щодо пояснення процесів та результатів.

4.2. Ідентифікованість алгоритмічного прийняття рішень: Держави повинні гарантувати, що всі процеси відбору чи рішення, прийняті або підтримані алгоритмічними системами, які можуть суттєво вплинути на здійснення прав людини, як у публічній, так і в приватній сфері, мають бути у зрозумілій і доступній формі ідентифіковані та відстежувані як такі ще під час початкової взаємодії.

4.3 Оскаржуваність: Постраждалим особам та групам слід надати ефективні засоби для оскарження відповідних висновків та рішень. В якості необхідної передумови існування, процес, обгрунтування, аргументації та можливий результат впливу алгоритмічних систем на індивідуальному та колективному рівнях слід пояснювати та роз’яснювати своєчасно, неупереджено, у легко зчитуваний та доступний спосіб для осіб, права чи законні інтереси яких можуть бути порушено, а також відповідних державних органів. Процедура оскарження повинен містити можливість бути заслуханим, ретельний аналіз рішення та можливість отримати неавтоматизоване рішення. Це право не може бути скасованим, і воно має бути доступним і легко реалізованим до, під час і після розгортання цих систем, в тому числі шляхом надання легкодоступних контактних точок та гарячих ліній.

4.4 Консультації та адекватний нагляд: Держави повинні забезпечити належний контроль з боку незалежних установ, що мають відповідні ресурси, за кількістю та типом скарг, зроблених постраждалими особами чи групами, проти певних алгоритмічних систем, які безпосередньо чи опосередковано застосовуються ними або для них. Вони повинні гарантувати, що результати не тільки призводять до коригування дій у конкретних випадках, але й впроваджуються в самі системи, щоб уникнути повторення порушень в результаті дії цих систем, вдосконалити та, можливо, припинити впровадження чи постійне розгортання певних систем через ймовірність настання негативного впливу на права людини. Інформація про ці оскарження та подальші дії слід регулярно документувати та оприлюднювати.

4.5 Ефективні засоби правового захисту: Держави повинні забезпечити рівні, доступні, належні, незалежні та ефективні судові та несудові процедури, які гарантують неупереджений перегляд у відповідності зі статтями 6, 13 та 14 Конвенції всіх вимог про порушення прав Конвенції через використання алгоритмічних систем, не залежно від того, чи є вони суб’єктами публічного або приватного сектору. Через свої законодавчі рамки держави повинні забезпечити доступ людей до ефективних, швидких, прозорих та функціональних і ефективних засобів захисту стосовно їхніх скарг. Судова компенсація повинна залишатися реальною та досяжною, коли внутрішні та альтернативні механізми врегулювання спору виявляються недостатніми або коли будь-яка із постраждалих сторін вибере судовий розгляд чи оскарження.

4.6 Бар’єри: Державам слід активно намагатися зменшити усі юридичні, практичні чи інші відповідні перешкоди, які могли б призвести до того, що особам чи групам людей прямо або опосередковано буде відмовлено в ефективному розгляді їхніх скарг. Сюди входить необхідність забезпечити наявність належно підготовленого персоналу для компетентного розгляду справи та вжиття ефективного заходів.

5. Заходи безпеки

5.1 Стандарти: Держави повинні співпрацювати між собою та з усіма відповідними стейкхолдерами, включаючи громадянське суспільство, для розробки та впровадження відповідних керівних принципів (наприклад, стандартів, рамок, індикаторів та методів) для сучасних процедур щодо оцінки впливу на права людини. Ці процедури слід проводити стосовно всіх алгоритмічних систем, які потенційно можуть суттєво впливати на права людини на будь-якій стадії життєвого циклу, з метою оцінки потенційних ризиків та встановлення заходів, гарантій та механізмів запобігання чи пом’якшення таких ризиків. Слід відстежувати фактичну шкоди, особливо коли такі системи застосовуються у нецільових, дослідницьких цілях. Оцінки впливу на права людини повинні бути обов’язковою для всіх алгоритмічних систем, що несуть високі ризики для цих прав.

5.2 Оцінки впливу на права людини: Держави повинні гарантувати, що вони, а також будь-які приватні суб’єкти, які співпрацюють з ними або від їх імені, регулярно та консультативно проводили оцінки впливу на права людини перед державними закупівлями, під час розробки, під час їх регулярних етапів та протягом усього часу їхнього контекстно-орієнтованого розгортання з метою виявлення ризиків настання несприятливих для людини наслідків. Міркування про конфіденційність або комерційну таємницю не повинні перешкоджати здійсненню ефективних оцінок впливу на права людини. Якщо суб’єкти приватного сектору надають послуги, що спираються на алгоритмічні системи і які вважаються важливими в сучасному суспільстві для ефективного здійснення прав людини, держави-члени повинні зберігати життєздатність альтернативних рішень та забезпечувати постійний доступ до таких послуг вразливих осіб та група. Для алгоритмічних систем, що несуть високий ризик для прав людини, оцінка впливу повинна включати оцінку можливих перетворень, які ці системи можуть здійснювати на існуючі соціальні, інституційні чи управлінські структури, і повинна містити чіткі рекомендації щодо запобігання або зменшення цих високих ризиків для людських прав.

5.3 Експертиза та контроль: Держави повинні гарантувати, що всі оцінки впливу на права людини, пов’язані з алгоритмічними системами з високим ризиком, будуть подані для незалежного експертного висновку та перевірки. Багаторівневі процеси повинні бути визначені або створені там, де це необхідно для незалежного контролю. Оцінювання впливу на права людини, які проводяться державами або на їх замовлення, має бути загальнодоступним, мати належний експертний внесок та ефективно контролюватися. Це може бути підтримано шляхом проведення динамічних методів тестування і попередніх випробувань, а також шляхом консультацій з потенційно вразливими людьми та групами, а також відповідними експертами на місцях, які були залучені як суб’єкти, що мають реальні повноваження для прийняття рішень, де це доречно, під час розробки, тестування та перевірки на певних етапах.

5.4. Наступні заході: У випадках, коли оцінка впливу на права людини визначає значні ризики щодо людських прав, які не можуть бути пом’якшені, алгоритмічна система не повинна бути запроваджена або іншим чином використана жодним державним органом. Якщо ризик буде виявлений стосовно вже розгорнутої алгоритмічної системи, її впровадження слід припинити принаймні до того часу, поки не будуть вжиті адекватні заходи щодо зменшення ризику. Виявлені порушення прав людини повинні бути негайно встановлені та усунені, а також вжиті заходи для запобігання подальшим порушенням.

5.5 Управління персоналом: Держави повинні забезпечити, щоб усі відповідні працівники, які беруть участь у закупівлях, розробці, впровадженні, оцінці та перевірці алгоритмічних систем із значним впливом на права людини, пройшли адекватну підготовку відповідно до застосованих положень в сфері прав людини та недискримінації та були обізнані про їх обов’язок – забезпечити не тільки ретельну технічну перевірку, але й дотримання прав людини. Практика найму повинна націлюватись на ґендерний паритет та різноманітну робочу силу, щоб розширити можливість врахування багатьох перспектив у процесах перевірки. Такі підходи повинні бути задокументовані з метою їх просування поза публічним сектором. Держави також повинні співпрацювати задля обміну досвідом та розробки кращих практик.

5.6 Взаємодія систем: Держави повинні ретельно стежити за параметрами, коли кілька алгоритмічних систем працюють в одному середовищі, щоб виявити і запобігти негативним зовнішнім проявам, особливо там, де їх можливі взаємозалежність та взаємодія потребують запобіжного підходу. Під час надання публічних послуг держави повинні використовувати механізм закупівель чи залучення приватних послуг, повністю враховуючи необхідність забезпечення нагляду, ноу-хау, прав власності та контролю за використанням алгоритмічних систем та їх взаємодією між собою.

5.7 Публічні дебати: Держави повинні брати участь та підтримувати постійні, інклюзивні, міждисциплінарні, поінформовані та публічні обговорення, щоб визначити, які сфери публічних послуг, що впливають на здійснення прав людини, не можуть бути визначені, вирішені чи оптимізовані за допомогою алгоритмічних систем.

6. Дослідження, інновації та обізнаність громадськості

6.1 Технологія сприяння правам: Держави повинні сприяти розвитку алгоритмічних систем та технологій, що сприяють рівному доступу до прав людини та основних свобод за допомогою використання податків, закупівель чи інших стимулів. Це може включати розробку механізмів оцінювання впливу алгоритмічних систем, розроблення систем для задоволення потреб населення, що перебувають у неблагополучному становищі та недостатньо представленні, а також кроки для забезпечення стійкості основних послуг за допомогою аналогових засобів, як в якості заходів на випадок надзвичайних ситуацій, так і як ефективна можливість для людей відмовитися.

6.2 Просування суспільних благ: Державам слід залучати та підтримувати незалежні дослідження, спрямовані на оцінку, тестування та просування потенціалу алгоритмічних систем для створення позитивного впливу на права людини та просування суспільної вигоди, у тому числі шляхом забезпечення відповідного врахування та представлення інтересів маргіналізованих та вразливих осіб і груп. Там, де це доречно, це може потребувати протидію впливам, які можуть сприяти виключно найбільш оптимальним для комерції процесам оптимізації. Держави повинні забезпечити адекватний захист від розголошення інформаторами та інших дій працівників, які займаються розробкою або постійним розгортанням алгоритмічних систем, які відчувають потребу повідомляти регуляторів та/або громадськість про теперішні або можливі майбутні невдачі щодо дотримання стандартів прав людини в галузі систем, які їм було доручено розбудовувати.

6.3 Людиноцентриські та сталі інновації: Державам слід стимулювати технологічні інновації відповідно до існуючих прав людини, включаючи соціальні права та міжнародно визнані стандарти праці і зайнятості. Зусилля для досягнення узгоджених на міжнародному рівні цілей в сфері сталого розвитку, зокрема, щодо видобутку та експлуатації природних ресурсів, а також для вирішення існуючих екологічних та кліматичних проблем повинні стимулювати конкурентоспроможність суб’єктів приватного сектору.

6.4 Незалежні дослідження: Держави повинні ініціювати, заохочувати та публікувати незалежні дослідження з моніторингу соціальних та правозахисних наслідків сталого впровадження та розгортання алгоритмічних систем. Крім того, таке незалежне дослідження повинно вивчати розробку ефективних механізмів підзвітності та вирішення існуючих прогалин у відповідальності, пов’язаних із непрозорістю, незрозумілістю та пов’язаною з цим незаперечністю алгоритмічних систем. Слід запровадити відповідні механізми, які б гарантували неупередженість, глобальне представництво та захист дослідників, журналістів та науковців, які займаються такими незалежними дослідженнями.

 

C. Обов’язки суб’єктів приватного сектору щодо прав людини та основоположних свобод у контексті алгоритмічних систем

 

1. Загально застосовні принципи

1.1 Відповідальність за дотримання прав людини: Суб’єкти приватного сектору, які займаються проектуванням, розробкою, продажем, розгортанням, впровадженням та обслуговуванням алгоритмічних систем, як у публічній, так і в приватній сфері, повинні проявляти належну ретельність щодо дотримання прав людини. Вони несуть відповідальність за повагу міжнародно визнаних прав людини та основоположних свобод своїх клієнтів та інших сторін, яких стосується їхня діяльність. Ця відповідальність існує незалежно від здатності або готовності держав виконувати свої зобов’язання з прав людини. У рамках виконання цього обов’язку суб’єкти приватного сектору повинні вживати постійних, проактивних та реактивних заходів, щоб гарантувати, що вони не спричиняють або не сприяють порушенню прав людини, а їх дії, включаючи інноваційні процеси, поважають права людини. Вони також повинні пам’ятати про свою відповідальність перед суспільством та цінності демократичного суспільства. Зусилля щодо забезпечення дотримання прав людини повинні бути задокументовані.

1.2 Масштаб заходів: Відповідальність суб’єктів приватного сектору за дотримання прав людини та вжиття адекватних заходів застосовується незалежно від їх розміру, сектора, умов праці, структури власності чи характеру. Однак масштаб та складність засобів, за допомогою яких вони виконують свої обов’язки, можуть відрізнятися, залежно від їхніх ресурсів та серйозності потенційного впливу, який їхні послуги та системи здійснюють на права людини. В тих випадках, коли різні групи суб’єктів приватного сектору співпрацюють та сприяють потенційному втручанню в права людини, необхідні зусилля всіх партнерів, які повинні бути пропорційними їхньому впливу та спроможностям.

1.3 Додаткові ключові стандарти: Внаслідок горизонтального ефекту прав людини та з огляду на те, що проектування, розробка та постійне впровадження алгоритмічних систем залучають суб’єктів приватного сектору до дуже тісної співпраці з публічними суб’єктами, деякі ключові положення, які викладені у главі B як зобов’язання держав, трансформуються у правові та регуляторні вимоги на національному рівні та на на рівні корпоративної відповідальності суб’єктів приватного сектору. Незалежно від того, чи були вжиті відповідні регуляторні дії державами, і крім наступних положень, суб’єкти приватного сектору повинні дотримуватися відповідних стандартів, що містяться в пунктах 1.2, 1.3, 2.1, 3.1, 3.3. та 4.2 Розділу B, які викладені вище, що стосується постійного огляду, демократичної участі та обізнаності, інформаційного самовизначення, обчислювального експерименту, тестування та ідентифікації алгоритмічного прийняття рішень.

1.4 Дискримінація: Суб’єкти приватного сектору, які проектують, розробляють або впроваджують алгоритмічні системи, повинні дотримуватися стандартних рамок належної старанності щодо прав людини, щоб уникнути спонукання або посилення дискримінації протягом усіх життєвих циклів їхніх систем. Вони повинні прагнути до того, щоб проектування, розробка та постійне розгортання їх алгоритмічних систем не мали прямих чи опосередкованих дискримінаційних наслідків для людей або груп, на які здійснюється вплив цих систем, у тому числі щодо тих, хто має особливі потреби або інвалідність або які можуть зіткнутися з структурною нерівністю в їх доступі до прав людини.

2. Управління даними

2.1 Правила згоди: Суб’єкти приватного сектору повинні гарантувати, що особи, на яких впливають їхні алгоритмічні системи, мають бути поінформовані, що вони мають вибір надати та відкликати свою згоду щодо використання всіх даних, включаючи алгоритмічні бази даних, причому обидва варіанти мають бути однаково доступними до них. Користувачам також слід надати можливість знати, як використовуються їхні дані, яким є реальний та потенційний вплив відповідної алгоритмічної системи, як заперечувати проти обробки даних, а також як оскаржувати та заперечувати конкретні результати. Правила згоди щодо використання інструментів відстеження, зберігання та вимірювання продуктивності алгоритмічних систем повинні бути чіткими, просто сформульованими та завершеними і не повинні приховуватися в умовах надання послуг.

2.2 Налаштування конфіденційності: Суб’єкти приватного сектору повинні сприяти суб’єктів даних реалізації їх права ефективно захищати свою конфіденційність, зберігаючи доступ до послуг, відповідно до всіх відповідних стандартів захисту даних. Можливість вибору з набору параметрів налаштування конфіденційності повинна бути представлена легко видимим, нейтральним та зрозумілим способом та полегшити використання технологій підвищення конфіденційності. Параметри за замовчуванням повинні вести лише до збору даних, які необхідні і пропорційні конкретній легітимній меті обробки даних, тоді як параметри відстеження повинні бути встановлені за замовчуванням у режимі відмови. Будь-яке застосування механізмів для блокування, видалення або виключення даних користувачів, наприклад, з метою безпеки, повинно супроводжуватися належними гарантіями належної правової процедури та швидкими засобами усунення у разі помилкового чи непропорційного використання даних.

3. Аналіз та моделювання

3.1 Якість даних та моделей: Суб’єкти приватного сектору повинні усвідомлювати ризики, пов’язані з якістю, характером та походженням даних, які вони використовують для тестування своїх алгоритмічних систем, з метою забезпечення адекватного реагування на помилки, відхилення та потенційну дискримінацію у базах даних та моделях з урахуванням конкретного контексту.

3.2. Вибірка населення: Оцінювання та тестування алгоритмічних систем на особистих даних людей повинно проводитися з досить різноманітними та репрезентативними вибірковими групами, а не на підставі залучення чи дискримінації будь-якої конкретної демографічної групи. Розробка алгоритмічних систем повинна бути припинена або відкорегована, якщо їх розробка, тестування або розгортання передбачає екстерналізацію ризиків або втрат для окремих людей, спільнот, груп населення та їх середовище.

3.3. Системи та безпека даних: Суб’єкти приватного сектору повинні налаштовувати свої алгоритмічні системи таким чином, щоб запобігти будь-якому незаконному доступу будь-яким стороннім особам або власному персоналу або, будь-якому втручанню в систему та будь-яке неправомірне використання пристроїв, даних та моделей третіми особами, відповідно до діючих стандартів.

4. Прозорість, підзвітність та ефективні засоби правового захисту

4.1 Умови надання послуг: Суб’єкти приватного сектору повинні гарантувати, що використання алгоритмічних систем, які можуть спричинити значні наслідки для прав людини в пропонованих ними продуктах та послугах, буде відомим всім сторонам, яких вони стосуються, – фізичним чи юридичним особам, а також широкій громадськості – простою мовою та в доступному форматі. Має бути надана адекватна інформація про характер та функціональність алгоритмічної системи, щоб забезпечити оскарження та заперечення. Умови надання послуг повинні бути досить короткими, легко зрозумілими і містити чіткі та стислі формулювання про можливості користувачів керувати налаштуваннями. Вони повинні включати інформацію про доступні варіанти зміни функцій системи, застосовні механізми подання скарг, різні етапи процедури, точні компетенції контактних осію, орієнтовні часові межі та очікувані результати. Усі зацікавлені сторони, нові клієнти або користувачі продуктів і послуг, правила застосування яких були змінені, повинні бути повідомлені про відповідні зміни у зручному для користувача форматі та, де це доречно, просити надати згоду на такі зміни. Ненадання згоди не повинно призводити до того, що базові послуги стають недоступними.

4.2 Оскаржуваність: Щоб сприяти оскаржуваності, суб’єкти приватного сектору повинні забезпечити доступність рецензентів та можливість безпосереднього контакту з ними, в тому числі шляхом надання легкодоступних контактних точок та гарячих ліній. Індивідам та групам слід дозволити не лише заперечувати, але й вносити пропозиції про вдосконалення та надавати інші корисні відгуки, в тому числі і стосовно сфер, де вимагається систематичний аналіз людиною. Весь відповідний персонал, який бере участь у розгляді скарг клієнтів, повинен бути належним чином орієнтований на відповідні стандарти прав людини та користуватися регулярними можливостями навчання.

4.3. Прозорість: Суб’єкти приватного сектору повинні оприлюднювати інформацію про кількість та види скарг, які було подано заінтересованими особами чи групами осіб щодо товарів та послуг, які їм було запропоновано, та результати розгляду таких скарг, щоб гарантувати, що результати не лише призводять до дій з виправлення в конкретних випадках, але вони також вводяться в самі системи задля винесення уроків зі скарг та виправлення помилок до спричинення масової шкоди.

4.4 Ефективні засоби правового захисту: Суб’єкти приватного сектору повинні забезпечити доступність ефективних систем правового захисту та вирішення спорів, включаючи механізми колективного відшкодування, в режимах он-лайн та офлайн для фізичних осіб, груп та юридичних осіб, які бажають оскаржити впровадження або постійне використання системи з потенціалом порушенням прав людини, або для усунення порушення прав. Обсяг доступних засобів правового захисту не може бути обмеженим. Якщо є необхідність встановлення пріоритетів і затримка з реагуванням може вплинути на можливість відновлення, в першу чергу слід вирішити питання щодо найбільш серйозних наслідків для прав людини. Усі скарги повинні бути забезпечені неупередженим та незалежним розглядом, їх слід розглядати без необґрунтованих затримок і слід проводити добросовісно, з дотриманням гарантій належної правової процедури. Відповідні механізми не повинні негативно впливати на можливості скаржників звертатися за допомогою через незалежні національні, включаючи судові та регуляторні механізми перегляду. Жодні відмови від прав або перешкоди щодо ефективного доступу до засобів захисту не повинні включатися в умови надання послуг. Бізнес-асоціації повинні додатково інвестувати – у співпраці з торговими асоціаціями – у створення типових механізмів подання скарг.

4.5 Консультації: Суб’єкти приватного сектору повинні спільно з асоціаціями споживачів, правозахисниками та іншими організаціями, що представляють інтереси осіб та постраждалих сторін, а також із організаціями з захисту даних та іншими незалежними виконавчими чи регуляторними органами брати активну участь у процесах проектування, розробки, постійного розгортання та оцінка алгоритмічних систем, а також механізмів їх оскарження.

5. Заходи безпеки

5.1 Постійне оцінювання: Суб’єкти приватного сектору повинні розробляти та документувати внутрішні процеси, щоб гарантувати, що їх проектування, розробка та поточне розгортання алгоритмічних систем постійно оцінюються та перевіряються не лише для виявлення можливих технічних помилок, але й щодо можливих юридичних, соціальних та етичних наслідків, які можуть згенерувати ці системи. Якщо застосування алгоритмічних систем несе великі ризики для прав людини, в тому числі через мікро-націлювання, яке вони можуть уникнути або пом’якшити самі, суб’єкти приватного сектору повинні мати можливість повідомляти та консультуватися з наглядовими органами у всіх відповідних юрисдикціях для отримання консультацій та рекомендацій про те, як керувати цими ризиками, в тому числі шляхом перероблення відповідних послуг. Суб’єкти приватного сектору повинні подавати ці алгоритмічні системи для регулярного незалежного експертного оцінювання та перевірки.

5.2 Навчання персоналу: Усі відповідні працівники, які беруть участь в оцінці впливу на права людини та в перевірці алгоритмічних систем, повинні належним чином пройти навчання та бути обізнаними про свої обов’язки щодо прав людини, включаючи, крім іншого, застосовування стандартів захисту персональних даних та конфіденційність .

5.3 Оцінювання впливу на права людини: Оцінювання впливу на права людини слід проводити якомога відкритіше та з активним залученням заінтересованих осіб та груп. У разі розгортання алгоритмічних систем з високим рівнем ризику результати поточного оцінювання впливу на права людини, визначені методи зменшення ризику та відповідні процеси моніторингу та перевірки повинні бути загальнодоступними, без шкоди для таємниці, що захищається законодавством. Коли необхідно застосовувати правила секретності, будь-яка конфіденційна інформація повинна представлена в окремому додатку до звіту про оцінювання. Цей додаток має бути доступним для відповідних контролюючих органів.

5.4 Наступні заходи: Суб’єкти приватного сектору повинні забезпечити відповідне спостереження за оцінкою впливу на права людини, вживши адекватних заходів на основі результатів, зафіксованих протягом усього життєвого циклу алгоритмічної системи, та контролюючи ефективність відповідних дій з метою уникнення або пом’якшення несприятливих наслідків та ризиків для здійснення прав людини. Виявлені зриви повинні бути усунені якнайшвидше, а пов’язані з цим дії, де це доречно, мають бути припинені. Це потребує регулярних та постійних перевірок якості та аудиту у режимі реального часу на етапах проектування, тестування та впровадження. Крім того, потрібні регулярні консультації з постраждалими особами задля моніторингу алгоритмічних систем щодо впливу на права людини в контексті та на місці для того щоб належним чином та вчасно виправляти помилки та відшкодувати шкоду. Це особливо важливо, враховуючи ризик зворотного зв’язку, який може посилити та закріпити несприятливий вплив на права людини.

6. Дослідження, інновації та обізнаність громадськості

6.1 Дослідження: Суб’єкти приватного сектору повинні брати участь, фінансувати та публікувати дослідження, що проводяться відповідно до етики досліджень, спрямовані на оцінку, тестування та просування потенціалу алгоритмічних систем для створення позитивних наслідків для прав людини та просування суспільних благ. Вони також повинні підтримувати незалежні дослідження з цією метою та поважати доброчесність дослідників та дослідницьких установ. Це може стосуватися розробки механізмів оцінювання впливу алгоритмічних систем, а також розробки алгоритмічних систем для задоволення потреб населення, яке є неблагополучним та недостатньо представлене. Суб’єкти повинні знайти ефективні канали комунікації з місцевими групами громадянського суспільства, особливо в географічних районах, де є серйозні проблеми з правами людини, з метою виявлення та реагування на можливі ризики, пов’язані з розгортанням алгоритмічних систем.

6.2 Доступ до даних: Для аналізу впливу алгоритмічних систем та цифрових послуг на здійснення прав, на комунікаційні мережі та на демократичні системи суб’єкти приватного сектору повинні розширити доступ до відповідних індивідуальних баз даних та метаданих, включаючи доступ до даних, які були класифіковані для видалення, відповідним сторонам, зокрема незалежним дослідникам, засобам масової інформації та організаціям громадянського суспільства. Це розширення доступу має відбуватися з повним дотриманням юридично захищених інтересів, а також усіх застосовних правил конфіденційності та захисту даних.