Область наук:
  • Комп'ютер та інформатика
  • Рік видавництва: 2020
    Журнал
    Соціальні та гуманітарні науки. Вітчизняна і зарубіжна література. Сер. 4, Держава і право: Реферативний журнал
    Наукова стаття на тему '2020.01.017. Белловін СТ.М., Дутті ПР.К., РЕЙТІНГЕР Н. КОНФІДЕНЦІЙНІСТЬ ТА ШТУЧНІ ДАНІ. BELLOVIN ST. M., DUTTA PR. K., REITINGER N. PRIVACY AND SYNTHETIC DATASETS // STANFORD TECHNOLOGY LAW REVIEW. - STANFORD, 2019. - VOL. 22, N 2. - P. 1-52. - MODE OF ACCESS: LAW.STANFORD.EDU/WP-CONTENT/UPLOADS/2019/01/BELLOVIN_20190129. PDF (ДАТА ЗВЕРНЕННЯ: 15.12.2019.) '

    Текст наукової роботи на тему «2020.01.017. Белловін СТ.М., Дутті ПР.К., РЕЙТІНГЕР Н. КОНФІДЕНЦІЙНІСТЬ ТА ШТУЧНІ ДАНІ. BELLOVIN ST. M., DUTTA PR. K., REITINGER N. PRIVACY AND SYNTHETIC DATASETS // STANFORD TECHNOLOGY LAW REVIEW. - STANFORD, 2019. - VOL. 22, N 2. - P. 1-52. - MODE OF ACCESS: LAW.STANFORD.EDU/WP-CONTENT/UPLOADS/2019/01/BELLOVIN_20190129. PDF (ДАТА ЗВЕРНЕННЯ: 15.12.2019.) »

    ?дартов шифрування. Про це говорять рекомендації міжнародної торгової асоціації FIPP, а також Білль про права споживачів: «Споживачі мають право на безпечну і відповідальну обробку персональних даних ...» [с. 30] Тому на законодавчому рівні, вважають автори, необхідно розробити і встановити певні стандарти безпеки.

    Таким чином, постійно активні пристрої збирають інформацію про те, хто перебуває вдома, про що вони говорять і що роблять. У законодавстві в даний час існує прогалина в регулюванні конфіденційності користувачів даних пристроїв. Необхідно виробити правила, норми і стандарти, які будуть захищати приватне життя людей і дозволять закону йти в ногу з розвитком технологій.

    А.П. Іванова

    2020.01.017. Белловін Ст.М., Дутті Пр.К., РЕЙТІНГЕР Н. КОНФІДЕНЦІЙНІСТЬ ТА ШТУЧНІ ДАНІ. BELLOVIN St. M., DUTTA Pr. K., REITINGER N. Privacy and Synthetic Datasets // Stanford technology law review. - Stanford, 2019. -Vol. 22, N 2. - P. 1-52. - Mode of access: law.stanford.edu/wp-content/uploads/2019/01/Bellovin_20190129. pdf (Дата звернення: 15.12.2019.)

    Ключові слова: штучні дані; інформаційна безпека; конфіденційність даних; анонімізація; диференційована конфіденційність; недоторканність приватного життя.

    Штучні дані - досить перспективне рішення проблем конфіденційності даних на сьогоднішній день. З одного боку, інформація користувачів знаходиться в спеціальній базі, вони можуть вільно нею ділитися з іншими людьми; доступ до численних аспектів життя споживачів також дозволяє розвиватися різним галузям науки і техніки. З іншого боку, інформація від користувачів залишається в таємниці, оскільки штучні дані хоча і відбивають вихідні, однак не є їх абсолютно точною копією.

    На сьогоднішній день захист конфіденційності особистої інформації в США будується на виділенні в законодавстві

    найбільш делікатних сфер життя, наприклад охорони здоров'я або фінансової сфери, інформація в яких знаходиться під посиленим захистом держави. Дані в таких сферах підпадають під поняття «персоналізованої ідентифікованої інформації (P II)» [c. 8]. Такий підхід цілком забезпечує захист приватного життя, але в той же час він перешкоджає обміну даними.

    Бази даних як прості сукупності даних самі по собі не становлять загрози для конфіденційності. Поява баз даних не є нововведенням останніх років: до поширення комп'ютеризованої інформації дані про людей зберігалися в матеріалізованих, найчастіше паперовому, вигляді. З огляду на те, що сам збір даних, їх зіставлення і компіляція були важкоздійсненним, питання про недоторканність приватного життя не вставав так гостро в суспільній свідомості. Однак у міру того, як соціум почав зливатися з цифровим світом, всі процеси взаємодії з інформацією стали доступнішими, і, незважаючи на свої переваги, наш сучасний світ великих даних має серйозні недоліки.

    Найбільші компанії, такі як Google, Netflix, Amazon, Facebook і Alphabet, на сьогоднішній день мають велику інформацію про своїх користувачів аж до самих інтимних подробиць. Багато в чому саме за рахунок цього забезпечується значний приріст їх прибутку. Головне питання зараз полягає в тому, як організаціям вживати призначену для користувача інформацію, не порушуючи при цьому право на недоторканність приватного життя?

    У перший час в більшості випадків, для того щоб зберігати конфіденційність користувачів і при цьому давати їм можливість ділитися своєю особистою інформацією, використовувалася анонімізація: всі елементи, за якими можна було ідентифікувати користувача або групу користувачів, віддалялися з сукупності даних.

    Однак анонімізація виявилася занадто простим засобом для вирішення такої складної проблеми, як конфіденційність даних в Мережі. Зараз ідентифікувати людину можливо і без використання його унікальних ідентифікаторів. Крім того, з урахуванням швидкого розвитку науки і соціуму, складно визна-

    лити, яка саме інформація є найбільш значущою і необхідною в ідентифікації того чи іншого користувача.

    З моменту створення анонімізації з'явилися інші способи збереження конфіденційності, починаючи від к-апошш ^ у 1990-х роках, створення спеціальних комп'ютерних метрик, які будуть визначати рівень конфіденційності, і закінчуючи нині чинним механізмом диференційованої конфіденційності [с. 18-20].

    Разом з тим баланс між ефективним використанням даних і недоторканністю приватного життя до цих пір не знайдений. Наприклад, дослідження, присвячене дозування лікарського препарату варфарин, показало, що застосування диференційованої конфіденційності істотно знижує ефективність персоналізованої медицини: ризики смертей серед пацієнтів в результаті стають вище допустимих значень

    [С. 21].

    Автори пропонують використовувати концепцію штучних даних, складених через генеративную модель з підтримкою машинного навчання. Такі дані, не будучи абсолютно ідентичними вихідного набору даних, володіють тими ж статистичними властивостями.

    Першим кроком у створенні штучних даних є отримання вихідного, необробленого набору інформації. Автори статті використовували дані, отримані лабораторією систем по виявленню вторгнень Університету Колумбія, - дані Вест-Пойнт, в яких міститься вся історія комп'ютерних взаємодій 63 курсантів протягом одного місяця, в тому числі редагування документів, відкриття файлів, перегляд веб-сторінок.

    Наступний крок - це вибір нейронної мережі, яка буде використовуватися для машинного навчання. Белловін, Дутта і Рей-тінгер для свого дослідження вибрали різновид архітектури рекурентних нейронних мереж - довгу короткострокову пам'ять (Ь8ТМ). Цей тип мереж дозволяє не тільки підтримувати деяку форму пам'яті, але і запам'ятовувати важливі події протягом різних періодів часу.

    Дослідження авторів показало, що штучні дані є справжньою альтернативою вихідними даними. при

    порівняно аналізів з використанням вихідних даних і штучних даних з'ясувалося, що їх результати здебільшого невиразні. Це дозволило їм зробити висновок про те, що «вчені можуть бути настільки ж продуктивними і з синтезованими даними» [с. 36]

    Однак штучні дані не є чарівної панацеєю для вирішення проблем інформаційної безпеки. При використанні їх без інших засобів захисту, таких як диференційована конфіденційність, ризик витоку даних зберігається на увазі унікальності певних властивостей користувачів.

    Крім того, дослідження показали, що, якщо третя особа матиме доступ до моделі машинного навчання, а також буде володіти деякою додатковою інформацією, наприклад іменами користувачів, вихідні дані з найбільшою ймовірністю будуть розкриті [с. 40].

    Як і всі методи захисту персональних даних, штучні дані навіть з диференційованої конфіденційністю не дають абсолютно позитивного результату. Можливі ситуації, в яких необхідна висока точність, в результаті чого знеособлення даних майже не застосовується і третя особа зможе відновити вихідні дані з точністю до 99%. Дилема між граничною корисністю персональної інформації та її конфіденційністю все ж не може бути повністю вирішена за допомогою штучних даних.

    З точки зору права виникають питання: чи є штучні дані законними? Чи захищають вони конфіденційність інформації хоча б в тій же мірі, в якій це передбачено чинним законодавством? Для відповіді на них необхідно виділити дві групи штучних даних: дані «vanilla» і дані з диференційованої конфіденційністю.

    Коли в навчанні генеративної моделі використовується інформація, що не пройшла процедуру знеособлення, отримані штучні дані можуть вважатися даними «vanilla». На жаль, їх використання з великою ймовірністю може призвести до витоку даних.

    Відповідно до одного з найсуворіших стандартів конфіденційності HIPAA, конфіденційність передбачається, якщо база даних містить всі сімнадцять ідентифікаторів, такі як

    ім'я, поштовий індекс і т.д. Якщо в базі даних ці ідентифікатори відсутні, інформація може вільно використовуватися.

    Зрозуміло, штучні дані, швидше за все, не будуть містити ніяких «реальних» ідентифікаторів, описаних в HIPAA, що знаходяться в вихідних даних, - всі вони будуть замінені машинними аналогами. Крім того, навіть якщо частина інформації виявиться реальною, це не означає, що особистість користувача обов'язково буде розкрита.

    На думку авторів, якщо інформаційну безпеку в будь-якій області буде регулювати закон, що встановлює жорсткі рамки використання даних і не допускає ніякої можливості їх витоку, дані виявляться неприйнятні. Про це свідчить справа Sander v. State Bar of California. Це може привести, вважають вони, до надмірної захист персональних даних [c. 44]. Але, з іншого боку, захист персональної інформації, що гарантується тільки штучними даними, може бути переоцінена. Автори вважають, що важливо на законодавчому рівні встановити баланс між надмірною і недостатнім захистом даних в світлі нового розуміння методів конфіденційності та можливостей ідентифікації. На сьогоднішній день, коли такий баланс ще не знайдений, відповідним технічним рішенням є використання штучних даних з диференційованої конфіденційністю: гранична корисність отриманих таким чином даних знизиться лише на 10%, в той час як ймовірність ідентифікації буде практично нульовий [с. 49].

    Однак навіть у цього технічного рішення є свої недоліки: коли корисність даних має пріоритетне значення, ні синтетичні дані, ні диференціальна конфіденційність, ні навіть їх комбінація не зможуть належним чином розв'язати конфлікт між ефективним використанням даних і недоторканністю приватного життя. Кращим варіантом для будь-якого аналізу завжди були, є і будуть вихідні, справжні дані. Але коли вони недоступні, синтетичні дані в поєднанні з диференціальної конфіденційністю є відмінне рішення.

    Бази даних на сьогоднішній день відіграють ключову роль у розвитку науки. У дослідників є можливість збирати і обробляти величезні обсяги інформації, проте сучасне

    законодавство змушує їх діяти обережно: правовий статус даних на сьогоднішній день досить неоднозначний. Концепція штучних даних пропонує прогресивне рішення, яке цілком може стати наступним кроком до відповіді на питання: як забезпечити максимальну корисність даних, зберігаючи при цьому їх конфіденційність?

    А.П. Іванова

    2020.01.018. Мілкао І., Лівенса Е. ПРАВА ДІТЕЙ НА КОНФІДЕНЦІЙНІСТЬ І ЗАХИСТ ДАНИХ У ВСЬОМУ СВІТІ: ВИКЛИКИ У ЦИФРОВОМУ КОНТЕКСТІ. MILKAITE I., LIEVENS E. Children's rights to privacy and data protection around the world: Challenges in the digital realm // European journal of law and technology. - Belfast, 2019. - Vol. 10, N 1. -P. 1-24. - Mode of access: http://ejlt.org/article/view/674/913 (Дата звернення 20.10.2019.)

    Ключові слова: права дитини; конфіденційність; захист даних; Конвенція ООН про права дитини.

    Ингрида мілкао і Єва Лівенс (кафедра права і технології Університету Гента, Бельгія) задаються питанням про те, наскільки в сучасному цифровому світі діти можуть реалізовувати свої права. В якості одного з прав, більше за інших схильні до порушень онлайн, автори називають право на конфіденційність, закріплене в ст. 16 Конвенції ООН про права дитини.

    Як показують опитування, діти усвідомлюють, що мають таке право по відношенню до своїх батьків або однолітків. У них, однак, відсутнє розуміння того, що їх конфіденційність може бути порушена державою або комерційними акторами. При цьому інформація про дітей потрапляє в інтернет ще до народження - коли в соціальні мережі виставляються знімки УЗД, що підтверджують вагітність, або трохи пізніше - коли батьки діляться фотографіями новонароджених. Значний і все більш зростаючий обсяг даних потрапляє в руки, як правило, приватних компаній, які можуть продати його рекламним і страховим компаніям і політичним партіям.

    Твердження, що у кожного є право на конфіденційність, не є чимось новим. Хоча це положення обеспечива-


    Ключові слова: Штучні ДАНІ / ІНФОРМАЦІЙНА БЕЗПЕКА / КОНФІДЕНЦІЙНІСТЬ ДАНИХ / анонімізація / ДИФЕРЕНЦІЙОВАНА КОНФІДЕНЦІЙНІСТЬ / ПРАВО НА ПРИВАТНЕ ЖИТТЯ

    Завантажити оригінал статті:

    Завантажити