Закрити оголошення

Deepfake - технологія, яка дозволяє замінювати обличчя людей на фотографіях і відео на обличчя інших людей, за останні роки еволюціонувала до форми, в якій різниця між справжніми кадрами та підробленими даними стає дедалі складнішою. На сайтах порнографічного змісту, наприклад, deepfake використовують для створення захоплюючих відео із зображеннями відомих акторів. Звичайно, все це відбувається без згоди атакованих осіб, і завдяки дедалі більшій складності технології, що використовує машинне навчання, поширюються побоювання щодо інших можливих форм її зловживання. Загроза того, що дипфейк може повністю дискредитувати цифрові записи як доказ у судових справах, є реальною і нависає над сектором правосуддя, як дамоклів меч. Хороші новини тепер надходять від Truepic, де вони придумали простий спосіб перевірки автентичності списків.

Її творці назвали нову технологію Foresight, і замість додаткового аналізу відео та визначення того, чи це діпфейк, вона використовує прив’язування окремих записів до апаратного забезпечення, на якому вони були створені, щоб переконатися в достовірності. Foresight позначає всі записи під час їх створення спеціальним набором зашифрованих метаданих. Дані зберігаються в загальних форматах, у попередньому перегляді сторінки Android Police компанія продемонструвала, що зображення, захищене таким чином, можна зберегти у форматі JPEG. Тому не варто боятися несумісних форматів даних.

Але технологія страждає від ряду дрібних мушок. Найважливішим з них є, мабуть, той факт, що файли ще не записують внесені до них зміни. Рішення полягає в тому, щоб залучити більше компаній, які б підтримували цей метод безпеки. Успіх технології, таким чином, головним чином визначатиметься залученням найбільших виробників камер і мобільних пристроїв на чолі з Samsung і Appleм. Ви боїтеся, що хтось може зловживати вашою зовнішністю? Поділіться з нами своєю думкою в обговоренні під статтею.

Найчитаніший сьогодні

.