.үч.чекит..үч.чекит.

Дипфейк: массалык иллюзия куралы

үч чекит редакциясы
28
Дипфейк: массалык иллюзия куралы

Дипфейк деген эмне?

Deepfake – эки башка сөздөн турат. Deep (англ. терең) – бул терең билим, жасалма интеллекттин чөйрөсү. 1950-жылдары Алан Тьюрингдин мээнин ишине окшош нейрон тармактарын түзүү боюнча эмгектери пайда болгон. Тармак – бул интеллектти түзүү үчүн айрым элементтерди бириктирген алгоритм. Дал ушул нейрон тармак дипфейкти түзүүгө жардам берет. А deep learning ар кандай технологиялык аспектилерде колдонулат, мисалы, жүздү, быйтыкчаларды, сүрөттөрдү таанууда. Ал эми fake – жалган, жасалма, адаштыруучу нерсе.

Технология ар кандай адамдын жүзүн көрсөтө алат. Бул олуттуу көйгөй – үн жүздүн кыймылына байланыштуу болгондо, башкача айтканда, үн видеоматериалга байланышканда, сиз дипфейкти көрүп жатканыңызды билдире турган эч нерсе жок. Сиз аны тааный албайсыз. 

Биздин мээ жалган же чыныгы нерсени автоматтык түрдө аныктоо үчүн ылайыкташкан эмес. Биз курчап турган дүйнөнү ар кандай сезүү органдары аркылуу түшүнүп, аныктайбыз. Эгер мээ тийиштүү маалыматты таппаса, анда аны өзү ойлоп таап коет, ошондуктан маалыматты ал жок болгон жерде деле көрө алабыз. Эң сонун мисал – оптикалык иллюзиялар.

2017-жылы Reddit сайтында бир топ адам белгисиз түрдө Deepfake каймана аттуу адамдан порно актрисалардын жүзүн атактуу адамдардын сүрөтү менен алмаштырып видеолорду жаратууну суранышкан. Кийин бул технология баягы сайт колдонуучунун лакап аты менен аталып калган.

Мындай дипфейктер чоң көйгөйгө алып келиши мүмкүн, анткени 90% учурларда мындай порно видеолор тез эле түзүлүп, тез тарайт. Бул көптөгөн аялдардын укуктарын бузат.

Дипфейктер шантаж үчүн дагы колдонулат. Мен бир нече америкалык эксперттер жана журналисттер менен сүйлөшкөнүмдө, алардын катышуусу менен жасалма видеолорду жаратабыз деп коркутушкан учурлар да болгонун билдим.

Диффейктер саясий оппоненттерди каралоо максатында да колдонулат. Мисалы, Габондо өлкө президенти сыналгыдан жаңы жылдык сөз сүйлөгөн. Ага чейин ал бир топ убакыт эл алдына чыкпай, анын ден соолугуна байланыштуу көйгөйлөр жөнүндө ушактар ​​тараган. Оппозиция бул видеону дипфейк деп атаган.

Ошондой эле Демократиялык партиядан америкалык саясатчы Нэнси Пелосинин сүйлөгөнү боюнча окуя болгон. Анын сүйлөгөнү жайлатылып, үнү өзгөртүлүп, «мас абалда» сүйлөп жаткандай эффектти жаратышкан. АКШдагы шайлоо алдында дагы көптөгөн фейктер пайда болду, алардын көпчүлүгү Дональд Трамптын же Джо Байдендин сүрөттөрү менен алмаштырылган күлкүлүү видеолор.

Бирок «сапаттуу» дипфейктерди түзүү дагы деле кыйын экендигин эстен чыгарбоо керек. Бул үчүн жетиштүү деңгээлде күчтүү компьютер талап кылынат жана мындай видеону жаратуу үчүн өзү 2-5 күн керек болушу мүмкүн.

❓Видеолордогу жүздөрдү алмаштыруу мыйзамдуубу?

Бул мыйзамдуу болгону менен, убакыттын өтүшү менен кырдаал өзгөрүшү мүмкүн.

❓Дипфейктин автордук укугу кимге таандык?

АКШда же Европада муну аныктоо дагы деле кыйын. Автору ким – оригиналдуу видеонун жаратуучусу, дипфейктин автору же нейрон тармагыбы – азыр бул жөнүндө талкуулар жүрүп жатат. Ушул аспектилердин бардыгы абада турат жана бул ачык суроо.

Дипфейктердин жайылышын кантип көзөмөлдөө болот?

Дипфейктерди аныктай турган программа түзө алабыз. Бирок ал кеңири колдонууга дайыма эле жеткиликтүү боло бербейт. Жардам бере турган дагы бир чечим – бул криптология. Маалыматтарды шифрлөө технологиясынын негиздерин колдонуп, видеолордун жаратуучуларын аныктап же ачыктоо мүмкүн.

Бирок криптологиянын көйгөйү – бул өтө көп энергияны талап кылат, ошондой эле өтө көп энергияны сарптайт.

Дипфейктерди жакшы максатта да колдонсо болот. Мисалы, күбөлөрдү коргоо программасы учурунда же даректүү тасмаларды тартууда. Жакында чыккан «Чеченстанга кош келдиңиз» тасмасында бул технология тасманын каармандарын, ЛГБТ коомчулугунун өкүлдөрүн коргоодо колдонулган.

Ошондой эле, дипфейктердин авторлорун аныктоодо дагы деле көйгөйлөр бар. Бул мүмкүн, бирок технологиялык жактан татаал, андыктан адамдар көргөндөрүнө сын көз менен карап, видеонун мазмунуна көңүл буруп, бөлүшүүдөн мурун булагын текшерип турушу керек.

Жазылыңыздар
Бул макала медиасабаттуулукту арттыруу жана сынчыл ой жүгүртүүнү өнүктүрүү максатында даярдалган. .үч.чекит. Көрүп, билип, такта! маалыматтык кампаниясы Европа Биримдигинин каржылык колдоосу менен түзүлгөн. Макалалардын мазмуну Internews, Борбор Азиядагы Эл аралык билим берүү Дебат Ассоциациясынын (IDEA CA) жоопкерчилигинде жана Европа Биримдигинин көз карашын чагылдырбайт.