CƏMİYYƏT
Cəmiyyətin həyatında baş verən aktual hadisələr

Diqqət: "Deepfake voice"la səsinizi oğurlayıb cinayətdə istifadə edə bilərlər

Azərbaycanda internet dələduzluğu artıq yeni mərhələyə qədəm qoyub: "Dələduzlar "Deepfake voice" və süni intellekt vasitəsilə səs klonlamasını həyata keçirməyə başlayıblar".
Sputnik
BAKI, 14 okt — Sputnik. Son zamanlar süni intellekt vasitəsilə yaradılan və daha da təkmilləşdirilən "Deepfake voice" - yəni saxta səs proqramı bütün dünyada məşhurlaşıb. Süni İntellekt insan səsini öyrənərək müəyyən alqoritmlərdən istifadə etməklə onun eynisini yaradır.
Maraqlıdır, bu riskdən qorunmaq mümkündürmü?
İKT üzrə ekspert Elvin Abbasov Sputnik Azərbaycan-a açıqlamasında bildirib ki, şəxsin hamı üçün əlçatan və müxtəlif rakurslardan olan fotoları, videoları varsa, bu zaman "deepfake voice" ilə müəyyən materiallar yaratmaq mümkündür:
"Yəni, belə olan halda süni intellekt foto və videolar vasitəsilə sizi hər istiqamətdən indeksləyir, biometrik profili müəyyənləşdirir və başqa bir səhnəcikdə həmin səsdən və biometrik olan bütün vasitələrdən istifadə edir. Qeyd edim ki, "deepfake voice"da hər rakursdan olan kadrlara ehtiyac olur".
Ekspertin sözlərinə görə əlçatan foto və videolar olduğu halda bu riskdən qorunmaq mümkünsüzdür: "Qeyd edim ki, Xüsusən də məşhur şəxslər üçün "deepfake voice" riski var".
E.Abbasov qeyd edir ki, əksər hallarda yayılan video, yaxud da audionun "deepfake voice" olub-olmadığını müəyyənləşdirmək asan olur:
"Lakin daha əvvəl yayılan belə materiallar olub ki, onların həqiqi olub-olmadığını müəyyənləşdirmək çətin olub".
İKT üzrə ekspert Fərid Pərdəşünas bildirib ki, Azərbaycanda internet dələduzluğu artıq yeni mərhələyə qədəm qoyub: "Dələduzlar "Deepfake voice" və süni intellekt vasitəsilə səs klonlamasını həyata keçirməyə başlayıblar".
Ekspertlər vəziyyətdən çıxış yolu kimi tövsiyə edir ki, hər kəs qarşısına çıxan bu cür videoları şikayət etsin.