https://sputnik.az/20231014/diqqet-deepfake-voicela-sesinizi-ogurlayirib-cinayetde-istifade-ede-bilerler-459593064.html
Diqqət: "Deepfake voice"la səsinizi oğurlayıb cinayətdə istifadə edə bilərlər
Diqqət: "Deepfake voice"la səsinizi oğurlayıb cinayətdə istifadə edə bilərlər
Sputnik Azərbaycan
Azərbaycanda internet dələduzluğu artıq yeni mərhələyə qədəm qoyub: "Dələduzlar "Deepfake voice" və süni intellekt vasitəsilə səs klonlamasını həyata keçirməyə... 14.10.2023, Sputnik Azərbaycan
2023-10-14T08:31+0400
2023-10-14T08:31+0400
2023-10-14T08:44+0400
internet
cəmiyyət
səs
səs yazısı
https://cdnn1.img.sputnik.az/img/07e5/01/16/426036469_0:660:1500:1504_1920x0_80_0_0_08942e4a06ea4192ab6e951108b7a37b.jpg
BAKI, 14 okt — Sputnik. Son zamanlar süni intellekt vasitəsilə yaradılan və daha da təkmilləşdirilən "Deepfake voice" - yəni saxta səs proqramı bütün dünyada məşhurlaşıb. Süni İntellekt insan səsini öyrənərək müəyyən alqoritmlərdən istifadə etməklə onun eynisini yaradır. Maraqlıdır, bu riskdən qorunmaq mümkündürmü? İKT üzrə ekspert Elvin Abbasov Sputnik Azərbaycan-a açıqlamasında bildirib ki, şəxsin hamı üçün əlçatan və müxtəlif rakurslardan olan fotoları, videoları varsa, bu zaman "deepfake voice" ilə müəyyən materiallar yaratmaq mümkündür: "Yəni, belə olan halda süni intellekt foto və videolar vasitəsilə sizi hər istiqamətdən indeksləyir, biometrik profili müəyyənləşdirir və başqa bir səhnəcikdə həmin səsdən və biometrik olan bütün vasitələrdən istifadə edir. Qeyd edim ki, "deepfake voice"da hər rakursdan olan kadrlara ehtiyac olur". Ekspertin sözlərinə görə əlçatan foto və videolar olduğu halda bu riskdən qorunmaq mümkünsüzdür: "Qeyd edim ki, Xüsusən də məşhur şəxslər üçün "deepfake voice" riski var". E.Abbasov qeyd edir ki, əksər hallarda yayılan video, yaxud da audionun "deepfake voice" olub-olmadığını müəyyənləşdirmək asan olur: "Lakin daha əvvəl yayılan belə materiallar olub ki, onların həqiqi olub-olmadığını müəyyənləşdirmək çətin olub". İKT üzrə ekspert Fərid Pərdəşünas bildirib ki, Azərbaycanda internet dələduzluğu artıq yeni mərhələyə qədəm qoyub: "Dələduzlar "Deepfake voice" və süni intellekt vasitəsilə səs klonlamasını həyata keçirməyə başlayıblar". Ekspertlər vəziyyətdən çıxış yolu kimi tövsiyə edir ki, hər kəs qarşısına çıxan bu cür videoları şikayət etsin.
Sputnik Azərbaycan
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Azərbaycan
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
xəbərlər
ru_AZ
Sputnik Azərbaycan
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdnn1.img.sputnik.az/img/07e5/01/16/426036469_0:520:1500:1645_1920x0_80_0_0_1195b8b62e9f6adbd0faaaba505fd2e4.jpgSputnik Azərbaycan
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
internet, səs, səs yazısı
internet, səs, səs yazısı
Diqqət: "Deepfake voice"la səsinizi oğurlayıb cinayətdə istifadə edə bilərlər
08:31 14.10.2023 (Yenilənib: 08:44 14.10.2023) Azərbaycanda internet dələduzluğu artıq yeni mərhələyə qədəm qoyub: "Dələduzlar "Deepfake voice" və süni intellekt vasitəsilə səs klonlamasını həyata keçirməyə başlayıblar".
BAKI, 14 okt — Sputnik. Son zamanlar süni intellekt vasitəsilə yaradılan və daha da təkmilləşdirilən "Deepfake voice" - yəni saxta səs proqramı bütün dünyada məşhurlaşıb. Süni İntellekt insan səsini öyrənərək müəyyən alqoritmlərdən istifadə etməklə onun eynisini yaradır.
Maraqlıdır, bu riskdən qorunmaq mümkündürmü?
İKT üzrə ekspert Elvin Abbasov Sputnik Azərbaycan-a açıqlamasında bildirib ki, şəxsin hamı üçün əlçatan və müxtəlif rakurslardan olan fotoları, videoları varsa, bu zaman "deepfake voice" ilə müəyyən materiallar yaratmaq mümkündür:
"Yəni, belə olan halda süni intellekt foto və videolar vasitəsilə sizi hər istiqamətdən indeksləyir, biometrik profili müəyyənləşdirir və başqa bir səhnəcikdə həmin səsdən və biometrik olan bütün vasitələrdən istifadə edir. Qeyd edim ki, "deepfake voice"da hər rakursdan olan kadrlara ehtiyac olur".
Ekspertin sözlərinə görə əlçatan foto və videolar olduğu halda bu riskdən qorunmaq mümkünsüzdür: "Qeyd edim ki, Xüsusən də məşhur şəxslər üçün "deepfake voice" riski var".
E.Abbasov qeyd edir ki, əksər hallarda yayılan video, yaxud da audionun "deepfake voice" olub-olmadığını müəyyənləşdirmək asan olur:
"Lakin daha əvvəl yayılan belə materiallar olub ki, onların həqiqi olub-olmadığını müəyyənləşdirmək çətin olub".
İKT üzrə ekspert Fərid Pərdəşünas bildirib ki, Azərbaycanda internet dələduzluğu artıq yeni mərhələyə qədəm qoyub: "Dələduzlar "Deepfake voice" və süni intellekt vasitəsilə səs klonlamasını həyata keçirməyə başlayıblar".
Ekspertlər vəziyyətdən çıxış yolu kimi tövsiyə edir ki, hər kəs qarşısına çıxan bu cür videoları şikayət etsin.