תוכן עניינים:
וִידֵאוֹ: זיופים עמוקים: נוירוסט לימדו ליצור זיופי קול ווידאו
2024 מְחַבֵּר: Seth Attwood | [email protected]. שונה לאחרונה: 2023-12-16 16:05
כדי ליצור תמונת חדשות "אינדיבידואלית" לכל אחד מאיתנו ולזייף את הדיווחים התקשורתיים שנבחרו בה, די במאמצים של מתכנת אחד היום. מומחים לבינה מלאכותית ואבטחת סייבר סיפרו על כך לאיזבסטיה.
לאחרונה, הם העריכו שזה דורש עבודה של צוותים מרובים. האצה כזו התאפשרה עם פיתוח טכנולוגיות להתקפות על רשתות עצביות ויצירת זיופי אודיו ווידאו באמצעות תוכנות ליצירת "זיופים עמוקים". העיתון איזבסטיה היה נתון לאחרונה למתקפה דומה, כאשר שלושה פורטלי חדשות בלוב פרסמו בבת אחת הודעה שהופיעה לכאורה באחד הגיליונות. לדברי מומחים, בתוך 3-5 שנים נוכל לצפות לפלישה של מניפולטורים רובוטיים, שיוכלו אוטומטית ליצור הרבה זיופים.
עולם חדש ואמיץ
יש יותר ויותר פרויקטים שמתאימים את תמונת המידע לתפיסה של משתמשים ספציפיים. דוגמה אחת לעבודתם הייתה הפעולה האחרונה של שלושה פורטלים בלוב, שפרסמו ידיעה שפורסמה לכאורה בגיליון Izvestia ב-20 בנובמבר. יוצרי המזויף שינו את העמוד הראשון של העיתון, ופרסמו בו הודעה על המשא ומתן בין פילדמרשל ח'ליפה הפטר וראש ממשלת ממשלת ההסכמה הלאומית (PNS) פאיז סאראג'. הזיוף, בגופן Izvestia, לווה בתמונה של שני המנהיגים שצולמה במאי 2017. התווית עם הלוגו של הפרסום נחתכה מהגיליון שפורסם בפועל של 20 בנובמבר, וכל שאר הטקסטים בעמוד מהגיליון של 23 באוקטובר.
מנקודת מבטם של מומחים, בעתיד הנראה לעין, זיופים כאלה יכולים להיעשות באופן אוטומטי.
"טכנולוגיות הבינה המלאכותית פתוחות כעת לחלוטין, והתקנים לקבלה ועיבוד נתונים מצטמצמים והופכים זולים יותר", יורי ווילסיטר, דוקטור למדעי הפיזיקה והמתמטיקה, פרופסור של האקדמיה הרוסית למדעים, ראש מחלקת FSUE "GosNIIAS", אמר לאיזבסטיה. - לכן, סביר מאוד להניח שבעתיד הקרוב אפילו לא המדינה ותאגידים גדולים, אלא פשוט אנשים פרטיים, יוכלו לצותת ולרגל אחרינו, וגם לתמרן את המציאות. בשנים הקרובות ניתן יהיה, על ידי ניתוח העדפות המשתמש, להשפיע עליו באמצעות עדכוני חדשות וזיופים חכמים מאוד.
לדברי יורי ווילסיטר, כבר קיימות טכנולוגיות שניתן להשתמש בהן להתערבות כזו בסביבה הנפשית. בתיאוריה, ניתן לצפות לפלישה של רובוטים רובוטיים בעוד כמה שנים, אמר. נקודה מגבילה כאן עשויה להיות הצורך לאסוף מאגרי מידע גדולים של דוגמאות לתגובות של אנשים אמיתיים לגירויים מלאכותיים עם מעקב אחר השלכות ארוכות טווח. מעקב כזה ידרוש כנראה עוד כמה שנים של מחקר לפני שהתקפות ממוקדות יתקבלו באופן עקבי.
התקפת חזון
אלכסיי פרפנטיב, ראש מחלקת האנליטיקה ב-SearchInform, מסכים גם הוא עם יורי ווילסיטר. לדבריו, מומחים כבר חוזים התקפות על רשתות עצביות, אם כי כיום אין כמעט דוגמאות כאלה.
- חוקרים מגרטנר מאמינים שעד 2022, 30% מכל מתקפות הסייבר יהיו מכוונות להשחית את הנתונים שעליהם מאומנת הרשת העצבית ולגנוב מודלים מוכנים של למידת מכונה. ואז, למשל, כלי רכב בלתי מאוישים יכולים פתאום להתחיל לחשוב שהולכי רגל הם חפצים אחרים. ולא נדבר על סיכון פיננסי או מוניטין, אלא על החיים והבריאות של אנשים רגילים, סבור המומחה.
התקפות על מערכות ראייה ממוחשבת מבוצעות כחלק ממחקר כעת. המטרה של התקפות כאלה היא לגרום לרשת העצבית לזהות משהו בתמונה שאינו שם. או להיפך, לא לראות מה מתוכנן.
"אחד הנושאים המתפתחים באופן פעיל בתחום אימון רשתות עצביות הוא מה שנקרא התקפות יריבות ("התקפות יריבות."- איזבסטיה)", הסביר ולדיסלב טושקאנוב, מנתח אינטרנט במעבדת קספרסקי. - ברוב המקרים הם מכוונים למערכות ראייה ממוחשבת. כדי לבצע התקפה כזו, ברוב המקרים, אתה צריך גישה מלאה לרשת העצבית (מה שנקרא התקפות White-box) או לתוצאות עבודתה (התקפות ב-Black-box). אין שיטות שיכולות לרמות כל מערכת ראייה ממוחשבת ב-100% מהמקרים. בנוסף, כבר נוצרו כלים המאפשרים לבדוק רשתות עצביות לעמידות בפני התקפות יריבות ולהגביר את ההתנגדות שלהן.
במהלך התקפה כזו, התוקף מנסה לשנות איכשהו את התמונה המזוהה כך שהרשת העצבית לא תעבוד. לעתים קרובות, רעש מושפע על התמונה, בדומה לזה שמתרחש בעת צילום בחדר מואר גרוע. אדם בדרך כלל לא מבחין בהפרעה כזו היטב, אבל הרשת העצבית מתחילה להתקלקל. אבל כדי לבצע מתקפה כזו, התוקף צריך גישה לאלגוריתם.
לדברי סטניסלב אשמנוב, מנכ ל נוירוסט אשמנוב, אין כיום שיטות להתמודדות עם בעיה זו. בנוסף, הטכנולוגיה הזו זמינה לכל אחד: מתכנת ממוצע יכול להשתמש בה על ידי הורדת תוכנת הקוד הפתוח הדרושה משירות Github.
- התקפה על רשת עצבית היא טכניקה ואלגוריתמים להטעיית רשת עצבית, שגורמים לה להפיק תוצאות כוזבות, ולמעשה, לשבור אותה כמו מנעול דלת, - סבור אשמנוב. - למשל, עכשיו די קל לגרום למערכת זיהוי הפנים לחשוב שזה לא אתה, אלא ארנולד שוורצנגר מולה - זה נעשה על ידי ערבוב של תוספים בלתי מורגשים לעין האנושית לתוך הנתונים המגיעים לרשת העצבית. אותן התקפות אפשריות עבור מערכות זיהוי וניתוח דיבור.
המומחה בטוח שזה רק יחמיר - הטכנולוגיות הללו עברו להמונים, רמאים כבר משתמשים בהן ואין הגנה מפניהן. מכיוון שאין הגנה מפני יצירה אוטומטית של זיופי וידאו ואודיו.
זיופים עמוקים
טכנולוגיות Deepfake המבוססות על Deep Learning (טכנולוגיות של למידה עמוקה של רשתות עצביות. - Izvestia) כבר מהוות איום ממשי. זיופי וידאו או אודיו נוצרים על ידי עריכה או שכבת-על של פניהם של אנשים מפורסמים שכביכול מבטאים את הטקסט הדרוש וממלאים את התפקיד הדרוש בעלילה.
"Deepfake מאפשר לך להחליף תנועות שפתיים ודיבור אנושי בווידאו, מה שיוצר תחושה של ריאליזם של מה שקורה", אומר אנדריי בוסרגין, מנהל המחלקה להגנת מותג חדשנית וקניין רוחני ב-Group-IB. - מפורסמים מזויפים "מציעים" למשתמשים ברשתות חברתיות להשתתף בהגרלת פרסים יקרי ערך (סמארטפונים, מכוניות, סכומי כסף) וכו'. קישורים מפרסומי וידאו כאלה מובילים לרוב לאתרי הונאה ודיוג, שבהם המשתמשים מתבקשים להזין מידע אישי, כולל פרטי כרטיס בנק. תוכניות כאלה מהוות איום הן על משתמשים רגילים והן על אישי ציבור המוזכרים בפרסומות. הונאה מסוג זה מתחילה לשייך תמונות של סלבריטאים להונאות או מוצרים מפורסמים, וכאן אנו נתקלים בנזקים אישיים למותג, הוא אומר.
איום נוסף קשור לשימוש ב"הצבעות מזויפות" להונאה טלפונית. לדוגמה, בגרמניה, פושעי סייבר השתמשו בקול עמוק כדי לגרום לראש חברה בת מבריטניה להעביר בדחיפות 220,000 אירו בשיחת טלפון, תוך שהוא מתחזה למנהל חברה.לחשבון של ספק הונגרי. ראש החברה הבריטית חשד בטריק כאשר ה"בוס" שלו ביקש הזמנה שנייה, אך השיחה הגיעה ממספר אוסטרי. בשלב זה, הנתח הראשון כבר הועבר לחשבון בהונגריה, משם נמשך הכסף למקסיקו.
מסתבר שהטכנולוגיות הנוכחיות מאפשרות ליצור תמונת חדשות אינדיבידואלית מלאה בחדשות מזויפות. יתרה מכך, בקרוב ניתן יהיה להבחין בין זיופים לווידאו ואודיו אמיתיים רק לפי חומרה. לדברי מומחים, לא סביר שאמצעים האוסרים על פיתוח רשתות עצביות יהיו יעילים. לכן, בקרוב נחיה בעולם שבו יהיה צורך לבדוק כל הזמן הכל מחדש.
"אנחנו צריכים להתכונן לזה, וצריך לקבל את זה", הדגיש יורי ווילסיטר. - האנושות אינה הפעם הראשונה שעוברת ממציאות אחת לאחרת. העולם, אורח החיים והערכים שלנו שונים בתכלית מהעולם שבו חיו אבותינו לפני 60,000 שנה, לפני 5,000 שנה, לפני 2,000 שנה ואפילו לפני 200-100 שנים. בעתיד הקרוב, אדם יישלל במידה רבה מהפרטיות ולכן יאלץ לא להסתיר דבר ולפעול ביושר. יחד עם זאת, שום דבר במציאות הסובבת ובאישיותו של האדם אינו יכול להילקח באמונה, הכל יצטרך להטיל ספק ולבדוק כל הזמן מחדש. אבל האם המציאות העתידית הזו תהיה איומה? לא. זה פשוט יהיה שונה לגמרי.
מוּמלָץ:
5 זיופי הקורונה המובילים שמפחידים את הרוסים
וודקה כתרופה לקורונה, ננו-תולעים מסכות וחיסון חיסון. לא כל אלה הם זיופים לגבי COVID-19, שלמרבה הצער הרוסים מאמינים בו
זיופי קורונה ומפעלי טרולים
מספר החדשות המזויפות על מגיפת הקורונה זינק בתקופה האחרונה, למרות ההכרזה האחרונה של גוגל על מאבקה במידע לא מאומת. יורי מושה, מומחה לפיתוח עסקי, מייסד מרכז הדרכונים השני, דיבר על איך לזהות חדשות מזויפות מחדשות אמיתיות ומה ההשלכות שיש למידע שגוי כזה
ספרי עתיקות עמוקים הם מזויפים! הוכחה והצדקה
מחקר מעניין מאוד של אלכסיי ארטמייב יעזור להבין את ההונאה הבאה של מזיפי ההיסטוריה. מושא המחקר הוא ספרים עתיקים, המחבר בוחן את סוגיות הטכנולוגיה של ייצור ספרים ומגילות, שיטות כתיבה וסימני זיוף
איך פיטר אני וקתרין הגדולה לימדו את המדינה לשתות בירה
איך פיטר הראשון הביא את ההרגל לשתות בירה מאירופה, מדוע היא לא השתרשה ומדוע הייתה ביקוש לבירה תחת קתרין השנייה
איך לימדו אנתרופואידים שפה
כידוע, בסוף שנות ה-60, וושו הקוף למד לדבר באמצעות 160 סימנים של אמסלן - השפה האמריקאית של החירשים והאילמים. עבור חלקם, התוצאות שהושגו הפכו לסנסציה, אופקים חדשים להבנת התפתחות התודעה והדיבור. אחרים ראו כאן ניסיון לכבוד האדם