תוכן עניינים:

זיופים עמוקים: נוירוסט לימדו ליצור זיופי קול ווידאו
זיופים עמוקים: נוירוסט לימדו ליצור זיופי קול ווידאו

וִידֵאוֹ: זיופים עמוקים: נוירוסט לימדו ליצור זיופי קול ווידאו

וִידֵאוֹ: זיופים עמוקים: נוירוסט לימדו ליצור זיופי קול ווידאו
וִידֵאוֹ: Aeromine Rooftop Wind. Static. Silent. 50% more power than Solar PV. What's not to like? 2024, מאי
Anonim

כדי ליצור תמונת חדשות "אינדיבידואלית" לכל אחד מאיתנו ולזייף את הדיווחים התקשורתיים שנבחרו בה, די במאמצים של מתכנת אחד היום. מומחים לבינה מלאכותית ואבטחת סייבר סיפרו על כך לאיזבסטיה.

לאחרונה, הם העריכו שזה דורש עבודה של צוותים מרובים. האצה כזו התאפשרה עם פיתוח טכנולוגיות להתקפות על רשתות עצביות ויצירת זיופי אודיו ווידאו באמצעות תוכנות ליצירת "זיופים עמוקים". העיתון איזבסטיה היה נתון לאחרונה למתקפה דומה, כאשר שלושה פורטלי חדשות בלוב פרסמו בבת אחת הודעה שהופיעה לכאורה באחד הגיליונות. לדברי מומחים, בתוך 3-5 שנים נוכל לצפות לפלישה של מניפולטורים רובוטיים, שיוכלו אוטומטית ליצור הרבה זיופים.

עולם חדש ואמיץ

יש יותר ויותר פרויקטים שמתאימים את תמונת המידע לתפיסה של משתמשים ספציפיים. דוגמה אחת לעבודתם הייתה הפעולה האחרונה של שלושה פורטלים בלוב, שפרסמו ידיעה שפורסמה לכאורה בגיליון Izvestia ב-20 בנובמבר. יוצרי המזויף שינו את העמוד הראשון של העיתון, ופרסמו בו הודעה על המשא ומתן בין פילדמרשל ח'ליפה הפטר וראש ממשלת ממשלת ההסכמה הלאומית (PNS) פאיז סאראג'. הזיוף, בגופן Izvestia, לווה בתמונה של שני המנהיגים שצולמה במאי 2017. התווית עם הלוגו של הפרסום נחתכה מהגיליון שפורסם בפועל של 20 בנובמבר, וכל שאר הטקסטים בעמוד מהגיליון של 23 באוקטובר.

מנקודת מבטם של מומחים, בעתיד הנראה לעין, זיופים כאלה יכולים להיעשות באופן אוטומטי.

The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות
The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות

"טכנולוגיות הבינה המלאכותית פתוחות כעת לחלוטין, והתקנים לקבלה ועיבוד נתונים מצטמצמים והופכים זולים יותר", יורי ווילסיטר, דוקטור למדעי הפיזיקה והמתמטיקה, פרופסור של האקדמיה הרוסית למדעים, ראש מחלקת FSUE "GosNIIAS", אמר לאיזבסטיה. - לכן, סביר מאוד להניח שבעתיד הקרוב אפילו לא המדינה ותאגידים גדולים, אלא פשוט אנשים פרטיים, יוכלו לצותת ולרגל אחרינו, וגם לתמרן את המציאות. בשנים הקרובות ניתן יהיה, על ידי ניתוח העדפות המשתמש, להשפיע עליו באמצעות עדכוני חדשות וזיופים חכמים מאוד.

לדברי יורי ווילסיטר, כבר קיימות טכנולוגיות שניתן להשתמש בהן להתערבות כזו בסביבה הנפשית. בתיאוריה, ניתן לצפות לפלישה של רובוטים רובוטיים בעוד כמה שנים, אמר. נקודה מגבילה כאן עשויה להיות הצורך לאסוף מאגרי מידע גדולים של דוגמאות לתגובות של אנשים אמיתיים לגירויים מלאכותיים עם מעקב אחר השלכות ארוכות טווח. מעקב כזה ידרוש כנראה עוד כמה שנים של מחקר לפני שהתקפות ממוקדות יתקבלו באופן עקבי.

התקפת חזון

אלכסיי פרפנטיב, ראש מחלקת האנליטיקה ב-SearchInform, מסכים גם הוא עם יורי ווילסיטר. לדבריו, מומחים כבר חוזים התקפות על רשתות עצביות, אם כי כיום אין כמעט דוגמאות כאלה.

- חוקרים מגרטנר מאמינים שעד 2022, 30% מכל מתקפות הסייבר יהיו מכוונות להשחית את הנתונים שעליהם מאומנת הרשת העצבית ולגנוב מודלים מוכנים של למידת מכונה. ואז, למשל, כלי רכב בלתי מאוישים יכולים פתאום להתחיל לחשוב שהולכי רגל הם חפצים אחרים. ולא נדבר על סיכון פיננסי או מוניטין, אלא על החיים והבריאות של אנשים רגילים, סבור המומחה.

התקפות על מערכות ראייה ממוחשבת מבוצעות כחלק ממחקר כעת. המטרה של התקפות כאלה היא לגרום לרשת העצבית לזהות משהו בתמונה שאינו שם. או להיפך, לא לראות מה מתוכנן.

The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות
The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות

"אחד הנושאים המתפתחים באופן פעיל בתחום אימון רשתות עצביות הוא מה שנקרא התקפות יריבות ("התקפות יריבות."- איזבסטיה)", הסביר ולדיסלב טושקאנוב, מנתח אינטרנט במעבדת קספרסקי. - ברוב המקרים הם מכוונים למערכות ראייה ממוחשבת. כדי לבצע התקפה כזו, ברוב המקרים, אתה צריך גישה מלאה לרשת העצבית (מה שנקרא התקפות White-box) או לתוצאות עבודתה (התקפות ב-Black-box). אין שיטות שיכולות לרמות כל מערכת ראייה ממוחשבת ב-100% מהמקרים. בנוסף, כבר נוצרו כלים המאפשרים לבדוק רשתות עצביות לעמידות בפני התקפות יריבות ולהגביר את ההתנגדות שלהן.

במהלך התקפה כזו, התוקף מנסה לשנות איכשהו את התמונה המזוהה כך שהרשת העצבית לא תעבוד. לעתים קרובות, רעש מושפע על התמונה, בדומה לזה שמתרחש בעת צילום בחדר מואר גרוע. אדם בדרך כלל לא מבחין בהפרעה כזו היטב, אבל הרשת העצבית מתחילה להתקלקל. אבל כדי לבצע מתקפה כזו, התוקף צריך גישה לאלגוריתם.

לדברי סטניסלב אשמנוב, מנכ ל נוירוסט אשמנוב, אין כיום שיטות להתמודדות עם בעיה זו. בנוסף, הטכנולוגיה הזו זמינה לכל אחד: מתכנת ממוצע יכול להשתמש בה על ידי הורדת תוכנת הקוד הפתוח הדרושה משירות Github.

The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות
The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות

- התקפה על רשת עצבית היא טכניקה ואלגוריתמים להטעיית רשת עצבית, שגורמים לה להפיק תוצאות כוזבות, ולמעשה, לשבור אותה כמו מנעול דלת, - סבור אשמנוב. - למשל, עכשיו די קל לגרום למערכת זיהוי הפנים לחשוב שזה לא אתה, אלא ארנולד שוורצנגר מולה - זה נעשה על ידי ערבוב של תוספים בלתי מורגשים לעין האנושית לתוך הנתונים המגיעים לרשת העצבית. אותן התקפות אפשריות עבור מערכות זיהוי וניתוח דיבור.

המומחה בטוח שזה רק יחמיר - הטכנולוגיות הללו עברו להמונים, רמאים כבר משתמשים בהן ואין הגנה מפניהן. מכיוון שאין הגנה מפני יצירה אוטומטית של זיופי וידאו ואודיו.

זיופים עמוקים

טכנולוגיות Deepfake המבוססות על Deep Learning (טכנולוגיות של למידה עמוקה של רשתות עצביות. - Izvestia) כבר מהוות איום ממשי. זיופי וידאו או אודיו נוצרים על ידי עריכה או שכבת-על של פניהם של אנשים מפורסמים שכביכול מבטאים את הטקסט הדרוש וממלאים את התפקיד הדרוש בעלילה.

"Deepfake מאפשר לך להחליף תנועות שפתיים ודיבור אנושי בווידאו, מה שיוצר תחושה של ריאליזם של מה שקורה", אומר אנדריי בוסרגין, מנהל המחלקה להגנת מותג חדשנית וקניין רוחני ב-Group-IB. - מפורסמים מזויפים "מציעים" למשתמשים ברשתות חברתיות להשתתף בהגרלת פרסים יקרי ערך (סמארטפונים, מכוניות, סכומי כסף) וכו'. קישורים מפרסומי וידאו כאלה מובילים לרוב לאתרי הונאה ודיוג, שבהם המשתמשים מתבקשים להזין מידע אישי, כולל פרטי כרטיס בנק. תוכניות כאלה מהוות איום הן על משתמשים רגילים והן על אישי ציבור המוזכרים בפרסומות. הונאה מסוג זה מתחילה לשייך תמונות של סלבריטאים להונאות או מוצרים מפורסמים, וכאן אנו נתקלים בנזקים אישיים למותג, הוא אומר.

The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות
The Truman Show - 2019: כיצד לימדו רשתות עצביות לזייף את תמונת החדשות

איום נוסף קשור לשימוש ב"הצבעות מזויפות" להונאה טלפונית. לדוגמה, בגרמניה, פושעי סייבר השתמשו בקול עמוק כדי לגרום לראש חברה בת מבריטניה להעביר בדחיפות 220,000 אירו בשיחת טלפון, תוך שהוא מתחזה למנהל חברה.לחשבון של ספק הונגרי. ראש החברה הבריטית חשד בטריק כאשר ה"בוס" שלו ביקש הזמנה שנייה, אך השיחה הגיעה ממספר אוסטרי. בשלב זה, הנתח הראשון כבר הועבר לחשבון בהונגריה, משם נמשך הכסף למקסיקו.

מסתבר שהטכנולוגיות הנוכחיות מאפשרות ליצור תמונת חדשות אינדיבידואלית מלאה בחדשות מזויפות. יתרה מכך, בקרוב ניתן יהיה להבחין בין זיופים לווידאו ואודיו אמיתיים רק לפי חומרה. לדברי מומחים, לא סביר שאמצעים האוסרים על פיתוח רשתות עצביות יהיו יעילים. לכן, בקרוב נחיה בעולם שבו יהיה צורך לבדוק כל הזמן הכל מחדש.

"אנחנו צריכים להתכונן לזה, וצריך לקבל את זה", הדגיש יורי ווילסיטר. - האנושות אינה הפעם הראשונה שעוברת ממציאות אחת לאחרת. העולם, אורח החיים והערכים שלנו שונים בתכלית מהעולם שבו חיו אבותינו לפני 60,000 שנה, לפני 5,000 שנה, לפני 2,000 שנה ואפילו לפני 200-100 שנים. בעתיד הקרוב, אדם יישלל במידה רבה מהפרטיות ולכן יאלץ לא להסתיר דבר ולפעול ביושר. יחד עם זאת, שום דבר במציאות הסובבת ובאישיותו של האדם אינו יכול להילקח באמונה, הכל יצטרך להטיל ספק ולבדוק כל הזמן מחדש. אבל האם המציאות העתידית הזו תהיה איומה? לא. זה פשוט יהיה שונה לגמרי.

מוּמלָץ: