دانشمندان UCSD تکنیکی را توسعه داده اند که با فریب سیستم ها ، تقلبیات عمیق را تشخیص می دهد


لبه خونریزی: با تکامل فناوری deepfake ، تشخیص اینکه چه زمان یک ویدیو دستکاری شده دشوارتر می شود. خوشبختانه ، گروه های مختلف شبکه عصبی پیشرفته ای را برای شناسایی چهره های جعلی ایجاد کرده اند. با این حال ، دانشمندان کامپیوتر هفته گذشته فاش کردند که آنها می توانند حتی معتبرترین مدل های تشخیص را گمراه کنند و فکر کنند جعل عمیق واقعی است.

محققان دانشگاه کالیفرنیا ، سن دیگو ، تکنیکی را ایجاد کرده اند که می تواند الگوریتم های آموزش دیده برای کشف فیلم های عمیق را فریب دهد. با استفاده از یک روش دو مرحله ای ، دانشمندان کامپیوتر با استفاده از یک جعل عمیق قابل تشخیص ، سپس یک لایه “نمونه مسابقه ای” را ایجاد و در هر قاب قرار می دهند تا جعلی جدید ایجاد کنند که عملا قابل شناسایی نیست.

نمونه های ضد و نقیض به سادگی تصاویر دستکاری شده ای هستند که یک سیستم یادگیری ماشین را جعل می کنند که باعث می شود تصویری را به اشتباه تشخیص دهد. یک نمونه از مواردی که در گذشته دیده ایم ، برچسب های مسابقه ای یا حتی نوار برقی است که برای فریب وسایل نقلیه خودمختار به اشتباه خواندن علائم جاده استفاده می شود. با این حال ، برخلاف اعوجاج تابلوهای جاده ای ، روش UCSD باعث تغییر ظاهر بصری فیلم حاصل نمی شود. این جنبه از این جهت مهم است که هدف آن گمراه کردن هم نرم افزار شناسایی و هم بیننده است (به فیلم زیر مراجعه کنید).

محققان دو نوع حمله را نشان دادند – “جعبه سفید” و “جعبه سیاه”. با کمک بهره برداری از جعبه سفید ، بازیگر بد همه چیز را در مورد مدل تشخیص هدف می داند. حملات Black Box زمانی رخ می دهد که مهاجم از معماری طبقه بندی استفاده شده بی اطلاع باشد. هر دو روش “در برابر رمزگذارهای فشرده سازی فیلم و تصویر مقاوم هستند” و حتی می توانند پیشرفته ترین سیستم های تشخیص را گمراه کنند.

https://www.youtube.com/watch؟v=SfAlDNtM-GE

Deepfakes از زمانی که چند سال پیش در اینترنت ظاهر شد ، بحث و جدال زیادی ایجاد کرد. در ابتدا ، اینها بیشتر افراد مشهور بودند ، که از شباهت هایشان در فیلم های پورنو خشمگین بودند. با پیشرفت تکنولوژی ، مشخص شده است که بازیگران بد یا کلاهبرداران می توانند از آن برای تبلیغات یا اهداف ناپسند استفاده کنند.

دانشگاه ها اولین کسانی بودند که الگوریتم هایی را برای کشف تقلبی های عمیق ایجاد کردند و به دنبال آن وزارت دفاع ایالات متحده به سرعت دنبال کرد. چندین غول فناوری از جمله توییتر ، فیس بوک و مایکروسافت نیز در حال توسعه روش هایی برای کشف تقلبی در سیستم عامل خود هستند. محققان می گویند بهترین روش برای مبارزه با این تکنیک انجام آموزش های رقابتی در مورد سیستم های تشخیص است.

Paarth Neekhara ، یکی از نویسندگان ، در کار تحقیقاتی تیم توضیح داد: “ما روش های مشابه آموزش را برای آموزش ردیاب های قوی Deepfake توصیه می کنیم. “یعنی در حین آموزش ، حریف سازگار به تولید Deepfakes جدید ادامه می دهد که می تواند وضعیت فعلی آشکارساز را دور بزند ، و آشکارساز برای کشف Deepfakes جدید همچنان پیشرفت می کند.”

این گروه چندین نمونه از کارهای خود را در GitHub منتشر کرده است. برای کسانی که به جزئیات این فناوری علاقه مند هستند ، به مقاله منتشر شده از طریق Cornell’s arXivLabs مراجعه کنید.


منبع: tanha-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>