مجله اینترنتی رمز موفقیت

انتقاد شدید از «رودرانر» مورگان نویل و شرکت Particle 6 تیلی نوروود به دلیل استفاده «مضحک» و «تکان‌دهنده» از هوش مصنوعی

رودرانر - فیلمی درباره آنتونی بوردین
Focus Features/با مجوز از Everett Collection

دامینیک لیز، کارشناس هوش مصنوعی، تصمیم مورگان نویل برای بازسازی صدای آنتونی بوردین با کمک هوش مصنوعی در مستند «رودرانر» را «کاملاً تکان‌دهنده» خواند.

بوردین در سال ۲۰۱۸ با خودکشی به زندگی خود پایان داد.

لیز افزود: «نویل می‌خواست این فیلم نوعی ادای احترام، تقریباً یک مرثیه باشد. این فیلم پر از نیت‌های خوب است.» او ادامه داد: «نویل می‌خواست این‌طور به نظر برسد که بوردین از آن دنیا صحبت می‌کند، به سبک فیلم «سانست بلوار».»

در این فیلم، هنرمندی به نام دیوید چو ایمیلی را می‌خواند که این سرآشپز مشهور کمی پیش از مرگش برای او نوشته بود، اما ناگهان صدای «بوردین» ادامه متن را می‌خواند.

«تماشاگران کم‌کم متوجه شدند که یک جای کار می‌لنگد. آخر چه کسی صدای خودش را هنگام خواندن یک ایمیل ضبط می‌کند؟! پاسخ نویل این بود: “بسیار خب، اعتراف می‌کنم. من از یک صدای شبیه‌سازی‌شده استفاده کردم.” با این حال، او این موضوع را به مخاطبان اطلاع نداده بود. علاوه بر این، به منتقدانش گفت: “من از این فناوری در سه جای دیگر فیلم هم استفاده کرده‌ام و به شما نخواهم گفت کجا.”»

لیز که در کنفرانس «اخلاق در مستندسازی» در جشنواره بین‌المللی فیلم مستند ییهلاوا سخنرانی می‌کرد، گفت که آسیب به شهرت نویل «بسیار بسیار عمیق» بود.

«شخصاً دیگر نمی‌توانم مستند دیگری از مورگان نویل را بدون این فکر تماشا کنم که: “تو عمداً مرا فریب دادی.” رابطه مبتنی بر اعتماد میان من، به عنوان مخاطب، و تو، به عنوان فیلم‌ساز، کاملاً از بین رفته است.»

او استدلال کرد که عدم شفافیت در استفاده از هوش مصنوعی می‌تواند رابطه با بینندگان را «در هم بشکند». مسئله دیگر، رضایت است.

«در میانه جنجال‌های “رودرانر”، نویل ادعا کرد: “من از همسر سابق بوردین پرسیدم و او گفت مشکلی ندارد.” اما همسرش در پاسخ گفت: “نه، من چنین حرفی نزدم.” این موضوع اعتبار او را بیش از پیش تضعیف کرد.»

لیز در یک سخنرانی کلیدی در این جشنواره اهل چک، به شرکت تولیدی Particle 6 که بر هوش مصنوعی متمرکز است نیز پرداخت. این شرکت که پیش از این با «بازیگر هوش مصنوعی» جنجالی خود، تیلی نوروود، شناخته شده بود، اکنون بر مستندهای تاریخی نیز تمرکز کرده است.

او با نمایش نمونه کارهای این شرکت و توصیف تلاش‌هایشان به عنوان «مضحک» گفت: «آنها گفتند که تیلی نوروود توسط ایجنت‌های هالیوودی به کار گرفته خواهد شد و در فیلم‌ها بازی خواهد کرد، اما آنها مستندسازی را نیز بخش مهمی از کسب‌وکار آینده خود می‌دانند و با بازسازی‌های تاریخی شروع کرده‌اند.»

«بردگان در مصر باستان حوله‌های سفید روشنی پوشیده‌اند، انگار که تازه از سونا بیرون آمده‌اند. این شیوه‌ای است که Particle 6 امیدوار است با آن نظر مستندسازانی را که در حوزه تلویزیون و مستند تاریخی فعالیت می‌کنند، جلب کند.» او افزود، بسیاری از شرکت‌ها امیدوارند که یک بیانیه اخلاقی بتواند «اعتماد ایجاد کند» و به شرکت Gennie اشاره کرد که آن هم در زمینه مستند و بازسازی تاریخی تخصص دارد.

«آنها “فرامین جنی” خود را دارند؛ یک مرامنامه و کد اخلاقی عمومی که “دقت تاریخی، شفافیت، انصاف در نمایش و احترام به شباهت واقعی انسان را ترویج می‌کند.” اما ما باید نسبت به شرکت‌هایی که اخلاقیات را در راستای تبلیغات خود به نمایش می‌گذارند، بسیار بسیار محتاط باشیم.»

لیز با بازگشت به موضوع دستکاری صدا، به مستند «استقامت» از نشنال جئوگرافیک اشاره کرد که مأموریت ارنست شکلتون به قطب جنوب در سال‌های ۱۹۱۴-۱۹۱۷ را به تصویر می‌کشد. سازندگان این مستند تصمیم گرفتند صدای او را بازسازی کنند و در تیتراژ پایانی یک سلب مسئولیت اضافه کردند.

لیز گفت: «روت جانستون، تهیه‌کننده، باید به این فکر می‌کرد که رابطه‌اش با مخاطب چیست. “من در فیلمم از هوش مصنوعی استفاده کرده‌ام. چه باید بکنم؟” او به وضوح بیان می‌کند که این صداها با استفاده از هوش مصنوعی بازسازی شده‌اند.» لیز تأکید کرد که «شفافیت یکی از اساسی‌ترین مسائل اخلاقی پیرامون استفاده از هوش مصنوعی مولد توسط مستندسازان خواهد بود.»

با این حال، ساخت صدا – به ویژه در مورد شخصیت‌های تاریخی – می‌تواند پیچیده باشد. فیلم کوتاه «تاریخ به ما هیچ نمی‌آموزد» اثر یان ره‌وینکل که در این جشنواره به نمایش درآمد، شخصیت هیتلر را به تصویر می‌کشد.

«وقتی شما آواتار انسانی یا صدای شبیه‌سازی‌شده دیپ‌فیک خود را با هوش مصنوعی می‌سازید، این یک دارایی دائمی است که برای همیشه وجود خواهد داشت. و چه کسی آن را کنترل می‌کند؟ مستندسازان فکر می‌کنند نیازی به نگرانی نیست، چون فیلمشان را ساخته‌اند. اما این یک مدل دقیق از صدای آدولف هیتلر است که در دسترس قرار گرفته است. هر کسی می‌تواند از آن استفاده کند. اخلاقیات به کل فناوری مربوط می‌شود، نه فقط به خود فیلم‌سازان.»

فلیکس مولر نیز در مستند «یهودی شیرین‌سخن ۲.۰: از پروپاگاندای نازی تا یهودستیزی آنلاین» با دوراهی مشابهی روبرو شد و در نهایت تصمیم گرفت صدای هنری فورد را بازسازی نکند.

لیز توضیح داد: «او در دهه‌های ۱۹۲۰ و ۱۹۳۰ یکی از ثروتمندترین مردان جهان و یک یهودستیز بود که شباهت‌هایی با زمان حال دارد. او به سند جعلی “پروتکل‌های بزرگان صهیون” چسبیده بود.»

«آنها فکر کردند: “آیا ممکن است کاری کنیم که هنری فورد رساله یهودستیزانه خودش را بخواند؟” این متن کاملاً نفرت‌انگیز است، اما شما به عنوان یک فیلم‌ساز می‌خواهید نشان دهید که یهودستیزی در آن زمان در آمریکا چقدر زننده بود. آنها آن را به من نشان دادند و من به دلایل متعددی نگران شدم. واضح است که یک یهودستیز می‌تواند این صدا را استخراج کرده و از آن در پروپاگاندای یهودستیزانه قرن بیست و یکم استفاده کند.»

او افزود: «این نکته مهمی است که مستندسازان باید در نظر بگیرند. من این فرصت را دارم که از هوش مصنوعی مولد استفاده کنم، که ممکن است راهی زیبا برای تکمیل تأثیر خلاقانه فیلمم باشد، اما هر لحظه هم می‌توانم تصمیم بگیرم که این کار درستی نیست.»

او با تحسین نمونه‌هایی از کاربرد هوش مصنوعی در مستندهایی مانند «به چچن خوش آمدید»، که در آن از دیپ‌فیک برای پنهان کردن هویت فعالان لزبین و گی که ممکن بود کشته شوند استفاده شده بود، خاطرنشان کرد: «در عصر هوش مصنوعی، مخاطب به طور فزاینده‌ای آگاه است که آنچه روی صفحه می‌بیند ممکن است واقعی نباشد. اصالت از ابتدای پیدایش مستندسازی یک مسئله بوده است، اما اکنون ما با مشکل بسیار جدی‌تری روبرو هستیم.»

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.