
دامینیک لیز، کارشناس هوش مصنوعی، تصمیم مورگان نویل برای بازسازی صدای آنتونی بوردین با کمک هوش مصنوعی در مستند «رودرانر» را «کاملاً تکاندهنده» خواند.
بوردین در سال ۲۰۱۸ با خودکشی به زندگی خود پایان داد.
لیز افزود: «نویل میخواست این فیلم نوعی ادای احترام، تقریباً یک مرثیه باشد. این فیلم پر از نیتهای خوب است.» او ادامه داد: «نویل میخواست اینطور به نظر برسد که بوردین از آن دنیا صحبت میکند، به سبک فیلم «سانست بلوار».»
در این فیلم، هنرمندی به نام دیوید چو ایمیلی را میخواند که این سرآشپز مشهور کمی پیش از مرگش برای او نوشته بود، اما ناگهان صدای «بوردین» ادامه متن را میخواند.
«تماشاگران کمکم متوجه شدند که یک جای کار میلنگد. آخر چه کسی صدای خودش را هنگام خواندن یک ایمیل ضبط میکند؟! پاسخ نویل این بود: “بسیار خب، اعتراف میکنم. من از یک صدای شبیهسازیشده استفاده کردم.” با این حال، او این موضوع را به مخاطبان اطلاع نداده بود. علاوه بر این، به منتقدانش گفت: “من از این فناوری در سه جای دیگر فیلم هم استفاده کردهام و به شما نخواهم گفت کجا.”»
لیز که در کنفرانس «اخلاق در مستندسازی» در جشنواره بینالمللی فیلم مستند ییهلاوا سخنرانی میکرد، گفت که آسیب به شهرت نویل «بسیار بسیار عمیق» بود.
«شخصاً دیگر نمیتوانم مستند دیگری از مورگان نویل را بدون این فکر تماشا کنم که: “تو عمداً مرا فریب دادی.” رابطه مبتنی بر اعتماد میان من، به عنوان مخاطب، و تو، به عنوان فیلمساز، کاملاً از بین رفته است.»
او استدلال کرد که عدم شفافیت در استفاده از هوش مصنوعی میتواند رابطه با بینندگان را «در هم بشکند». مسئله دیگر، رضایت است.
«در میانه جنجالهای “رودرانر”، نویل ادعا کرد: “من از همسر سابق بوردین پرسیدم و او گفت مشکلی ندارد.” اما همسرش در پاسخ گفت: “نه، من چنین حرفی نزدم.” این موضوع اعتبار او را بیش از پیش تضعیف کرد.»
لیز در یک سخنرانی کلیدی در این جشنواره اهل چک، به شرکت تولیدی Particle 6 که بر هوش مصنوعی متمرکز است نیز پرداخت. این شرکت که پیش از این با «بازیگر هوش مصنوعی» جنجالی خود، تیلی نوروود، شناخته شده بود، اکنون بر مستندهای تاریخی نیز تمرکز کرده است.
او با نمایش نمونه کارهای این شرکت و توصیف تلاشهایشان به عنوان «مضحک» گفت: «آنها گفتند که تیلی نوروود توسط ایجنتهای هالیوودی به کار گرفته خواهد شد و در فیلمها بازی خواهد کرد، اما آنها مستندسازی را نیز بخش مهمی از کسبوکار آینده خود میدانند و با بازسازیهای تاریخی شروع کردهاند.»
«بردگان در مصر باستان حولههای سفید روشنی پوشیدهاند، انگار که تازه از سونا بیرون آمدهاند. این شیوهای است که Particle 6 امیدوار است با آن نظر مستندسازانی را که در حوزه تلویزیون و مستند تاریخی فعالیت میکنند، جلب کند.» او افزود، بسیاری از شرکتها امیدوارند که یک بیانیه اخلاقی بتواند «اعتماد ایجاد کند» و به شرکت Gennie اشاره کرد که آن هم در زمینه مستند و بازسازی تاریخی تخصص دارد.
«آنها “فرامین جنی” خود را دارند؛ یک مرامنامه و کد اخلاقی عمومی که “دقت تاریخی، شفافیت، انصاف در نمایش و احترام به شباهت واقعی انسان را ترویج میکند.” اما ما باید نسبت به شرکتهایی که اخلاقیات را در راستای تبلیغات خود به نمایش میگذارند، بسیار بسیار محتاط باشیم.»
لیز با بازگشت به موضوع دستکاری صدا، به مستند «استقامت» از نشنال جئوگرافیک اشاره کرد که مأموریت ارنست شکلتون به قطب جنوب در سالهای ۱۹۱۴-۱۹۱۷ را به تصویر میکشد. سازندگان این مستند تصمیم گرفتند صدای او را بازسازی کنند و در تیتراژ پایانی یک سلب مسئولیت اضافه کردند.
لیز گفت: «روت جانستون، تهیهکننده، باید به این فکر میکرد که رابطهاش با مخاطب چیست. “من در فیلمم از هوش مصنوعی استفاده کردهام. چه باید بکنم؟” او به وضوح بیان میکند که این صداها با استفاده از هوش مصنوعی بازسازی شدهاند.» لیز تأکید کرد که «شفافیت یکی از اساسیترین مسائل اخلاقی پیرامون استفاده از هوش مصنوعی مولد توسط مستندسازان خواهد بود.»
با این حال، ساخت صدا – به ویژه در مورد شخصیتهای تاریخی – میتواند پیچیده باشد. فیلم کوتاه «تاریخ به ما هیچ نمیآموزد» اثر یان رهوینکل که در این جشنواره به نمایش درآمد، شخصیت هیتلر را به تصویر میکشد.
«وقتی شما آواتار انسانی یا صدای شبیهسازیشده دیپفیک خود را با هوش مصنوعی میسازید، این یک دارایی دائمی است که برای همیشه وجود خواهد داشت. و چه کسی آن را کنترل میکند؟ مستندسازان فکر میکنند نیازی به نگرانی نیست، چون فیلمشان را ساختهاند. اما این یک مدل دقیق از صدای آدولف هیتلر است که در دسترس قرار گرفته است. هر کسی میتواند از آن استفاده کند. اخلاقیات به کل فناوری مربوط میشود، نه فقط به خود فیلمسازان.»
فلیکس مولر نیز در مستند «یهودی شیرینسخن ۲.۰: از پروپاگاندای نازی تا یهودستیزی آنلاین» با دوراهی مشابهی روبرو شد و در نهایت تصمیم گرفت صدای هنری فورد را بازسازی نکند.
لیز توضیح داد: «او در دهههای ۱۹۲۰ و ۱۹۳۰ یکی از ثروتمندترین مردان جهان و یک یهودستیز بود که شباهتهایی با زمان حال دارد. او به سند جعلی “پروتکلهای بزرگان صهیون” چسبیده بود.»
«آنها فکر کردند: “آیا ممکن است کاری کنیم که هنری فورد رساله یهودستیزانه خودش را بخواند؟” این متن کاملاً نفرتانگیز است، اما شما به عنوان یک فیلمساز میخواهید نشان دهید که یهودستیزی در آن زمان در آمریکا چقدر زننده بود. آنها آن را به من نشان دادند و من به دلایل متعددی نگران شدم. واضح است که یک یهودستیز میتواند این صدا را استخراج کرده و از آن در پروپاگاندای یهودستیزانه قرن بیست و یکم استفاده کند.»
او افزود: «این نکته مهمی است که مستندسازان باید در نظر بگیرند. من این فرصت را دارم که از هوش مصنوعی مولد استفاده کنم، که ممکن است راهی زیبا برای تکمیل تأثیر خلاقانه فیلمم باشد، اما هر لحظه هم میتوانم تصمیم بگیرم که این کار درستی نیست.»
او با تحسین نمونههایی از کاربرد هوش مصنوعی در مستندهایی مانند «به چچن خوش آمدید»، که در آن از دیپفیک برای پنهان کردن هویت فعالان لزبین و گی که ممکن بود کشته شوند استفاده شده بود، خاطرنشان کرد: «در عصر هوش مصنوعی، مخاطب به طور فزایندهای آگاه است که آنچه روی صفحه میبیند ممکن است واقعی نباشد. اصالت از ابتدای پیدایش مستندسازی یک مسئله بوده است، اما اکنون ما با مشکل بسیار جدیتری روبرو هستیم.»