قد يبدو التمرير خلال تطبيق Sora أشبه بالدخول إلى عالم متعدد حقيقي.
مايكل جاكسون يؤدي وضع الوقوف. الكائن الفضائي من أفلام “بريداتور” يقلب البرغر في ماكدونالدز؛ تلتقط كاميرا مراقبة منزلية غزالًا يقتحم الباب الزجاجي؛ الملكة إليزابيث تغوص من أعلى طاولة في إحدى الحانات.
مثل هذه الحقائق غير المحتملة والمستقبل الخيالي ومقاطع الفيديو العبثية هي الدعامة الأساسية لتطبيق Sora، وهو تطبيق فيديو قصير جديد تم إصداره بواسطة صانع ChatGPT OpenAI.
إن التدفق المستمر لمقاطع الفيديو القصيرة والواقعية التي يتم إنتاجها بواسطة الذكاء الاصطناعي أمر مذهل ومذهل في البداية. ولكنه سرعان ما يثير حاجة جديدة إلى التشكيك في كل جزء من المحتوى باعتباره حقيقيًا أو مزيفًا.
وقال سام جريجوري، الخبير في التزييف العميق والمدير التنفيذي لمنظمة ويتنس، وهي منظمة لحقوق الإنسان: “الخطر الأكبر في سورا هو أنه يجعل من المستحيل التغلب على الإنكار المعقول، وأنه يقوض الثقة في قدرتنا على التمييز بين الحقيقة والاصطناعية”. “التزييف الفردي مهم، لكن الضرر الحقيقي هو ضباب من الشك يخيم على كل ما نراه”
جميع مقاطع الفيديو الموجودة على تطبيق Sora تم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي، ولا يوجد خيار لمشاركة لقطات حقيقية. ولكن منذ الأسبوع الأول من إطلاقه، كان المستخدمون يشاركون مقاطع فيديو Sora الخاصة بهم عبر جميع أنواع وسائل التواصل الاجتماعي.
بعد أقل من أسبوع من إطلاقه في 30 سبتمبر، تجاوز تطبيق Sora مستوى مليون التنزيلات، متجاوزًا النمو الأولي لـ ChatGPT. وصل Sora أيضًا إلى قمة متجر التطبيقات في الولايات المتحدة. وفي الوقت الحالي، يتوفر تطبيق Sora فقط لمستخدمي iOS في الولايات المتحدة، ولا يمكن للأشخاص الوصول إليه إلا إذا كان لديهم رمز دعوة.
لاستخدام التطبيق، يتعين على الأشخاص مسح وجوههم ضوئيًا وقراءة ثلاثة أرقام معروضة على الشاشة حتى يتمكن النظام من التقاط التوقيع الصوتي. بمجرد الانتهاء من ذلك، يمكن للمستخدمين كتابة مطالبة نصية مخصصة وإنشاء مقاطع فيديو واقعية مدتها 10 ثوانٍ كاملة مع صوت الخلفية والحوار.
ومن خلال ميزة تسمى “Cameos”، يستطيع المستخدمون تركيب وجوههم أو وجه أحد الأصدقاء في أي مقطع فيديو موجود. على الرغم من أن جميع المخرجات تحمل علامة مائية مرئية، إلا أن العديد من مواقع الويب تقدم الآن إمكانية إزالة العلامة المائية لمقاطع فيديو Sora.
عند الإطلاق، اتبعت OpenAI نهجًا متساهلاً في فرض قيود حقوق الطبع والنشر وسمحت بإعادة إنشاء المواد المحمية بحقوق الطبع والنشر بشكل افتراضي، ما لم يختار المالكون الانسحاب.
بدأ المستخدمون في إنشاء مقاطع فيديو بتقنية الذكاء الاصطناعي تضم شخصيات من عناوين مثل “SpongeBob SquarePants” و”South Park” و”Breaking Bad”، ومقاطع فيديو مصممة على غرار برنامج الألعاب “The Price Is Right” والمسلسل الهزلي “Friends” في التسعينيات.
ثم جاءت إعادة خلق المشاهير الموتى، بما في ذلك توباك شاكور الذي يتجول في الشوارع في كوبا، وهتلر في مواجهة مايكل جاكسون، وريمكسات من القس مارتن لوثر كينغ جونيور وهو يلقي خطابه الشهير “لدي حلم” – لكنه دعا إلى إطلاق سراح مغني الراب المشين ديدي.
وقالت زيلدا ويليامز، ابنة الممثل الكوميدي الراحل روبن ويليامز، على موقع “من فضلك، توقف عن إرسال مقاطع فيديو لأبي مدعومة بالذكاء الاصطناعي”. انستغرام. “أنت لا تصنع فنًا، بل تصنع نقانق مثيرة للاشمئزاز ومُعالجة بشكل مفرط من حياة البشر، من تاريخ الفن والموسيقى، ثم تضعها في حلق شخص آخر، على أمل أن يعجبك الأمر قليلاً. إنه مقرف.”
تم إعادة إنشاء المشاهير الموتى الآخرين، بما في ذلك كوبي براينت وستيفن هوكينج والرئيس كينيدي، التي تم إنشاؤها على Sora على مواقع التواصل الاجتماعي، وحصدت ملايين المشاهدات.
قالت كريستينا جورسكي، مديرة الاتصالات في شركة فريد روجرز للإنتاج، إن عائلة روجرز “شعرت بالإحباط بسبب مقاطع فيديو الذكاء الاصطناعي التي تحريف السيد روجرز والتي يتم تداولها عبر الإنترنت”.
تمت مشاركة مقاطع فيديو للسيد روجرز وهو يحمل مسدسًا، ويحيي مغني الراب توباك، وغيرها من المواقف المزيفة الساخرة على نطاق واسع على سورا.
“تتناقض مقاطع الفيديو بشكل مباشر مع النية الدقيقة والالتزام بالمبادئ الأساسية لتنمية الطفل التي جلبها فريد روجرز إلى كل حلقة من مسلسل Mister Rogers’ Neighborhood. لقد اتصلنا بـ OpenAI لنطلب حظر صوت السيد روجرز وشكله للاستخدام على منصة Sora، ونتوقع منهم ومن منصات الذكاء الاصطناعي الأخرى احترام الهويات الشخصية في المستقبل،” قال جورسكي في بيان لصحيفة التايمز.
بدأت وكالات ونقابات المواهب في هوليوود، بما في ذلك SAG-AFTRA، في اتهام OpenAI بالاستخدام غير السليم للأمثال. ويتلخص التوتر المركزي في السيطرة على استخدام صور الممثلين والشخصيات المرخصة، والتعويض العادل عن استخدامها في مقاطع فيديو الذكاء الاصطناعي.
في أعقاب مخاوف هوليوود بشأن حقوق الطبع والنشر، شارك سام ألتمان منشورًا على مدونة، ووعد بتحكم أكبر لأصحاب الحقوق لتحديد كيفية استخدام شخصياتهم في مقاطع فيديو الذكاء الاصطناعي – ويستكشف طرقًا لمشاركة الإيرادات مع أصحاب الحقوق.
وقال أيضًا إن الاستوديوهات يمكنها الآن “الاشتراك” في استخدام شخصياتها في إعادة إنشاء الذكاء الاصطناعي، وهو عكس موقف OpenAI الأصلي المتمثل في نظام إلغاء الاشتراك.
المستقبل، وفقًا لألتمان، يتجه نحو إنشاء محتوى مخصص لجمهور قليل – أو جمهور واحد.
كتب ألتمان: “قد يكون الإبداع على وشك المرور عبر انفجار كمبري، ومعه، يمكن أن تزيد جودة الفن والترفيه بشكل كبير”، واصفًا هذا النوع من المشاركة بـ “خيال المعجبين التفاعلي”.
ومع ذلك، تتسابق ورثة الممثلين المتوفين لحماية صورتهم في عصر الذكاء الاصطناعي.
أبرمت شركة CMG Worldwide، التي تمثل ممتلكات المشاهير المتوفين، شراكة مع شركة الكشف عن التزييف العميق الكثير من الذكاء الاصطناعي لحماية قوائم CMG للممثلين والعقارات من الاستخدام الرقمي غير المصرح به.
ستقوم Loti AI باستمرار بمراقبة عمليات انتحال الذكاء الاصطناعي لـ 20 شخصية تمثلها CMG، بما في ذلك بيرت رينولدز وكريستوفر ريف ومارك توين وروزا باركس.
قال Luke Arrigoni، المؤسس المشارك والرئيس التنفيذي لشركة Loti AI: “منذ إطلاق Sora 2، على سبيل المثال، زادت عمليات الاشتراك لدينا بمقدار 30 ضعفًا تقريبًا حيث يبحث الأشخاص عن طرق لاستعادة السيطرة على مظهرهم الرقمي”.
منذ شهر يناير، قالت شركة Loti AI إنها أزالت الآلاف من حالات المحتوى غير المصرح به، حيث جعلت أدوات الذكاء الاصطناعي الجديدة إنشاء ونشر الصور المزيفة العميقة أسهل من أي وقت مضى.
بعد العديد من “التصوير غير المحترم” لمارتن لوثر كينغ جونيور، قالت شركة OpenAI إنها أوقفت مؤقتًا إنشاء مقاطع الفيديو في صورة رمز الحقوق المدنية على سورا، بناءً على طلب ملكية الملك. وقالت OpenAI في منشور لها إنه على الرغم من وجود اهتمامات قوية بحرية التعبير في تصوير الشخصيات التاريخية، إلا أنه يجب أن يكون للشخصيات العامة وعائلاتهم في نهاية المطاف السيطرة على كيفية استخدام صورهم.
الآن، يمكن للممثلين المعتمدين أو أصحاب العقارات طلب عدم استخدام صورهم في حجاب Sora.
مع تصاعد الضغوط القانونية، أصبح سورا أكثر صرامة بشأن متى سيسمح بإعادة إنشاء الشخصيات المحمية بحقوق الطبع والنشر. ويطرح بشكل متزايد إشعارات انتهاكات سياسة المحتوى.
الآن، يؤدي إنشاء شخصيات ديزني أو صور أخرى إلى ظهور تحذير بشأن انتهاك سياسة المحتوى. بدأ المستخدمون الذين ليسوا معجبين بالقيود في إنشاء مقاطع فيديو مضحكة حول تحذيرات انتهاك سياسة المحتوى.
هناك انتشار متزايد لما أُطلق عليه اسم “انحدار الذكاء الاصطناعي”.
ظهرت في الأسبوع الماضي لقطات من الكاميرا الدائرية لجدة تطارد تمساحًا عند الباب، وسلسلة من مقاطع الفيديو “أولمبياد البدناء” حيث يشارك الأشخاص الذين يعانون من السمنة المفرطة في الأحداث الرياضية مثل القفز بالزانة والسباحة وسباقات المضمار.
لقد حولت المصانع المخصصة للمسلسلات التفاعلية إلى مصدر لكسب المال، مما أدى إلى توليد دفق مستمر من مقاطع الفيديو التي يصعب تجاهلها. أطلق عليه أحد المعلقين التكنولوجيين البليغين اسم “Cocomelon للبالغين”.
وحتى مع زيادة الحماية لأشكال المشاهير، يحذر النقاد من أن “الاستيلاء على الصور النمطية” بشكل عرضي لأي شخص أو موقف عادي يمكن أن يؤدي إلى ارتباك عام، وتعزيز المعلومات المضللة، وتقويض ثقة الجمهور.
وفي الوقت نفسه، حتى مع استخدام التكنولوجيا من قبل الجهات الفاعلة السيئة وحتى بعض الحكومات للدعاية والترويج لآراء سياسية معينة، يمكن للأشخاص الذين في السلطة الاختباء وراء طوفان الأخبار المزيفة من خلال الادعاء بأنه حتى الدليل الحقيقي قد تم إنشاؤه بواسطة الذكاء الاصطناعي، كما قال غريغوري من ويتنس.
وقال: “أنا قلق بشأن القدرة على اختلاق لقطات احتجاجية، أو تمثيل فظائع كاذبة، أو إدخال أشخاص حقيقيين بكلمات توضع في أفواههم في سيناريوهات مساومة”.
