OpenAI ผู้พัฒนา ChatGPT เปิดตัว ‘Sora’ โมเดล AI ที่ใช้สร้างคอนเทนต์ผ่านการป้อนคำสั่งเข้าไป (Text-to-Video) โดยจะออกมาเป็นคลิปวิดีโอความยาวสูงสุด 1 นาที
โดย OpenAI ระบุว่า Sora สามารถสร้างฉากสุดซับซ้อนที่มีตัวละครมากกว่าหนึ่ง หรือมีการเคลื่อนไหวที่เฉพาะ ตลอดจนความสามารถในการเก็บรายละเอียดของวัตถุและฉากหลังได้อย่างแม่นยำ
นอกจากนี้ยังระบุว่า AI นั้นฉลาดถึงขั้นเข้าใจได้ว่าสิ่งที่ป้อนคำสั่งเข้าไปมีลักษณะเป็นอย่างไรในโลกความเป็นจริง รวมถึงสามารถ Generate พร็อพประกอบฉากออกมาได้อย่างแม่นยำ พร้อมสร้างตัวละครที่แสดงอารมณ์ได้ราวกับเป็นมนุษย์จริงๆ
และไม่เพียงแค่รับคำสั่งจากข้อความเท่านั้น แต่ Sora ยังสามารถสร้างวิดีโอจากภาพนิ่งและเติมเฟรมที่หายไปหรือสร้างเฟรมเพิ่มให้ได้อีกด้วย
แต่นอกจาก OpenAI แล้วยังมีแพลตฟอร์ม Runaway และ Pika ที่ได้พัฒนาโมเดล Text-to-Video เป็นของตัวเอง และยังมี Lumiere จาก Google ที่กำลังเป็นคู่แข่งคนสำคัญอยู่ในตอนนี้
และสำหรับคนที่อยากลองใช้อาจจะต้องรอไปก่อนเพราะตอนนี้ Sora กำลังอยู่ระหว่างวิเคราะห์เพื่อความเสี่ยงที่อาจเกิดขึ้นและให้ทดลองใช้ในกลุ่มศิลปิน นักออกแบบ และกลุ่มคนทำหนังเพื่อรับฟังฟีดแบ็ก
พร้อมมีการตั้งข้อสังเกตว่า โมเดลล่าสุดนี้อาจจะไม่สามารถจำลองลักษณะทางกายภาพของฉากที่ซับซ้อนได้ถูกต้องร้อยเปอร์เซ็นต์และฉากที่ออกมาอาจมีความไม่สมเหตุสมผลอยู่บ้าง ซึ่ง OpenAI ก็ต้องพัฒนาในส่วนนี้ต่อไป แต่สำหรับตัวอย่างวิดีโอที่ออกมาก็ถือว่าทำได้ค่อนข้างดีเลยทีเดียว
อ้างอิง