Project Astra: ฟีเจอร์ AI ใหม่จาก Google รับคำสั่งแล้วลงมือทำเองได้เสร็จสรรพ ครั้งแรกในวงการ!
ในงาน Google I/O 2025 พ่อใหญ่ Google เปิดตัวฟีเจอร์ AI ใหม่ ๆ มากมาย โดยหนึ่งในไฮไลท์สำคัญคือวิดีโอเดโมของ Astra ซึ่งเป็น AI ฉบับอัปเกรด ที่ไม่ใช่แค่รับคำสั่งเสียงเท่านั้น แต่ยังลงมือทำให้เราได้ด้วยผ่านการควบคุมระบบ Android นับเป็นการทำลายข้อจำกัดของผู้ช่วย AI ไปอีกขั้นครับ
ไม่ใช่แค่ถาม-ตอบ แต่ลงมือทำให้ด้วย
Google ได้สาธิตการทำงานของ Project Astra ในงาน โดย Google ต้องการสร้างผู้ช่วย AI ครอบจักรวาล (Universal AI Assistant) ที่ เข้าใจสถานการณ์, วางแผนแก้ปัญหา และลงมือทำให้ โดยที่เราไม่ต้องให้ทำอะไรเพิ่มเลย (นอกจากการลงมือทำในโลกของความเป็นจริง)
ในเดโมที่ Google นำมาโชว์ในงาน เป็นการสมมติสถานการณ์ที่ผู้ใช้ถาม Astra ว่าจะซ่อมเบรคจักรยานยังไง ซึ่ง Astra จะเริ่มค้นหาคู่มือการซ่อมออนไลน์, เปิด PDF แล้วเลื่อนหน้าจอไปยังหัวข้อที่เกี่ยวกับเบรค จากนั้นเปิดแอป YouTube ค้นหาวิดีโอสอนวิธีซ่อมเบรคให้แบบเสร็จสรรพ
เมื่อผู้ใช้รู้แล้วว่าต้องใช้ชิ้นส่วนอะไร ก็สามารถสั่ง Astra ให้ค้นหาอีเมลเก่าเกี่ยวกับร้านจักรยาน หรือโทรหาร้านใกล้บ้านเพื่อตรวจสอบสต๊อกได้
ครั้งแรกที่ AI Agent ควบคุม Android ได้จริง
จากเดโมข้างต้น นับเป็นครั้งแรกที่ Google สาธิต AI agent ที่ควบคุมระบบ Android ได้โดยตรง ซึ่งได้แก่ การเปิดไฟล์ PDF, เลื่อนหาเนื้อหาที่ต้องการ, เปิดแอป YouTube, ค้นหา ไปจนถึงการเลือกวิดีโอที่เกี่ยวข้อง โดยเราจะเห็นการจำลองการกดจอ และลากนิ้วผ่านวงกลมเรืองแสง และไอคอนบันทึกหน้าจอที่มุมซ้ายบน
การทำงานลักษณะนี้คล้ายกับฟีเจอร์ Gemini Live แต่ที่ทำได้มากกว่าคือ Astra สามารถ ตัดสินใจแทน และลงมือเองได้
อย่างไรก็ตาม ยังไม่ทราบว่าเบื้องหลังมีการใช้ Gemini Nano รุ่น multimodal รันบนอุปกรณ์หรือไม่ และเดโมบางช่วงยังถูกเร่งความเร็ว 2 เท่า ซึ่งหมายความว่าการทำงานจริง ๆ อาจจะยังช้าอยู่
Google ยังไม่ประกาศว่าจะปล่อย Astra เวอร์ชั่นที่ควบคุม Android ได้เมื่อไหร่ แต่จากทิศทางล่าสุด ฟีเจอร์เหล่านี้อาจค่อย ๆ ทยอยเข้าสู่แอป Gemini บน Android ในอนาคตครับ
ที่มา : Google, Android Authority
วันที่ : 21/5/2568
