تقدم Google ميزة جديدة في تطبيق Google Lens تسمح للمستخدمين بالتفاعل بطريقة مبتكرة عند البحث عن المعلومات. إذا كنت تواجه صعوبة في الحصول على ما تبحث عنه باستخدام صورة فقط، يمكنك الآن التقاط مقطع فيديو أو استخدام صوتك لطرح الأسئلة حول ما تراه.

ستعرض هذه الميزة معلومات مفصلة تعتمد على الذكاء الاصطناعي ونتائج البحث المستندة إلى محتوى الفيديو الخاص بك وأسئلتك. تم إطلاق هذه الميزة الجديدة في “Search Labs” للأجهزة الذكية التي تعمل بنظامي Android وiOS بدءًا من اليوم. وقد قامت Google بمشاركة هذه الإمكانية لأول مرة في مؤتمر I/O في مايو الماضي. على سبيل المثال، يمكن لمستخدم فضولي حول الأسماك في حوض السمك رفع هاتفه وجعل تطبيق Google Lens يقوم بتسجيل الفيديو مباشرة، ثم طرح السؤال “لماذا يسبحون معًا؟”

ووفقًا لراجان باتيل، نائب رئيس الهندسة في Google، فإن الشركة تعتمد تقنية التقاط الفيديو كخطوات متسلسلة من إطارات الصور، ومن ثم تستخدم تقنيات الرؤية الحاسوبية التي تم تطبيقها سابقًا في Google Lens. يُعتبر هذا التطوير عن طريق استخدام نموذج Gemini AI “المخصص” لفهم الإطارات المتعددة في تسلسل وتقديم إجابات مستندة إلى المعلومات المتاحة على الويب.

في الوقت الحالي، لا تدعم Google Lens التعرف على الأصوات الموجودة في مقاطع الفيديو، مثل التعرف على طائر يمكنك سماعه، لكن باتيل يشير إلى أن الشركة تعمل على تطوير هذه الميزة. بالإضافة إلى ذلك، تم تحديث Google Lens ليكون بإمكان المستخدمين طرح الأسئلة باستخدام الصوت عند البحث بالصورة، مع خطوات بسيطة تتضمن توجيه الكاميرا و الضغط لفترة طويلة على زر الغالق ثم طرح السؤال.

هذا التحديث يمثل طفرة هائلة في كيفية استخدام Google Lens للتفاعل مع البيئة المحيطة بكل سهولة. على الرغم من أن الأسئلة الصوتية متاحة عالميًا على منصات Android وiOS، إلا أنها تدعم اللغة الإنجليزية فقط في الوقت الحالي. تأمل Google في توسيع دعم اللغات في المستقبل لتلبية احتياجات مستخدميها في جميع أنحاء العالم.