في خطوة تاريخية تعد بإعادة تشكيل كيفية تفاعل الأشخاص مع المعلومات عبر الإنترنت، قامت شركة جوجل رسمياً بنشر ميزة "البحث المباشر" (Search Live) المرتقبة بشدة على نطاق عالمي. ويمثل هذا الإعلان، الذي يبني على أشهر من الاختبارات الإقليمية، تطوراً جوهرياً في تكنولوجيا البحث من خلال تقديم تجارب ذكاء اصطناعي حوارية سلسة تتجاوز بكثير استعلامات البحث التقليدية القائمة على النصوص. ميزة "البحث المباشر" متاحة الآن في أكثر من 200 دولة ومنطقة، وهي تدمج المدخلات الصوتية، وبث الكاميرا المباشر، والذكاء الاصطناعي المتقدم لتقديم استجابات فورية وتدرك السياق في الوقت الفعلي.
يأتي هذا التوسع العالمي بعد أسابيع قليلة فقط من الكشف الأولي في 26 مارس 2026، ويمثل علامة فارقة رئيسية في جهود جوجل المستمرة لجعل البحث أكثر بديهية وشمولية وفائدة للمستخدمين اليوميين. وسواء كنت طالباً يجري بحثاً أثناء التنقل، أو مسافراً يستكشف محيطاً غير مألوف، أو صاحب منزل يقوم بمشروع من فئة "افعل ذلك بنفسك" (Do-It-Yourself)، فإن "البحث المباشر" يهدف إلى تحويل هاتفك الذكي إلى رفيق قوي يرى ويسمع ويفهم العالم من حولك.
ما هو "البحث المباشر" ولماذا هو مهم؟
في جوهره، يقوم "البحث المباشر" بتحويل الطريقة التي نبحث بها من خلال استبدال إدخالات الكلمات الرئيسية الثابتة بمحادثات ديناميكية متبادلة. يقوم المستخدمون ببساطة بفتح تطبيق جوجل، وتفعيل "الوضع المباشر" (Live mode)، والبدء في التحدث بشكل طبيعي أثناء توجيه كاميرا هواتفهم نحو الأشياء أو المشاهد أو المواقف في العالم الحقيقي. يقوم الذكاء الاصطناعي على الفور بتحليل بث الفيديو المباشر، ومعالجة الاستعلام المنطوق، والرد بإجابات صوتية واضحة، واقتراحات ذات صلة، وحتى أسئلة متابعة لتدقيق التفاعل.
تخيل أنك تقف في مطبخك، ممسكاً بمجموعة من المكونات المتبقية، وتسأل: "ماذا يمكنني أن أصنع للعشاء بهذه المكونات؟". لا يكتفي "البحث المباشر" بتحديد العناصر فحسب، بل يقدم أيضاً تعليمات وصفات خطوة بخطوة، ومعلومات غذائية، وخيارات متنوعة بناءً على التفضيلات الغذائية — كل ذلك بينما تواصل المحادثة دون الحاجة لاستخدام اليدين. أو تخيل نفسك في مسار للمشي لمسافات طويلة، ورأيت نباتاً غير عادي: وجه كاميرتك، واطلب التعرف عليه، وستتلقى تفاصيل حول فصيلته، ونصائح العناية به، وما إذا كان لمسه آمناً.
تتألق هذه الميزة في السيناريوهات العملية والواقعية حيث يعجز البحث التقليدي. يمكن للميكانيكيين تشخيص أعطال السيارات من خلال عرض مكونات المحرك؛ ويمكن للمتسوقين مقارنة المنتجات جنباً إلى جنب في المتاجر؛ كما يمكن للآباء تحديد الألعاب الآمنة أو شرح المفاهيم المعقدة للأطفال باستخدام الوسائل البصرية. هذا النهج المتعدد الوسائط — الذي يجمع بين الرؤية والصوت والمعرفة الواسعة — يجعل استرجاع المعلومات أسرع وأكثر تفاعلاً وسهولة في الوصول إليه بشكل أكبر من أي وقت مضى.
يصف المستخدمون الأوائل التجربة بأنها "امتلاك صديق خبير يمكنه رؤية ما تراه حرفياً". ومن خلال إزالة الحواجز مثل الكتابة على الشاشات الصغيرة أو المعاناة مع كلمات رئيسية دقيقة، يعمل "البحث المباشر" على دمج الجميع في الوصول إلى المعلومات، وخاصة لغير الناطقين باللغة الإنجليزية، أو الأشخاص الذين يعانون من ضعف البصر، أو أولئك الذين تكون أيديهم مشغولة في مهام أخرى.
تاريخ موجز للميزة وتطورها السريع
لم يظهر "البحث المباشر" بين عشية وضحاها. بدأت رحلته بمعاينات محدودة في الولايات المتحدة في يوليو 2025، تلاها إطلاق كامل في الولايات المتحدة في سبتمبر 2025. توسعت الميزة سريعاً لتشمل الهند، حيث اكتسبت شعبية هائلة بين المستخدمين الذين يبحثون عن مساعدة عملية فورية في لغات وبيئات متنوعة.
يعتمد الإطلاق العالمي الآن على أحدث التطورات في تشكيلة الذكاء الاصطناعي من جوجل، وتحديداً نموذج "جيميناي 3.1 فلاش لايف" (Gemini 3.1 Flash Live) المُحسَّن حديثاً. يوفر هذا النظام المطور معالجة أسرع، ودقة محسنة في ظروف الضوضاء أو الإضاءة المنخفضة، ودعماً أصيلاً للمحادثات متعددة اللغات عبر 98 لغة. اعتمدت الإصدارات السابقة على نماذج "جيميناي" التأسيسية، لكن الإصدار الحالي يوفر تدفقاً أكثر سلاسة للحوار، وتعرفاً أفضل على اللهجات، وتحليلاً أكثر موثوقية في الوقت الفعلي لمدخلات الكاميرا.
أكدت ليزا ما، مديرة إدارة المنتجات للبحث في جوجل، على أهمية هذا التوسع خلال الإعلان الرسمي. وأشارت إلى أن الفريق ركز على جعل التكنولوجيا تبدو طبيعية وموثوقة للمستخدمين في كل مكان، بغض النظر عن الموقع أو اللغة.
يعكس هذا التطوير رؤية جوجل الأوسع لـ "وضع الذكاء الاصطناعي" (Artificial Intelligence Mode) في البحث، حيث يتطور من مجرد نتائج نصية بسيطة إلى تجارب تفاعلية غامرة. على مدار العام الماضي، ساعدت تعليقات المستخدمين من الأسواق الأولية في تحسين كل شيء، بدءاً من سرعة الاستجابة وصولاً إلى ضوابط الخصوصية، مما يضمن أن النسخة العالمية تلبي معايير عالية من الأمان والفائدة.
كيفية الوصول إلى "البحث المباشر" واستخدامه على أجهزتك
البدء في استخدام "البحث المباشر" أمر مباشر ولا يتطلب أي تنزيلات إضافية سوى أحدث إصدار من تطبيق جوجل، المتاح على منصتي أندرويد (Android) و نظام تشغيل آيفون (iPhone Operating System). إليك دليل خطوة بخطوة لتحقيق أقصى استفادة من هذه الميزة:
تشغيل التطبيق: افتح تطبيق جوجل على هاتفك الذكي. ابحث عن زر "مباشر" (Live) البارز الموجود أسفل شريط البحث الرئيسي مباشرة أو المدمج ضمن قسم "وضع الذكاء الاصطناعي".
منح الأذونات: في المرة الأولى التي تستخدم فيها الميزة، اسمح بالوصول إلى الكاميرا والميكروفون. تمكن هذه الأذونات من تحليل الفيديو المباشر والتفاعل الصوتي.
تفعيل الوضع المباشر: اضغط على زر "مباشر" للبدء. سيظهر محدد منظر الكاميرا على الشاشة، جاهزاً لالتقاط أي شيء توجهه إليه.
اسأل بشكل طبيعي: أمسك هاتفك بثبات، واطرح سؤالك بوضوح، وشاهد كيف يعالج الذكاء الاصطناعي المدخلات البصرية والصوتية في الوقت الفعلي. يمكنك المقاطعة، أو طرح أسئلة متابعة، أو تبديل المواضيع بسلاسة.
التحكم في التجربة: تتيح لك الخيارات الموجودة على الشاشة كتم صوت الميكروفون، أو تشغيل الفيديو وإيقافه، أو عرض نص كامل للمحادثة للرجوع إليه لاحقاً. ولعمليات البحث البصري السريع بدون صوت، يمكنك أيضاً الوصول إلى قدرات البث المباشر مباشرة عبر علامة تبويب "جوجل لنس" (Google Lens).
تم تصميم الواجهة لتكون خالية من الفوضى وبديهية، مع أدوات تحكم كبيرة وسهلة النقر حتى للمستخدمين أثناء التنقل. كما يضمن تحسين استهلاك البطارية تشغيل الميزة بكفاءة دون استنزاف جهازك خلال الجلسات الطويلة.
ما الذي يميز "البحث المباشر" عن أدوات الذكاء الاصطناعي الأخرى؟
تميز العديد من الابتكارات الرئيسية ميزة "البحث المباشر" عن عروض الذكاء الاصطناعي الحوارية المنافسة:
ذكاء حقيقي متعدد الوسائط: على عكس برامج الدردشة الآلية التي تعتمد على النصوص فقط، فإنه يعالج مدخلات الكاميرا الحية جنباً إلى جنب مع الصوت، مستمداً المعلومات من قاعدة معرفة جوجل المفهرسة الواسعة للحصول على ردود دقيقة وموثوقة.
تدفق حواري طبيعي: يتذكر النظام السياق عبر تبادلات متعددة، مما يسمح للمستخدمين بالبناء على الإجابات السابقة دون تكرار أنفسهم.
خصوصية وشفافية معززة: غالباً ما تتضمن الردود مراجع للمصادر عندما يكون ذلك مناسباً، وتلتزم جميع عمليات المعالجة بمعايير صارمة لحماية البيانات. يحتفظ المستخدمون بالتحكم الكامل في ما يتم مشاركته.
أداء قوي في العالم الحقيقي: التعامل المتقدم مع الظروف الصعبة — مثل الإضاءة المتغيرة، واللهجات، وضوضاء الخلفية، أو زوايا الكاميرا غير العادية — يجعله موثوقاً في الحياة اليومية.
إمكانية وصول عالمية واسعة: من خلال دعم عشرات اللغات والعمل في مناطق ذات مستويات اتصال متفاوتة، فإنه يجلب ذكاءً اصطناعياً متطوراً للمستخدمين الذين لم تكن تخدمهم أدوات مماثلة من قبل.
التأثير في العالم الحقيقي وفوائد المستخدمين
يولد التوفر العالمي لـ "البحث المباشر" بالفعل حماساً عبر مجتمعات متنوعة. يفيد المعلمون باستخدامها لجعل الدروس أكثر تفاعلية، بينما يقدر أصحاب المشاريع الصغيرة أبحاث السوق الفورية أو تحديد المنتجات أثناء رحلات التوريد. ويستفيد المسافرون من الترجمة الفورية والرؤى الثقافية، ويمكن للمستخدمين المهتمين بالصحة مسح ملصقات الطعام لإجراء تحليل غذائي سريع.
يسلط خبراء إمكانية الوصول الضوء على كيفية مساعدة هذه الميزة للأفراد ذوي الإعاقة على التفاعل بشكل أكثر استقلالية مع محيطهم. على سبيل المثال، يمكن لشخص يعاني من حركية محدودة تحديد الأشياء أو الحصول على تعليمات دون الحاجة إلى الكتابة أو التنقل في قوائم معقدة.
نظرة إلى المستقبل: مستقبل البحث الذكي
هذا الإطلاق العالمي هو مجرد البداية. ألمحت جوجل إلى تحسينات قادمة، بما في ذلك تكامل أعمق مع الأجهزة القابلة للارتداء، وقدرات محسنة للعمل دون اتصال بالإنترنت، وحتى أوضاع أكثر تخصصاً للمجالات المهنية مثل الطب والهندسة والفنون الإبداعية.
مع استمرار تقدم الذكاء الاصطناعي، يجسد "البحث المباشر" التحول من استرجاع المعلومات السلبي إلى حل المشكلات النشط والتعاوني. إنه يؤكد التزام جوجل ببناء تكنولوجيا تبدو شخصية ومفيدة ومدمجة حقاً في الحياة اليومية.
![]() | ![]() | ![]() |
![]() | ![]() | ![]() |





