لماذا تعتقد Google أن التعلم الآلي هو مستقبلها

عرض أحد العروض الأكثر إثارة للاهتمام في Google I / O الرئيسي هذا الأسبوع إصدارًا جديدًا من المساعد الصوتي من Google والذي من المقرر إصداره في وقت لاحق من هذا العام. طلب أحد موظفي Google من مساعد Google عرض صورها ثم إظهار صورها مع الحيوانات. تنصت على واحدة وقالت ، "أرسلها إلى جوستين". تم إسقاط الصورة في تطبيق المراسلة.

من هناك ، أصبحت الأمور أكثر إثارة للإعجاب.

"يا Google ، أرسل بريدًا إلكترونيًا إلى جيسيكا" ، قالت. "مرحباً جيسيكا ، لقد عدت للتو من يلوستون ووقعت في حبها تمامًا." كتب الهاتف كلماتها ، ووضع "Hi Jessica" على خطها الخاص.

"خضع لمغامرات يلوستون" ، قالت. لقد فهم المساعد أنه يجب أن يضع "مغامرات يلوستون" في سطر الموضوع ، وليس نص الرسالة.

ثم دون أي أمر صريح ، عادت المرأة إلى إملاء جسد الرسالة. وأخيراً قالت "أرسلها" ، كما فعل مساعد Google.

وقالت الشركة إن جوجل تعمل أيضًا على توسيع فهم المساعد للمراجع الشخصية. إذا قال أحد المستخدمين ، "يا Google ، ما هو الطقس في منزل أمي" ، فستتمكن Google من معرفة أن "منزل الأم" يشير إلى منزل والدة المستخدم ، ويبحث عن عنوانها ، ويقدم تنبؤًا بالطقس لـ مدينتها.

تقول Google إن مساعد الجيل التالي سيصل إلى "هواتف Pixel الجديدة" ، أي الهواتف التي تأتي بعد خط Pixel 3 الحالي في وقت لاحق من هذا العام.

من الواضح أن هناك فرقًا كبيرًا بين عرض توضيحي المعلبة ومنتج شحن. سيتعين علينا الانتظار لمعرفة ما إذا كانت التفاعلات النموذجية مع المساعد الجديد تعمل بشكل جيد. لكن يبدو أن Google تحقق تقدمًا ثابتًا نحو حلم بناء مساعد افتراضي يمكنه التعامل بكفاءة مع المهام المعقدة عن طريق الصوت.

كان الكثير من الإعلانات في I / O مثل هذا: ليس الإعلان عن منتجات جديدة كبرى ، ولكن استخدام تقنيات التعلم الآلي لجعل مجموعة من منتجات Google أكثر تطوراً ومساعدة تدريجياً. كما أشارت Google إلى عدد من التحسينات التي يتم إدخالها على برامج التعلم الآلي الخاصة بها ، والتي ستسمح لكل من برامج Google وبرامج الجهات الخارجية باستخدام تقنيات أكثر تطوراً في تعلم الآلة.

على وجه الخصوص ، تبذل Google دفعة كبيرة لتحويل عمليات التعلم الآلي من السحابة إلى الأجهزة المحمولة الخاصة بالشعوب. يجب أن يسمح هذا للتطبيقات التي تعمل بنظام ML أن تكون أسرع وأكثر خصوصية وقادرة على العمل في وضع عدم الاتصال.

قادت جوجل هذه التهمة في التعلم الآلي

إذا سألت خبراء التعلم الآلي عند بدء الطفرة التعليمية العميقة الحالية ، فسوف يشير الكثيرون إلى ورقة عام 2012 تُعرف باسم "AlexNet" بعد المؤلف الرئيسي Alex Krizhevsky. شارك المؤلفون ، وهم ثلاثة من الباحثين من جامعة تورنتو ، في مسابقة ImageNet لتصنيف الصور إلى واحدة من ألف فئة.

زوّد منظمو ImageNet أكثر من مليون صورة بالعلامات المميزة لتدريب الشبكات. حققت AlexNet دقة غير مسبوقة من خلال استخدام شبكة عصبية عميقة ، مع ثماني طبقات يمكن تدريبها و 650.000 خلية عصبية. لقد تمكنوا من تدريب مثل هذه الشبكة الضخمة على الكثير من البيانات لأنهم توصلوا إلى كيفية استخدام وحدات معالجة الرسومات من فئة المستهلك ، والتي صممت للمعالجة المتوازية على نطاق واسع.

لقد أثبتت AlexNet أهمية ما يمكن أن تسميه البراز ذو الثلاث أرجل للتعلم العميق: خوارزميات أفضل ، والمزيد من بيانات التدريب ، وقوة حوسبية أكثر. خلال السنوات السبع الماضية ، كانت الشركات تسعى جاهدة لتعزيز قدراتها على جميع الجبهات الثلاث ، مما أدى إلى أداء أفضل وأفضل.

كانت Google تقود هذه الرسوم تقريبًا من البداية. بعد عامين من فوز AlexNet بمسابقة التعرف على الصور التي يطلق عليها ImageNet في عام 2012 ، دخلت Google المسابقة بشبكة عصبية أعمق وحصلت على أعلى جائزة. وقد عينت الشركة العشرات من خبراء تعلم الآلة من أعلى المستويات ، بما في ذلك اقتناء عام 2014 لشركة DeepMind الناشئة للتعلم العميق ، مما جعل الشركة في طليعة تصميم الشبكات العصبية.

لدى الشركة أيضًا وصول لا مثيل له إلى مجموعات البيانات الكبيرة. وصفت ورقة في عام 2013 كيف كانت Google تستخدم شبكات عصبية عميقة للتعرف على أرقام العناوين في عشرات الملايين من الصور التي التقطها Google Street View.

تعمل Google بجد على واجهة الأجهزة أيضًا. في عام 2016 ، أعلنت Google عن إنشاء شريحة مخصصة تسمى وحدة معالجة Tensor مصممة خصيصًا لتسريع العمليات التي تستخدمها الشبكات العصبية.

"على الرغم من أن Google نظرت في إنشاء دائرة متكاملة خاصة بالتطبيقات (ASIC) للشبكات العصبية في وقت مبكر من عام 2006 ، إلا أن الموقف أصبح عاجلاً في عام 2013." كتب غوغل في عام 2017. "عندما أدركنا أن المتطلبات الحسابية المتنامية بسرعة للشبكات العصبية قد يتطلب منا مضاعفة عدد مراكز البيانات التي نعمل بها. "

لهذا السبب ركزت Google I / O على هذا التعليم الآلي على مدار السنوات الثلاث الماضية. وتعتقد الشركة أن هذه الأصول - جيش صغير من خبراء تعلم الآلة ، وكميات هائلة من البيانات ، والسيليكون المخصص لها - تجعلها في وضع مثالي لاستغلال الفرص التي يوفرها التعلم الآلي.

لم يكن لدى Google I / O لهذا العام الكثير من إعلانات المنتجات الرئيسية الجديدة المتعلقة بـ ML لأن الشركة قامت بالفعل بتجربة تعلم الآلة في العديد من منتجاتها الرئيسية. كان لدى Android التعرف على الصوت ومساعد Google لسنوات. تمتلك Google Photos منذ فترة طويلة وظيفة بحث مبنية على أساس ML. في العام الماضي ، قدمت Google Google Duplex ، التي تقوم بإجراء حجز نيابة عن مستخدم بصوت بشري غير واقعي تم إنشاؤه بواسطة البرنامج.

بدلاً من ذلك ، ركزت عروض I / O حول التعلم الآلي على مجالين: تحويل المزيد من أنشطة التعلم الآلي إلى الهواتف الذكية واستخدام التعلم الآلي لمساعدة الأشخاص المحرومين - بمن فيهم الأشخاص الصم أو الأميون أو الذين يعانون من السرطان.

الضغط على آلة التعلم على الهواتف الذكية

تضمنت الجهود السابقة لجعل الشبكات العصبية أكثر دقة جعلها أعمق وأكثر تعقيدًا. لقد أسفر هذا النهج عن نتائج مثيرة للإعجاب ، لكن له جانبًا كبيرًا: فغالبًا ما تنتهي الشبكات بأنها معقدة للغاية بحيث لا يمكن تشغيلها على الهواتف الذكية.

تعامل الناس في الغالب مع هذا عن طريق تفريغ حساب على السحابة. تقوم الإصدارات السابقة من Google والمساعدين الصوتيين من Apple بتسجيل الصوت وتحميله إلى خوادم الشركات للمعالجة. لقد نجح ذلك تمامًا ، لكن كان له ثلاثة جوانب سلبية كبيرة: كان لديه زمن انتقال أعلى ، وكان لديه حماية خصوصية أضعف ، وستعمل الميزة عبر الإنترنت فقط.

لذا تعمل Google على تحويل المزيد والمزيد من العمليات الحسابية على الجهاز. تمتلك أجهزة Android الحالية بالفعل إمكانات أساسية للتعرف على الصوت على الجهاز ، لكن مساعد Google الظاهري يتطلب اتصالاً بالإنترنت. تقول Google إن هذا الموقف سوف يتغير في وقت لاحق من هذا العام من خلال وضع عدم الاتصال الجديد لمساعد Google.

هذه القدرة الجديدة هي سبب كبير لأوقات الاستجابة السريعة التي أظهرها العرض التوضيحي لهذا الأسبوع. تقول Google إن المساعد سيكون "أسرع حتى 10 مرات" في بعض المهام.

شاهد الفيديو: تقرير مطارحة فكرية: كيف يكون للجهل علم (أبريل 2020).