إذاً خلال العديد من المحاضرات الماضية لقد كان artemy يخبركم عن الشبكات العصبية، وكيف أتت هذه التقدمات الأساسية كنتيجة لهذه التقنية الجديدة. سنتحدث أكثر في هذا الدرس عن محاذير التعلم الآلي، وأمور لنفكر بها قبل نشر الأنظمة الجديدة هذه. إذاً، أحد النصائح الرئيسية التي لدينا لكم هي أنّ البيانات والأسئلة تأتي قبل الخوارزميات. إذاً، هذا الكثير من مشكلات التعلم الآلي. لا تحتاج تقنيات متقدمة كالشبكات العصبية العميقة مع LST M's والاستخدام المختلط وكل هذه التفاصيل التي ترافق ذلك يمكن للكثير من الأسئلة أن تحل من خلال امتلاك سؤال واضح جداً تجيبه أنت، ومجموعة بيانات جيدة، بحيث يجب عليك أن تجاوب ذلك السؤال. وإذاً، أول شيء لتفكر به هو ماذا أريد أن أعرف، وإن لم أستطع أن أعرف ماذا أريد أن أعرفه، هناك شيءٌ ما سيكون مفيداً على أي حال، وثانياً، هل لدي البيانات لأجاوب ذلك السؤال؟ بحيث إن لم يكن لديك تلك البيانات، كيف يمكن أن أحاول أن أحصل عليها. إذاً تحتاج الشبكات العصبية غالباً مجموعات بيانات ضخمة جداً لكي تعمل بشكلٍ لائق. ولمجموعات البيانات الأصغر، هناك خوارزميات مختلفة أخرى، والتي تعمل بشكلٍ أفضل مع بيانات صغيرة. وإذاً، شيءٌ واحد نفكر به وهو تجريب هذه الخوارزميات الأخرى قبل القفز إلى قطار الشبكات العصبية المرتفع. نؤكد مجدداً على التفكير بالبيانات والأسئلة قبل أن نفكر بالخوارزميات. إذاً، حول تلك النقطة عن البيانات الواضحة، ونقطة أخرى نريد أن نشير إليها هي أنّه ليس واضحاً دائماً كيف تجعل البيانات واضحة. وخاصةً، أشياء معينة واضحة بحيث يمكنك أن تمثل العمر كعدد، يمكنك أن تمثل الرمز البريدي كعدد، لكن هناك أشياء أخرى ليست واضحة جداً. إذاً، دعونا نتخيل أنّنا نريد أن نبني نظام توصية منتج، ولقد رأيت أنّ أحدّ ما في الماضي لقد بنى نظام توصية، لقد اشترى منصب ثلاثي القوائم، لقد اشتروا مكبر صوت، حسناً، كيف نأخذ تلك البيانات ونقوم بتوصيات جديدة، صحيح؟ طريقة واحدة يمكنك أن تقوم بها هي أن تسجل رقم المنتج الذي اشتروه حرفياً، لكن قد يكون ذلك مربكاً جداً، ربما تريد أن تمثل ذلك عندما اشتروا منصب ثلاثي القوائم، إذاً، ربما إذا رأيت أنّهم اشتروا منصب ثلاثي القوائم واشتروا مكبر صوت، قد يحتاجوا أيضاً إلى كاميرا، لكن بنفس الوقت، إذا رأيت إنّهم ينظروا إلى 6 أنواع مختلفة من المنصب ثلاثي القوائم، قد تريد هؤلاء كالمنصب ثلاثي القوائم تماماً الذي يريدونه. إذاً، يمكنك القيام بتوصية مختلفة لمنصب ثلاثي القوائم آخر على سبيل المثال. إذاً، شيءٌ آخر، هو أنّ بيانات اللغة الطبيعية يمكن أن تكون صعبة جداً لتمثّلها، ولذلك قد تأخذ كل كلمة بشكلٍ مستقل وتجعلها رقم، لكن تندمج هذه الكلمات بطرق صعبة في كثيرٍ من الأوقات. الآن، فرضياً يمكنك أن تأخذ جملة كاملة وتمثلها كعدد، لكن لن يكون ذلك مفيداً جداً لتستخدمه، لأنّ معظم الجمل ليس مستخدمة كثيراً. إذاً، مجدداً، إنّه صعبٌ جداً ويتطلب براعة والكثير من البحث لاكتشاف كيف يقرن شيئاً ما كبيانات اللغة الطبيعية، وندعة يقول، أوه هذا الشخص مثلي، أو ليس مثلي. إذاً، التحذير الآخر الذي نريد أن نذكره هو أنّ هذا مفهوم عتاد الحاسوب. لذلك كثيراً ما قد تحتاج الشبكات العصبية وخوارزميات التعلم الآلي الأخرى هذه، أن تتدرب على مجموعات بيانات ضخمة، ويحتاجوا أن يشتغلوا عبر هذه البيانات كثيراً من المرات، وإذاً، المقصد هو أنّه غالباً ما يأخذ الكثير من العتاد لكي يدرب هذه النماذج عملياً. وإذاً، ألفا غو الذي تحدثنا عنه منذ عدة دروسٍ مضت، والذي اشتغل فعلاً على شيءٍ ما يدعى وحدة معالجة التنسور، والتي هي قطعة من العتاد مصممة خصيصاً لكي تشتغل بسرعة، ولذلك لا تحتاج بالضرورة ذلك المقدار من العتاد المتخصص على حسب الطلب، لكنها الحالة التي كثيراً ما تحتاج إلى الكثير من بطاقات الرسومات، أو وصول إلى شيٍ ما كسحابة أمازون لكي تدرب هذه الخوارزميات عملياً. إذأً، إنّه شيءٌ آخر لتتذكره، اعتماداً على كم من الوقت قد تدربت، يمكن أن يكون هناك عمليات موازنة مختلفة، وخوارزميات التعلم الآلي. ومع ذلك شيْ ثالث لنتكلم عنه، والذي أعتقد أنّه كبير، وهو فكرة الشفافية والمتانة هذه، إذاً، قد يكون العديد منكم قد رأى حركة القذيفة، سواءً في صف القيزياء التمهيدية أو ... ودعونا نفكر كما لو أنّ لدينا مظليين سوف يقفزون من طائرة، وسنأخذ قوانين نيوتن في الحركة مع المقذوفات، والتي تقول.. حسناً، السرعة التي يضربون بها الأرض هي الجذر التربيعي لـ 2 في الارتفاع الذي قفزوا منه، في التسارع، بسبب الجاذبية، وإذا شغلنا هذه الأعداد نجد أنّهم سيصدمون الأرض بسرعة 120 ميل في الساعة، تلك سرعة سريعة جداً، لذلك على الآرجح يجب ألّا يقفزوا، صحيح؟ حسناً، ليس صحيحاً، إذاً، نعلم قوانين نيوتن ومع تجاهل المقذوفات لمقاومة الهواء، ولدى هؤلاء المظليين مظلات هبوط واتي تعمل بشكلٍ كامل تحت مقاومة الهواء، إذاً نعلم ذلك. سيكون هذا خاطئاً بسبب وجود مقاومة الهواء هنا وهناك، حسناً، إذاً ها هنا مثالٌ آخر، يوجد شبكة تصنف هذا الباندا بـ 50 7.7% وتصنف هذه، صورة قريبة جداً للباندا المعطاة بـ 99.3% إذاً، لماذا قامت الشبكة العصبية بهذا الحطأ؟ حسناً، إنّه ليس واضحاً جداً، أليس كذلك؟ إذاً، هذه أحد الفوائد الرئيسية لـ.. فلنقل.. الاكتشافات العلمية خلال التعلم الآلي التام في العلوم. نعلم غالباً ما هي الافتراضات، ومتى لا تعد هذه الافتراضات مستمرة؟ حسناً، مع خوارزميات التعلم الآلي، وخاصةً خوارزميات التعلم الآلي المتقدم أكثر، لا نعلم حقاً ماذا تعمل الافتراضات المركزية وراء الأفق، ولذلك متى سنتوقعهم أن يخفوا. إذاً، هذا شيء لتتذكروه، قبل أن تنشروا أو تستخدموا خوارزميات التعلم الآلي، وهو فهم ما تحتاجونه لتعرفوه، من ناحية ما هي أنواع الأخطاء الذي سيفعلها أو لا، في هذا المثال بالتحديد، لقد كان مُعَد بشيءٍ دقيق جداً يدعى مدخل الخصومة، حيث عرفوا كيف تصرفت الشبكة العصبية، وأخذوا صورة الباندا الأصلية تلك، ووجدوا تغيير صغير جداً في الصورة، حيث أنّه تغيير غير مدرك للبشر، لكنه صنع للشبكة العصبية فارقاً كبيراً. وإذاً، هناك رسالتين نوعاً ما، لتأتي إلى هنا، أحدهما والتي تبدو كخوارزمية تعلم آلي هي ذكية وغالباً تعيد إنتاج الذكاء البشري. إنّهم بكل تأكيد لا يقوموا بأخطاء بنفس الطريقة التي يقوم بها البشر. والشيء الثاني لنكون حذراً منه هو مسألة الأمن هذه نوعاً ما، حيث يوجد هؤلاء الأنواع من المداخل الذين يستطيعون أن يخدعوا النظام بشكلٍ كامل بطرق غير واضحة تماماً، ولذلك إنّه من المهم تذكر أشياء كهذه، قبل أن تحررهم وتدعهم يفعلوا مايشؤون، هناك تحذير رئيسي آخر نريد أن نتحدث عنه، أو ما ندعوه تأثيرات التقييم والتي تكون عندما تؤثر الشبكات العصبية على تنبؤاتها الخاصة بها. وإذاً، مثال بسيط على هذا، هو أنّ t نظام الطبقة الذي ذُكِرَ سابقاً في الدرس الأول حيث كان هناك سلسة من البيانات نوعاً ما والتي أخبرت الطيار كيف يتصرف وذلك لمحاولة تجنب اصطدام طيارَين. هناك مشكلة واحدة بنظام الطبقة T الأصلي وهي أنّه لم يعلم بشيء يدعى الأرض، ولذلك فإنه كثيراً ما يقوم بتنبؤات سيئة للطيارِين، فلنقل، عندما كانوا يقلعون ويهبطون، ولذلك لم يكن النظام متطوراً جداً بما فيه الكفاية، ليتعامل مع بيئة كاملة، والذي كانت منتشرة. وإذاً، لقد كان جزءاً من المشكلة أنّ الطيارِين الآن تعلموا ألّا يثفوا بالنظام تماماً نوعاً ما لأنّه لم يقم بالقرارات التي كانوا آملين أن يقوم بها، ولذلك، بسبب تكرار التققيم هذا، لم يكن النظام فعّال كما أملوا أن يكون أصلاً، ولقد توجّب عليهم أن يحدّثوا النظام باستمرار عدة مرات. إذاً، دعونا ننظر إلى مثال آخر من علم الأوبئة حيث ربما ستسجد بداية مرض، وسنحاول أن نرى كم هي السرعة التي سينتسر بها عبر السكان. الآن تفترض هذه النماذج غالباً أنّني سأقوم بما أقوم به عادةً، إذاً، سوف أذهب للعمل، سوف آتي للمنزل، ربما قد أذهب لبيت صديق، وسيؤثر ذلك على من أتفاعل معه، وبناءً على ذلك، من يمكن أن أنشر المرض له؟ ومع ذلك، إن كنت سآخذ نموذج علم الأوبئة هذا، وأقول، اوه يا إلهي هذا سيءٌ جداً، ومن ثمّ أعلن للجميع أنّنا يجب أن نكون حذرين جداً. حسناً، الآن، قد أكون فجأةً غير ذاهب للعمل، بدلاً من ذلك، ربما سأذهب لمكانٍ ما مختلف تماماً، وربما في الواقع لدي المرض، لكنني سأذهب إلى مدينة مختلفة تماماً، لأتجنبه، وهكذا انشر المرض بشكل أسرع بكثير عمّا إذا استخدمت النموذج. إذاً إنّه مهمٌ أن تتأكد أنّ النموذج لا يؤثر نوعاً ما على كيفية تصرف النظام الذي نجسده. ويأتي مثالٌ آخر على هذا من شيءٍ ما يدعى الانتكاس في قرارات إطلاق سراح مشروط. إذاً تقرير ما إن كان يجب عليك أن تمنح إطلاق سراح مشروط أو لا للأفراد، وهناك بعض المشاكل بالعدل، الذي تم البحث عنه. الآن، من ناحية كم هي عادلة، أو، فلنقل مُغرِضة خوارزميات صنع القرار هذه، وهذا شيءٌ رئيسي واحد لتفكر به. والشيء الثاني ذات الصلة، هوأن تفكر بـ ... دعونا نقول... لا نمنح إطلاق سراح مشروط لصنف معين من الأفراد، كخوارزميتنا التي تقول لا نمنحهم إطلاق سراح مشروط أبداً. حسناً، وإذا أردنا أيضاً أن نجمع بيانات في المستقبل لن نحصل على بيانات أبداً في تلك الفئة من الأفراد. إذاً، نحن لم نعلم أبداً أنّ نظامنا قد يكون خاطئاً. وإذاً، مجدداً، إن كانت خوارزمية التعلم الآلي تؤثر على البيانات، عندئذٍ سوف تدرّب التكرار التالي لخوارزمية التعلم الآلي. تحتاج أن تكون حذِراً جداً. إذاً، شيءٌ آخر لتفكر به وهو أنّ المشاكل كثيرة الحدوث، ليست مشاكل الذكاء الصنعي حتى، على الإطلاق. إذاً، هناك الكثير من... يتضمن ذلك التقاء البشر مع بعضهم لصنع قرارات، كمنظمة، على سبيل المثال، المشاكل السياسية، أو التعامل مع المشاكل العاطفية أو مشاكل العلاقات، كالمشاكل الاجتماعية، وفي العديد من الحالات الحواسيب ليست هناك لتحل هذه المشاكل لنا، هذه مشاكل من إنسان لإنسان، والتي تتضمن حل النزاعات، وقرارات أخرى هامة جداً، والتي فقط لا نستطيع أن نبرمج حاسوباً ليخبرنا بالحل الصحيح. مثالٌ آخر على ذلك، هوأنّ هناك مشاكل تعلم، ليست مشاكل تعلم آلي، إذاً، كما ذكرت، تولد مشاكل التعلم الآلي تنبؤات جديدة من بيانات، كثيراً من المشاكل لا تتطلب بيانات، تتطلب استبصار، وإذاً، في المنتصف هنا على سبيل المثال، هناك نص والذي كان يبدو ككلام غير مفهوم، لكن في الواقع، لقد كان مولداً وفقاً لشيءٍ ما يدعى شيفرة قيصر. وإذاً، وما هو شيفرة قيصر؟ هو أنّنا نستبدل كل حرف في الأبجدية بحرفٍ مختلف في الأبجدية. إذاً ، كمثال، تصبح a F وتصبح B Q الخ.. ولذلك، إن كان لديك استبصار، ما يمكنك أن تدركه هو أنّه في النصوص الإنجليزية، يظهر الحرف E في معظم الأحيان، لذلك ربما نستطيع أن نحصي الحرف الذي يظهر في أغلب الأحيان، ونجعل ذلك بالـ E ومن ثمّ بفعل هذا الإجراء، يمكنك أن تعيد ترجمة ذلك لنصه الأصلي، لكن، نرى هنا أنّ هذا يتطلب مستويين من الاستبصار، يتطلب أن نفهم أنّ هذا النص ليس كلام غير مفهوم، ربما يمثل شيئاً ما حقيقي، ولقد كان الشيء الثاني هو كيف تتوجه نحوعملية الترجمة هذه؟ لا تتطلب الكثير من البيانات، تتطلب استبصار لترى أنّه هناك. مثالٌ آخر على هذا هو رمز المتحدثون خلال الحرب العالمية ii حيث بدلاً من التحدث بالإنجليزية، تشفيرها وإرسالها عبر المذياع، بدلاً من ذلك كان لديهم متحدثين نافاجو أصليين، يتحدثون عبر المذياع. إذاً، إن كنت ألمانياً، ولم تسمع بالنافاجو أبداً من قبل، يبدو هذا ككلام غير مفهوم،وقد تعتقد أنّه نص مشفراً نوعاً ما، حسناً، بدلاً من هذا، إنّها لغة مختلفة كلياً، وإن كان لديك الاستبصار لتدرك أنّها نافاجو، ربما تستطيع أن تفعل شيئاً ما بشأنها، لكن في ألمانيا، لم يكن هنا الكثير من متحدثي النافاجو الأصليين، ولذلك لم يلاحظوا هذا أبداً، إذاً، لتلخيص التعلم الآلي،إنّه جيد، ولقد حقق الكثير من التقدمات الرئيسية على المشاكل التي قد كانت صعبة سابقاً، ومع ذلك هناك هذه المحاذير الهامة جداً لأخذها بعين الإعتبار. إذاً، نصيحتنا لكم هي أن يكون لديكم بيانات واضحة وأسئلة واضحة، قبل أن تبدؤا التفكير بالخوارزميات. تأكدوا من أنّ لديكم ما تحتاجونه لإجابة السؤال قبل أن تفكروا بطرق لكيفية لإجابة السؤال. وإذاً، وأيضاً، قبل أن تنشرواهذا النظام، نحثّكم على التفكير بكل هذه المحاذير التي ذكرناها، كمثال، الشفافية، ومختلف أنواع التقييم التي قد يتضمنها النظام مع نفسه.