معلومات عامة

خصائص الذكاء الاصطناعي

خصائص الذكاء الاصطناعي : أنظمة التعرف التلقائي لديها نقاط ضعف مذهلة. يتيح لك استغلال هذه العيوب الاستمتاع ، ولكن أيضًا لتحسين إجراءات التعلم … أو تصميم هجمات ضارة جديدة.

أصبح التعلم الآلي باستخدام الشبكات العصبية “العميقة” أمرًا شائعًا. كما هو الحال في كثير من الأحيان عندما يتعلق الأمر بالذكاء الاصطناعي ، هناك من يدرك بشكل معقول قدرات الأفكار الجديدة وهناك من يتخيل أكثر من ذلك بكثير. حدث هذا الحماس المفرط مع النجاحات الأولى لأساليب التعلم الآلي في الخمسينيات. بدأت مرة أخرى بأنظمة خبيرة في الثمانينيات. ثم في وقت لاحق مع الشبكات العصبية ؛ والآن هو شكل من أشكال هذه الشبكات يجعل الأمر يبدو وكأننا على وشك أن نضع في أجهزة الكمبيوتر لدينا ذكاءً عامًا يمكن أن يتفوق علينا.

لا تهدف هذه المقالة إلى تشويه سمعة تقنية رائعة انتصرت مؤخرًا في لعبة Go ، والتي تساعد في تصميم المركبات المستقلة ، والتي تعمل على تحسين الترجمة الآلية والتي يتم إتقانها بشكل متزايد ؛ ستعرفك كتب Aurélien Géron (انظر المراجع) على هذا العلم الجديد. نحن هنا نحاول أن نضع القدمين على الأرض لمن يتخيلونها على أنها دواء لكل داء الكمبيوتر.

جدول المحتويات

شبكات المحاكاة العصبية

الخلايا العصبية الرسمية المقترحة في عام 1959 هي نماذج حاسوبية ومبسطة من الخلايا العصبية في دماغنا. نصمم برامج تحاكي عددًا كبيرًا منها عن طريق تجميعها في طبقات متتالية ، مثل الخلايا العصبية في دماغ الإنسان. تتلقى الخلايا العصبية الرسمية لطبقة الإدخال في الشبكة المعلومات ، على سبيل المثال في شكل صور مقسمة إلى وحدات بكسل: كل بكسل هو إدخال. وفقًا لمعلماتها الداخلية ، ترسل الخلايا العصبية في هذه الطبقة الأولى إشارات إلى الخلايا العصبية في الطبقة الثانية ، والتي بدورها ، وفقًا لمعاييرها الداخلية ، ترسل إشارات إلى الطبقة الثالثة ، إلخ.

إقرأ أيضا:فوائد عشبة الطيون

خصائص الذكاء الاصطناعي : تشير نبضات الإخراج

تشير نبضات الإخراج ، أي الطبقة الأخيرة ، إلى الاستجابات المحتملة. هذه على سبيل المثال الأحرف A و B و C …: إذا كانت الصور المقدمة كمدخلات مكتوبة بخط اليد وأحرف غير دقيقة ، فإن الهدف المنشود هو أن تعرف الشبكة ، بمجرد توجيهها ، كيفية التعرف بشكل صحيح على الأحرف المقترحة لها. تتكون مرحلة التعلم من ضبط المعلمات الداخلية لكل خلية عصبية بحيث تستجيب الشبكة بشكل صحيح. في كثير من الأحيان ، يجب حساب عدة آلاف من المعلمات. يتكون الفن الكامل لبرمجة الشبكات العصبية ، بمساعدة عدد كبير من الصور مع تصنيفاتها (على سبيل المثال ، الأشكال المكتوبة بخط اليد والتي يشار إليها للشبكة التي تتوافق معها الأحرف) ،

نتحدث عن التعلم الخاضع للإشراف: خلال المرحلة الأولية ، نشير إلى الشبكة بالردود المطلوبة ؛ إنه يتعلم ، وإذا سارت الأمور على ما يرام ، فإنه يصبح قادرًا على العثور بمفرده على الإجابات الصحيحة للإدخالات الجديدة. نوع آخر من طرق تدريب شبكة عصبية رسمية يعتمد على فكرة مكافأتها عندما تقدم إجابة جيدة ومعاقبتها بطريقة أخرى ؛ هذه هي أساليب “التعلم المعزز”.

أدت قوة الحوسبة المتاحة اليوم ، وقواعد البيانات الكبيرة التي تم جمعها للأمثلة المستخدمة في مرحلة التعلم ، بالإضافة إلى مضاعفة الطبقات الداخلية للشبكة (نستخدم أحيانًا عدة عشرات) مؤخرًا إلى إنجازات مذهلة ، مثل انتصار آلات على البشر في لعبة الذهاب.

إقرأ أيضا:8 فوائد للعلكة الخالية من السكر:

الباحثون في هذا المجال

كان الباحثون في هذا المجال مقتنعين بأن الشبكة التي تعلمت جيدًا كانت بالضرورة قوية وتمنحها خاصية الاستمرارية: الخطوط التي ترسم بطريقة غامضة وتقريبية سيتم التعرف على الحرف بشكل صحيح ، وسيتم التعرف على صورة قريبة من صورة معترف بها. اعترف أيضا.

ومع ذلك ، ليس هذا هو الحال: فقد طور الباحثون صورًا مصيدة ، مصممة بحيث تقدم الشبكة التي تعلمت التعرف على فئة معينة من الصور استجابة غير متناسقة وخاطئة عند تقديم صورة قريبة إليها ، وهو ما يصنفه الإنسان بسهولة .

دعونا نصر على الحذر اللازم. من الواضح أن Yann LeCun ، رائد “التعلم العميق” الذي قاد الأبحاث في مجال الذكاء الاصطناعي في Facebook: “من الخطأ الحديث عن الخلايا العصبية! بالطريقة نفسها التي نتحدث بها عن جناح للطائرة ، ولكن أيضًا للطائر ، فإن الخلايا العصبية الاصطناعية هي نموذج مبسط للغاية للواقع البيولوجي. ويضيف: “إن أكثر أنواع الذكاء الاصطناعي نجاحًا اليوم لديها حس منطقي أقل من الفأر!” “

لدينا أساليب تتفوق على البشر في أنواع معينة من المشاكل وهذا نجاح باهر. ومع ذلك ، في العديد من المجالات ، أنشأت الحوسبة منذ فترة طويلة أنظمة تفوق البشر. هل يمكنك تخزين 300 رقم هاتف؟ هل تعرف كيف تحسب 310 في الثانية؟ لا. هاتفك الخلوي يفعل ذلك بسهولة. إن نجاحات الشبكات العصبية ، وطرق التعلم الآلي ، وطرق التنقيب عن البيانات الضخمة هي مآثر جديدة للآلات ، لكن هذه النجاحات لا تعني أن الآلات أصبحت ذكية حقًا.

إقرأ أيضا:عالم جورج ليميتر

خصائص الذكاء الاصطناعي : التجربة الغريبة لعام 2014

دعنا نعود إلى الأمثلة الحيلة لدينا. نشر فريق من سبعة باحثين منتسبين إلى جامعات نيويورك ومونتريال وجوجل وفيسبوك ، متحدين حول كريستيان زيجيدي ، في عام 2014 طريقة تسمح بخداع أنظمة التعرف المرئي.

يدعي باحثو الشبكات العصبية بسهولة أن الشبكات “تعمم”. إذا تعلمت الشبكة التعرف على حصان من مجموعة صور للخيول ، فستكون لديها القدرة على التعرف على الحصان في الصور التي لم يسبق لها مثيل. بدا واضحًا إذن أن الشبكة التي تصنف صورة حصان معينة بشكل صحيح ستصنف الصورة نفسها بشكل صحيح حيث تم تغيير عدد قليل من وحدات البكسل.

ليس هذا هو الحال: ستشير الشبكة أحيانًا إلى أنها ترى بقرة بدلاً من الحصان ، وهو ما يعرفه جميع البشر على الرغم من ذلك. إذا كان افتراض الاستمرارية الذي تم قبوله مسبقًا “ما هو قريب من صورة تمت معالجتها بشكل صحيح هو أيضًا” صحيحًا ، فلا يمكن لأسلوب الخدعة هذا أن ينجح. من المثير للقلق أن أسلوب مجموعة كريستيان سيجيدي يعمل دائمًا تقريبًا ويمكنه اختلاق أمثلة خادعة لفئة واسعة من الشبكات العصبية وبيانات التعلم. يكتب هؤلاء الباحثون: “بالنسبة لجميع الشبكات التي درسناها ولجميع قواعد الصور المستخدمة للتعلم ، نجحنا في إنشاء أمثلة قريبة جدًا لا يمكن تمييزها بصريًا للصور التي تم التعرف عليها بشكل صحيح والتي تم تصنيفها بشكل خاطئ بواسطة الشبكة. “

لإنشاء صور الملاءمة ، نستخدم وظيفة تقدر مخاطر الخطأ لكل صورة ممكنة ، ثم نستخدم خوارزمية تحسين والتي ، من التعديلات الصغيرة إلى التعديلات الصغيرة ، تشوه الصورة عن طريق زيادة هذا الخطر قدر الإمكان. خطأ ، مع تغيير الصورة التي تم التلاعب بها بأقل قدر ممكن. تدريجيًا ، دون أن تلاحظ العين البشرية أي تغييرات ملحوظة ، تنشئ الخوارزمية صورة ستنطلق عبر الشبكة.

مجال جديد للبحث

كما هو الحال في كثير من الأحيان في البحث ، عندما يتم اكتشاف فكرة جيدة ، فإن العديد من الأعمال توضحها وتوسعها. منذ مقال 2014 ، عثرت العشرات من الفرق على جميع أنواع الحيل الخادعة وأتقنتها ، بغض النظر عن طريقة التعلم المستخدمة لتثقيف الشبكة. في بعض الحالات ، قد يؤدي بكسل واحد معدل إلى تضليل الشبكة (انظر المربع 4). غالبًا ما تخدع الصورة التي تحبس إحدى الشبكات الشبكات الأخرى التي تعلمت بطريقة مختلفة. يوضح كريستيان زيجيدي:

“الأمثلة الحيلة لدينا قوية نسبيًا ، كما أنها تضلل الشبكات العصبية بعدد مختلف. من الطبقات عن تلك التي ولّدتها أو من مراحل التعلم باستخدام مجموعات فرعية فقط من البيانات. “

في التعلم الآلي ، يكون الخطأ الذي ترتكبه الأنظمة أحيانًا بسبب ما يسمى overfitting. تعلم الطريقة النظام أن يتفاعل مع عدد محدود من الأمثلة ، ولكن بمجرد الخروج منها ، يرتكب. النظام خطأ ، يشبه إلى .حد ما المنحنى الذي تجبره على المرور عبر جميع نقاط القياس المتاحة وهو غير قادر للتنبؤ بقيمة جديدة بشكل صحيح.

ومع ذلك ، من الصعب رؤية هذا باعتباره التفسير الصحيح للأمثلة الخادعة ، نظرًا لأن التصنيف التلقائي بواسطة الشبكة يعمل بشكل عام. ما يحدث هو أكثر دقة من فرط التخصيص: لقد عممت .الشبكة الأمثلة المستخدمة في مرحلة التعليمات ، لكن هذا التعميم ترك ثغرات كانت أساليب التحسين المستخدمة لاكتشافها ، وكشفت .عن حالات خطأ غير متوقع.

خصائص الذكاء الاصطناعي : بالإضافة إلى ذلك

بالإضافة إلى ذلك ، تمكنا من تصنيع كائنات. ثلاثية الأبعاد والتي ، عندما نقوم بتصويرها ، تنتج صورًا مصيدة: إنها ليست صورة محددة للغاية تخدع الشبكة ، ولكن كل تلك التي. تم إنشاؤها بواسطة كائن حقيقي. هذا أمر مقلق: على سبيل المثال ، يمكننا عمل علامة “توقف” خاطئة يمكن أن تفسرها مركبة ذاتية .القيادة على أنها إشارة تعطيها الأولوية! تتيح صور الفخاخ إمكانية أنواع جديدة من الهجمات ضد أنظمة الكمبيوتر التي تدمج الشبكات العصبية. من بين الأعمال التي تم تنفيذها ، دعنا نذكر تلك التي أثبتت أنه يمكننا التقاط عدة صور في نفس الوقت: نسعى. إلى تحسين البكسل الذي يزيد من قياس .مخاطر الخطأ إلى أقصى حد ليس على صورة واحدة ، ولكن على مجموعة من الصور. وهكذا يبني المرء خطوة بخطوة اضطرابًا واحدًا ، مصفوفة من القيم ، والتي ،

ما تمكنا من القيام به للصور تم تكييفه مع الأصوات. تسمح الأساليب التي وصفها ..مصطفى الزنتوت من جامعة كاليفورنيا في لوس أنجلوس وزملاؤه بتعديل صوت نطق “نعم” بشكل غير محسوس حتى. يفسره النظام العصبي على أنه “لا” (https: // nesl.github.io/adversarial_audio/). يمكن للمرء أن يتخيل العواقب الخطيرة التي قد تترتب على مثل هذه الأساليب إذا تم استخدامها لأغراض ضارة …

لتقييم تأثير الضوضاء المضافة إلى الأصوات الأولية لعمل أمثلة خادعة ، أجرى الباحثون مقارنة مع البشر. استمع كل فرد في مجموعة من 23 مشاركًا إلى 1500 تسلسل صوتي ..من دون أن يتم إخباره بما يجب العثور عليه. في 89٪ من الحالات ، لم يتأثر التعرف على البشر ، بينما كان الجهاز خاطئًا في 100٪ من الحالات.

الطرق الصحيحة

خصائص الذكاء الاصطناعي : ما اكتشفناه يوفر أدلة لإنشاء طرق تعلم جديدة أكثر مرونة. أبسط فكرة هي . بعد فترة التعلم الأولى ، بناء العديد من صور الفخاخ وجعلها تتعلم كمكمل للشبكة من خلال الإشارة إلى الإجابات الصحيحة ، تمامًا كما يشير .مدرس اللغة إلى أصدقاء مزيفين للشبكة.الطالب الذي ، حذر ، سيفعل لا تجعل الخطأ المرتبط بهذه التعبيرات المضللة.

فكرة بسيطة أخرى توفر الحماية الأولى بسهولة: ضغط البيانات. لاحظ Gintare Dziugaite ، من جامعة كامبريدج ، وزملاؤه في عام 2016 اهتمام وآثار أساليب ضغط الكمبيوتر للحماية من الصور الملتقطة. قبل جعل الشبكة تتعلم صورة ما ، سنقوم بتطبيق خوارزمية لضغط الصور شائعة الاستخدام عليها. يؤدي هذا إلى تغيير .بعض وحدات .البكسل قليلاً ، لكن الضغط ، عن طريق تبسيط الصورة ، يتخلص من الميزات غير الضرورية التي يمكن أن تأخذها الشبكة. في الاعتبار عندما تكون عرضية فقط. يعيدنا هذا التنعيم إلى ما هو أساسي في الصورة.

نجد أنفسنا مرة أخرى في موقف يؤدي فيه تحسين الأسلحة إلى تحسين الحماية. ماذا ستكون النتيجة النهائية لهذا التطور المشترك للسيف والدرع؟ لا أحد يعرف ، لكنه سيعمل بشكل عام على تطوير علم التعلم الآلي.

السابق
التعلم العميق للذكاء الاصطناعي
التالي
وصفات باستا لذيذة و سهلة