تزدحم الصفحة الرئيسية لـ"فيسبوك" بالعديد من المحتويات الثرية من صور وفيديوهات وكتابات، لكن كل ذلك لا يعني كثيرًا لضعاف البصر ولا يعني شيئًا على الإطلق للمكفوفين.
بيد أن شبكة التواصل الاجتماعي الأكبر في العالم قررت الاعتماد على الذكاء الاصطناعي لتحسين تجربة المكفوفين وضعاف البصر مع "فيسبوك"، حيث يمكنهم الآن الاستماع إلى رسالة صوتية تصف صور الأصدقاء ومحتوياتها وما كانوا يفعلونه لحظة التقاطها.
ومع ذلك لم يكن الأمر سهلًا واصطدم بكثير من العقبات التي لا تزال تخشاها الشبكة، إذ يقول مهندس الذكاء الاصطناعي الذي يقود المشروع لدى "فيسبوك" "داريو غارسيا": إذا حدث خطأ في قراءة الخوارزميات للصور فإن العواقب ستكون سيئة للغاية.
ويضيف "غارسيا" لـ"سي إن إن تك": مشروعنا ليس سيارة ذاتية القيادة سيموت قائدها حال وقوع خلل ما، لكن من السيئ أيضًا تقديم تجربة مضللة لأشخاص على الأرجح لن يعلموا بوجود خطأ في الخوارزميات.
وجمع "غارسيا" وفريقه 130 ألف صورة عامة يظهر بها أشخاص، وكتبوا وصفًا من سطر واحد لكل صورة، لتصبح أمثلة مرجعية لنظام الذكاء الاصطناعي من أجل تحديد مكونات المشهد وما يفعله الناس.
لكن الفريق اصطدم فيما بعد بأسئلة صعبة، مثل الحالات التي يظهر فيها جزء من جسد الشخص، وقال "غارسيا" إن الأمر تحول إلى هوس بكيفية تعريف الشخص والمحتوى وطريقة فهم مكونات مليارات الصور.
وعكف "غارسيا" على معالجة التساؤلات الجديدة واحدة تلو الأخرى، حتى استخلصت الخوارزميات خلاصة ما يحدث في كثير من الصور وبدأت في وضع شرح تفصيلي لكل صورة وقامت فيما بعد بإعادة تصنيف بعض الصور وشرحها بشكل صحيح.
وعندما أطلق النظام لأول مرة في أبريل/ نيسان 2016، كان قادرًا على تحديد البشر والحيوانات فقط، لكنه الآن طُور لتصنيف 12 نشاطًا والتعبير عن ذلك بشكل أكثر دقة.
التعليقات {{getCommentCount()}}
كن أول من يعلق على الخبر
رد{{comment.DisplayName}} على {{getCommenterName(comment.ParentThreadID)}}
{{comment.DisplayName}}
{{comment.ElapsedTime}}