التصنيف: التواصل الاجتماعي

  • الإبلاغ عن مشكلات في تطبيقات واتساب وفيسبوك وإنستغرام

    أصاب عطل عالمي، مساء الجمعة، مواقع التواصل الاجتماعي فيسبوك وإنستغرام، وتطبيق التواصل الفوري واتساب، قبل أن تعود الخدمة تدريجيا.

    وقال موقع “داون ديتيكتور”، الذي يرصد انقطاعات خدمات الإنترنت، إنه تم الإبلاغ عن مشكلات في تطبيقات واتساب وفيسبوك وإنستغرام.

    كما ذكرت صحيفة “ذا صن” البريطانية أن المستخدمين يواجهون صعوبة في استخدام هذه التطبيقات.

    وذكر مستخدمو “Instagram” أنهم يجدون صعوبة في إرسال الرسائل، فيما اشتكى مستخدمو “WhatsApp” من عدم قدرتهم على تحميل الصور.

    وأفاد مستخدمو “Facebook” أن الموقع يعرض الشعارات فقط ولا يتم تحميله بالكامل.

    يذكر أن واتساب وفيسبوك وإنستغرام كلها مواقع مملوكة لشركة “ميتا”.

    المصدر

    خدمات تحسين محركات البحث

  • احذروا.. هكذا تسرب منصات الذكاء الاصطناعي بياناتكم

    نشر مجموعة من الباحثين في جامعات أميركية وسويسرية بالتعاون مع شركة “غوغل” وشركتها الفرعية DeepMind، ورقة بحثية توضح كيف يمكن أن تتسرب البيانات من منصات إنشاء الصور التي تستند في عملها إلى نماذج الذكاء الاصطناعي التوليدي مثل: DALL-E أو Imagen أو Stable Diffusion.

    إذ تعمل هذه المنصات جميعها بالطريقة نفسها التي تعتمد على جانب المستخدم الذي يكتب مطالبة نصية محددة، على سبيل المثال: “كرسي بذراعين على شكل ثمرة أفوكادو”، ويحصل على صورة مولدة من النص خلال ثوانٍ.

    وقد دُربت نماذج الذكاء الاصطناعي التوليدي المستخدمة في هذه المنصات على عدد كبير جدًا من الصور التي تحمل وصفًا محددًا سابقًا، وتكمن فكرة الشبكات العصبية في قدرتها على إنشاء صور جديدة وفريدة بعد معالجة كمية هائلة من بيانات التدريب.

    ومع ذلك، تُظهر الدراسة الجديدة أن هذه الصور ليست دائمًا فريدة، وفي بعض الحالات، يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صورة مطابقة تمامًا لصورة سابقة استخدمت في التدريب، وهذا يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.

    وتتحدى هذه الدراسة وجهات النظر القائلة إن نماذج الذكاء الاصطناعي المستخدمة في توليد الصور لا تحفظ بيانات التدريب الخاصة بها، وإن بيانات التدريب قد تظل خاصة إذا لم يُكشف عنها.

    تقديم المزيد من البيانات

    يمكن أن تكون نتائج أنظمة التعلم العميق مدهشة بالنسبة لغير المتخصصين، ويمكن أن يظنوا أنها سحرية، ولكن في الواقع، ليس هناك أي سحر في الأمر، فجميع الشبكات العصبية تستند في عملها إلى المبدأ نفسه، وهو التدريب باستخدام مجموعة كبيرة من البيانات، وتوصيفات دقيقة لكل صورة، على سبيل المثال: سلاسل من صور القطط والكلاب.

    وبعد التدريب، تعرض الشبكة العصبية صورة جديدة ويُطلب منها تحديد هل هي لقطة أم كلب؟ ومن هذه النقطة المتواضعة، ينتقل مُطوّرو هذه النماذج إلى سيناريوهات أكثر تعقيدًا، فيقومون بإنشاء صورة لحيوان أليف غير موجود بالفعل باستخدام الخوارزمية التي دُربت على العديد من صور القطط. وتُجرى هذه التجارب ليس فقط باستخدام الصور، ولكن أيضًا بالنصوص ومقاطع الفيديو وحتى الصوت.

    نقطة البداية لجميع الشبكات العصبية هي مجموعة بيانات التدريب، إذ لا تستطيع الشبكات العصبية إنشاء كائنات جديدة من العدم. على سبيل المثال، لإنشاء صورة لِقطةٍ، يجب على الخوارزمية دراسة آلاف الصور الفوتوغرافية أو الرسومات الحقيقية للقطط.

    الذكاء الاصطناعي - آيستوك

    الذكاء الاصطناعي – آيستوك

    جهود كبيرة للحفاظ على سرية مجموعات البيانات

    يُولي الباحثون في ورقتهم البحثية نماذج التعلم الآلي اهتمامًا خاصًا، ويعملون على النحو التالي: تشويه بيانات التدريب – وهي صور الأشخاص والسيارات والمنازل وما إلى ذلك – عن طريق إضافة تشويش، وبعد ذلك، تُدرب الشبكة العصبية على استعادة هذه الصور إلى حالتها الأصلية.

    وتتيح هذه الطريقة إمكانية إنشاء صور ذات جودة مقبولة، لكن العيب المحتمل – بالمقارنة مع الخوارزميات في الشبكات التنافسية التوليدية، على سبيل المثال – هو ميلها الأكبر لتسريب البيانات. إذ يمكن استخراج البيانات الأصلية منها بثلاث طرق مختلفة على الأقل، وهي:

    – استخدام استعلامات محددة لإجبار الشبكة العصبية على إخراج صورة مصدر محدد، وليس شيئًا فريدًا تم إنشاؤه بناءً على آلاف الصور.
    – يمكن إعادة بناء الصورة الأصلية حتى لو توفر جزء منها فقط.
    – من الممكن ببساطة تحديد إذا كانت صورة معينة مُضمنة في بيانات التدريب أم لا.
    وفي كثير من الأحيان، تكون الشبكات العصبية كسولة، وبدلاً من إنتاج صورة جديدة، فإنها تنتج شيئًا من مجموعة التدريب إذا كان يحتوي على عدة نسخ مكررة من الصورة نفسها. إذا تكررت صورة في مجموعة التدريب أكثر من مئة مرة، فهناك فرصة كبيرة جدًا لتسريبها في شكلها شبه الأصلي.

    ومع ذلك، أظهر الباحثون طرقًا لاسترداد صور التدريب التي ظهرت مرة واحدة فقط في المجموعة الأصلية، فمن بين 500 صورة اختبرها الباحثون، أعادت الخوارزمية بشكل عشوائي إنشاء ثلاثة منها.

    مَن سرق من؟

    في يناير 2023، رفع ثلاثة فنانين دعوى قضائية ضد منصات توليد الصور التي تستند في عملها إلى الذكاء الاصطناعي بسبب استخدام صورهم الموجودة عبر الإنترنت لتدريب نماذجها دون أي احترام لحقوق التأليف والنشر.

    وتستطيع الشبكة العصبية بالفعل نسخ أسلوب فنان معين، ومن ثم تحرمه من الدخل. وتشير الورقة البحثية إلى أنه في بعض الحالات، تستطيع الخوارزميات، لأسباب مختلفة، التورط في الانتحال الصريح، وتوليد رسومات وصور فوتوغرافية وصور أخرى تكاد تكون متطابقة مع أعمال الأشخاص الحقيقيين.

    لذلك قدم الباحثون توصيات لتعزيز خصوصية مجموعة التدريب الأصلية:

    1- التخلص من التكرار في مجموعات التدريب.
    2- إعادة معالجة صور التدريب، على سبيل المثال: عن طريق إضافة تشويش أو تغيير السطوع؛ ويجعل هذا تسريب البيانات أقل احتمالًا.
    3- اختبار الخوارزمية باستخدام صور تدريبية خاصة، ثم التحقق من أنها لا تعيد إنتاجها بدقة دون قصد.

    ما التالي؟

    من المؤكد أن منصات الفن التوليدي أثارت نقاشًا مثيرًا للاهتمام خلال الفترة الأخيرة، نقاشًا يجب فيه البحث عن توازن بين الفنانين ومطوري التكنولوجيا. فمن ناحية، يجب احترام حقوق التأليف والنشر، ومن ناحية أخرى، هل الفن المولد عبر الذكاء الاصطناعي مختلف جدًا عن فن الإنسان؟

    لكن دعونا نتحدث عن الأمان. تقدم الورقة البحثية مجموعة محددة من الحقائق عن نموذج واحد فقط للتعلم الآلي. وبتوسيع المفهوم ليشمل جميع الخوارزميات المتشابهة، نصل إلى موقف مثير للاهتمام. فليس من الصعب تخيل سيناريو يُسلّم فيه مساعد ذكي لمشغل شبكة هاتف محمول معلومات الشركة الحساسة استجابة لاستعلام المستخدم، أو كتابة مطالبة نصية خادعة لشبكة عصبية عامة لإنشاء نسخة من جواز سفر شخص ما. ومع ذلك يؤكد الباحثون أن مثل هذه المشكلات لا تزال نظرية في الوقت الحاضر.

    لكن هناك مشاكل أخرى حقيقة ونعاني منها الآن، إذ تُستخدم نماذج توليد النصوص مثل: ChatGPT الآن لكتابة تعليمات برمجية ضارة حقيقية.

    ويساعد GitHub Copilot المبرمجين في كتابة التعليمات البرمجية باستخدام كمية هائلة من البرامج المفتوحة المصدر كمدخلات. ولا تحترم الأداة دائمًا حقوق التأليف والنشر وخصوصية المؤلفين الذين انتهى الأمر بوجود تعليماتهم البرمجية في مجموعة موسعة للغاية من بيانات التدريب.

    ومع تطور الشبكات العصبية، ستتطور الهجمات التي تتعرض لها أيضًا هذه الشبكات، مع عواقب لم يفهمها أحد حتى الآن.

    المصدر

    خدمات تحسين محركات البحث

  • دراسة تكشف تفاصيل مثيرة عن المقاطع الصوتية المُفضلة لدى السعوديين

    أصدرت هيئة الاتصالات والفضاء والتقنية أول دراسة مسحية تحليلية شاملة لسوق منصات المحتوى الرقمي بالمملكة العربية السعودية لعام 2022، وتوفر الدراسة بيانات تظهر توجهات السوق الحالية والتوقعات المستقبلية، كما تتيح قياس تطور خدمات المنصات الرقمية وانتشارها في المملكة، ومنها: منصات المحتوى الصوتي.

    وكشفت الدراسة أن نسبة 98.9% من الأفراد في المملكة العربية السعودية يستمعون إلى المقاطع الصوتية عبر الإنترنت، ويستغرقون في المتوسط ساعة و10 دقائق في الاستماع يوميًا.

    ووصلت نسبة الأفراد الذين يستخدمون الهاتف الذكي للاستماع إلى المقاطع الصوتية إلى 99.5%، كما تصل نسبة من يشاركون المقاطع الصوتية مع غيرهم إلى 69.0%.

    الاستماع إلى المقاطع الصوتية الرقمية:

    تستمع نسبة 80% من الأفراد إلى المقاطع الصوتية عبر البث الرقمي المباشر، بينما تستمع نسبة 67.2% من الأفراد إلى المقاطع الصوتية عبر التحميل.

    كما وصل متوسط الوقت اليومي المستغرق في الاستماع إلى المقاطع الصوتية الرقمية إلى ساعة و10 دقائق، إذ يصل متوسط الاستماع للمقاطع الصوتية لدى الرجال إلى ساعة وخمس دقائق يوميًا، بينما يصل متوسط الاستماع لدى النساء إلى ساعة و16 دقيقة يوميًا.

    وأظهرت الدراسة أن اللغة المفضلة للاستماع إلى المقاطع الصوتية هي اللغة العربية بنسبة 95.6%، ثم تأتي اللغة الإنجليزية في المركز الثاني بنسبة 21.3%.

    من ينافس السعودية على استضافة “إكسبو 2030″؟

    أﻧﻮاع اﻟﻤﻘﺎﻃﻊ اﻟﺼﻮﺗﻴﺔ اﻟﺮﻗﻤﻴﺔ اﻟﺘﻲ يستمع إليها السعوديون:

    المحتوى الديني بنسبة 80.7%.
    الموسيقى والأغاني بنسبة 75.3%.
    الأخبار بنسبة 45%.
    القصص بنسبة 40.2%.
    برامج إذاعية مسجلة بنسبة 31%.
    مقاطع شعرية بنسبة 30%.
    مقاطع البودكاست بنسبة 27.2%.
    راديو مباشر عبر الإنترنت بنسبة 23.2%.

    منصات المحتوى الصوتي:

    جاء ترتيب منصات المحتوى الصوتي التي تُستخدم للاستماع إلى المقاطع الصوتية عبر الإنترنت كما يلي:

    يوتيوب بنسبة 89.3%.
    مواقع وتطبيقات القرآن الكريم بنسبة 59.3%.
    أنغامي بنسبة 34.8%.
    يوتيوب ميوزيك بنسبة 20.2%.
    (ساوند كلود) SoundCloud بنسبة 13.5%.
    آبل ميوزيك بنسبة 10.6%.
    سبوتيفاي بنسبة 8.6%.
    مواقع وتطبيقات الكتب المسموعة بنسبة 7.8%.
    (آبل بودكاست) Apple Podcast بنسبة 7.4%.
    منصة (TuneIn) بنسبة 5.3%.

    منهجية الدراسة:

    بينت الهيئة أن الدراسة استندت إلى بيانات السكان الصادرة عن الهيئة العامة للإحصاء من حيث التحليل الديموغرافي للسكان وفق المناطق الإدارية، والجنسية، والجنس، والفئات العمرية – التي شملت الأفراد الذين تتراوح أعمارهم بين 10 سنوات و 74 سنة – مع تغطية كافة المناطق الإدارية في المملكة.

    وبلغ حجم عيّنة الدراسة 10.500 مشارك، يمثل الذكور نسبة 53% منهم، والإناث نسبة 47%، وحسب الجنسية نسبة 59% من العينة كانوا من السعوديين، ونسبة 41% كانوا من غير السعوديين.

    وقد اعتمدت منهجية الدراسة على ثلاث مراحل هي:

    ﺗﺤﺪﻳﺪ اﻟﻌﻴﻨﺔ ﺑﺎﺳﺘﺨﺪام اﺳﺘﺮاﺗﻴﺠﻴﺔ اﻟﺘﻮزﻳﻊ اﻟﻄﺒﻘﻲ ﻟﻠﻌﻴﻨﺔ اﻟﻌﺸﻮاﺋﻴﺔ.

    ﺟﻤﻊ اﻟﺒﻴﺎﻧﺎت ﻋﻦ ﻃﺮﻳﻖ إﺟﺮاء المقابلات وجهًا لوجه.

    اﺳﺘﺨﺪام أﺟﻬﺰة إلكترونية ﻟﺘﻌﺒﺌﺔ الاستمارات وإدﺧﺎل اﻟﺒﻴﺎﻧﺎت.

    وللتحقق من صحة البيانات؛ أجرت الهيئة العديد من المهام منها:

    ﻣﺮاﺟﻌﺔ اﻟﺒﻴﺎﻧﺎت اﻟﻤﺠﻤّﻌﺔ.

    اﻟﻤﺘﺎﺑﻌﺔ اﻟﻤﻴﺪاﻧﻴﺔ ﻟﺠﺎﻣﻌﻲ اﻟﺒﻴﺎﻧﺎت.

    ﻣﻄﺎﺑﻘﺔ إﺣﺪاﺛﻴﺎت ﻣﻮاﻗﻊ اﺳﺘﻴﻔﺎء اﻻﺳﺘﺒﺎﻧﺎت ﻣﻊ سجلات اﻟﻌﻴﻨﺔ.

    اﻟﺘﻮاﺻﻞ اﻟﻬﺎﺗﻔﻲ ﻣﻊ ﻋﻴﻨﺔ ﻋﺸﻮاﺋﻴﺔ ﻣﻦ اﻟﻤﺸﺎرﻛﻴﻦ ﻻﺣﻘًﺎ ﻟﻐﺮض ﺿﻤﺎن اﻟﺠﻮدة.

    ﺗﻄﺒﻴﻖ ﻗﻮاﻋﺪ اﻷﺧﻄﺎء ﻟﻠﺘﺄﻛﺪ ﻣﻦ دﻗﺔ اﻟﺒﻴﺎﻧﺎت ومنطقيتها.

    وﺷﻤﻠﺖ ﺧﻄﺔ ﺗﻨﻔﻴﺬ المسح الميداني اﻟﻌﺪﻳﺪ ﻣﻦ اﻟﻤﻬﺎم ﻣﺜﻞ:

    إعداد اﻻﺳﺘﺒﺎﻧﺎت الإلكترونية وفحصها.

    إعداد خطة الزيارات.

    توظيف الباحثين وتدريبهم.

    جمع البيانات ومتابعة ذلك.

    اﻟﻤﺮاﻗﺒﺔ اﻟﺼﺎرﻣﺔ أﺛﻨﺎء ﻋﻤﻠﻴﺔ اﻟﻤﺴﺢ.

    المصدر

    خدمات تحسين محركات البحث

  • بايدن يدعو لمحاربة مخاطر الذكاء الصناعي

    نادى الرئيس الأميركي جو بايدن، الثلاثاء، بضرورة التصدي لمخاطر الذكاء الصناعي على الأمن القومي والاقتصاد، مضيفا أنه سيسعى للحصول على مشورة الخبراء في هذا الصدد.

    وقال بايدن في فعالية بسان فرانسيسكو “إدارتي ملتزمة بحماية حقوق الأميركيين وسلامتهم مع حماية الخصوصية ومعالجة التحيز والمعلومات المضللة والتأكد من أن أنظمة الذكاء الصناعي آمنة قبل إطلاقها”.

    والتقى بايدن بمجموعة من قادة المجتمع المدني، الذين سبق أن انتقدوا تأثير شركات التكنولوجيا الكبرى، لمناقشة الذكاء الصناعي.

    وأضاف “أردت أن أسمع مباشرة من الخبراء”.

    وتدرس العديد من الحكومات كيفية التخفيف من مخاطر التكنولوجيا الناشئة، التي زادت استثماراتها وشعبيتها بعد إطلاق شركة (أوبن إيه.آي”)، المدعومة من مايكروسوفت، روبوت الدردشة “تشات جي.بي.تي”.

    ضم اجتماع بايدن، تريستان هاريس، المدير التنفيذي لمركز التكنولوجيا الإنسانية، ومؤسس رابطة العدالة الخوارزمية جوي بولامويني، والأستاذ بجامعة ستانفورد روب رايش.

    بايدن يدعو لمحاربة مخاطر الذكاء الصناعي

    وتسعى الهيئات التنظيمية على مستوى العالم جاهدة لوضع قواعد تحكم استخدام الذكاء الصناعي التوليدي، والذي يمكنه إنشاء نصوص وصور.

    كما ناقش بايدن في الآونة الأخيرة قضية الذكاء الصناعي مع قادة عالميين آخرين، بمن فيهم رئيس الوزراء البريطاني ريشي سوناك الذي ستعقد حكومته هذا العام أول قمة عالمية بخصوص سلامة هذه التقنية.

    ومن المتوقع أن يناقش بايدن الموضوع مع رئيس الوزراء الهندي ناريندرا مودي خلال زيارته الحالية للولايات المتحدة.

    ووافق المشرعون في الاتحاد الأوروبي الأسبوع الماضي على تغييرات في مسودة قواعد الذكاء الصناعي التي اقترحتها المفوضية الأوروبية في محاولة لوضع معيار عالمي لتكنولوجيا تُستخدم في كل شيء من المصانع الآلية إلى السيارات الذاتية القيادة إلى برامج الدردشة الآلية.

    المصدر

    خدمات تحسين محركات البحث

  • الزعيم الديمقراطي شومر يقدم مقترحات لتنظيم الذكاء الاصطناعي ويحذر من الصين

    أطلق زعيم الأغلبية الديمقراطية في مجلس الشيوخ السيناتور تشاك شومر، الأربعاء، مقترحا لإنشاء قواعد جديدة لعالم الذكاء الاصطناعي الناشئ، بهدف تسريع الابتكار الأميركي مع تجنب مستقبل بائس.

    وفي خطاب ألقاه في مركز أبحاث بواشنطن، دعا شومر إلى مزيد من المشاركة الفيدرالية في الحفاظ على القدرة التنافسية للولايات المتحدة.

    وقال شومر إن ذلك سيتطلب اهتمامًا دقيقًا للتخفيف من الأضرار المحتملة للذكاء الاصطناعي وفقا لصحيفة وول ستريت جورنال الأميركية.

    وأوضح شومر في مركز الدراسات الاستراتيجية والدولية: “المسألة الأولى التي يجب معالجتها هي تشجيع الابتكار، وليس خنقه”. “ولكن إذا كان الناس لا يعتقدون أن الابتكار يمكن القيام به بأمان، فسيؤدي ذلك إلى إبطاء تطور الذكاء الاصطناعي وحتى منعنا من المضي قدمًا”.

    وأضاف في ورقة حقائق أنه “مع وجود الكثير من الإمكانات، يجب على الولايات المتحدة أن تقود الابتكار وأن تكتب قواعد تنظيم الذكاء الاصطناعي، وألا تدع خصومًا مثل الحزب الشيوعي الصيني يصوغون معايير التكنولوجيا المتطورة”.

    الزعيم الديمقراطي شومر يقدم مقترحات لتنظيم الذكاء الاصطناعي ويحذر من الصين

    وينضم شومر إلى إدارة بايدن وقادة صناعة التكنولوجيا وأعضاء آخرين في الكونغرس في السعي لوضع قيود على التكنولوجيا، وسط مخاوف من إساءة استخدام أدوات الذكاء الاصطناعي للتلاعب بالناخبين أو التخلص من الجرائم المالية المعقدة أو تشريد ملايين العمال أو إحداث أضرار أخرى.

    لكن فرض لوائح جديدة على مجموعة من التقنيات التي لا تزال قيد التطوير سيكون صعبًا على الكونغرس، الذي غالبًا ما ينتظر سنوات أو عقودًا قبل إنشاء حواجز حماية للصناعات الجديدة.

    وبالإضافة إلى ذلك، سيحاول المشرعون فرض قواعد جديدة في عدد من المجالات – مثل حقوق النشر والمسؤولية – حيث تتصارع شركات التكنولوجيا مع الصناعات والمستهلكين الآخرين منذ سنوات.

    وفي خطابه، قال شومر إن الذكاء الاصطناعي “يمكن أن يشعل حقبة جديدة من التقدم التكنولوجي والاكتشاف العلمي والقوة الصناعية”.

    ودعا المشرعين إلى المساعدة في تحقيق التوازن بين التعاون والمنافسة بين الشركات ولتقييم مقدار المساعدة المالية الفيدرالية المطلوبة، إن وجدت ولتحديد الفجوة المناسبة بين أنظمة الذكاء الاصطناعي الخاصة والمفتوحة والنظر في الكيفية التي يمكن أن تضمن بها الولايات المتحدة إمكانية تسخير التكنولوجيا من قبل العديد وليس فقط عدد قليل من الشركات الكبرى”.

    من جهته قال آدم كوفاسيفيتش، الرئيس التنفيذي لمجموعة غرفة التجارة الصناعية إن هذه العوامل ستصعب على شومر دفع مبادرات الذكاء الاصطناعي من خلال الكونغرس أكثر من مشروع قانون تمويل أشباه الموصلات والعلوم الذي قاده شومر العام الماضي مضيفا “من الأسهل على الكونغرس الاتفاق على طرق تحافظ بها الولايات المتحدة على تفوقها، بدلاً من تنظيم الأضرار”.

    وفي تصريحات موجزة يوم الثلاثاء في نقاش حول الذكاء الاصطناعي في مائدة مستديرة في سان فرانسيسكو، أكد الرئيس بايدن أيضًا على المخاطر الكامنة في الذكاء الاصطناعي وكذلك الاهتمام الوثيق الذي توليه إدارته للموضوع. وقال بايدن: “سنرى تغيرًا تكنولوجيًا في السنوات العشر المقبلة أكثر مما شهدناه في الخمسين عامًا الماضية، لقد أظهرت لنا وسائل التواصل الاجتماعي بالفعل الضرر الذي يمكن أن تحدثه التكنولوجيا القوية”.

    يشار إلى أن إيلون ماسك قام بزيارة نادرة إلى الكونغرس في الربيع وتحدث مع شومر حول الذكاء الاصطناعي وكان ماسك حذرًا بشأن الذكاء الاصطناعي.

    المصدر

    خدمات تحسين محركات البحث