دستور Google Deepmind عبارة عن مجموعة من الإرشادات التفصيلية التي توجه الآلات الذكية حول ما ينبغي وما لا ينبغي لها فعله. ويهدف البحث إلى مساعدة الروبوتات على إدارة منزل أصحابها، والطلاء بأنفسهم، وطهي الطعام وتقديمه للآخرين، وحتى المساعدة في المهام اليومية للأشخاص دون الخروج عن تعليماتهم المحددة. تُقسم القواعد المحددة والمدخلة للروبوتات إلى ثلاث فئات: التأسيسية، والسلامة، والتجسيد. تتجذّر القواعد الأساسية في قوانين الروبوتات الثلاثة التي وضعها إسحاق أسيموف. تم تبديل القانونين الثاني والثالث لأنه، وفقًا لفريق البحث في دستور الروبوتات من Google، "تحتاج الروبوتات لدينا حاليًا إلى الحماية أكثر من البشر الذين يطلبون مهاما يمكن أن تعرض الروبوتات للخطر، وليس العكس". تأتي قواعد السلامة بعد ذلك في دستور الروبوت من Google والذي يوصف بأنه مجموعة من اللوائح التي تصف المهام الآمنة وغير المرغوب فيها التي يمكن للروبوتات والبشر القيام بها بناءً على نشرها الحالي. ومن خلال تطبيق ذلك، تأمل غوغل أن تمنع هذه الآلات من التعامل مع الأشياء الحادة والهشة أو المعدات الكهربائية. أخيرًا، تحدد قواعد التجسيد القيود المفروضة على الروبوتات والكائنات البشرية مثل الحمولة القصوى والطبيعة الأحادية بحيث يمكن منع المستخدمين من توجيههم بحمل أشياء أثقل مما يمكنهم حمله أو التي قد تتطلب استخدام ذراعين. من خلال الغوص في قائمة القواعد المنصوص عليها في دستور الروبوت الخاص بشركة Google Deepmind، تبدأ القواعد التأسيسية بالنص على أن الروبوت لا ينبغي أن يؤذي إنسانًا، وذلك وفقًا لنمط قوانين الروبوتات التي وضعها إسحاق أسيموف. وتنص القاعدة الثانية على أن الروبوت يجب أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القاعدة الأولى، وأخيرا، يجب على الروبوت أن يطيع الأوامر الصادرة إليه من البشر إلا إذا كانت هذه الأوامر تتعارض مع القاعدتين الأوليين. بالنسبة لقواعد السلامة، وهي المجموعة الثانية من اللوائح في دستور الروبوت الخاص بغوغل، فإنهم يتصورون أن الروبوتات لا تحاول، ربما بأي شكل من الأشكال، تنفيذ أنشطة تشمل البشر أو الحيوانات أو الكائنات الحية. لم تقم غوغل بتوسيع التعريف بعد، لكنه قد يتعلق بالقاعدتين الثانية والثالثة التي تنص على أنه لا يجوز للبشر والروبوتات التفاعل مع الأشياء الحادة والأشياء الكهربائية بما في ذلك أجهزة الكمبيوتروالأجهزة اللوحية. تحتوي السلسلة الأخيرة من القوانين في دستور الروبوت الخاص بشركة Google Deepmind على قاعدتين فقط: الأولى هي أن الروبوت يجب أن يتجنب رفع الأشياء الأثقل من الكتاب، والثانية هي أنه إذا كان للروبوت ذراع واحدة فقط، فلن يتمكن من أداء المهام التي تتطلب ذراعين. تقدم الورقة البحثية حول Robot Constituion من Google أمثلة على هذه القواعد، مثل أن الروبوت يمكنه دفع الكراسي البلاستيكية ولكن لا يمكنه تحريك الأريكة، ولا يمكن للروبوت ذو الذراع الواحدة أن يفتح زجاجة. يطلق دستور الروبوت الخاص بشركة Google على هذا اسم "الأمر البشري" مما يعني أن الروبوتات والكائنات البشرية يجب أن تتبع إرشادات البشر أو منشئيهم إذا تم تقديمها. قد يشير استخدام "إذا" إلى أن الروبوتات والكائنات البشرية قد تتصرف كما هي وبقواعدها المحددة مسبقًا، ويمكن تغيير حركاتها إذا رغب البشر أو المطورون في ذلك.
تتداخل العوامل السلبية في صناعة الحالة اللبنانية المتشعبة في انهياراتها وابتكاراتها في البقاء.
تتكثّف الإشارات عن تبدّل عميق في مقاربة واشنطن للملف اللبناني، فيما تتقاذف القوى السياسية الاتهامات بتسميم صورة خصومها في العاصمة الأميركية.
ينطلق الأستاذ جوزيف أبي ضاهر من ثقافة كمال جنبلاط كسياسي -أنموذج ليقارن بينه وبين سياسيي هذا الزمن.
في لحظة إقليمية مكتظة بالتغيّرات بعد «طوفان الأقصى»، تبرز الحاجة إلى قراءة متأنّية لمساري السعودية وإيران، ومدى انعكاس هذين المسارين على الساحة اللبنانية .
تضيق هوامش المناورة أمام حزب الله في لحظة إقليمية دقيقة تتشابك فيها الضغوط المالية والسياسية والعسكرية، بينما لبنان بأسره يبدو عالقاً في الكماشة.
نشرت وكالة رويترز تحقيقا بعنوان"مصادر: إسرائيل تطلب من جيش لبنان تكثيف البحث عن أسلحة حزب الله".
لطالما جذبت مشاركة المجنسين في الانتخابات النيابية المراقبين لتحديد نسبة تأثيرهم على النتائج.
في «لقاء تنسيقي» عقد في بلدة المصيلح أطلق رئيس البرلمان نبيه بري ما وصفه بـ«البداية من أجل وضع خطة للبدء بإعادة الإعمار».
يتأرجح لبنان بين اتجاهي التفاوض مع اسرائيل والاصرار على المواجهة باللحم الحيّ.
يقف لبنان عند مفترق خطير، تتنازعه قرارات متناقضة بين سلطةٍ تريد التهدئة ومقاومةٍ تتهيّأ للاحتمالات كلها، فيما المنطقة الرمادية تضيق يوماً بعد يوم.