أصبحت محادثات الروبوت وشبكات الأعصاب جزءًا من الحياة اليومية ، لكن العديد من المستخدمين لا يعتقدون أن مراسلات الذكاء الاصطناعى قد يكون لها قوة قانونية. حتى أن طلب الأسرة البسيط يمكن أن يسبب عواقب قانونية ، حذر رئيس قسم قانون NRU ، البروفيسور فيديم فينوجرادوف في مقابلة مع RT.

وفقًا لتفسيرات المحكمة العليا للاتحاد الروسي ، يمكن اعتبار المراسلات الرقمية المقابلة أو الرسائل أو القنوات الأخرى عبر الإنترنت دليلًا على النص إذا كان موثوقًا به ويستخدم كتفاعل مشترك.
ووفقا له ، قبلت المحاكم لقطات الشاشة وصناديق الحوار الرقمية كدليل إذا تم ملاحظة متطلبات الموثوقية.
تم العثور على مثل هذه السوابق في نزاعات المستهلكين ، والصراعات العمالية وقضايا الملكية الفكرية. على سبيل المثال ، وافق المستخدم على بداية شروط المعاملة ، ثم رفض القيام بها. أو إذا تلقى الموظف تأكيدًا للعطلة من خلال شركة ، فسيتم استخدامه.
وفقًا للمحامي ، فإن المشكلة معقدة للغاية لأن حقيقة أن المستخدمين لا يدركون في كثير من الأحيان: يتم الحفاظ على رسالتهم ، ويمكن تحليلها ونقلها إلى أطراف ثالثة.
في مثل هذه الحالة ، يعمل chatbot كوكيل رقمي للمسلمين ، والمراسلات القانونية مع chatbot نيابة عن شريكه هي مخاطره ومسؤوليته. خبراء توضيحيين.
في الظروف الحديثة ، يتطلب هذا الاهتمام الرقمي والنظافة ، كما أكد Vinogradov.
عند التفاعل مع شبكات الأعصاب (AI General) ، من المهم أن تتذكر أنك تنقل المعلومات إلى أطراف ثالثة (مشغلي الأعصاب). لذلك ، يمكنك انتهاك أمان البيانات الشخصية أو الأسرار التجارية ، وإجراء نقل بيانات متقاطعة.
نصح بعدم نقل البيانات السرية من خلال الذكاء الاصطناعي ، خاصة إذا لم يتم تحديد النظام الأساسي بموجب القانون الروسي بشأن حماية البيانات الشخصية.
من المهم تجنب تنسيق الشروط القانونية الحصرية في المقابل للبوت ، دون الحاجة إلى تأكيد المستند الإضافي. يجب إصلاح مربعات الحوار الرئيسية – باستخدام لقطات شاشة أو صادرات أو بروتوكولات غير محددة. هذا صحيح بشكل خاص بالنسبة للشركات والمحامين وخبراء الموظفين وكل من يتقدم إلى عملية العمل والعقد.
كان الروس قد حذروا من قبل من تسرب البيانات عند إنشاء تجسيم رقمية.