سام ألتمان يُحذِّر: لا خصوصية قانونية عند استخدام ChatGPT كمعالج نفسي
لم يكن أحد يفكر في هذه المسألة حتى قبل عام واحد فقط

صرَّح “سام ألتمان”، الرئيس التنفيذي لشركة OpenAI، بأن صناعة الذكاء الاصطناعي لم تتمكن بعد من وضع إطار قانوني يحمي خصوصية المستخدمين الذين يعتمدون عليه للحصول على الدعم النفسي أو العاطفي، إذ لا توجد “سرية مهنية” عندما يكون “طبيبك” مجرد روبوت ذكاء اصطناعي.
بهذا الصدد، قال ألتمان:
الناس يتحدثون عن أكثر الأمور الشخصية في حياتهم إلى ChatGPT، شباب كثيرون يستخدمونه كمعالج نفسي، أو كمدرب حياة، ويطلبون نصائح لعلاقاتهم أو قرارات مصيرية.. لكن المشكلة أن الحديث مع طبيب أو محامٍ أو معالج نفسي يحميه القانون بموجب مبدأ السرية المهنية، أما في حالة الذكاء الاصطناعي، فذلك غير موجود بعد.
في السياق نفسه، حذَّر ألتمان من أن هذا النقص قد يؤدي إلى تهديد لخصوصية المستخدمين، خاصة في حال وقوع دعاوى قضائية، لأن OpenAI ستكون ملزمة قانونيا بالكشف عن تلك المحادثات.. مُضيفاً:
أعتقد أن هذا الأمر خطير جدا.. ينبغي أن تكون لدينا نفس درجة الخصوصية التي نحصل عليها عند الحديث مع معالج نفسي أو طبيب، لكن لم يكن أحد يفكر في هذه المسألة حتى قبل عام واحد فقط.
ثغرة قد تُعيق تبنِّي الذكاء الاصطناعي على نطاق واسع
تعترف OpenAI بأن غياب الوضوح القانوني فيما يخص الخصوصية قد يُشكِّل عائقاً أمام تبنِّي أوسع للذكاء الاصطناعي.. ويأتي ذلك في وقتٍ تتعرض فيه الشركة لضغوط قانونية متزايدة، من بينها دعوى قضائية مرفوعة من صحيفة نيويورك تايمز، تطالب فيها الشركة بحفظ محادثات مئات الملايين من مستخدمي ChatGPT، باستثناء مشتركي “ChatGPT Enterprise”.
فيما نشرت الشركة بيانًا على موقعها الرسمي تُعلن فيه أنها تطعن على هذا القرار، واصفة إياه بأنه “تجاوز للصلاحيات”، وأوضحت أن منح المحكمة صلاحية تجاوز سياسات الخصوصية الخاصة بشركة OpenAI قد يفتح الباب أمام طلبات قانونية لاحقة، سواء من جهات التحقيق أو المحاكم.
المصادر: