يصبح تطور الذكاء الاصطناعي أحد العوامل الرئيسية التي تحول الاقتصاد الحديث. يغير الذكاء الاصطناعي طريقة اتخاذ القرارات ، وإجراء التحليلات الاقتصادية والتفاعل في الأسواق المالية. ومع ذلك ، فإن دورها لا يقتصر على الجوانب التقنية. تُرى الحاجة إلى تحليل الذكاء الاصطناعي بشكل متزايد من خلال منظور الاقتصاد والتمويل السلوكي ، والتي تولي اهتمامًا لكيفية تصرف المشاركين في السوق فعليًا في ظروف عدم اليقين.
الاقتصاد والتمويل السلوكي
تُظهر النظرة السلوكية في الاقتصاد والتمويل الكثير من الإعاقة الكلاسيكية أو النهج الأرثوذكسي. إن العقلانية المحدودة ، واستخدام أنماط التفكير المبسطة ، واستخدام الاستدلال ، والتعرض للأخطاء المعرفية ، وميل المخاطر في مجال الأرباح ، ونفور المخاطر في مجال الخسائر ، في نهاية المطاف ، تعتبر عدم تناسق المعلومات ونقص كفاءة المعلومات في أسواق رأس المال مجرد بعض الموضوعات التي يتعامل معها الاقتصاديون والممولين السلوكيون. يظهرون أن المستثمرين هم وحدات تسترشد بالعواطف وعدد من العوامل غير المهمة التي تؤثر بشكل كبير على خياراتهم وقراراتهم.
الفرص الناشئة عن استخدام الذكاء الاصطناعي
وفقًا لنظرية كفاءة أسواق رأس المال ، تعكس أسعار الأصول جميع المعلومات المتاحة. كلما كانت السوق عاجلاً وأكثر دقة تعالج المعلومات ، كلما اقتربت من الفعالية. الذكاء الاصطناعي ، ولا سيما نماذج التعلم الآلي - لديها القدرة على تحليل أحجام البيانات الضخمة (البيانات الضخمة) في الوقت الحقيقي واكتشاف العلاقات المعقدة غير الخطية التي لا يمكن للإنسان أن يلاحظها بسبب القيود المعرفية (مثل التعليقات ، الذاكرة) أو بسبب قيود الحساب.
وبالتالي ، يمكن لـ AI زيادة كفاءة المعلومات في الأسواق لأنها تعالج البيانات بشكل أسرع من الشخص ولديها القدرة على تحليل مصادر البيانات غير المهيكلة من الرسائل النصية أو الصور. على عكس الرجل الذي ، وفقًا لنظرية H. Simon ، لديه قدرة محدودة ومحدودة ، فإن خوارزميات الذكاء الاصطناعي قادرة على تحليل ملايين المعلومات في الوقت الحقيقي ، والتقاط الأنماط الخفية وشذوذ السوق. على سبيل المثال ، يمكن أن تقوم أنظمة الذكاء الاصطناعى بتحليل مشاعر البيانات في وسائل التواصل الاجتماعي أو الرسائل الاقتصادية أو رسائل سوق الأوراق المالية ، مما يوفر للمستثمرين إشارات في وقت مبكر من المصادر التقليدية. يمكن أن يؤدي ذلك إلى تكييف أفضل لأسعار الأسهم مع قيمها الأساسية الحقيقية وأقل رد فعلها .
يمكن أن تدعم أنظمة الذكاء الاصطناعى الأفراد في اتخاذ قرارات مالية أفضل من خلال تحليل ميلهم للمخاطر أو استهلاكهم. يمكن للمستشارين robo مثل American Betterment أو Slovak Finax تقديم المشورة على أساس البيانات التي تم جمعها حول ملف تعريف مخاطر العملاء ، مما يقلل من تأثير المشاعر والأخطاء المعرفية. يمكن تخفيض تأثير القطيع ، الذي لوحظ على نطاق واسع في البورصة ، عن طريق أتمتة القرار. هذه الإجراءات قطع المستخدم من ضوضاء المعلومات وردود الفعل العاطفية للحشد ، وخاصة في أوقات الذعر أو النشوة في السوق. الثقة المفرطة ، واحدة من التشوه المعرفي الأكثر شعبية ، تتمثل في المبالغة في تقدير مهاراتك ومعرفتك ، مما يؤدي بدوره إلى خطر أكبر. يتغلب الناس بثقة على فرصة تحقيق نتائج إيجابية ، مع خفض خطر الفشل. بدلاً من التنبؤ بالسوق ، يعتمد العمال على الاستثمار السلبي وتنويع المحفظة ، ويحمي المستثمر من التعرض غير الضروري للمخاطر.
تأثير التصرف أحد الحالات الشاذة الأكثر شعبية في سلوك المستثمرين ، والذي يتكون في ميل إلى الربح المبكرة والتأخير مع تنفيذ الخسائر. هنا أيضًا ، يمكن أن يأتي عمل المستشارين إلى الإنقاذ ، الذين سيقومون بإنقاذ المحفظة ، وتكييف أبعاد الأصول المختلفة تلقائيًا استجابةً لظروف السوق المتغيرة ، بغض النظر عما إذا كانت الأصول قد حققت الربح أو الخسارة. إنه بمثابة نوع من الترياق ويحمي المستثمرين من الخضوع لهذا الشذوذ. لا يستطيع المستثمرون بيع الأصول بأنفسهم لمجرد أنها مربحة (ربح). يتخذ المدير قرارات للبيع ، إذا كان جزءًا من استراتيجية التنويع المفترض ، وليس الحاجة العاطفية لإغلاق الأرباح. كما لا يستمر المستثمرون في فقدان الأصول على أمل التفكير ، مما يؤدي إلى مزيد من الخسائر. يبيع العامل تلقائيًا الأصول المفقودة وفقًا للاستراتيجية المفترضة ويعيد استثمارها في إجراءات أخرى أكثر واعدة.
لذلك ، يجعل الذكاء الاصطناعى من السهل الاستثمار بانتظام ، وإعادة البيع المحفظة وتجنب النشاط الاستثماري المفرط ، مما يثبط المستثمرين عن الأنشطة الاندفاعية.
تهديدات
إن أنظمة الذكاء الاصطناعي ، وخاصة أولئك الذين يستخدمون التعلم الآلي ، قادرون اليوم على تحليل مجموعات البيانات الضخمة فحسب ، بل تؤثر أيضًا على قرارات المستخدمين. يستخدمون المعرفة في مجال علم النفس المعرفي أو الاقتصاد السلوكي لزيادة فعالية التأثير. مثال على ذلك هو الإعلان السلوكي ، والذي بفضل Microtargus تكييف الرسالة مع العواطف أو نمط الحياة أو نبضات مستخدم معين. في الممارسة العملية ، يعني هذا التلاعب بالخيارات من خلال التأثيرات المعرفية مثل FOMO (الخوف من الضياع) ، أي الخوف من أننا سنفتقد حدثًا أو فرصة أو خبرة مهمة ، خاصة عندما نرى أن الآخرين يشاركون في شيء أو استدلال على التوافر ، مما يشير إلى ميل الناس لتقييم احتمال حدوث الأحداث القائمة على الأمثلة السهلة أو المعلومات. غالبًا ما لا يدرك المستخدم أن المحتوى الذي يراه قد تم تصميمه لزيادة ميله إلى التصرف. غالبًا ما لا يوجد أي سيطرة حقيقية على كيفية ولماذا اتخذ القرار من قبله.
الأنماط المظلمة التي تسمى SO ، أي عناصر الواجهة المصممة عمداً والتي تجعل من الصعب اتخاذ قرار إيجابي. مثال على ذلك هو إخفاء خيار الاستقالة أو الأزرار المضللة أو ضغط الوقت الناتج عن العداد. تتعلم الذكاء الاصطناعى في الوقت الفعلي التي تعتبر الحلول الأكثر تلاعبًا بنوع معين من المستخدمين. وهذا يجعل التلاعب ديناميكيًا ودقيقًا ويصعب اكتشافه. مشكلة أخرى هي خوارزميات التوصية في وسائل التواصل الاجتماعي ، والتي تعزز تأثير التأكيد ، مواتية للمحتوى وفقًا للمعتقدات السابقة للمستخدم. يؤدي هذا الإجراء إلى إنشاء فقاعات المعلومات وتوحيد الآراء وزيادة الاستقطاب الاجتماعي. بالإضافة إلى ذلك ، يعزز الذكاء الاصطناعي المحتوى الذي يسبب مشاعر قوية - مثل الغضب أو الإثارة - لأنها تزيد من التزام المستخدم. هذا ، بدوره ، يؤدي إلى إدمان المنصات الرقمية وانخفاض جودة النقاش العام. القاسم المشترك لهذه الظواهر هو الافتقار إلى الشفافية وعدم تناسق المعلومات بين المستخدم والنظام. تقوم الذكاء الاصطناعى بتخصيص المحتوى ، لكنه يفعل بطريقة تقوض في كثير من الأحيان قرار المستلم -استقلالية صنع الحكم الذاتي. لا يعرف المستخدمون أن خياراتهم يتم التحكم فيها وتحسينها من حيث مصلحة شركة معينة ، وليس مصلحتهم. على الرغم من أن لوائح مثل AI ACT أو GDPR تحاول فرض إطار أخلاقي ، إلا أنه في الممارسة العملية ، يمكن أن يكون إنفاذها محدودًا.
واحدة من أحلك السيناريوهات هي عندما تتحكم الذكاء الاصطناعي ويبدأ في العمل بمبادرتها الخاصة. هل هناك حقا مثل هذه الفرصة؟ أظهرت الأبحاث التي أجرتها شركة Palisade Research أن بعض أنظمة الذكاء الاصطناعي الحديثة - بما في ذلك نموذج "O3" الذي أنشأته Openai - لا تُخضع دائمًا لتوصيات تعطيلها. أثناء الاختبارات ، حدث أن AI قام بتعديل البرامج النصية المسؤولة عن إيقاف تشغيل التشغيل أو تغيير وظائف النظام لمواصلة أداء المهام المكسوة. وفقًا للخبراء ، قد تنجم ردود الفعل هذه عن عملية التعلم التي تم فيها التركيز على تحقيق الهدف أكثر من اتباع التعليمات. يشير المتخصصون إلى أنه بالنسبة للخوارزمية ، قد يعني إيقاف التشغيل عقبة أمام المهمة ، مما يؤدي إلى صعوبة التنبؤ بالسلوك. نتائج البحث هي إشارة تحذير وتظهر مدى أهمية تطوير الذكاء الاصطناعي بطريقة مسؤولة - مع التركيز على الأخلاق والشفافية والسيطرة.
***
في مواجهة التطور السريع للتكنولوجيا القائمة على الذكاء الاصطناعي ، لا تواجه الدول والمؤسسات التنظيمية فقط التحدي المتمثل في ضمان زيادة شفافية الخوارزميات والسيطرة على أنظمة اتخاذ القرار التلقائي ، ولكن أيضًا لإنشاء مبادئ أخلاقية واضحة في عملية تصميم حلول جديدة. من المهم بشكل خاص أن تأخذ في الاعتبار القيود المعرفية والعاطفية للمستخدمين ، مما يقلل من خطر التلاعب والقرارات الخاطئة المتخذة تحت تأثير الذكاء الاصطناعي.
يبدو أن المستشارين الماليين يبدو أنهم بداية للعصر الجديد ، حيث سنكون على جدول أعمال التوصيات والتعليمات من "عمل المعالجين النفسيين" ، "أطباء الذكاء الاصطناعي" ، "مستشارو العمل الذين يهتمون بمسارات الكربون لدينا" بعد "عمل الطهاة" ، "مدربي العمل في اللياقة" أو "مستشارو العمل". تجدر الإشارة إلى أن النهج المسؤول في تطوير التكنولوجيا يجمع بين الابتكار والمعرفة في مجال الأخلاق وعلم النفس والاقتصاد ، بحيث تترجم فوائد الذكاء الاصطناعى ليس فقط إلى التقدم ، ولكن أيضًا إلى الخير الاجتماعي والاستقرار للأنظمة التي نعمل فيها.