الشفافية حول الذكاء الاصطناعي

كيف نستخدم الذكاء الاصطناعي بمسؤولية

المحتوى المالي يدخل ضمن ما يسميه Google "YMYL" (Your Money or Your Life)، وله معايير E-E-A-T (الخبرة، التخصص، الموثوقية، الثقة) مشددة. الصفحة دي بتشرح إزاي بنوفّي بهذه المعايير في BorsaAI.

النماذج اللي بنستخدمها

  • Claude Sonnet 4.6 — تصنيف الأخبار، توليد الموجزات اليومية، التحليلات القياسية
  • Claude Opus 4.7 — التحليلات العميقة المدفوعة فقط
  • Claude Haiku 4.5 — كتابة منشورات السوشيال ميديا والملخصات القصيرة

الرقابة البشرية

الجهة المسؤولة: الفريق التحريري لـ BorsaAI. اعرف أكثر عن الفريق.

المراجعة: الموجزات اليومية تتم مراجعتها قبل النشر للعموم بعد 24 ساعة. الأخبار العادية بتمر على فلتر OutputSanitizer قبل الظهور.

منع الهلوسة: صفحات الأسئلة الشائعة لكل سهم بتستخدم قوالب نصية مع قيم حقيقية من قاعدة البيانات، مش توليد حر بالذكاء الاصطناعي وقت العرض.

حدود لا نتجاوزها

  • ممنوع: "اشتري"، "بع"، "السعر المستهدف"، "السهم هيرتفع/هينخفض"، "اشتري في حدود سعر X"
  • مسموح: "السهم متأثر بـ X"، "السيناريو المحتمل"، "العوامل اللي ممكن تؤثر"، "اللي حصل"

شفافية التكلفة والاستهلاك

كل استدعاء للذكاء الاصطناعي مسجل عندنا مع عدد الـtokens والتكلفة بالدولار. الهدف مش بس المراقبة المالية، لكن كمان منع تضخم الاستخدام في حالة وجود bug. لو حبيت تعرف تفاصيل التكلفة على مستوى التحليل الواحد، الموضوع موثق في صفحة المنهجية.

سياسة التصحيح

لو لاحظت خطأ في معلومة منشورة:

  1. ابعت إيميل على [email protected]
  2. هنرد خلال 24 ساعة بالتصحيح أو التوضيح
  3. التصحيح بيتنشر في نفس الصفحة مع timestamp واضح للتغيير

إفصاح تضارب المصالح

BorsaAI ما بتاخدش أي رعاية أو إعلانات من شركات مدرجة في البورصة المصرية. نموذج العمل مبني على النقاط المدفوعة من المستخدمين فقط، علشان نحافظ على استقلالية المحتوى.