أخلاقيات النشر في المجلة

تلتزم مجلة الباحث الإعلامي الحفاظ على أعلى مستوى من النزاهة في المحتوى المنشور، وتمتلك سياسة واضحة تتعلق بالمصالح المتضاربة، وفي إطار سعي المجلة للانضمام إلى لجنة أخلاقيات النشر (COPE)، نؤكد التزامنا الكامل بتطبيق أعلى معايير النزاهة والشفافية في مراحل النشر العلمي جميعها، على وفق الممارسات الدولية المعتمدة في مجال أخلاقيات النشر.

سياساتنا الأخلاقية تشمل:

  • النزاهة العلمية:
    • تلتزم المجلة الضمان بأن البحوث المنشورة جميعها تُجرى وتُقدم وفقًا للمعايير الأخلاقية المعترف بها دولياً.
    • يتم رفض أي بحث يشتمل على إساءة استعمال البيانات، أو التلاعب بالنتائج، أو انتهاك حقوق المشاركين، أو تلفيق البيانات وتزويرها، وغيرها.
  • المراجعة العلمية الشفافة:
    • تعتمد المجلة نظام مراجعة الأقران (مزدوجة التعمية) لضمان موضوعية ودقة التقييم العلمي.
    • يتم اختيار المراجعين بعناية بناءً على خبرتهم وتخصصهم في مجال البحث.
  • إدارة تضارب المصالح:
    • تلتزم المجلة الكشف عن أي تضارب محتمل في المصالح سواء أكان من قبل المؤلفين أم المراجعين أم المحررين.
    • يتم اتخاذ التدابير المناسبة لضمان أن هذه المصالح لا تؤثر في قرارات التحرير أو جودة البحوث المنشورة.
  • البحوث المتعلقة بالجمهور:
    • تطلب المجلة من المؤلفين الامتثال الكامل للمعايير الأخلاقية الوطنية والدولية عند إجراء بحوث تتضمن الجمهور أو بياناتهم.
    • يجب تقديم أدلة للحصول على الموافقات المطلوبة مثل: "الموافقة المستنيرة" مع مخطوطات البحوث.
  • التعامل مع الشكاوى وسوء السلوك الأكاديمي:
    • تلتزم المجلة النظر بجدية في جميع الشكاوى المتعلقة بسوء السلوك الأكاديمي، بما في ذلك السرقة الأدبية، والتلاعب، وانتهاك حقوق الملكية الفكرية.
    • سيتم التحقيق في أي مزاعم وهي أمور وادّعاءات لا يوثق بها بموضوعية وشفافية، واتخاذ القرارات وفقاً للمعايير الأخلاقية المعتمدة.

رؤية مستقبلية:

تطمح المجلة لأن تكون شريكاً موثوقاً به في النشر العلمي، بما يعزز قيم النزاهة والشفافية، ويضمن تقديم محتوى علمي عالي الجودة يدعم مجتمع البحث العالمي.

  • أخلاقيات استخدام الذكاء الاصطناعي

تشمل أخلاقيات استخدام الذكاء الاصطناعي في البحوث العلمية مجموعة من المبادئ والتوجيهات التي تهدف إلى ضمان الاستخدام المسؤول والمنصف لهذه التكنولوجيا. إذا كنت/ تِ تستخدمين الذكاء الاصطناعي كمصدر أو أداة في البحوث العلمية، هناك عدة نقاط أخلاقية رئيسية يجب أخذها في الاعتبار:

1- الشفافية والإفصاح: يجب الإفصاح بوضوح عن استخدام الذكاء الاصطناعي في البحث، سواء كان ذلك في إعداد البيانات أو تحليلها أو كتابة النصوص، أو توليد الصور والرسوم.

المثال: عند كتابة بحث أكاديمي في مجال الإعلام باستخدام أدوات مثل ChatGPT لتحليل اتجاهات الإعلام الرقمي، يجب الإشارة في قسم المنهجية إلى أن النصوص الناتجة تم توليدها بمساعدة الأداة.الصياغة المقترحة: "تم استخدام أداة الذكاء الاصطناعي ChatGPT لتحليل النصوص، وتم مراجعة النتائج يدويًا للتحقق من الدقة."

2- الأمانة العلمية: تجنب الاعتماد المفرط على الذكاء الاصطناعي في توليد البيانات أو المعلومات دون التحقق من صحتها. والتأكد من توثيق المصادر الأصلية التي يستخدمها الذكاء الاصطناعي.

المثال: إذا قام الباحث باستخدام أداة ذكاء اصطناعي لتلخيص مقالات علمية، يجب أن يتأكد من الرجوع إلى المقالات الأصلية لتوثيق المراجع بشكل صحيح.

3- التحقق من دقة المعلومات: أدوات الذكاء الاصطناعي قد تُخطئ أو تقدم معلومات غير دقيقة. لذا، يجب التحقق من النتائج والمخرجات باستخدام مصادر موثوقة ومستقلة.

المثال: إذا استخدم الباحث أداة ذكاء اصطناعي لتحليل بيانات استبيان، عليه مراجعة الخوارزمية والإحصاءات التي استخدمتها الأداة لضمان صحة النتائج، وإجراء تحليل يدوي للتأكد من توافق النتائج مع الأهداف البحثية.

4- حقوق الملكية الفكرية: التأكد من أن المعلومات أو النصوص التي يولدها الذكاء الاصطناعي لا تنتهك حقوق الملكية الفكرية.

المثال: إذا قام الباحث باستخدام صورة أو رسم بياني تولده أداة ذكاء اصطناعي، مثل DALL·E، يجب أن يوضح مصدر الصورة والأداة المستخدمة مع التأكد من أنها غير محمية بحقوق ملكية لشخص آخر.

5- عدم التحيز: بعض خوارزميات الذكاء الاصطناعي قد تعكس التحيزات الموجودة في البيانات التي تم تدريبه عليها، يجب تقييم النتائج نقديًا للتأكد من حياديتها.

مثال: يجب مقارنة النتائج بمصادر مستقلة وتوضيح ذلك في النص: "تمت مراجعة النتائج الناتجة عن الأداة باستخدام مصادر خارجية لضمان عدم التحيز في التحليل."

6- استخدام الأدوات بما يتفق مع سياسات النشر: التأكد من أن المجلات العلمية والجهات الممولة للبحث لا تمانع استخدام الذكاء الاصطناعي في عملية البحث أو الكتابة.

مثال: استشارة المشرف الأكاديمي ومراجعة شروط مجلة الباحث الإعلامي والتأكد من أن استخدام الذكاء الاصطناعي مسموح وفي حدود معينة.

7- التطوير الشخصي والعلمي: يجب أن لا يكون استخدام الذكاء الاصطناعي بديلاً عن التفكير النقدي أو التحليل الأكاديمي، بل يُستخدم كأداة مساعدة.

مثال: يجب استخدام الذكاء الاصطناعي لصياغة الأفكار الأولية، لكن مراجعتها وإعادة صياغتها بأسلوب الباحث الشخصي.

مراجع موصى بها:

"Ethics Guidelines for Trustworthy AI" (European Commission)

https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

"The Montreal Declaration for the Responsible Development of Artificial Intelligence".

https://montrealdeclaration-responsibleai.com/the-declaration/

سياسات النشر في المجلات العلمية Elsevier أو Springer

https://www.elsevier.com/about/policies-and-standards/publishing-ethics#5-references