تزييف عميق

عودة للموسوعة

التزييف العميق (بالإنجليزية: Deepfake)‏ هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الصوت والصورة لشخصيّةٍ ما من أجلِ إنتاج مبتر فيديوحديث – باستخدام تقنية التفهم الآلي – قد يظهر للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.

استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديوإباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.

التاريخ

لقد وقع تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.

البحث الأكاديمي

يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهوحقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الصوت والصورة الرقمية بشكلٍ آلي. يُعدّ برنامج فيديوريرايت (بالإنجليزية: Video Rewrite)‏ الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديولشخصٍ يتحدث في موضوع مُعيّن إلى فيديولنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الحدثات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الصوت والصورة أصلًا.

ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديوأكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama)‏ الذي نشرَ فيديوللرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهوما لم يعملهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الحدثات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الصوت والصورة الوهميّ الجديد. عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس توفايس (بالإنجليزية: Face2Face)‏ الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه إنسان في فيديوقديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.

تطوير الهواة

نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes)‏. قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛ حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الصوت والصورةهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ فهم ما إذا كانت مزيّفة أم لا وخاصّة الصوت والصورة المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير. في كانون الأول/ديسمبر 2017؛ نشرت سامانثا كول منطقةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الصوت والصورةهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أوالمُزيّفة.

بحلول شباط/فبراير 2018 وبعد حتى كَثُر الحديث حول هذه التقنيّة قام مسقط ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes)‏ بدعوى نشرهِ لمقاطع فيديوإباحية مزيّفة كما قامت باقي المواقع بحظرِ جميع من يروّج لهذهِ التقنيّة بما في ذلك مسقط التواصل الاجتماعي المُصغّر تويتر وكذا مسقط بورن هاب الإباحي. ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الصوت والصورةهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة، في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بفهمٍ أوبدونِ فهم.

الاستخدام

في المجال الإباحي

ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على مسقط ريديت، لكنّ هذا الأخير قام بحظرها ونفس الأمر عملهُ مسقطي تويتر وبورن هاب. في خريف عام 2017؛ نشر مستخدم مجهولٌ على مسقط ريديت الكثير من مقاطع الصوت والصورة الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذوخِبرة في مجال صناعة مثل هذه الصوت والصورةهات حيثُ كان قد نشرَ مبترًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.

مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح الكثير من الأخطاء في مقاطع الصوت والصورة المزيفة ما جعلَ من الصعبِ اكتشافها أوالتمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الصوت والصورةهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والفهمي في مجال فيس هوأول من أبلغَ عن هذه الظاهرة لأوّل مرة في كانون الأول/ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.

تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال لقاءة لها معَ واشنطن بوست في كانون الأول/ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ نطقت سكارليت أيضًا بأنها لن تحاول إزالة أي من الصوت والصورةهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن حتى تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أوشيء من هذا القَبيل.»

في المجال السياسي

استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين عملى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيوماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بقلم دونالد ترامب. في نيسان/أبريل 2018؛ نشرَ جوردان بيل وجوناه بريتي فيديوعلى شكلِ إعلان خدمى عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق. وفي كانون الثاني/يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديومصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المخط البيضاوي.

برامج التزييف العميق

في كانون الثاني/يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp)‏ للحواسيب. يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الصوت والصورة بسهولة مع تغيير الوجوه حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الصوت والصورة المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لفهم جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الصوت والصورة والصور.

يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلومن جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream)‏. بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الصوت والصورة المزيفة هذه لعدّة مسببات من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين. في آب/أغسطس 2018؛ نشرَ باحثون من جامعة كاليفورنيا في بيركلي ورقة فهميّة تقدم تطبيقًا للتزييف العميق يمكن حتى يخلق انطباعًا جيدًا عندَ الرقص باستخدام الذكاء الاصطناعي.

هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (بالإنجليزية: DeepFace)‏، فايس سواب (بالإنجليزية: FaceSwap)‏ المُستضاف حاليًا على غيت هاب، وماي فايك آب (بالإنجليزية: myFakeApp)‏ المستضاف حاليًا على مسقط بيت باكيت.

الانتقادات

الانتهاكات

يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung)‏ حتى التلاعب بالصور ومقاطع الصوت والصورة باستخدام الذكاء الاصطناعي يُمكن حتى يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هونفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الصوت والصورة وبرامج تحرير الصور. بشكلٍ عام؛ تظل قُدرة البشر على التمييز بين الصوت والصورة المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.

المصداقية

إنّ الفشل في التمييز بين الصوت والصورة المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على جميع الصوت والصورةهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر جميع فيديوحتى لوكانَ سليمًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على جميع إنسان حتى يعهدَ حتى المشكلة ليست معضلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي حتى الإنسانية يمكن حتى تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أوفيديوما حقيقيًا أم لا!»

ردود العمل على الإنترنت

أعربت بعض مواقع الويب مثلَ تويتر وجي إف واي كات أنها ستحذف المحتوى المصنوع عبر تقنيّة التزييف العميق كما ستحظر ناشر مثل هذا النوع من المُحتوى. في السابق؛ منعت منصة الدردشة ديسكورد تداول وتبادل مقاطع الصوت والصورة الإباحية المشهورة المزيفة ونفس الأمر عملهُ المسقط الإباحي بورن هاب ومع ذلك؛ فقد أفيد حتى المسقط لم يقم بحظرٍ تام لهذا المحتوى. أمّا في رديت فقد ظل الوضع في البداية غير واضح حتىسبعة شباط/فبراير 2018 عندما بدأَ المسقط في حظر جميع من ينشر أويتبادل تلك النوعيّة من الصوت والصورةهات بدعوى خرق سياسة المسقط. وَفي سبتمبر 2018؛ أضافَ مسقط جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.

ملاحظات

  1. ^ تُعدّ هذه العبارة حديثة العهد في اللغة الإنجليزية؛ حيثُ صِيغت لأوّل مرة عام 2017.

المراجع

  1. ^ Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (باللغة الإنجليزية). مؤرشف من الأصل في 15 يونيو2018. اطلع عليه بتاريخ 20 فبراير 2018.
  2. ^ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (باللغة الإنجليزية). مؤرشف من الأصل في 16 يونيو2019. اطلع عليه بتاريخ 14 نوفمبر 2018.
  3. ^ "Experts fear face swapping tech could start an international showdown". The Outline (باللغة الإنجليزية). مؤرشف من الأصل فيعشرة أبريل 2019. اطلع عليه بتاريخ 28 فبراير 2018.
  4. ^ Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (باللغة الإنجليزية). ISSN 0362-4331. مؤرشف من الأصل في 18 يونيو2019. اطلع عليه بتاريخ 24 مارس 2018.
  5. ^ Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360. مؤرشف من الأصل في 19 مايو2020 – عبر ACM Digital Library.
  6. ^ Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36.4: 95:1–95:13. مؤرشف من الأصل في 19 مايو2020 – عبر ACM Digital Library.
  7. ^ Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. doi:10.1109/CVPR.2016.262. ISBN . مؤرشف من الأصل في 24 أغسطس 2019.
  8. Cole, Samantha (24 January 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل فيسبعة سبتمبر 2019. اطلع عليه بتاريخ 04 مايو2019.
  9. ^ Haysom, Sam (31 January 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 24 يوليو2019. اطلع عليه بتاريخ 04 أبريل 2019.
  10. ^ Cole, Samantha (11 December 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل فيسبعة سبتمبر 2019. اطلع عليه بتاريخ 19 ديسمبر 2018.
  11. Hathaway, Jay (8 February 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل فيستة يوليو2019. اطلع عليه بتاريخ 22 ديسمبر 2018.
  12. ^ "r/SFWdeepfakes". Reddit. مؤرشف من الأصل فيتسعة أغسطس 2019. اطلع عليه بتاريخ 12 ديسمبر 2018.
  13. ^ Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (باللغة الإنجليزية). مؤرشف من الأصل فيعشرة يونيو2019. اطلع عليه بتاريخ 28 فبراير 2018.
  14. ^ "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (باللغة الإنجليزية). مؤرشف من الأصل فيعشرة أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018.
  15. ^ Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل فيعشرة أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018.
  16. ^ "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (باللغة الإنجليزية). مؤرشف من الأصل فيعشرة أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018.
  17. ^ , Motherboard, 2017-12-11, مؤرشف من الأصل فيخمسة مايو2019 CS1 maint: ref=harv (link)
  18. Markus Böhm (2018-02-07), , Spiegel Online, مؤرشف من الأصل في 23 سبتمبر 2019 CS1 maint: ref=harv (link)
  19. ^ ". The Washington Post. 2018-12-31. مؤرشف من الأصل في 13 يونيو2019. اطلع عليه بتاريخ 19 يونيو2019.
  20. "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. مؤرشف من الأصل في 13 أبريل 2019.
  21. ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل فيتسعة سبتمبر 2018.
  22. ^ Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 11 يونيو2019. اطلع عليه بتاريخعشرة سبتمبر 2018.
  23. ^ Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (باللغة الإنجليزية). مؤرشف من الأصل في 15 أبريل 2019. اطلع عليه بتاريخ 11 يناير 2019.
  24. ^ Britta Bauchmüller, , Berliner-Kurier.de, مؤرشف من الأصل في 28 أغسطس 2019 CS1 maint: ref=harv (link)
  25. ^ Eike Kühl (2018-01-26), , Die Zeit, ISSN 0044-2070, مؤرشف من الأصل في 24 مايو2019 CS1 maint: ref=harv (link)
  26. ^ heise online, , مؤرشف من الأصل في 12 ديسمبر 2019 CS1 maint: ref=harv (link)
  27. ^ Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (باللغة الإنجليزية). مؤرشف من الأصل فيعشرة أبريل 2019. اطلع عليه بتاريخ 27 أغسطس 2018.
  28. ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 17 مايو2019. اطلع عليه بتاريخ 27 أغسطس 2018.
  29. ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 June 2019. مؤرشف من الأصل فيتسعة مايو2019.
  30. ^ "Build software better, together". GitHub. مؤرشف من الأصل في 20 يونيو2019.
  31. ^ "Bitbucket". bitbucket.org. مؤرشف من الأصل فيعشرة أبريل 2019.
  32. ^ Fiske, Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. مؤرشف من الأصل (PDF) فيسبعة مارس 2019. اطلع عليه بتاريخ 19 يونيو2019.
  33. ^ , Die Zeit, 2018-01-26, ISSN 0044-2070, مؤرشف من الأصل في 25 مايو2019 CS1 maint: ref=harv (link)
  34. ^ , WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02, مؤرشف من الأصل في 13 أبريل 2019 CS1 maint: ref=harv (link)
  35. ^ "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (باللغة الإنجليزية). مؤرشف من الأصل فيعشرة أبريل 2019. اطلع عليه بتاريخ 21 أبريل 2018.
  36. ^ "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (باللغة الإنجليزية). مؤرشف من الأصل في 20 يونيو2018. اطلع عليه بتاريخ 21 أبريل 2018.
  37. ^ barbara.wimmer, , مؤرشف من الأصل فيثمانية فبراير 2018 CS1 maint: ref=harv (link)
  38. ^ heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn". مؤرشف من الأصل فيعشرة أبريل 2019.
  39. ^ "Reddit verbannt Deepfake-Pornos". مؤرشف من الأصل فيعشرة أبريل 2019.
  40. ^ Washington Post. ". مؤرشف من الأصل في 14 يونيو2019.
تاريخ النشر: 2020-06-03 20:53:42
التصنيفات: ألفاظ وضعت في عقد 2010, إباحية, تطبيقات الذكاء الاصطناعي, تطبيقات في رؤية حاسوبية, تعلم متعمق (ذكاء اصطناعي), خلافات, رسوميات الحاسوب, سرقة الهوية, مؤثرات خاصة, صفحات بها مراجع بالإنجليزية (en), CS1 maint: ref=harv, مقالات يتيمة منذ يونيو 2019, جميع المقالات اليتيمة, جميع المقالات التي بحاجة لصيانة, مقالات تحتوي نصا بالإنجليزية, بوابة علم الحاسوب/مقالات متعلقة, بوابة السياسة/مقالات متعلقة, بوابة إباحية/مقالات متعلقة, بوابة تقانة/مقالات متعلقة, بوابة تقنية المعلومات/مقالات متعلقة, بوابة إنترنت/مقالات متعلقة, جميع المقالات التي تستخدم شريط بوابات

مقالات أخرى من الموسوعة

سحابة الكلمات المفتاحية، مما يبحث عنه الزوار في كشاف:

آخر الأخبار حول العالم

"الرباط بدون سيارتي".. تجربة غير مسبوقة من أجل مدن أكثر استدامة

المصدر: الأول - المغرب التصنيف: سياسة
تاريخ الخبر: 2023-09-21 21:28:52
مستوى الصحة: 60% الأهمية: 62%

رئيس بولندا: لن نزود أوكرانيا بأسلحة حديثة

المصدر: RT Arabic - روسيا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:08:23
مستوى الصحة: 85% الأهمية: 88%

ميسي يثير الشكوك مجدداً حيال مشاركته في مونديال 2026

المصدر: فرانس 24 - فرنسا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:07:57
مستوى الصحة: 92% الأهمية: 100%

يوروبا ليغ: ليفربول يقلب الطاولة على لاسك النمسوي

المصدر: فرانس 24 - فرنسا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:07:58
مستوى الصحة: 81% الأهمية: 85%

مباراة ودية/ المنتخب المغربي النسوي لأقل من 20 يتغلب على بوتسوانا (6-0)

المصدر: البطولة - المغرب التصنيف: رياضة
تاريخ الخبر: 2023-09-22 00:07:12
مستوى الصحة: 51% الأهمية: 52%

الدوري الأوروبي: روما وليفربول يعودان بنقاط الفوز من خارج الديار

المصدر: فرانس 24 - فرنسا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:07:49
مستوى الصحة: 90% الأهمية: 93%

الجيش المصري يصدر بيانا حول ليبيا وتحركات الحاملة "ميسترال"

المصدر: RT Arabic - روسيا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:08:15
مستوى الصحة: 87% الأهمية: 99%

البنك المركزي المصري يحسم قراره بشأن أسعار الفائدة

المصدر: RT Arabic - روسيا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:08:25
مستوى الصحة: 80% الأهمية: 90%

استئنافية الرباط ترجئ ملف 10 أساتذة متعاقدين إلى نونبر القادم

المصدر: الأول - المغرب التصنيف: سياسة
تاريخ الخبر: 2023-09-21 21:28:39
مستوى الصحة: 47% الأهمية: 68%

استئنافية الرباط ترجئ ملف 10 أساتذة متعاقدين إلى نونبر القادم

المصدر: الأول - المغرب التصنيف: سياسة
تاريخ الخبر: 2023-09-21 21:28:44
مستوى الصحة: 53% الأهمية: 62%

زاخاروفا: فرنسا كانت تحاول أداء دور الوساطة في قره باغ

المصدر: RT Arabic - روسيا التصنيف: سياسة
تاريخ الخبر: 2023-09-22 00:08:18
مستوى الصحة: 86% الأهمية: 89%

"الرباط بدون سيارتي".. تجربة غير مسبوقة من أجل مدن أكثر استدامة

المصدر: الأول - المغرب التصنيف: سياسة
تاريخ الخبر: 2023-09-21 21:28:47
مستوى الصحة: 59% الأهمية: 61%

تحميل تطبيق المنصة العربية