وفقًا لدراسة سيسكو لمؤشرات البيانات والخصوصية 2026

92% من المؤسسات في المملكة العربية السعودية تركز علي التوسع في برامج الخصوصية لدعم تطوير الذكاء الاصطناعي بمسؤولية

الرياض، المملكة العربية السعودية،   3فبراير, 2026: أعلنت سيسكو (المدرجة في بورصة ناسداك تحت الرمز: CSCO)، الشركة الرائدة عالمياً في مجال الشبكات والأمن، اليوم نتائج دراسة مؤشرات البيانات والخصوصية لعام 2026 الخاصة بالمملكة العربية السعودية. وتكشف النتائج تحولاً بارزاً في تعامل المؤسسات مع الخصوصية وحوكمة البيانات، إذ باتت غالبية الشركات تقوم بالتوسع في برامج الخصوصية وأطر الحوكمة لحماية بياناتها وتعزيز الابتكار على نطاق واسع مع تسارع تبني الذكاء الاصطناعي. كما أن الطلب المتزايد على بيانات عالية الجودة لدعم الذكاء الاصطناعي يكشف عن ثغرات في الإشراف ويرفع من أهمية الثقة والأمن والتنافسية. ولكي تنجح المؤسسات في عصر الذكاء الاصطناعي، ينبغي عليها بناء استراتيجيات ذكاء اصطناعي قابلة للتوسع ومسؤولة من خلال نهج متكامل وناضج للخصوصية وحوكمة البيانات.

وكانت سيسكو قد أجرت استطلاعاً للرأي شمل 5,200 من المهنيين المتخصصين بتقنية المعلومات والتكنولوجيا والأمن المسؤولين عن الخصوصية في 12 سوقاً عالمياً، بما في ذلك المملكة العربية السعودية. وكشفت الدراسة أن الذكاء الاصطناعي يعد المحفز الرئيسي الذي دفع 92% من الشركات في المملكة للتوسع في برامج الخصوصية، فيما تخطط نسبة مماثلة للاستثمار أكثر لمواكبة تعقيدات أنظمة الذكاء الاصطناعي وتلبية توقعات العملاء والجهات التنظيمية. ومن الجدير بالذكر أن 46% من المؤسسات أنفقت خلال العام الماضي ما لا يقل عن 5 ملايين دولار على برامج الخصوصية.

الذكاء الاصطناعي يرفع سقف متطلبات الخصوصية والثقة، في حين تظل أطر الحوكمة في طور التطور لتلبية هذه المتطلبات.

تشير نتائج الدراسة إلى أن 97% من المؤسسات في المملكة ترى أن الأطر القوية للخصوصية تعزز مرونة الذكاء الاصطناعي وقدرته على الابتكار، كما أن نفس النسبة ترى أن الخصوصية ضرورية لبناء الثقة مع العملاء في الخدمات المدعومة بالذكاء الاصطناعي. ويعكس ذلك تحولاً جذرياً مهماً، إذ لم يعد بناء الثقة يقتصر على مجرد الامتثال للقوانين والتشريعات. فقد باتت حوكمة البيانات تُعتبر عنصراًاستراتيجياً يعزز الأعمال، حيث أفادت جميع المؤسسات التي شملها الاستطلاع بأنها حققت على الأقل فائدة ملموسة من برامج الخصوصية، مثل تعزيز المرونة، ودعم الابتكار، وزيادة ولاء العملاء. ويشير نصف المشاركين إلى أن التواصل الواضح حول كيفية جمع البيانات واستخدامها يعد أكثر الوسائل فعالية لبناء ثقة العملاء.

ومع استمرار هذا الزخم، تتطور أطر الحوكمة لتلبية متطلبات هذا المشهد المتغير. ولا تزال العديد من المؤسسات تعمل على تحديد وإنشاء هياكل الحوكمة اللازمة لإدارة الذكاء الاصطناعي بمسؤولية وعلى نطاق واسع. وبينما تشير ثلاثة أرباع المؤسسات إلى وجود هيئة حوكمة مخصصة للذكاء الاصطناعي لديها، فإن 19% فقط تصف هذه الهياكل بأنها ناضجة. ومع استناد أنظمة الذكاء الاصطناعي إلى مجموعات بيانات متزايدة التعقيد وموزعة على نطاق واسع، تواجه 65% من المؤسسات صعوبة في الوصول بكفاءة إلى بيانات عالية الجودة وملائمة.

وفي تعليقها على نتائج الدراسة، قالت جيلينا دي لانوي، مسؤولة الخصوصية لمنطقة أوروبا والشرق الأوسط وأفريقيا في سيسكو: “مع تسارع تبني الذكاء الاصطناعي في المملكة، أصبح دمج مبادئ قوية للخصوصية وضمان جودة رفيعة المستوى للبيانات من الأولويات الاستراتيجية لنمو الاقتصاد الرقمي، بما يتماشى مع رؤية السعودية 2030. وعندما تكون حماية البيانات وحوكمة البيانات في مقدمة الأولويات، يمكن للشركات الابتكار بثقة، ودفع النمو، وتقديم قيمة أكبر للعملاء”.

الذكاء الاصطناعي يسلط الضوء على تحديات تدفق البيانات على المستوى العالمي

وبالرغم من أن حوالي 74% من المشاركين في المملكة ينظرون بإيجابية إلى قوانين الخصوصية، إلا أن هناك دعوات متزايدة لتبسيط وتحديث متطلبات البيانات. وأظهرت الدراسة أن 89% من المؤسسات تواجه طلباً متزايداً لتوطين البيانات، فيما ترى 77% أن هذا الأمر يزيد من التكلفة والتعقيد والمخاطر المرتبطة بتقديم الخدمات عبر الحدود. كما أفاد 78% أن هذه المتطلبات تحد من قدرتهم على تقديم خدمات سلسة على مدار الساعة عبر أسواق مختلفة.

بدوره، قال هارفي جانغ، نائب رئيس سيسكو والرئيس التنفيذي للخصوصية: “تدعو المؤسسات إلى ضرورة تبني معايير دولية موحدة، بما يتيح لها الاستفادة من كامل إمكانات الذكاء الاصطناعي. فهي تدرك أن التوافق العالمي ضروري لضمان تدفق البيانات بأمان مع الحفاظ على أعلى مستويات الحماية المطلوبة لبناء الثقة”.

بناء الثقة وتعزيز الابتكار في عصر الذكاء الاصطناعي

وتشير نتائج الدراسة إلى أن الانتقال من الامتثال التفاعلي إلى نهج استباقي يتطلب استثماراً في بنية تحتية متينة للبيانات، مع إعطاء الأولوية للشفافية ودمج الأمان والخصوصية في جميع مبادرات الذكاء الاصطناعي. كما يجب على المؤسسات اتخاذ قرارات مستنيرة بشأن توطين البيانات، وتأسيس أطر حوكمة قوية للذكاء الاصطناعي، وتمكين فرق العمل من خلال التدريب الشامل ووضع الضمانات اللازمة. وتعد هذه الخطوات العملية أساسية لبناء ثقة مستدامة، وتعزيز الابتكار المسؤول، والازدهار في اقتصاد رقمي ديناميكي يقوده الذكاء الاصطناعي.

Exit mobile version