SEO

قائمة بـ “الروبوتات الجيدة” لإعدادات htaccess

من المهم في عالم الإنترنت اليوم أن نكون حذرين جدًا بشأن أمان مواقعنا. يعتبر ملف .htaccess أداة فعالة تتيح لأصحاب المواقع تنظيم الوصول إلى محتوى الموقع والتحكم في حركة المرور. في هذه المقالة، سأتناول موضوعًا مهمًا يتعلق بإنشاء قائمة بيضاء للروبوتات الجيدة باستخدام ملف .htaccess في خادم Apache، وهو خطوة قد تكون حاسمة في حماية موقعك.

ما هي قائمة الروبوتات الجيدة؟

قبل أن نتعمق في الكود الخاص بـ .htaccess، دعونا نفهم أولاً ما نعنيه بـ "قائمة الروبوتات الجيدة". تعتبر الروبوتات الجيدة هي تلك التي تساعد في تحسين ترتيب الموقع على محركات البحث أو التي توفر محتوى مفيد للمستخدمين مثل الفيسبوك وتويتر ومحركات البحث المعروفة مثل جوجل وبنج. الهدف من قائمة الروبوتات الجيدة هو السماح لتلك الروبوتات بالوصول إلى موقعك بينما تقوم بمنع الروبوتات السيئة التي قد تؤدي إلى ضرر أو زيادة في الحمل غير المرغوب فيه على الخادم.

لماذا لا نفضل قائمة سوداء؟

في ظل عدم وجود وقت كافٍ لتحديث قائمة سوداء تشمل الروبوتات السيئة، تعد قائمة الروبوتات الجيدة أكثر عملية. فهي تسمح لك بالتركيز على الروبوتات التي تريد السماح لها بالدخول فقط، مما يؤدي إلى تقليل الجهد المطلوب للحفاظ على أمن موقعك. يتطلب ذلك فهمًا جيدًا لأنواع الروبوتات التي تستخدمها.

تبسيط الكود لـ .htaccess

قد يبدو الكود المستخدم في تعديل ملف .htaccess معقدًا للبعض، لكنني سأحاول تبسيطه. فيما يلي شرح لأهم أجزاء الكود:

# تفعيل RewriteEngine
RewriteEngine On
# السماح للمتصفحات المعروفة
RewriteCond %{HTTP_USER_AGENT} !^.*Mozilla.* [NC]
RewriteCond %{HTTP_USER_AGENT} !^.*Opera.* [NC]
# وهكذا لبقية المتصفحات

هذا الجزء من الكود يتحقق من وكيل المستخدم (User-Agent) بحيث يسمح فقط للمتصفحات المعروفة بالوصول، وهذا يعني إبعاد الروبوتات الغير مرغوب فيها بشكل تلقائي. وبالإضافة لذلك:

# السماح لروبوتات محركات البحث المعروفة
RewriteCond %{HTTP_USER_AGENT} !^.*Googlebot.* [NC]
RewriteCond %{HTTP_USER_AGENT} !^.*Bingbot.* [NC]
# وهكذا لبقية الروبوتات

هنا يتأكد الكود من السماح للروبوتات من محركات البحث مثل جوجل وبنج وما إلى ذلك.

أمان إضافي

بالإضافة إلى ذلك، يجب على أي شخص يسعى لتعزيز أمان موقعه التفكير في إضافة تدابير إضافية لحماية الملفات الحساسة. يعني ذلك إعداد قواعد تمنع الوصول إلى ملفات النظام أو الملفات الحساسة مثل ملفات قواعد البيانات:

# منع الوصول إلى الملفات الحساسة
<FilesMatch "\.(ini|phps|pl|py)$">
   Order Deny,Allow
   Deny from all
</FilesMatch>

بهذه الطريقة، يتم حظر أي طلبات للوصول إلى هذه الأنواع من الملفات.

نصيحة للمراقبة والتحديث

من الضروري أن ندرك أن التكنولوجيا تتطور دائمًا، ومن ثم قد تظهر روبوتات جديدة، سواء كانت جيدة أو سيئة. يجب على أصحاب المواقع مراقبة حركة المرور وحفظ السجلات لاكتشاف أي سلوك غير طبيعي.

الختام

في النهاية، استخدام قائمة بيضاء للروبوتات الجيدة في ملف .htaccess هو خطوة ذكية وأمنة لكل من يسعى لحماية موقعه على الإنترنت. مع أنه يتطلب بعض الجهد والمعرفة، إلا أنه يمكن أن يكون خطوة مهمة جداً في تحسين أداء موقعك وزيادة سلامته.

إذا كنت تفكر في تطبيق هذا النظام، فلا تتردد في تجربة الكود المذكور أعلاه وتعديله وفقًا لاحتياجات موقعك الخاصة. تذكر، ليس لديك وقت لصيانة قائمة سوداء للروبوتات السيئة، لذا تأكد دائمًا من تحديث قائمة الروبوتات الجيدة بانتظام لضمان أفضل أداء لموقعك.

احمد علي

متخصص في مجال تطوير وإدارة المواقع الإلكترونية، يتمتع بخبرة واسعة في التعامل مع منصات إدارة المحتوى، خاصة ووردبريس. يقدم أحمد حلولاً مبتكرة واستراتيجيات فعالة لتحسين أداء المواقع وتطوير تصميماتها بما يتناسب مع احتياجات المستخدمين. كما يتميز بقدرته على تبسيط المفاهيم التقنية وكتابة محتوى تعليمي يساعد الأفراد والشركات على تحسين تواجدهم الرقمي وتحقيق أهدافهم على الإنترنت.
زر الذهاب إلى الأعلى
Don`t copy text!