![]() |
وسيو المدونة |
أساسيات أمان وسيو المدونة: دليل إعداد HTTPS وملفات Sitemap وrobots.txt
إذا كنت تريد مدوّنة آمنة وسريعة الفهرسة وتحتل نتائج متقدمة في جوجل، فهذا الدليل العملي يجمع أهم عناصر الأمان (HTTPS) وأساسيات السيو التقنية (ملفات Sitemap وrobots.txt) مع خطوات واضحة، أمثلة عملية، وشفرات برمجية، بالإضافة إلى نصائح من خبرة ميدانية.
1) ضمان عمل المدونة بشكل صحيح مع بروتوكول HTTPS
لماذا HTTPS مهم للأمان والسيو؟
تشفير البيانات بين المتصفح والخادم (حماية كلمات المرور، النماذج، والكوكيز).
السلامة والتكامل: منع تعديل المحتوى أثناء انتقاله.
ثقة المستخدم: ظهور رمز القفل يرفع معدل التفاعل والتحويل.
إشارة ترتيب: دعم بروتوكول HTTPS يعد عاملًا إيجابيًا في ترتيب محركات البحث.
دقة بيانات التحليلات: يحافظ على معلومات الإحالة بين النطاقات الآمنة.
خطوات عملية للتحقق من صحة شهادة SSL
1) استخدام أداة Why No Padlock
1. افتح أداة Why No Padlock وأدخل رابط موقعك بصيغة https://.
2. راقب التقارير عن:
ملفات أو صور تُستدعى عبر http:// (محتوى مختلط).
مشاكل في السلسلة الشهادية (Intermediate/Chain).
انتهاء صلاحية الشهادة أو عدم تطابق النطاق.
ملاحظة تقنية: بديل لأداة Why No Padlock، يمكن استخدام SSL Check أو Jitbit SSL Check لفحص المحتوى المختلط والتأكد من روابط HTTPS.
2) فحص المحتوى المختلط عبر أدوات المطوّر في المتصفح
1. اضغط F12 لفتح أدوات المطوّر.
2. من تبويب Console ابحث عن تحذيرات “Mixed Content”.
3. من تبويب Network رشّح الطلبات بـ Scheme للتحقق من أي طلب يظهر بـ http.
4. من تبويب Security تأكد أن الاتصال “آمن” مع شهادة صحيحة على جميع الطلبات
دليل تصحيح أخطاء المحتوى المختلط – خطوة بخطوة
أ) تحويل الروابط من HTTP إلى HTTPS داخل القالب
استبدل جميع روابط HTTP في القالب أو الإضافات بـ HTTPS.
<!-- قبل -->
<link rel="stylesheet" href="http://cdn.example.com/theme.css">
<img src="http://example.com/images/logo.png" alt="Logo">
<!-- بعد -->
<link rel="stylesheet" href="https://cdn.example.com/theme.css">
<img src="https://example.com/images/logo.png" alt="Logo">
ب) حل مشاكل الموارد الخارجية التي لا تدعم HTTPS
استبدال المصدر بمزوّد يدعم HTTPS.
الاستضافة محليًا للملفات غير الآمنة.
تمرير الملفات عبر شبكة توزيع محتوى (CDN) تدعم HTTPS.
كخيار إسعافي إضافة سياسة محتوى تلقائية:
Content-Security-Policy: upgrade-insecure-requests
تفعيل التحويل الإجباري إلى HTTPS
على خادم Apache (.htaccess)
RewriteEngine On
RewriteCond %{HTTPS} !=on
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]
Header always set Strict-Transport-Security "max-age=31536000; includeSubDomains; preload"
على خادم Nginx
server
listen 80
server_name example.com www.example.com;
return 301 https://$host$request_uri;
server
listen 443 ssl http2;
server_name example.com www.example.com;
ssl_certificate /etc/ssl/example/fullchain.pem;
ssl_certificate_key /etc/ssl/example/privkey.pem;
add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload" always;
ملاحظة تقنية للمستخدمين على منصات أخرى
إذا كنت تستخدم IIS على Windows، فإن تحويل HTTP إلى HTTPS يتم عبر web.config أو إعدادات HTTP Redirect.
للمزيد: IIS HTTPS Redirect
HSTS و HSTS Preload
ملاحظة تقنية: عند استخدام خيار preload، يُدرج نطاقك في قوائم المتصفحات مسبقًا كموقع آمن فقط (Chrome، Firefox، إلخ). الخروج من هذه القائمة صعب ويستغرق وقتًا، لذلك يُنصح بتفعيل preload بعد التأكد الكامل من استقرار الموقع على HTTPS.
صيانة دورية لضمان استمرارية عمل الشهادة
التجديد التلقائي للشهادة (مثل Let’s Encrypt عبر certbot renew).
مراقبة انتهاء الصلاحية قبل 30 يومًا.
فحص دوري لقوة التشفير وسلاسل الشهادات.
اختبار التحويلات 301 وملف robots.txt على كل من http:// وhttps://.
2) الاستفادة القصوى من ملفات Sitemap وrobots.txt
أهمية كل ملف
Sitemap: يساعد محركات البحث على اكتشاف وفهرسة المحتوى بسرعة.
robots.txt: يحدد ما يمكن للعناكب زيارته وما لا يمكنه، مع ضرورة عدم استخدامه لإخفاء صفحات حساسة.
إنشاء وتحديث Sitemap
تضمين روابط قابلة للفهرسة فقط وبروتوكول HTTPS.
تحديث <lastmod> عند تغيير المحتوى.
تقسيم Sitemap عند الحاجة واستخدام سجل فهارس (Index Sitemap).
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://example.com/</loc>
<lastmod>2025-08-01</lastmod>
<priority>1.0</priority>
</url>
</urlset>
إرسال Sitemap إلى Google Search Console
1. إضافة موقعك إلى Search Console.
2. من القائمة Sitemaps أدخل الرابط:
https://example.com/sitemap.xml
3. راجع التقارير للأخطاء والصفحات المفهرسة.
إعداد ملف robots.txt
User-agent: *
Disallow: /admin/
Allow: /
Sitemap: https://example.com/sitemap.xml
تجنب حجب CSS/JS أو الصفحات المهمة للعرض.
أدوات مجانية للتحقق
Search Console (اختبار robots.txt وSitemap).
أدوات فحص الروابط والSSL.
3) التكامل بين HTTPS وملفات السيو
تأكد أن جميع عناصر Sitemap تستخدم روابط HTTPS.
robots.txt يجب أن يشير فقط إلى محتوى HTTPS.
التأكد من التحويل 301 يمنع تكرار المحتوى ويحسن ترتيب الموقع.
4 قائمة مراجعة شاملة
1. تفعيل شهادة SSL صالحة مع السلسلة الكاملة.
2. فرض تحويل 301 من HTTP إلى HTTPS.
3. فحص وإصلاح جميع الروابط المختلطة.
4. تفعيل HSTS بعد الاختبار.
5. إنشاء/تحديث Sitemap بروابط HTTPS فقط.
6. تقديم Sitemap إلى Search Console.
7. إعداد robots.txt بشكل صحيح وإدراج Sitemap.
8. التحقق اليدوي للصفحات الرئيسية.
9. استخدام canonical ب
ـ HTTPS لمنع التكرار.
10. مراجعة الروابط الداخلية والخارجية.
ملاحظة تقنية إضافية: أغلب مشاكل اختفاء الصفحات بعد الانتقال إلى HTTPS تأتي من:
1. عدم تفعيل تحويل 301
2. بقاء روابط داخلية بـ HTTP
3. حجب CSS/JS في robots.txt