وسيو المدونة:دليل شامل لإعداد HTTPS، Sitemap، و robots.txt

وسيو المدونة:دليل شامل لإعداد HTTPS، Sitemap، و robots.txt
وسيو المدونة

 أساسيات أمان وسيو المدونة: دليل إعداد HTTPS وملفات Sitemap وrobots.txt


إذا كنت تريد مدوّنة آمنة وسريعة الفهرسة وتحتل نتائج متقدمة في جوجل، فهذا الدليل العملي يجمع أهم عناصر الأمان (HTTPS) وأساسيات السيو التقنية (ملفات Sitemap وrobots.txt) مع خطوات واضحة، أمثلة عملية، وشفرات برمجية، بالإضافة إلى نصائح من خبرة ميدانية.




1) ضمان عمل المدونة بشكل صحيح مع بروتوكول HTTPS


لماذا HTTPS مهم للأمان والسيو؟


تشفير البيانات بين المتصفح والخادم (حماية كلمات المرور، النماذج، والكوكيز).


السلامة والتكامل: منع تعديل المحتوى أثناء انتقاله.


ثقة المستخدم: ظهور رمز القفل يرفع معدل التفاعل والتحويل.


إشارة ترتيب: دعم بروتوكول HTTPS يعد عاملًا إيجابيًا في ترتيب محركات البحث.


دقة بيانات التحليلات: يحافظ على معلومات الإحالة بين النطاقات الآمنة.


خطوات عملية للتحقق من صحة شهادة SSL


1) استخدام أداة Why No Padlock


1. افتح أداة Why No Padlock وأدخل رابط موقعك بصيغة https://.



2. راقب التقارير عن:


ملفات أو صور تُستدعى عبر http:// (محتوى مختلط).


مشاكل في السلسلة الشهادية (Intermediate/Chain).


انتهاء صلاحية الشهادة أو عدم تطابق النطاق.



 ملاحظة تقنية: بديل لأداة Why No Padlock، يمكن استخدام SSL Check أو Jitbit SSL Check لفحص المحتوى المختلط والتأكد من روابط HTTPS.




2) فحص المحتوى المختلط عبر أدوات المطوّر في المتصفح


1. اضغط F12 لفتح أدوات المطوّر.



2. من تبويب Console ابحث عن تحذيرات “Mixed Content”.



3. من تبويب Network رشّح الطلبات بـ Scheme للتحقق من أي طلب يظهر بـ http.



4. من تبويب Security تأكد أن الاتصال “آمن” مع شهادة صحيحة على جميع الطلبات


دليل تصحيح أخطاء المحتوى المختلط – خطوة بخطوة


أ) تحويل الروابط من HTTP إلى HTTPS داخل القالب


استبدل جميع روابط HTTP في القالب أو الإضافات بـ HTTPS.


<!-- قبل -->

<link rel="stylesheet" href="http://cdn.example.com/theme.css">

<img src="http://example.com/images/logo.png" alt="Logo">


<!-- بعد -->

<link rel="stylesheet" href="https://cdn.example.com/theme.css">

<img src="https://example.com/images/logo.png" alt="Logo">


ب) حل مشاكل الموارد الخارجية التي لا تدعم HTTPS


استبدال المصدر بمزوّد يدعم HTTPS.


الاستضافة محليًا للملفات غير الآمنة.


تمرير الملفات عبر شبكة توزيع محتوى (CDN) تدعم HTTPS.


كخيار إسعافي  إضافة سياسة محتوى تلقائية:



Content-Security-Policy: upgrade-insecure-requests


تفعيل التحويل الإجباري إلى HTTPS


على خادم Apache (.htaccess)


RewriteEngine On

RewriteCond %{HTTPS} !=on

RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]


Header always set Strict-Transport-Security "max-age=31536000; includeSubDomains; preload"


على خادم Nginx


server 

    listen 80

    server_name example.com www.example.com;

    return 301 https://$host$request_uri;



server 

    listen 443 ssl http2;

    server_name example.com www.example.com;


    ssl_certificate /etc/ssl/example/fullchain.pem;

    ssl_certificate_key /etc/ssl/example/privkey.pem;


    add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload" always;



 ملاحظة تقنية للمستخدمين على منصات أخرى

إذا كنت تستخدم IIS على Windows، فإن تحويل HTTP إلى HTTPS يتم عبر web.config أو إعدادات HTTP Redirect.

للمزيد: IIS HTTPS Redirect



HSTS و HSTS Preload


 ملاحظة تقنية: عند استخدام خيار preload، يُدرج نطاقك في قوائم المتصفحات مسبقًا كموقع آمن فقط (Chrome، Firefox، إلخ). الخروج من هذه القائمة صعب ويستغرق وقتًا، لذلك يُنصح بتفعيل preload بعد التأكد الكامل من استقرار الموقع على HTTPS.




صيانة دورية لضمان استمرارية عمل الشهادة


التجديد التلقائي للشهادة (مثل Let’s Encrypt عبر certbot renew).


مراقبة انتهاء الصلاحية قبل 30 يومًا.


فحص دوري لقوة التشفير وسلاسل الشهادات.


اختبار التحويلات 301 وملف robots.txt على كل من http:// وhttps://.



2) الاستفادة القصوى من ملفات Sitemap وrobots.txt


أهمية كل ملف


Sitemap: يساعد محركات البحث على اكتشاف وفهرسة المحتوى بسرعة.


robots.txt: يحدد ما يمكن للعناكب زيارته وما لا يمكنه، مع ضرورة عدم استخدامه لإخفاء صفحات حساسة.



إنشاء وتحديث Sitemap


تضمين روابط قابلة للفهرسة فقط وبروتوكول HTTPS.


تحديث <lastmod> عند تغيير المحتوى.


تقسيم Sitemap عند الحاجة واستخدام سجل فهارس (Index Sitemap).



<?xml version="1.0" encoding="UTF-8"?>

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">

  <url>

    <loc>https://example.com/</loc>

    <lastmod>2025-08-01</lastmod>

    <priority>1.0</priority>

  </url>

</urlset>


إرسال Sitemap إلى Google Search Console


1. إضافة موقعك إلى Search Console.



2. من القائمة Sitemaps أدخل الرابط:

https://example.com/sitemap.xml



3. راجع التقارير للأخطاء والصفحات المفهرسة.



إعداد ملف robots.txt


User-agent: *

Disallow: /admin/

Allow: /


Sitemap: https://example.com/sitemap.xml


 تجنب حجب CSS/JS أو الصفحات المهمة للعرض.




أدوات مجانية للتحقق


Search Console (اختبار robots.txt وSitemap).


أدوات فحص الروابط والSSL.




3) التكامل بين HTTPS وملفات السيو


تأكد أن جميع عناصر Sitemap تستخدم روابط HTTPS.


robots.txt يجب أن يشير فقط إلى محتوى HTTPS.


التأكد من التحويل 301 يمنع تكرار المحتوى ويحسن ترتيب الموقع.


4 قائمة مراجعة شاملة


1. تفعيل شهادة SSL صالحة مع السلسلة الكاملة.



2. فرض تحويل 301 من HTTP إلى HTTPS.



3. فحص وإصلاح جميع الروابط المختلطة.



4. تفعيل HSTS بعد الاختبار.



5. إنشاء/تحديث Sitemap بروابط HTTPS فقط.



6. تقديم Sitemap إلى Search Console.



7. إعداد robots.txt بشكل صحيح وإدراج Sitemap.



8. التحقق اليدوي للصفحات الرئيسية.



9. استخدام canonical ب

ـ HTTPS لمنع التكرار.



10. مراجعة الروابط الداخلية والخارجية.




 ملاحظة تقنية إضافية: أغلب مشاكل اختفاء الصفحات بعد الانتقال إلى HTTPS تأتي من:


1. عدم تفعيل تحويل 301



2. بقاء روابط داخلية بـ HTTP



3. حجب CSS/JS في robots.txt



إرسال تعليق

قم بتعليق هنا

أحدث أقدم

نموذج الاتصال