الجزء الخامس من سلسلة تعلّم السيو للمبتدئين- السيو التقني.

أمامك موقع جديد اليوم، سواءً كان موقعك أم أحد عملائك، وترغب بعمل تدقيق تقني Technical SEO Audit لضمان أن كل شيء تم عمله بشكل صحيح في الموقع، من أين تبدأ؟

هناك العديد من الأمور التي يمكن اعتبارها من المسلّمات في عالم السيو، بمعنى أن العالم التقني في هذا المجال تجاوز هذه الأمور بمراحل كبيرة، لكن الواقع للأسف غير ذلك.

فهذه الأمور على بساطتها ووضوحها، إلا أن أهميتها كبيرة جداً، والعديد من المواقع لا زالت تقع في بعض الأخطاء في هذا المجال.

من الممكن أن تلاحظ أن الكثير من النقاط هنا في جزء السيو التقني تم ذكرها في الجزء الثالث من السلسلة (عوامل التصدّر والترتيب على جوجل)، وهذا لأن هذه العوامل – على وضوحها – تدخل في خوارزميات البحث والتصدر على جوجل.

سنبدأ بتعريف السيو التقني.

ما هو السيو التقني Technical SEO

السيو التقني هو عملية التحقق على عدد من الأمور التقنية الخاصة بأي موقع، والتي يتم فحصها لضمان أن الموقع يتبع أفضل الممارسات التقنية المتعلقة بظهوره على محرك البحث، هذه العوامل يتم من خلالها التأكد من عملية الأرشفة (أن محرك البحث يعرف هذا الموقع)، تخزين الصفحات في الفهرس الخاص بمحرك البحث، وأن جميع معلومات الصفحة قابلة للقراءة من قبل زواحف محركات البحث، وغير ذلك من الأمور التقنية.

في حال لم يكن التعريف واضحاً بما فيه الكفاية فلا مشكلة، الآن عندما تتعرف على كيفية القيام به، ستتكون لديك صورة أوضح وأشمل عنه.

كيف يتم عمل تدقيق السيو التقني؟

هناك العديد من الأمور التي يجب الانتباه لها عند القيام بتدقيق موقع من الجانب التقني في هذا المجال، ومع أنه ليس موحداً كخطوات متتالية Checklist، إلا أن هناك مراحل يمكنك البدء بها، وكل مرحلة فيها عدة نقاط توضح ما عليك فعله قبل الانتقال إلى النقاط الأخرى.

فمثلاً قبل أن أهتم بأن تكون روابط الموقع مقروءة، علي أن أتأكد أن زواحف محركات البحث تستطيع الوصول إلى هذه الروابط أساساً!

لذلك سنقوم بتقسيم خطة السيو التقني إلى عدة مراحل، لنغطّي صورة شاملة عن كل مرحلة بما فيها.

1) بنية الموقع Site Structure

هل موقعك عبارة عن مئات أو آلاف الصفحات المبعثرة؟ أم أن هناك تصنيفات واضحة وهيكلية للصفحات تسمح لزواحف محركات البحث بفهم الموقع على شكل طبقات؟

السؤال بطريقة أخرى، هل صفحات موقعك بهذا الشكل؟

بحيث يمكنك الوصول من الصفحة الرئيسية لأي صفحة بسهولة، أم بهذا الشكل:

بنية صفحات الموقع غير مرتبة

زواحف البحث لا تختلف كثيراً عن الشخص الذي يزور موقعك، فلو كان الوصول إلى الصفحات الداخلية معقداً وليس له طريق سهل من صفحة البداية، فمن الممكن أن تتأخر عملية أرشفة وفهرسة هذه الصفحات، خصوصاً إن كنت لا تستخدم خريطة لموقعك.

2) الوصول والأرشفة (الفهرسة) Crawlabiltiy & Archiving

في الخطوة السابقة، ضمنّا أنه لو زارت زواحف البحث موقعنا، فستجد طريقها إلى جميع الصفحات، لنقم الآن بضمان وصولها إلى الموقع وصفحاته أساساً.

وصول الزواحف لموقعنا شيء، وأن تتم فهرسة الصفحات شيء آخر بالمناسبة، لماذا؟ لأننا من الممكن بخطأ تقني بسيط أن نمنع الزواحف من أرشفة أي صفحة!

عندما تصل الزواحف لأي صفحة أو موقع، تقوم بالتأكد أن الصفحة مسموح لها (للزواحف) بأرشفتها عن طريق عدم وجود علامة noindex في الصفحة، وأيضاً تذهب مباشرة إلى ملف الروبوتات الموجود على العنوان:

yourwebsite.com/robots.txt

وضحنا في الجزء الأول من السلسلة أن أي خطأ بسيط في هذا الملف من الممكن أن يكون كارثياً، فبدل أن تمنع صفحة معينة من الأرشفة، تقوم بمنع الموقع كاملاً، لذلك عليك التأكد أن الملف موجود على هذا الرابط، وبشكله الصحيح الذي يسمح بأرشفة جميع الصفحات التي تريدها أن تظهر على محرك البحث.

وأفترض أنك قد بدأت باستخدام Google Search Console، فمن المهم جداً الاطلاع على تقرير التغطية Coverage Report في الأداة، الذي يعطيك معلومات عن الصفحات التي تم الوصول إليها، هل تمت أرشفتها؟ هل هي مستثناة من الأرشفة؟ أم بها مشاكل تقنية؟

تقرير التغطية في Search Console

3) استخدام خريطة للموقع Sitemap

هذه ليست الخريطة التي تضعها بعض المواقع في القائمة الرئيسية والتي تحوي على جميع الصفحات (مع أنها تؤدي تقريباً نفس الغرض)، خريطة الموقع تكون مبنية على صيغة XML، وتحتوي على جميع صفحات موقعك التي تريد من محرك البحث أرشفتها وفهرستها.

خريطة الموقع تكون بالعادة على عنوان:

 yourwebsite.com/sitemap.xml

وفي حال قمت برفعها في عنوان آخر، الأفضل وضع العنوان في ملف الروبوتات، بهذا نضمن عملية الوصول Crawlability لجميع الصفحات، والأرشفة Indexing لهذه الصفحات في فهرس محرك البحث.

من أهم الأمور التي عليك التحقق منها في أي خريطة موقع أنها محدثة باستمرار، وليس فقط إنشائها مرة واحدة، وللعلم، خريطة الموقع هي ثاني أهم طريقة (بعد الروابط) لإخبار محركات البحث عن صفحات موقعك.

يمكنك أيضاً تسريع وصول خريطة الموقع إلى محرك البحث عن طريق رفعها باستخدام أداة Search Console (والتي سأستغرب لو وصلت إلى هنا في السلسلة ولم تقم باستخدامها بعد).

4) إعادة التوجيه للدومين Domain Redirects

لا زال الكثيرون عندما يريدون إخبارك عن رابط موقع معين، يبدأون بـ www، مع أن الواقع تغيّر، والكثير من المواقع لم تعد تستخدم هذا الجزء في موقعها، ولكن لأن الناس لا زالت معتادة على كتابته قبل اسم الدومين، فهذه من الممكن أن تحدث مشكلة.

في حال كان موقعك متاحاً على طريقين لكتابته، مثل:

yourwebite.com

www.yourwebsite.com

أي أنه لا يقوم بإعادة توجيه أحد هذين العنوانين إلى الآخر، فمن الممكن (في الغالب ستفعل) أن تقوم زواحف محركات البحث باعتبارهما رابطين مختلفين، وستتم أرشفة الرابطين، أي أن كل صفحة في موقعك سيكون منها نسختان على محرك البحث، وهذا ما لا تريد أن يحصل.

المشكلة الأخرى الشبيهة هي استخدام بروتوكول التشفير HTTPs أم لا، فمن الممكن أن تجد الموقع على عنوانين:

http://yourwebsite.com

https://yourwebsite.com

نعم قد تقول أن هذا نفس الموقع، وما علاقة التشفير وأنه قبل اسم الدومين كلياً بالأرشفة! المشكلة أن زواحف البحث ترى روابط، ولا شيء غير الروابط، أي اختلاف بين رابطين يعني أن هذين رابطين مختلفين، وستتم أرشفتهما كل على حدا.

الحل؟ بسيط جداً، عليك اختيار الدومين المفضل لك Preferred domain سواء بـ www أم لاً، وبالطبع عليك اختيار بروتوكول التشفير كونه أيضاً أحد أهم الأمور التي عليك الانتباه لها في تدقيق السيو التقني، ثم عمل إعادة توجيه لجميع العناوين الممكنة.

فمثلاً في هذا الموقع، العنوان المفضل هو seocorner.net (مع https بالطبع)، قمت بعمل إعادة توجيه (من ملف htaccess) لهذه العناوين:

http://www.seocorner.net

https://seocorner.net

https://www.seocorner.net

 إلى العنوان المفضل، فلو قمت بكتابة أي منها، ستلاحظ أنه سيتم إعادة توجيه الرابط إلى عنوان واحد.

5) الاستخدام الصحيح للعناوين Headings

ذكرناها في الجزء الرابع من سلسلتنا عند الكلمات المفتاحية عندما قلنا أن عليك الاهتمام بأن تكون الكلمات المفتاحية مذكورة بشكل منطقي في عناوين صفحاتك، لأنه بكل بساطة من الممكن أن تكتشف أن موقعك وصفحاتك تستخدم نص عادي لكنه بحجم كبير فقط!

يمكنك التحقق من هذا بسهولة، اختر العنوان الذي تريد التأكد منه، ضغطة بالزر الأيمن ثم Inspect من متصفح كروم أو فايرفوكس، فيظهر لك نوع العنوان كما في الصورة:

التحقق من العنوان الفرعي

6) سرعة الموقع وحجم الصور PageSpeed & Images Sizes

في الغالب لن تجد موقعاً يخلو من هذه المشاكل، إما بطء في تحميل الصفحة، أو تأخر تحميل الصور في الصفحة كون حجمها “خيالي”!

عملت على مواقع كانت تحتوي على صور حجمها يتجاوز 5 ميغا بايت دون أي ضغط، هل تعلم ماذا يعني هذا للمستخدم؟ هل تتخيل كم ثانية يحتاج الزائر لتحميل الصفحة كاملة لو كان عنده انترنت بسرعة متوسطة (أتحدث عن 5-10 ميغابت، وهناك أقل طبعاً)!

على فرض سرعة انترنت 5 ميغابت، ووجود صورة واحدة فقط من هذا الحجم، هذا يعني أن الصورة (لوحدها) ستحتاج 8 ثواني ليتم تحميلها، فكّر بعدها لماذا من الممكن ان يحب جوجل صفحة مثل هذه.

عليك الاهتمام هنا بأبعاد الصور لضمان أن يكون حجمها منطقياً، فالصور الملتقطة بالهاتف تكون أبعادها Dimensions عالية جداً من عدة آلاف من البكسلات، وبعد اختيار أبعاد مناسبة، يمكن استخدام أدوات لضغط الصور دون أي خسارة تلاحظ على جودتها، مثل TinyPNG.com (وهو يصلح لصور JPG أيضاً).

لن نعيد هنا في موضوع سرعة الموقع وأدوات فحصها، ذكرناها بالتفصيل في الجزء الثالث من سلسلتنا (عوامل الترتيب والتصدّر) ويمكنك العودة إليه إن شئت، لكن هناك نقطة أخرى هنا مهمة.

ستجد أن الكثير من المواقع تستخدم صوراً من نوعية PNG، والتي يكون حجمها أكبر بكثير من صور JPEG، مع جهلهم بالفرق بينها، فالنوع الأول تحتاجه فقط عندما تريد خلفية الصورة شفافة ليظهر اللون الخلفي للصفحة، مع أن غالبية المواقع تحتاج صوراً عادية في محتواها، لذلك عليك الانتباه إلى هذا، فمن الممكن أن توفر أكثر من 50% من حجم الصور بتغيير امتداد (نوع) الصور في الموقع!

هناك بعض الإضافات المميزة على WordPress والتي تقوم بتحويل جميع صور الموقع لك من نوع PNG إلى JPEG بسهولة، مثل PNG to JPG.

7) التوافق مع الهواتف المحمولة Mobile-Responsive

عليك التحقق أن الموقع يظهر بشكل ملائم لمختلف الشاشات، ولا يكفي أن يتم عرض صفحة الموقع (كما تظهر على الحواسيب) بشكل مصغر على شاشات الهواتف، ولا حتى تخصيص رابط خاص للزيارات التي تأتي من الهواتف.

للتأكد من أن الموقع متوافق مع مختلف الشاشات، عليك استخدام أداة Mobile-Friendly Test من جوجل، فقط قم بإدخال رابط موقعك لفحصه:

فحص موقع باستخدام mobile-friendly test

8) المحتوى المكرر Duplicate Content

في حال كان عندك أكثر من صفحة بنفس المحتوى، فاحذر أن تقوم بأرشفتهم جميعاً لأكثر من سبب، الأول أن جوجل لا يحب المحتوى المكرر، بل يمكن أن يعاقب عليه، والثاني هو أنه في حال كان هناك وزن (من روابط خارجية مثلاً) لأحد الصفحتين، ستخسره من الصفحة الثانية كون هاتين الصفحتين مختلفتان بالنسبة لمحرك البحث.

الأفضل دائماً أن لا يكون هناك محتوى مكرر، لكن لو كان لا بد من هذا لأسباب مختلفة، هناك طريقتان لحل المشكلة:

1) إعادة توجيه صفحة إلى الأخرى: وهذا يمنع الوصول إلى الصفحة الأولى، ولكنه ينقل وزن الصفحة الأولى إلى الثانية، وتظهر الثانية فقط على محرك البحث وعلى موقعك أيضاً.

2) استخدام Canonical URL: وهذا يبقى الصفحتين (أو أكثر) متاحتين للزوار، لكن وزن الأولى ينتقل للثانية (من وجهة نظر تحسين محركات البحث)، ولن يعرف الزائر أي شيء عن هذا، فالأمر يتم عن طريق كود يتم وضعه في الصفحة الأولى فقط، يشير إلى الصفحة الثانية أنها الرئيسية Canonical.

9) استخدام أدوات التدقيق Site Audit Tools

ومن أشهرها وأفضل الأدوات المجّانية في هذا المجال هي أداة Screaming Frog (لن اترجمها إلى الضفدع الذي يصرخ! أبداً!).

المهم، هذه الأداء بسيطة الاستخدام، بعد تنزيلها، قم بعمل مسح لموقعك، ويعطيك تقريراً عن الصفحات (لحد 500 صفحة في النسخة المجانية)، عناوينها الرئيسية، الفرعية، وصفها، هل معاد توجيهها، والكثير، وهذه صورة عن أحد تقارير الأداة:

تقرير-Screaming-Frog

بهذه النقاط التسع، نكون قد غطّينا أهم ما عليك الانتباه له والاهتمام به بمجرد أن تبدأ عملك على أي موقع لتحسينه لمحركات البحث، وعلى الرغم من سهولتها كما رأينا، لكن هذه الأخطاء موجودة بكثرة على المواقع، وللأسف تأثيرها كبير في حال لم يتم تصحيحها، هل واجهتك أحدها أثناء تدقيقك لأحد المواقع؟ كيف كانت النتيجة عندما تم حل المشكلة؟

شارك إجابتك في التعليقات، ثم انتقل إلى الجزء السادس من سلسلة تعلم السيو للمبتدئين: الروابط الداخلية والخارجية، وهذه روابط لبقية أجزاء السلسلة:

الجزء الأول: كيف تعمل محركات البحث How Search Engines Work

الجزء الثاني: أرشفة المواقع وملفات Robots & Sitemap

الجزء الثالث: أهم عوامل تحسين محركات البحث Search Engines Optimization Ranking Factors

الجزء الرابع: الكلمات المفتاحية Keywords

الجزء السادس: الروابط الداخلية والخارجية Internal Linking & Backlinks