สอนอธิบายเทคนิคในการทำ Technical SEO แบบละเอียดอัพเดทล่าสุดจากGoogle พร้อมเครื่องมือที่จำเป็นช่วยให้เว็บไซต์มีอันดับดีขึ้นใน keyword(คีย์เวิร์ด) ที่เลือก
การทำ SEO หลักๆ แล้วเราจะแบ่งออกเป็น 4 ประเภท ได้แก่
- On-page SEO : เป็นการปรับแต่งส่วนที่อยู่บนหน้าเว็บไซต์
- Off-page SEO : เป็นการทำ SEO ที่เกิดขึ้นภายนอกเว็บไซต์
- Technical SEO : เป็นการใช้เทคนิคที่เกี่ยวกับการปรับแต่งโครงสร้างเว็บไซต์
- Local SEO : เกี่ยวข้องกับการทำให้เว็บไซต์ติดอันดับ Location-Focused Keywords
ซึ่งหลักๆ แล้วส่วนที่ Web Developer จะเข้าไปจัดการจะเป็นในส่วนของตัว Technical SEO (สนใจกด >> รับทำ SEO)
TECHNICAL SEO เป็นประเภท SEO ที่มีลักษณะคล้ายคลึงกับ On-Page SEO เพียงแต่ TECHNICAL SEO เป็นการระดมเทคนิครวมทั้งวิธีต่างๆ เข้ามาจัดสร้างในเว็บไซต์ โดยไม่เกี่ยวข้องกับการจัดการเนื้อหาในเว็บ (หรือไม่เกี่ยวข้องกับ Keyword) เพื่อให้ Google มองโครงสร้างของเว็บไซต์ว่ามีความง่ายดาย และจะส่งผลให้การจัดเก็บข้อมูล
Technical SEO คืออะไร?
Technical SEO คือ การเพิ่มประสิทธิภาพของเว็บไซต์และเซิร์ฟเวอร์เชิงเทคนิค เช่น การทำแผนผังเว็บไซต์, การปรับปรุงความเร็วในการแสดงผล หรือใช้ SSL Certificate เป็นต้น เพื่อให้บอทของเสิร์ชเอนจินสามารถเข้ามารวบรวมข้อมูล (Crawling) และจัดทำดัชนีเว็บไซต์ (Indexing) ได้อย่างมีประสิทธิภาพ ซึ่งจะช่วยเพิ่มการจัดอันดับบนหน้าการค้นหาได้อย่างรวดเร็ว
โดยการทำ Technical SEO จุดประสงค์หลัก ๆ มี 2 ส่วน คือ
- เพื่อให้ Google ให้มา crawl (เก็บเกี่ยว) หรือเข้าถึงข้อมูลหน้าเว็บเราได้ง่ายและสะดวกมากยิ่งขึ้น (ทำนองว่าเราอำนวยความสะดวกให้ Google มาเก็บเกี่ยวเนื้อหาของเว็บเราได้ดีที่สุดที่จะเป็นไปได้) โดยจะทำให้ Google ทำการ index (จัดทำดัชนี) ของเว็บเราได้ดียิ่งขึ้น
- มอบประสบการณ์ใช้งานที่ดีต่อผู้ใช้ เช่น เว็บไหลลื่น โหลดเร็ว มีลิงก์นำทาง (Navigation) ที่ชัดเจน กดไปหน้าต่าง ๆ ได้สะดวก โดยมีจำนวนการคลิกที่น้อยที่สุดที่จะเป็นไปได้ รวมไปถึงเว็บมีความปลอดภัย เป็นต้น
ตัวอย่างของการทำ Technical SEO
- การส่งโครงสร้างของเว็บไซต์ (Sitemap) ไปให้กับ Google เพื่อให้ Bot เข้ามาอ่านและนำไปจัดเก็บข้อมูลบนเว็บไซต์
- การวางโครงสร้างให้เนื้อหาต่างๆ บนเว็บไซต์มีความ SEO-Friendly ช่วยให้ Bot เข้าใจว่าเนื้อหาของเว็บไซต์เกี่ยวข้องกับอะไร
- การเพิ่มความเร็วในการโหลดและแสดงผลให้กับเว็บไซต์
- การทำให้เว็บไซต์สามารถแสดงผลได้ดีบนมือถือ
- การปรับปรุงเนื้อหาต่างๆ บนเว็บไซต์ให้สดใหม่อยู่เสมอ รวมถึงการแก้ไขเนื้อหาที่ซ้ำกันภายในเว็บไซต์
(สนใจกด >> รับสอน SEO)
หลักการทำงานของ Google Bot
- 1. Crawling – การทำให้เว็บไซต์ง่ายต่อการ “ไต่” เพื่อเก็บข้อมูล
ในข้อแรกเป็นการทำความเข้าใจกับการเก็บข้อมูล ซึ่งจะไม่ใช่การเก็บข้อมูลจากผู้ใช้งานหรือคนที่เข้ามาชมเว็บไซต์ แต่จะเป็นการเก็บข้อมูลของ Google Bot ที่จะเข้ามาทำการ “ไต่” (Crawl) เนื้อหาต่างๆ บนเว็บไซต์ของคุณ เพื่อทำการอ่านและเก็บข้อมูลที่แสดงบนเว็บไซต์
เมื่อเว็บไซต์มีการสร้าง Blog บทความใหม่ หรือมีการอัปเดตเนื้อหาบนเว็บไซต์
Google จะส่ง Bot หรือที่เรียกกันว่า “แมงมุม” (Spiders) เข้ามาไต่บนเว็บไซต์ (Crawl) เพื่อทำการอ่านและวิเคราะห์ว่าเนื้อหานั้นเกี่ยวกับอะไร
จากน้ันข้อมูลบนหน้าเว็บเพจนั้นจะถูกทำการบันทึกลงในฐานข้อมูลของ Google
ถ้าหากมีผู้ใช้งานค้นหาด้วยคำค้นที่เกี่ยวข้องกับเนื้อหาบนเว็บเพจ Google จะเลือกนำมาแสดงผล โดยถ้าหากเว็บไซต์ของคุณมีการทำ Technical SEO จนผ่านเกณฑ์ที่กำหนด ก็จะมีโอกาสที่เว็บเพจหน้านั้นจะได้แสดงบนอันดับแรกๆ ของการค้นหา
- 2. Indexing – การ “บันทึกข้อมูล” บนเว็บลงฐานข้อมูล
เมื่อ Bot ของ Google เข้ามาเก็บข้อมูลบนหน้าเว็บเพจแล้ว ข้อมูลต่างๆ จะถูกนำไปเก็บไว้ที่ฐานข้อมูลขนาดใหญ่ของ Google ที่รวบรวมหน้าเว็บเพจเอาไว้มากกว่าพันล้านหน้า
หากคุณต้องการเช็คว่าเว็บไซต์ของธุรกิจ มีหน้าไหนบ้างที่ถูก Index ลงไปในฐานข้อมูลแล้ว สามารถค้นหาได้ผ่านช่องค้นหาของ Google โดยพิมพ์คำว่า “site:(โดเมนของเว็บไซต์)”
เช่น “site:markettium.com” แล้วกดค้นหา จากนั้น Google จะแสดงจำนวนให้ดูว่ามีหน้าเพจจำนวนเท่าไหร่ที่ถูกนำไป index เพื่อรอให้ถูกค้นหาบ้าง
นอกจากนี้ยังสามารถดูแบบแยกตามหน้าเว็บเพจได้ด้วย เพื่อเช็คว่าเว็บเพจที่สร้างขึ้นมาแล้ว ได้รับการ Index ไปที่ฐานข้อมูลแล้วหรือยัง ด้วยการพิมพ์ “site:(ลิงก์ของเว็บเพจหน้าที่ต้องการ)” (สนใจกด >> รับดูแลเว็บไซต์ wordpress)
Google จะปล่อย Bot มาไต่บนเว็บไซต์ตอนไหน?
การไต่ของ Bot จะเกิดขึ้นเมื่อ Google เคยเข้ามาอ่านข้อมูลบนเว็บไซต์ของเราไปแล้ว และเมื่อมีการสร้างหน้าเว็บเพจใหม่ เช่น หน้าบทความใหม่ ทาง Google ก็จะปล่อยให้ Bot เข้ามาอ่านเพื่อนำข้อมูลไปบันทึกลงฐานข้อมูล และทุกๆ ครั้งที่มีการสร้างหน้าเว็บเพจใหม่บนเว็บไซต์ กระบวนการนี้ก็จะเกิดขึ้นใหม่
ซึ่งถ้ามีการปรับแต่งให้เว็บไซต์ของธุรกิจ สามารถเข้าถึงและถูก Bot อ่านข้อมูลได้ง่าย โอกาสที่หน้าเว็บเพจแต่ละหน้าจะถูกนำไปแสดงผลบนหน้าค้นหาก็มีมากขึ้น
ปัจจัยต่างๆที่ส่งผลต่อ Technical SEO
Ranking Signals เป็นฟังก์ชันใหม่ที่ Google ได้เพิ่มเข้ามา ซึ่งจะประกอบไปด้วย
- Mobile First Indexing คือ การเข้าไปเก็บข้อมูลบนมือถือก่อน Desktop
- Safe Browing คือ การใช้งานเว็บไซต์อย่างปลอดภัยไม่มีไวรัสต่าง ๆ
- Intrusive interstitials คือ Pop-up ต่าง ๆ ที่ขึ้นมาบังหน้าจอเยอะเกินไป จะทำให้ Google ปรับคะแนน SEO ลดลง
- Core Web Vitals
ท่านควรจะทำการติดตั้ง Google Analytics และ Google Search Console เพราะเป็นเครื่องมือสำคัญในการวิเคราะห์website ให้ท่านอย่างละเอียด Google Analytics และ Google Search Console ช่วยตรวจสอบการทำงานของเว็บไซต์ของท่านและส่งแจ้งเตือนข้อผิดพลาดที่ต้องแก้ไข
องค์ประกอบปัจจัยที่ส่งผลต่อ Technical SEO แบ่งออกได้ดังนี้ พร้อมขั้นตอนการทำและแก้ไข
1. การวางโครงสร้างเว็บไซต์ให้มีความ SEO-Friendly
โครงสร้างเว็บไซต์ (Site Structure) เป็นการวางแผนผังของเว็บไซต์ที่ทำให้เห็นว่าหน้าแต่ละหน้าบนเว็บไซต์มีอะไรบ้างและเชื่อมโยงกันอย่างไร ซึ่งการออกแบบโครงสร้างเว็บไซต์ที่ดีจะช่วยให้การไต่ของ Bot ทำได้สะดวกรวดเร็วยิ่งขึ้น
เคล็ดลับในการวางโครงสร้างเว็บไซต์ให้ SEO-Friendly
ไม่สร้างหน้าย่อยเยอะเกินไป และหน้าทั้งหมดไม่อยู่ห่างจากหน้า Homepage มากเกินไป
ข้อดีของการวางโครงสร้างเว็บไซต์แบบนี้ จะง่ายต่อการทำความเข้าใจของ Google Bot รวมถึงช่วยในการแก้ไขปัญหา Orphan Pages หรือหน้าเพจที่ไม่มีลิงก์ไปถึงได้
ช่วยให้คุณสามารถสร้างการเชื่อมต่อไปยังหน้าเพจนั้น หรือลบออกไปเพื่อทำให้โครงสร้างของเว็บไซต์เป็นระเบียบมากขึ้น
2. การส่งโครงสร้างของเว็บไซต์ (Sitemap) ไปให้กับ Google
XML sitemap เป็นอีกสิ่งหนึ่งที่ช่วยให้ bot เข้ามารวบรวมผ่านไซต์ของคุณ โดยสิ่งนี้จะบอกโปรแกรมรวบรวมข้อมูลถึงสิ่งสำคัญที่อยู่ในไซต์ ไม่ว่าจะเป็นความเชื่อมโยงกันของแต่ละหน้าเว็บ รวมถึงข้อมูลต่างๆ เช่น ความถี่ในการอัปเดตหน้าเว็บแต่ละหน้า เป็นต้น
XML sitemap จะมีประโยชน์มากที่สุดเมื่อ :
- เว็บไซต์มีขนาดใหญ่มาก
- เว็บไซต์มีรูปภาพและวิดีโอเป็นจำนวนมาก
- เว็บไซต์ไม่ได้มีการทำ internal link ที่ดีพอ
- เว็บไซต์เพิ่งเปิดใหม่และยังไม่ได้มีเว็บอื่นทำ external link มาที่เว็บ (เรียกว่าการทำ backlink)
โครงสร้างของเว็บไซต์ หรือ Sitemap จะเป็นไฟล์รูปแบบ XML ที่ประกอบไปด้วยข้อมูลสำคัญของหน้าเพจต่างๆ บนเว็บไซต์ของคุณ โดยส่วนใหญ่แล้วจะแสดงเป็น URLs เช่น
- markettium.com/sitemap.xml
- markettium.com/sitemap_index.xml
หากคุณไม่แน่ใจว่าจะสร้างแผนผังเว็บไซต์อย่างไรและเว็บไซต์ของคุณใช้ WordPress คุณสามารถสร้างแผนผังเว็บไซต์ง่ายๆ ด้วยปลั๊กอิน เช่น Google XML Sitemap Generator ที่ถูกออกแบบมาเพื่อสร้างแผนผังเว็บไซต์ XML โดยเฉพาะ
เมื่อมีการเปลี่ยนแปลงในเว็บ เช่น สร้างหน้าเพจใหม่ เป็นต้น ควรแจ้งให้ Google รู้ถึงการเปลี่ยนแปลงนั้นๆ ด้วยการส่ง XML Sitemap ใน Google Search Console (GSC)
และเมื่อเจอกับไฟล์นี้แล้ว เราจะสามารถนำไปส่งให้กับ Google ผ่าน Google Search Console ด้วยวิธีการดังนี้
- ไปที่ Google Search Console
- เลือกเมนู Indexing > Sitemap
- คัดลอก URL ของ Sitemap ไปวางในช่อง จากนั้นกด Submit
- รอการประมวลผล และเมื่อขึ้นสถานะ Success นั่นคือกระบวนการส่งไปตรวจสอบเสร็จเรียบร้อยแล้ว
3. การเพิ่มความเร็วการโหลด (Page Speed)
ความเร็วในการโหลดเว็บไซต์ ไม่ว่าจะเป็นเว็บไซต์เวอร์ชั่น Desktop หรือเวอร์ชั่นมือถือ เป็นอีกหนึ่งปัจจัยที่ Google ใช้ในการจัดอันดับเว็บไซต์บนหน้าค้นหา
โดยเว็บไซต์ที่โหลดได้ช้ากว่าเกณฑ์ที่กำหนด จะส่งผลต่อประสบการณ์ที่ไม่ดีต่อผู้ใช้งานที่เข้าชมเว็บไซต์ ที่อาจต้องรอนานเกินไป จนทำให้ต้องกดออกจากเว็บและอาจจะไม่ไม่กลับเข้ามาชมเว็บไซต์อีก
วิธีการเช็ดความเร็วในการโหลดของเว็บไซต์ สามารถเช็คได้ที่ PageSpeed Insights โดยเมื่อกรอก URL ของเว็บไซต์ลงไปแล้ว ระบบจะทำการวิเคราะห์และให้คะแนนความเร็วในการโหลดตั้งแต่ 0-100 ซึ่งได้ตัวเลขมากเท่าไหร่ ก็ยิ่งดีต่อเว็บไซต์มากท่านั้น
คำแนะนำที่ PageSpeed Insight ให้ไว้นั้นค่อนข้างละเอียดทั้งในอุปกรณ์เคลื่อนที่และเดสก์ท็อป แนะนำว่าแก้ให้ได้มากเท่าที่จะทำได้ โดยถ้าคุณอยากได้มุมมองทางเทคนิคอื่นๆ ขอแนะนำอีก 2 เครื่องมือที่นิยมใช้กัน คือ GTMetrix , และ webpagetest.org
เคล็ดลับในการเพิ่มความเร็วให้เว็บไซต์โหลดได้ลื่นมากยิ่งขึ้น
1. บีบอัดไฟล์ภาพให้เล็กลง
โดยไฟล์ภาพที่มีขนาดใหญ่ เมื่อใส่ลงไปบนเว็บไซต์แล้ว จะทำให้ต้องใช้เวลาในการโหลดเพื่อแสดงผลภาพนานขึ้น และถ้ามีภาพขนาดใหญ่จำนวนมากในหน้าเว็บเพจเดียว ก็อาจต้องเสียเวลาในการรอนานยิ่งขึ้น (สนใจกด >> รับทำเว็บไซต์ รับออกแบบเว็บไซต์)
ดังนั้น การบีบอัดภาพก่อนอัปโหลดลงบนเว็บจะช่วยลดปัญหานี้ได้ หรือจะใช้การติดตั้ง Plug-in ที่บีบอัดภาพอัตโนมัติเมื่ออัปโหลดลงเว็บไซต์ก็ได้เช่นกัน เราแนะนำ Plugin Imagify
2. ลดขนาดไฟล์ HTML, CSS และ JavaScript
ลดขนาดไฟล์สามารถทำได้ด้วยการจัดระเบียบโค้ดต่างๆ ให้เป็นระเบียบขึ้น ลบอักขระที่ไม่จำเป็นออก หรือลบช่องว่างออกจากโค้ด จะช่วยให้การโหลดเว็บไซต์เร็วขึ้นได้
3. ใช้งาน CND
สำหรับเว็บไซต์ที่จะมีผู้เข้าชมในต่างประเทศด้วย ถ้าหากไม่มีการติดตั้ง CDN ก่อน จะทำให้ผู้ใช้งานที่อยู่ไกลรอโหลดข้อมูลจาก Hosting นานขึ้น โดยการติดตั้ง CND จะทำให้มีการเก็บแคชของเนื้อหา กระจายไปตามเซิฟเวอร์ในพื้นที่ต่างๆ รอบโลก จึงช่วยให้ผู้ใช้งานในต่างประเทศไม่ต้องรอโหลดเว็บไซต์นาน
4. ใช้งาน https
การใช้งาน https เป็นหนึ่งในปัจจัยที่ใช้ในการจัดอันดับเว็บไซต์ของ Google
ซึ่งการใช้งาน https เป็นเวอร์ชั่นของ http ที่ปลอดภัยมากยิ่งขึ้น ช่วยผู้ใช้งานที่เข้ามาบนเว็บไซต์ของคุณ ได้รับการปกป้องข้อมูลได้อย่างปลอดภัย เช่น Password, หมายเลขเครดิตการ์ด
สำหรับการเช็คว่าเว็บไซต์ของคุณมีการใช้งาน https แล้วหรือไม่ สามารถดูได้จากช่อง address bar
- ถ้าด้านหน้าของลิงก์มีเครื่องล็อคกุญแจ นั่นหมายถึงเว็บไซต์มีการทำ https แล้ว
- ถ้าหน้าลิงก์ของเว็บไซต์ขึ้นคำว่า “Not Secure” นั่นหมายถึงเว็บไซต์ยังไม่ได้ทำ https
ในกรณีที่ยังไม่ได้ทำ ให้ทำการติดตั้ง SSL Certificate ลงไป ซึ่งจะเป็นใบรับรองความปลอดภัยอิเล็คทรอนิกส์ จากนั้นเว็บไซต์จะขึ้น https
5. ตรวจสอบการตอบสนองต่อการใช้งานบนมือถือ (Mobile-Friendly)
เว็บไซต์ที่ทำเวอร์ชั่นให้ตอบสนองบนมือถือ(mobile responsive) มีผลต่อการจัดอันดับของเว็บไซต์บนหน้าค้นหา เนื่องจาก Google ใช้การ Index ข้อมูลโดยให้ความสำคัญกับ Mobile First ก่อน
ดังนั้น ในการทำเว็บไซต์ต้องให้ความสำคัญกับการตอบสนองต่อการใช้งานบนมือถือด้วย โดยคุณสามารถตรวจสอบได้ว่า หน้าเพจต่างๆ บนเว็บตอบสนองต่อการใช้งานบนมือถือหรือไม่ ผ่านการเช็คข้อมูลบน Google Search Console > Mobile Usability
จากนั้นระบบจะแสดงจำนวนหน้าเว็บเพจที่ตอบสนองต่อการใช้งานบนมือถือ พร้อมกับปัญหาและคำแนะนำในการแก้ไข เพื่อให้คุณปรับปรุงประสิทธิภาพของเว็บไซต์ให้สร้างประสบการณ์ที่ดีต่อผู้เข้าชมเว็บไซต์ได้มากที่สุด
6. ตรวจสอบเนื้อหาที่ซ้ำกัน (Duplicate Content)
เนื้อหาที่ซ้ำกัน (Duplicate Content) คือ คอนเทนต์หรือเนื้อหาที่ซ้ำกัน เกือบจะซ้ำกัน หรือมีการก้อปปี้เนื้อหาแล้วมีการปรับเปลี่ยนเล็กน้อย ที่ปรากฏบนหน้าเพจที่ต่างกันบนเว็บไซต์เดียวกัน (สนใจกด >> รับทำเว็บไซต์ wordpress)
โดยทาง Google ไม่ได้มีบทลงโทษต่อเว็บไซต์ที่สร้าง Duplicate Content แต่การสร้างเนื้อหาที่ซ้ำกันอาจทำให้เกิดปัญหาอื่นๆ ตามมา เช่น หน้าเพจอาจขึ้นอันดับได้ไม่ดีบนหน้าค้นหา ประสิทธิภาพของการ Crawl และ Index บนเว็บไซต์ที่ลดลง
7. แก้ไขตามคำแนะนำของ Core Web Vitals
สำหรับ Core Web Vitals เป็นหนึ่งในมาตรวัดประสบการณ์ของผู้ใช้งาน (User Experience) ที่เข้าชมเว็บไซต์ของเรา ประกอบไปด้วย 3 หัวข้อ คือ
- Loading ความเร็วในการโหลดเว็บไซต์
- Interactivity การตอบสนองของเว็บ
- Visual Stability ความเสถียรของเว็บไซต์ในเรื่องของดีไซน์
โดยการตรวจสอบ Core Web Vitals สามารถเช็คได้ผ่าน Google Search Console > Experience > Core Web Vitals > View Details
จากนั้นระบบจะแสดงผลของ Core Web Vitals ว่าประสิทธิภาพของประสบการณ์ที่มีต่อผู้ใช้งานเว็บไซต์เป็นอย่างไรบ้าง พร้อมรายงานปัญหา และวิธีแก้ไข เพื่อให้เว็บไซต์ของคุณตอบโจทย์ผู้เข้าชมได้มากยิ่งขึ้น
8. Robots.txt , Meta NoIndex, & Meta NoFollow
คุณสามารถบอก search engine ว่าคุณต้องการให้เนื้อหาในเว็บไซต์ของคุณถูกจัดการแบบไหน อย่างไร เช่น หากคุณไม่ต้องการให้ข้อมูลส่วนใดส่วนหนึ่งของเว็บไซต์เข้าถึงโดยบอท คุณสามารถใช้ไฟล์ robots.txt เพื่อระบุความต้องการให้เสิร์ชเอนจิ้นรู้
ความสำคัญของ robots.txt ก็คือเพื่อทำให้แน่ใจว่า bot สามารถรวบรวมข้อมูลของไซต์ที่สำคัญได้ครบถ้วน หากกำหนดโค้ดไม่ถูกต้อง bot ก็จะไม่สามารถเข้าถึงไซต์ได้ ซึ่งจะทำให้ Google มองไม่เห็นคีย์เวิร์ดและคอนเทนต์ที่อยู่ภายในเว็บไซต์ของคุณนั่นเอง
คุณยังสามารถกำหนดว่าส่วนไหนของเว็บไซต์ที่ไม่ต้องการให้ bot เข้ามาเก็บรวบรวมข้อมูลได้อีกต่างหาก และหากคุณอยากรู้ว่า robots.txt ที่มีอยู่ทำหน้าที่ได้ถูกต้องหรือไม่ เราก็มีเครื่องมือที่จะช่วยตรวจสอบให้คุณเอง >> Robots.txt testing tool
นอกจากไฟล์ robots แล้ว คุณยังสามารถใช้เมตาแท็ก robots (robot meta tags) ในการบล็อกเนื้อหาเป็นหน้าๆ ไป ออกจากดัชนีเครื่องมือค้นหาได้
9. โครงสร้างข้อมูลที่เป็นระบบ
Structured data หรือข้อมูลที่จัดเก็บไว้โดยมีโครงสร้างที่เป็นระบบจะช่วยให้ search engine เข้าถึงและเข้าใจเว็บไซต์ของคุณได้ดียิ่งขึ้น ซึ่งส่งผลโดยตรงต่อจำนวนผู้ใช้ที่เข้ามายังเว็บไซต์ของคุณอีกด้วย ตัวอย่างเช่น การแสดงราคาสินค้าและการให้คะแนนในคำอธิบายของผลการค้นหา
การกำหนดให้หน้าเว็บต่างๆ มีสิ่งเหล่านี้เพื่อให้ search engine เข้าใจและแสดงผลลัพธ์เมื่อมีผู้ใช้ทำการค้นหาสามารถทำได้ที่ schema.org ในรูปแบบของ JSON-LD ที่ Google เลือกใช้อยู่ในปัจจุบันและจะไม่ส่งเสียต่อเว็บไซต์ของคุณ
การทำให้เว็บไซต์ของคุณมีโครงสร้างของข้อมูลที่เป็นระบบจะช่วยให้มีโอกาสติดอยู่ในตำแหน่งบนสุดหรือ feature snippets เมื่อมีใครสักคนค้นหาคำที่เกี่ยวข้องกับคุณในหน้าแสดงผลลัพธ์การค้นหา
10. ลิงก์มีปัญหา
ลิงก์เป็นเครื่องมือที่มีประโยชน์มากในการช่วยให้เว็บไซต์ของคุณเข้าผู้ใช้ได้มากขึ้น ทั้งยังช่วยให้ผู้ใช้ไปยังส่วนอื่นๆ ที่อยู่ภายในเว็บไซต์ของคุณได้ โดย internal link มีส่วนสำคัญในการนำทาง ส่วนหน้า landing page จะต้องมีลิงก์จำนวนมากเพื่อทำให้มั่นใจว่าผู้ใช้จะสามารถคลิกเพื่อเข้าถึงทุกหน้าที่อยู่ในเว็บไซต์ได้
ทว่าจะมีปัญหาเกิดขึ้นเมื่อบางลิงก์ทำงานได้ไม่ถูกต้อง ส่งผลให้ผู้ใช้ไม่สามารถเข้าและออกจากบางหน้าได้ และปัญหาลิงก์เสียที่พบได้บ่อยก็มีดังนี้
- ลิงก์เสีย: ข้อผิดพลาด 404 เป็นปัญหาที่พบได้บ่อยที่สุด กล่าวคือลิงก์ที่นำผู้ใช้ไปยังหน้าเว็บต่างๆ ถูกลบหรือมีการย้ายไปที่อื่น ซึ่งคุณสามารถตรวจสอบได้อย่างง่ายดายด้วยตัวตรวจสอบลิงก์ที่ไม่ทำงาน >> dead link checker
- Nofollow internal link : ลิงก์ที่มีคุณลักษณะ nofollow จะไม่ส่ง PageRank ซึ่งหมายความว่าหาก internal link ใดมีคุณลักษณะ nofollow หลายๆ หน้าในเว็บไซต์ของคุณก็อาจสูญเสียอันดับการค้นหาแบบออร์แกนิก ตรวจสอบด้วย >> dead link checker
11. URL Design & Structure
- URL ควรสั้นกระชับและมี keyword หลักอยู่ด้วย
- ใช้ตัวอักษรพิมพ์เล็ก และใช้ขีดกลาง(hyphen) หลีกเลี่ยงขีดล่าง(underscore)
- ออกแบบและใช้โครงสร้าง URL ที่คงเส้นคงวา เช่น หากคุณมี URL ของหมวดหมู่กาแฟ เช่น website.com/coffee ก็ควรที่จะใส่หน้าที่เกี่ยวกับกาแฟทั้งหมดภายใต้หมวดหมู่นี้ แต่ถ้านำเพจเกี่ยวกับข้าวผัดกระเพรามาใส่คงไม่เหมาะ
- ใส่คีย์เวิร์ดหลักลงไปเป็นส่วนหนึ่งของ URL ด้วย แต่ควรระวังอย่าใส่มากไป จนเข้าข่าย keyword stuffing ล่ะ
- URL สั้น มักทำอันดับได้ดีกว่ายาวๆ
(สนใจกด >> รับทำเว็บไซต์ E-Commerce)
12. Domain
ทำการตรวจสอบว่าเว็บไซต์ของเรามีแค่ Domain เดียว ไม่มีการสร้าง Domain ที่ซ้ำซ้อนกัน เพื่อให้ Search Engine Robot เข้าไปเก็บข้อมูลและจัดอันดับหน้าเว็บไซต์ได้อย่างถูกต้อง หากเราพบมี Domain แตกแยกย่อยเป็น sub-domains ซ้ำซ้อน เช่น
- https://sample.co.th
- https://www.sample.co.th
- http://sample.co.th
- http://www.sample.co.th
ให้เราทำการ redirect Domain อื่นๆที่ไม่ต้องการ ไปยัง Domain ที่เราเลือกใช้เพียงหนึ่งเดียว หลังจากเลือก Domain ที่จะใช้แล้ว หากต้องการที่จะทำให้เว็บไซต์ของเรานั้นมี section (ส่วน) ต่างๆ นั้นเพิ่มขึ้นมา ดังนั้นควรใช้ subfolders แทน sub-domains นั่นเองครับ
13. Internal Linking (การเชื่อมโยงภายใน)
หากเราต้องการที่จะให้หน้าเว็บเพจของเรานั้นติดอันดับ จำเป็นที่จะต้องทำ Internal Linking คือการลิงก์ภายในเว็บไซต์ของตัวเองด้วย anchor text ที่เหมาะสมนั่นเอง
การทำ Links เนื้อหาภายในเว็บไซต์ที่เกี่ยวข้องกันด้วย Anchor Text ให้ผู้อ่านเกิดการคลิกต่อไปยังหน้าเว็บไซต์อื่น ๆ ของเราเพื่อเป็นการเพิ่มยอดการเข้าถึง รวมถึงเพื่อให้ Search Engine Robot มองว่าเนื้อหาภายในเว็บไซต์ของเรามีความเกี่ยวเนื่องกัน
14. Call to Action ที่ชัดเจน
CTA หรือ Call to Action คือ การใช้คำเชิญชวนให้ Users มากระทำบางอย่างที่เกี่ยวกับจุดประสงค์ที่เกี่ยวข้องของเว็บเพจนั้นๆ เช่น กดสั่งซื้อสินค้า กดสมัครเป็นสมาชิก คลิกที่ปุ่มเพื่อสามารถติดต่อได้ โดยปุ่มเหล่านี้ควรจะอยู่ตำแหน่งที่เหมาะสม มีขนาดใหญ่กดได้ และหาได้ง่ายไม่ซับซ้อนจนเกินไป เพราะถ้าหากซับซ้อนหรือยากเกินไปผู้ใช้งานอาจหันไปใช้เว็บอื่นก็เป็นได้ เพราะในปัจจุบันการแข่งขันนั้นสูงมากผู้คนมีหลากหลายทางเลือก ดังนั้นไม่ว่าจะฟังก์ชันอะไรเราควรใส่ใจให้มากๆ
15. Multimedia
เลือกใช้ Media อย่างรูปภาพ กราฟิก หรือวิดีโอที่เหมาะสมมาประกอบเนื้อหาของเว็บไซต์ เพื่อเพิ่มความน่าสนใจ ช่วยให้ผู้อ่านสามารถเข้าใจเนื้อหาได้ดียิ่งขึ้น อยู่หน้าเว็บเพจได้นานขึ้น เพิ่มคะแนนSEOได้
การใช้ Media ก็เป็นอีกหนึ่งสิ่งที่สำคัญ เพราะว่าบางคำที่ใช้เสิร์ชมีการแสดงผลผ่าน Media ที่แตกต่างกันบน SERP (Search Engine Result Page) ดังนั้นการใช้ Media จึงเป็นสิ่งสำคัญควรใช้ให้เหมาะสม อีกทั้งความหลากหลายของการแสดงผลในหน้าเว็บไซต์จะเพิ่มคะแนนSEOได้อีกด้วย
16. Social Media (สื่อสังคม)
ส่วนนี้ก็เป็นส่วนสำคัญ เพราะมีหลายเว็บไซต์ที่ไม่ได้เพิ่มปุ่มแชร์เพื่อให้ผู้คนแชร์เนื้อหาต่างๆ ที่เป็นประโยชน์ไปยัง Social Media ต่างๆ ของพวกเขาเหล่านั้นได้
ถือว่าเป็นเรื่องที่ดีถ้ามีผู้คนเข้ามาแชร์เนื้อหาของเราทำให้เว็บไซต์เป็นที่รู้จัก ซึ่งในส่วนนี้ก็เป็นสิ่งสำคัญของการทำ SEO เช่นกัน
การทำให้ Users สามารถกดแชร์เนื้อหาไปยังช่องทาง Social Media ของตัวเองได้ เพื่อเป็นการเพิ่มโอกาสในการเป็นที่รู้จัก และสร้างยอด Traffic ที่สูงขึ้น
17. Status Code
ระบุ Status Code ในแต่ละหน้าเว็บไซต์ให้ถูกต้อง เพื่อให้ Search Engine Robot สามารถเข้าไปเก็บข้อมูลและแสดงข้อมูลได้อย่างถูกต้อง รวมถึงช่วยให้ผู้ใช้งานเว็บไซต์รับรู้ความเปลี่ยนแปลงของหน้าเว็บไซต์ได้อีกด้วย
โดย Code หลัก ๆ ที่นิยมใช้ จะได้แก่
- 301 สำหรับหน้าเว็บไซต์ที่ย้าย URL ไปอยู่ตำแหน่งใหม่อย่างถาวร
- 404 สำหรับหน้าเว็บไซต์ที่ไม่ต้องการและลบทิ้งไปแล้ว
- 503 สำหรับหน้าเว็บไซต์ที่ไม่สามารถตอบสนองตามคำขอได้ชั่วคราว
- 200 สำหรับหน้าเว็บไซต์ที่ใช้งานได้ปกติ
สรุป
Technical SEO เป็นการเพิ่มประสิทธิภาพของเว็บไซต์และเซิร์ฟเวอร์เชิงเทคนิค เพื่อให้บอทของเสิร์ชเอนจินสามารถเข้ามารวบรวมข้อมูล (Crawling) และจัดทำดัชนีเว็บไซต์ (Indexing) ได้อย่างมีประสิทธิภาพ ซึ่งจะช่วยเพิ่มการจัดอันดับบนหน้าการค้นหาได้อย่างรวดเร็ว
เว็บไซต์ที่ทำ Technical SEO ควรมีลักษณะแบบไหน?
- มีความปลอดภัย
- แสดงผลอย่างรวดเร็ว
- รองรับการแสดงผลบนสมาร์ทโฟน
- มีการสร้างแผนผังเว็บไซต์ (XML Sitemap)
- search engine สามารถเข้ามารวบรวมข้อมูลได้