Google Search Central Live Deep Dive 2025 วันที่ 1 – Crawling (การรวบรวมข้อมูล)
วันแรกของงาน Google Search Central Live Deep Dive 2025 ที่ กรุงเทพ เป็นการวางรากฐานความเข้าใจสำหรับยุค SEO ที่ต้องทำงานร่วมกับ AI โดยมีเป้าหมายคือการทำให้ผู้เข้าร่วมเข้าใจกระบวนการรวบรวมข้อมูลของ Google และรู้วิธีการปรับปรุงเว็บไซต์ให้มีประสิทธิภาพสูงสุด
กระบวนการทำงานหลักๆ ของ Google Search ซึ่งเป็นหัวใจสำคัญของการทำ SEO โดยแบ่งออกเป็น 3 ขั้นตอนหลักๆ ดังนี้
1. Crawling (การรวบรวมข้อมูล)
- Googlebot: นี่คือโปรแกรมรวบรวมข้อมูล (web crawler) ของ Google ที่ทำหน้าที่สำรวจเว็บไซต์ต่างๆ บนอินเทอร์เน็ต
- Scheduling: Google มีระบบการจัดตารางเวลาการรวบรวมข้อมูล เพื่อให้แน่ใจว่าเว็บไซต์จะถูกเยี่ยมชมเป็นประจำและเนื้อหาใหม่ๆ จะถูกค้นพบ
- Robots.txt: ไฟล์นี้ใช้บอก Googlebot ว่าส่วนไหนของเว็บไซต์ที่ไม่ควรเข้าถึงหรือไม่ควรรวบรวมข้อมูล (คล้ายป้ายบอกทาง)
- AI parts in e.g. Scheduling: ปัจจุบัน AI เข้ามามีบทบาทในการกำหนดตารางเวลาการรวบรวมข้อมูลด้วย เพื่อให้มีประสิทธิภาพและเหมาะสมยิ่งขึ้น (เช่น อาจจะจัดลำดับความสำคัญในการรวบรวมข้อมูลเว็บที่มีการอัปเดตบ่อยๆ)
- AI Mode, AI Overview, Gemini: สำหรับส่วน AI Mode และ AI Overview รวมถึง Gemini (ซึ่งเป็นโมเดล AI ของ Google) เจ้าหน้าที่ กล่าวว่า “ใช้ crawlers (โปรแกรมรวบรวมข้อมูล) ตัวเดียวกันสำหรับข้อมูล” นั่นหมายความว่า AI เหล่านี้ใช้ข้อมูลที่ Googlebot รวบรวมมา
2. Indexing (การจัดทำดัชนี)
- One big index but not limitless: Google มีดัชนีขนาดใหญ่มาก แต่ก็ไม่ได้ไร้ขีดจำกัดที่จะเก็บทุกอย่างไว้ได้ตลอดไป (เนื้อหาที่ไม่เกี่ยวข้องหรือไม่เป็นประโยชน์อาจถูกพิจารณาไม่นำเข้าดัชนี)
- Calculating signals: ในขั้นตอนนี้ Google จะประมวลผลสัญญาณต่างๆ จากเนื้อหาที่รวบรวมมา เช่น ความเกี่ยวข้องของคีย์เวิร์ด, โครงสร้างของเนื้อหา, ลิงก์ภายในและภายนอก
- Understand more than just words: Google ไม่ได้แค่ “อ่าน” คำศัพท์ แต่พยายาม “ทำความเข้าใจ” บริบทและความหมายของเนื้อหาจริงๆ
- AI parts e.g. BERT: AI เข้ามามีบทบาทสำคัญในขั้นตอนนี้ เช่น โมเดล BERT (Bidirectional Encoder Representations from Transformers) ช่วยให้ Google เข้าใจภาษาธรรมชาติและเจตนาของผู้ใช้ได้ดียิ่งขึ้น
- AI Mode, AI Overview, Gemini: สำหรับส่วน AI เหล่านี้ เจ้าหน้าที่ กล่าวว่า “ไม่ใช่ส่วนหนึ่งของการค้นหา แต่… ใช้เทคโนโลยีเดียวกัน เช่น tokenization, dedupping” นั่นคือ AI เหล่านี้ไม่ได้ทำหน้าที่ “ค้นหา” แบบคลาสสิก แต่ใช้เทคโนโลยีพื้นฐานเดียวกันกับระบบจัดทำดัชนี เช่น การแปลงข้อความเป็น token (หน่วยย่อยของคำ) และการขจัดเนื้อหาที่ซ้ำซ้อน
3. Serving (การให้บริการผลลัพธ์)
- Hundreds of signals: ในการแสดงผลการค้นหา Google ใช้สัญญาณนับร้อยสัญญาณในการจัดอันดับ
- Tailor to moment!: การแสดงผลถูกปรับให้เข้ากับ “ช่วงเวลา” (บริบท) ของการค้นหาในขณะนั้น เช่น ตำแหน่งที่อยู่ของผู้ใช้ ประวัติการค้นหา ภาษาที่ใช้
- And showing useful responses: เป้าหมายคือการแสดงผลลัพธ์ที่เป็นประโยชน์และตรงกับความต้องการของผู้ใช้มากที่สุด
- AI parts e.g. Rankbrain: AI มีบทบาทในขั้นตอนนี้ด้วย เช่น RankBrain ซึ่งเป็นระบบ AI ที่ช่วย Google ทำความเข้าใจความหมายของคำค้นหาที่ไม่คุ้นเคยและจัดอันดับผลลัพธ์ที่เกี่ยวข้อง
- AI Mode, AI Overview, Gemini: สำหรับส่วน AI เหล่านี้ เจ้าหน้าที่ กล่าวว่า “Grounds on Search index Query fallout” หมายถึงว่าพวกมันอาศัยข้อมูลจาก Search index เป็นหลัก และใช้เพื่อตอบสนองต่อคำถาม (query) ที่เกิดขึ้นจากการค้นหา
สรุปสิ่งที่เจ้าหน้าที่ พยายามอธิบายคือ:
Google Search ไม่ได้เป็นแค่ระบบง่ายๆ แต่เป็นกระบวนการที่ซับซ้อนและมีการทำงานต่อเนื่องกันตั้งแต่การเก็บข้อมูล การทำความเข้าใจข้อมูล ไปจนถึงการจัดอันดับและแสดงผล โดย AI เข้ามามีบทบาทมากขึ้นในทุกขั้นตอนเพื่อทำให้ผลลัพธ์มีความเกี่ยวข้องและเป็นประโยชน์ต่อผู้ใช้มากที่สุด แม้ว่า AI Mode หรือ AI Overview จะดูเหมือนแยกออกมา แต่ก็ยังคงใช้รากฐานข้อมูลเดียวกันกับ Google Search แบบคลาสสิก
การทำความเข้าใจสามเสานี้ (Crawling, Indexing, Serving) เป็นพื้นฐานที่สำคัญมากในการทำ SEO ค่ะ เพราะเราจะต้องทำให้เว็บไซต์ของเราถูก Googlebot เข้าถึงได้ (Crawling), เนื้อหาถูกจัดทำดัชนีอย่างถูกต้องและ Google เข้าใจ (Indexing), และมีสัญญาณคุณภาพที่ดีพอที่จะถูกแสดงในอันดับที่ดีเมื่อผู้ใช้ค้นหา (Serving)

1. ความเข้าใจผิดเรื่อง “SEO Dead”
- งานเริ่มต้นด้วยการตอบข้อสงสัยยอดฮิตที่ว่า “SEO ตายแล้วหรือยัง?” ซึ่งทีมงาน googleยืนยันว่า SEO ยังไม่ตาย แต่ต้องเปลี่ยนวิธีการคิดและทำงาน
- เหตุผลที่ต้องเปลี่ยน:
- พฤติกรรมผู้ใช้เปลี่ยนไป: คำค้นหาไม่ได้เป็นแค่คำสั้นๆ อีกต่อไป แต่มีความยาวและซับซ้อนขึ้นมาก โดยเฉพาะคำค้นหาที่ยาวกว่า 5 คำ ซึ่งเติบโตเร็วกว่าคำสั้นๆ ถึง 1.5 เท่า
- หน้าแสดงผลเปลี่ยนไป: หน้าแสดงผลการค้นหา (SERP) ไม่ได้มีแค่ลิงก์ 10 อันดับแรกแบบเดิม แต่มีองค์ประกอบหลากหลาย เช่น AI Overview, Rich Results, Video และอื่นๆ
2. พื้นฐานการทำงานของ Googlebot
- หัวใจสำคัญของวันนี้คือการทำความเข้าใจว่า Googlebot เข้ามาที่เว็บไซต์ของเราเพื่ออะไรและทำงานอย่างไร โดยทีมงาน googleได้เปรียบเทียบว่าการทำให้ Googlebot ทำงานได้อย่างราบรื่นก็เหมือนการทำแผนที่ให้ชัดเจน เพื่อให้ Googlebot ค้นพบข้อมูลที่สำคัญที่สุดได้เร็วที่สุด
- ประเด็นที่เน้น: การสร้าง Crawl Efficiency หรือประสิทธิภาพในการรวบรวมข้อมูล เพื่อให้ Googlebot ใช้ “Crawl Budget” (งบประมาณการรวบรวมข้อมูล) ที่มีอย่างจำกัดได้อย่างคุ้มค่า ไม่เสียเวลาไปกับหน้าเว็บที่ไม่จำเป็น
3. ผลกระทบของ HTTP Status Codes ต่อการรวบรวมข้อมูล
มีการอธิบายผลกระทบของโค้ดสถานะ HTTP แต่ละประเภทต่อการทำ SEO อย่างชัดเจน:
- 200 OK (สำเร็จ): เป็นโค้ดสถานะที่ดีที่สุดสำหรับ SEO เพราะบอก Google ว่าหน้าเว็บนั้นทำงานปกติและพร้อมให้จัดทำดัชนี
- 301 Redirect (ย้ายถาวร): ใช้เมื่อย้ายหน้าเว็บอย่างถาวร โค้ดนี้จะส่งต่อพลังของ SEO (Link Equity) ไปยังหน้าใหม่ได้
- 404 Not Found (ไม่พบหน้า): เป็นโค้ดสถานะที่ไม่ดีต่อ SEO เพราะบอก Google ว่าหน้านี้ไม่มีอยู่แล้ว ส่งผลให้ Google นำหน้านั้นออกจากดัชนี
- 5xx Server Error (ข้อผิดพลาดเซิร์ฟเวอร์): โค้ดนี้เป็นอันตรายที่สุด เพราะทำให้ Googlebot เข้าถึงเว็บไซต์ไม่ได้เลย หากเป็นอย่างนี้นานๆ อาจทำให้หน้าเว็บทั้งหมดถูกนำออกจากดัชนีชั่วคราวได้
4. การสร้างเนื้อหาที่มุ่งเน้นคนเป็นศูนย์กลาง (People-First Content)
- ทีมงาน googleย้ำว่าแกนหลักของ SEO ยังคงอยู่ที่ “คุณภาพของเนื้อหา” โดยเฉพาะอย่างยิ่งเนื้อหาที่สร้างขึ้นเพื่อคนอ่านจริงๆ ไม่ใช่แค่เขียนเพื่อ Search Engine
- ความสำคัญของ E-E-A-T: มีการเน้นย้ำถึงหลักการ E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) โดยเฉพาะอย่างยิ่ง E ตัวแรก (Experience) ที่หมายถึงประสบการณ์จริงของผู้สร้างเนื้อหา ซึ่งเป็นสิ่งที่ AI ยังทำได้ไม่ดีเท่ามนุษย์

5. การปรับตัวเพื่อรองรับการค้นหาที่หลากหลาย (Multi-Modality)
- ในยุคที่ผู้ใช้ค้นหาด้วยภาพและเสียงมากขึ้น เว็บไซต์จึงต้องปรับตัวเพื่อรองรับการทำงานนี้
- ข้อแนะนำคือ:
- สำหรับภาพ: ควรใส่ alt text ที่อธิบายภาพอย่างละเอียดและตรงประเด็น
- สำหรับวิดีโอ: ควรมี transcript (บทบรรยาย) เพื่อให้ Googlebot เข้าใจเนื้อหาในวิดีโอ
- สำหรับเสียง: ควรใช้ภาษาเขียนในเว็บไซต์ที่เป็นธรรมชาติและเป็นภาษาพูดมากขึ้น เพื่อให้สอดคล้องกับการค้นหาด้วยเสียง
สรุปได้ว่า วันแรกของงานคือการกระตุ้นให้ผู้เข้าร่วมงานเห็นภาพรวมของการเปลี่ยนแปลงในวงการ SEO และเข้าใจว่าสิ่งสำคัญที่สุดยังคงอยู่ที่รากฐาน คือการทำเว็บไซต์ที่มีคุณภาพ มีโครงสร้างที่ดี และสร้างเนื้อหาที่มีคุณค่าต่อผู้ใช้อย่างแท้จริง
ตามอ่านรายละเอียดใน วันที่ 2 – Search Central Live Deep Dive 2025 – Indexing SEO