Google Search Central Live 2025 วันที่ 1 Crawling

search central live 2025

Google Search Central Live Deep Dive 2025 วันที่ 1 – Crawling (การรวบรวมข้อมูล)

วันแรกของงาน Google Search Central Live Deep Dive 2025 ที่ กรุงเทพ เป็นการวางรากฐานความเข้าใจสำหรับยุค SEO ที่ต้องทำงานร่วมกับ AI โดยมีเป้าหมายคือการทำให้ผู้เข้าร่วมเข้าใจกระบวนการรวบรวมข้อมูลของ Google และรู้วิธีการปรับปรุงเว็บไซต์ให้มีประสิทธิภาพสูงสุด

กระบวนการทำงานหลักๆ ของ Google Search ซึ่งเป็นหัวใจสำคัญของการทำ SEO โดยแบ่งออกเป็น 3 ขั้นตอนหลักๆ ดังนี้

1. Crawling (การรวบรวมข้อมูล)

  • Googlebot: นี่คือโปรแกรมรวบรวมข้อมูล (web crawler) ของ Google ที่ทำหน้าที่สำรวจเว็บไซต์ต่างๆ บนอินเทอร์เน็ต
  • Scheduling: Google มีระบบการจัดตารางเวลาการรวบรวมข้อมูล เพื่อให้แน่ใจว่าเว็บไซต์จะถูกเยี่ยมชมเป็นประจำและเนื้อหาใหม่ๆ จะถูกค้นพบ
  • Robots.txt: ไฟล์นี้ใช้บอก Googlebot ว่าส่วนไหนของเว็บไซต์ที่ไม่ควรเข้าถึงหรือไม่ควรรวบรวมข้อมูล (คล้ายป้ายบอกทาง)
  • AI parts in e.g. Scheduling: ปัจจุบัน AI เข้ามามีบทบาทในการกำหนดตารางเวลาการรวบรวมข้อมูลด้วย เพื่อให้มีประสิทธิภาพและเหมาะสมยิ่งขึ้น (เช่น อาจจะจัดลำดับความสำคัญในการรวบรวมข้อมูลเว็บที่มีการอัปเดตบ่อยๆ)
  • AI Mode, AI Overview, Gemini: สำหรับส่วน AI Mode และ AI Overview รวมถึง Gemini (ซึ่งเป็นโมเดล AI ของ Google) เจ้าหน้าที่ กล่าวว่า “ใช้ crawlers (โปรแกรมรวบรวมข้อมูล) ตัวเดียวกันสำหรับข้อมูล” นั่นหมายความว่า AI เหล่านี้ใช้ข้อมูลที่ Googlebot รวบรวมมา

2. Indexing (การจัดทำดัชนี)

  • One big index but not limitless: Google มีดัชนีขนาดใหญ่มาก แต่ก็ไม่ได้ไร้ขีดจำกัดที่จะเก็บทุกอย่างไว้ได้ตลอดไป (เนื้อหาที่ไม่เกี่ยวข้องหรือไม่เป็นประโยชน์อาจถูกพิจารณาไม่นำเข้าดัชนี)
  • Calculating signals: ในขั้นตอนนี้ Google จะประมวลผลสัญญาณต่างๆ จากเนื้อหาที่รวบรวมมา เช่น ความเกี่ยวข้องของคีย์เวิร์ด, โครงสร้างของเนื้อหา, ลิงก์ภายในและภายนอก
  • Understand more than just words: Google ไม่ได้แค่ “อ่าน” คำศัพท์ แต่พยายาม “ทำความเข้าใจ” บริบทและความหมายของเนื้อหาจริงๆ
  • AI parts e.g. BERT: AI เข้ามามีบทบาทสำคัญในขั้นตอนนี้ เช่น โมเดล BERT (Bidirectional Encoder Representations from Transformers) ช่วยให้ Google เข้าใจภาษาธรรมชาติและเจตนาของผู้ใช้ได้ดียิ่งขึ้น
  • AI Mode, AI Overview, Gemini: สำหรับส่วน AI เหล่านี้ เจ้าหน้าที่ กล่าวว่า “ไม่ใช่ส่วนหนึ่งของการค้นหา แต่… ใช้เทคโนโลยีเดียวกัน เช่น tokenization, dedupping” นั่นคือ AI เหล่านี้ไม่ได้ทำหน้าที่ “ค้นหา” แบบคลาสสิก แต่ใช้เทคโนโลยีพื้นฐานเดียวกันกับระบบจัดทำดัชนี เช่น การแปลงข้อความเป็น token (หน่วยย่อยของคำ) และการขจัดเนื้อหาที่ซ้ำซ้อน

3. Serving (การให้บริการผลลัพธ์)

  • Hundreds of signals: ในการแสดงผลการค้นหา Google ใช้สัญญาณนับร้อยสัญญาณในการจัดอันดับ
  • Tailor to moment!: การแสดงผลถูกปรับให้เข้ากับ “ช่วงเวลา” (บริบท) ของการค้นหาในขณะนั้น เช่น ตำแหน่งที่อยู่ของผู้ใช้ ประวัติการค้นหา ภาษาที่ใช้
  • And showing useful responses: เป้าหมายคือการแสดงผลลัพธ์ที่เป็นประโยชน์และตรงกับความต้องการของผู้ใช้มากที่สุด
  • AI parts e.g. Rankbrain: AI มีบทบาทในขั้นตอนนี้ด้วย เช่น RankBrain ซึ่งเป็นระบบ AI ที่ช่วย Google ทำความเข้าใจความหมายของคำค้นหาที่ไม่คุ้นเคยและจัดอันดับผลลัพธ์ที่เกี่ยวข้อง
  • AI Mode, AI Overview, Gemini: สำหรับส่วน AI เหล่านี้ เจ้าหน้าที่ กล่าวว่า “Grounds on Search index Query fallout” หมายถึงว่าพวกมันอาศัยข้อมูลจาก Search index เป็นหลัก และใช้เพื่อตอบสนองต่อคำถาม (query) ที่เกิดขึ้นจากการค้นหา

สรุปสิ่งที่เจ้าหน้าที่ พยายามอธิบายคือ:

Google Search ไม่ได้เป็นแค่ระบบง่ายๆ แต่เป็นกระบวนการที่ซับซ้อนและมีการทำงานต่อเนื่องกันตั้งแต่การเก็บข้อมูล การทำความเข้าใจข้อมูล ไปจนถึงการจัดอันดับและแสดงผล โดย AI เข้ามามีบทบาทมากขึ้นในทุกขั้นตอนเพื่อทำให้ผลลัพธ์มีความเกี่ยวข้องและเป็นประโยชน์ต่อผู้ใช้มากที่สุด แม้ว่า AI Mode หรือ AI Overview จะดูเหมือนแยกออกมา แต่ก็ยังคงใช้รากฐานข้อมูลเดียวกันกับ Google Search แบบคลาสสิก

การทำความเข้าใจสามเสานี้ (Crawling, Indexing, Serving) เป็นพื้นฐานที่สำคัญมากในการทำ SEO ค่ะ เพราะเราจะต้องทำให้เว็บไซต์ของเราถูก Googlebot เข้าถึงได้ (Crawling), เนื้อหาถูกจัดทำดัชนีอย่างถูกต้องและ Google เข้าใจ (Indexing), และมีสัญญาณคุณภาพที่ดีพอที่จะถูกแสดงในอันดับที่ดีเมื่อผู้ใช้ค้นหา (Serving)

1. ความเข้าใจผิดเรื่อง “SEO Dead”

  • งานเริ่มต้นด้วยการตอบข้อสงสัยยอดฮิตที่ว่า “SEO ตายแล้วหรือยัง?” ซึ่งทีมงาน googleยืนยันว่า SEO ยังไม่ตาย แต่ต้องเปลี่ยนวิธีการคิดและทำงาน
  • เหตุผลที่ต้องเปลี่ยน:
    • พฤติกรรมผู้ใช้เปลี่ยนไป: คำค้นหาไม่ได้เป็นแค่คำสั้นๆ อีกต่อไป แต่มีความยาวและซับซ้อนขึ้นมาก โดยเฉพาะคำค้นหาที่ยาวกว่า 5 คำ ซึ่งเติบโตเร็วกว่าคำสั้นๆ ถึง 1.5 เท่า
    • หน้าแสดงผลเปลี่ยนไป: หน้าแสดงผลการค้นหา (SERP) ไม่ได้มีแค่ลิงก์ 10 อันดับแรกแบบเดิม แต่มีองค์ประกอบหลากหลาย เช่น AI Overview, Rich Results, Video และอื่นๆ

2. พื้นฐานการทำงานของ Googlebot

  • หัวใจสำคัญของวันนี้คือการทำความเข้าใจว่า Googlebot เข้ามาที่เว็บไซต์ของเราเพื่ออะไรและทำงานอย่างไร โดยทีมงาน googleได้เปรียบเทียบว่าการทำให้ Googlebot ทำงานได้อย่างราบรื่นก็เหมือนการทำแผนที่ให้ชัดเจน เพื่อให้ Googlebot ค้นพบข้อมูลที่สำคัญที่สุดได้เร็วที่สุด
  • ประเด็นที่เน้น: การสร้าง Crawl Efficiency หรือประสิทธิภาพในการรวบรวมข้อมูล เพื่อให้ Googlebot ใช้ “Crawl Budget” (งบประมาณการรวบรวมข้อมูล) ที่มีอย่างจำกัดได้อย่างคุ้มค่า ไม่เสียเวลาไปกับหน้าเว็บที่ไม่จำเป็น

3. ผลกระทบของ HTTP Status Codes ต่อการรวบรวมข้อมูล

มีการอธิบายผลกระทบของโค้ดสถานะ HTTP แต่ละประเภทต่อการทำ SEO อย่างชัดเจน:

  • 200 OK (สำเร็จ): เป็นโค้ดสถานะที่ดีที่สุดสำหรับ SEO เพราะบอก Google ว่าหน้าเว็บนั้นทำงานปกติและพร้อมให้จัดทำดัชนี
  • 301 Redirect (ย้ายถาวร): ใช้เมื่อย้ายหน้าเว็บอย่างถาวร โค้ดนี้จะส่งต่อพลังของ SEO (Link Equity) ไปยังหน้าใหม่ได้
  • 404 Not Found (ไม่พบหน้า): เป็นโค้ดสถานะที่ไม่ดีต่อ SEO เพราะบอก Google ว่าหน้านี้ไม่มีอยู่แล้ว ส่งผลให้ Google นำหน้านั้นออกจากดัชนี
  • 5xx Server Error (ข้อผิดพลาดเซิร์ฟเวอร์): โค้ดนี้เป็นอันตรายที่สุด เพราะทำให้ Googlebot เข้าถึงเว็บไซต์ไม่ได้เลย หากเป็นอย่างนี้นานๆ อาจทำให้หน้าเว็บทั้งหมดถูกนำออกจากดัชนีชั่วคราวได้

4. การสร้างเนื้อหาที่มุ่งเน้นคนเป็นศูนย์กลาง (People-First Content)

  • ทีมงาน googleย้ำว่าแกนหลักของ SEO ยังคงอยู่ที่ “คุณภาพของเนื้อหา” โดยเฉพาะอย่างยิ่งเนื้อหาที่สร้างขึ้นเพื่อคนอ่านจริงๆ ไม่ใช่แค่เขียนเพื่อ Search Engine
  • ความสำคัญของ E-E-A-T: มีการเน้นย้ำถึงหลักการ E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) โดยเฉพาะอย่างยิ่ง E ตัวแรก (Experience) ที่หมายถึงประสบการณ์จริงของผู้สร้างเนื้อหา ซึ่งเป็นสิ่งที่ AI ยังทำได้ไม่ดีเท่ามนุษย์
search Console seo
search console

5. การปรับตัวเพื่อรองรับการค้นหาที่หลากหลาย (Multi-Modality)

  • ในยุคที่ผู้ใช้ค้นหาด้วยภาพและเสียงมากขึ้น เว็บไซต์จึงต้องปรับตัวเพื่อรองรับการทำงานนี้
  • ข้อแนะนำคือ:
    • สำหรับภาพ: ควรใส่ alt text ที่อธิบายภาพอย่างละเอียดและตรงประเด็น
    • สำหรับวิดีโอ: ควรมี transcript (บทบรรยาย) เพื่อให้ Googlebot เข้าใจเนื้อหาในวิดีโอ
    • สำหรับเสียง: ควรใช้ภาษาเขียนในเว็บไซต์ที่เป็นธรรมชาติและเป็นภาษาพูดมากขึ้น เพื่อให้สอดคล้องกับการค้นหาด้วยเสียง

สรุปได้ว่า วันแรกของงานคือการกระตุ้นให้ผู้เข้าร่วมงานเห็นภาพรวมของการเปลี่ยนแปลงในวงการ SEO และเข้าใจว่าสิ่งสำคัญที่สุดยังคงอยู่ที่รากฐาน คือการทำเว็บไซต์ที่มีคุณภาพ มีโครงสร้างที่ดี และสร้างเนื้อหาที่มีคุณค่าต่อผู้ใช้อย่างแท้จริง

ตามอ่านรายละเอียดใน วันที่ 2 – Search Central Live Deep Dive 2025 – Indexing SEO

Scroll to Top