微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:xiuyuan2000@gmail.com

พารามิเตอร์แบบไดนามิกทำให้เกิดการจัดเก็บซ้ำ|เปรียบเทียบ 3 วิธีในการจัดการ URL ให้เป็นมาตรฐาน

本文作者:Don jiang

ในการดำเนินงานเว็บไซต์ พารามิเตอร์ไดนามิก เช่น เงื่อนไขการกรองสินค้า หรือแท็กติดตาม แม้จะช่วยให้ฟังก์ชันทำงานได้สะดวก แต่ก็อาจก่อให้เกิดปัญหาการจัดทำดัชนีซ้ำซ้อนโดยเครื่องมือค้นหาได้

ตัวอย่างเช่น หน้าเนื้อหาเดียวกัน แต่มีพารามิเตอร์ต่างกัน ทำให้เกิด URL หลายอัน (เช่น example.com/page?id=1 กับ example.com/page?source=2) ส่งผลให้เครื่องมือค้นหาเข้าใจผิดว่าเป็นหน้าเว็บแยกกัน

พารามิเตอร์ไดนามิกทำให้เกิดการจัดทำดัชนีซ้ำซ้อน

Table of Contens

ผลกระทบของพารามิเตอร์ไดนามิกต่อการจัดทำดัชนีเว็บไซต์

เช่น การส่งผ่านข้อมูลพฤติกรรมผู้ใช้ผ่าน URL (เช่น ?utm_source=โฆษณา) หรือเงื่อนไขการกรองสินค้า (เช่น ?color=red&size=M) เป็นต้น

แต่พารามิเตอร์เหล่านี้จะสร้าง URL ที่คล้ายกันจำนวนมาก (เช่น example.com/product กับ example.com/product?color=red) ทำให้เครื่องมือค้นหาเข้าใจผิดว่า URL แต่ละอันเป็นหน้าเว็บแยกกัน และจัดทำดัชนีซ้ำซ้อน

พารามิเตอร์ไดนามิกสร้าง URL ซ้ำได้อย่างไร

พารามิเตอร์ไดนามิกมักถูกใช้ส่งผ่านข้อมูลพฤติกรรมผู้ใช้ สถานะของหน้า หรือข้อมูลติดตาม ผ่าน URL แม้จะช่วยเพิ่มความยืดหยุ่นของฟังก์ชัน แต่เมื่อชุดพารามิเตอร์มีมากขึ้นอย่างรวดเร็ว ก็อาจก่อให้เกิดหน้าซ้ำจำนวนมากได้ ด้านล่างนี้เป็นสถานการณ์ทั่วไปและประเภทของพารามิเตอร์:

ประเภทและบทบาทของพารามิเตอร์

  • พารามิเตอร์เชิงฟังก์ชัน: มีผลต่อเนื้อหาหน้าโดยตรง เช่น การกรองสินค้าของอีคอมเมิร์ซ (?category=shoes&color=blue) หรือพารามิเตอร์แบ่งหน้า (?page=2)
  • พารามิเตอร์ติดตาม: ใช้ติดตามแหล่งที่มาของทราฟฟิกหรือพฤติกรรมผู้ใช้ เช่น รหัสโฆษณา (?utm_source=google) หรือรหัสเซสชัน (?session_id=abc123)
  • พารามิเตอร์ซ้ำซ้อน: พารามิเตอร์ที่ไม่มีผลกับเนื้อหาหลัก เช่น เครื่องหมายเวลาที่ส่งมา (?t=20231001) หรือสัญลักษณ์แคช (?cache=no)

ตรรกะการสร้าง URL ซ้ำ

  • หน้าเบื้องต้น: example.com/product
  • หน้าที่มีพารามิเตอร์กรอง: example.com/product?color=red
  • หน้าที่มีพารามิเตอร์แคมเปญโฆษณา: example.com/product?utm_campaign=summer_sale
    ถึงแม้เนื้อหาหลักจะเหมือนกัน แต่เครื่องมือค้นหาจะถือว่า URL เหล่านี้เป็นหน้าเว็บแยกกันและจัดทำดัชนีซ้ำ

ผลเสียของการจัดทำดัชนีซ้ำต่อ SEO

① การกระจายคะแนนและอันดับลดลง

  • ปัญหาหลัก: เครื่องมือค้นหาจะแบ่งคะแนนของหน้าเว็บ (เช่น ลิงก์ภายนอก หรือข้อมูลคลิก) ไปยังหลาย URL แทนที่จะรวมไว้ที่หน้าเดียว
  • ตัวอย่าง: หน้าผลิตภัณฑ์ของอีคอมเมิร์ซที่มี 10 URL จากพารามิเตอร์กรอง แต่ละ URL ได้คะแนนแค่ 10% ของหน้าหลัก ทำให้อันดับจากหน้าแรกตกลงไปหน้า 3

② การสิ้นเปลืองงบประมาณการเก็บข้อมูล

  • กลไก: เครื่องมือค้นหากำหนดขีดจำกัดการเก็บข้อมูลรายวันให้แต่ละเว็บไซต์ (เช่น เว็บเล็ก 500 หน้า/วัน) ถ้า URL ไดนามิกใช้เกือบ 80% ของงบประมาณนี้ หน้าสำคัญจะไม่ถูกเก็บข้อมูลทันเวลา
  • ผลลัพธ์: จำนวน URL ที่ถูกค้นพบแต่ไม่ได้ถูกจัดทำดัชนีเพิ่มขึ้นอย่างรวดเร็ว ในเครื่องมือสำหรับเว็บมาสเตอร์ แต่ความถี่ในการเก็บข้อมูลหน้าหลักกลับลดลง

③ ความเสี่ยงจากเนื้อหาซ้ำ

  • การเข้าใจผิดว่าเป็นเนื้อหาคุณภาพต่ำ: เครื่องมือค้นหาอาจมองว่าหน้าซ้ำเป็น “เนื้อหาคุณภาพต่ำ” ซึ่งทำให้ความน่าเชื่อถือของเว็บไซต์ลดลง และกระทบอันดับของหน้าอื่นๆ ด้วย
  • กรณีถูกลงโทษ: เว็บไซต์ข่าวแห่งหนึ่งที่สร้างหน้าซ้ำจากพารามิเตอร์เครื่องหมายเวลาเป็นพันหน้า ถูกอัลกอริทึมของ Google ลดคะแนน ทำให้ปริมาณการเข้าชมลดลง 40%

วิธีตรวจสอบว่าเว็บไซต์มีปัญหาพารามิเตอร์ไดนามิกหรือไม่

① ใช้เครื่องมือเว็บมาสเตอร์ของเสิร์ชเอนจิน

  • Google Search Console
    • ตรวจสอบ “รายงานการครอบคลุม” โดยดูที่ URL ที่ “เนื้อหาซ้ำ” หรือ “ส่งแล้วแต่ยังไม่ได้จัดทำดัชนี” ว่ามีพารามิเตอร์ไดนามิกหรือไม่
    • ใช้ “เครื่องมือตรวจสอบ URL” ใส่หน้าที่มีพารามิเตอร์ เพื่อดูว่า Google ระบุ “URL มาตรฐาน” ตามที่คาดหวังหรือไม่
  • แพลตฟอร์มทรัพยากร Baidu
    • ใช้รายงาน “ตรวจจับลิงก์เสีย” หรือ “ข้อผิดพลาดการรวบรวมข้อมูล” เพื่อกรอง URL ที่มีพารามิเตอร์และไม่ถูกต้อง

② วิเคราะห์บันทึกและตรวจสอบบอท

  • วิเคราะห์ไฟล์บันทึกเซิร์ฟเวอร์เพื่อดูว่า bot ของเสิร์ชเอนจิน เช่น Googlebot, Baiduspider เข้าเยี่ยมชม URL ที่มีพารามิเตอร์มากน้อยเพียงใด
  • แนะนำเครื่องมือ: Screaming Frog (รวบรวม URL ทั้งไซต์), ELK Stack (วิเคราะห์บันทึก)

③ เปรียบเทียบข้อมูลการจัดทำดัชนี

  • พิมพ์ site:example.com inurl:? (เปลี่ยนเป็นโดเมนของคุณ) ในเสิร์ชเอนจินเพื่อตรวจสอบจำนวนหน้าที่มีพารามิเตอร์ถูกจัดทำดัชนี
  • ถ้าพบว่ามีหน้าที่มีเนื้อหาคล้ายกันจำนวนมาก แสดงว่ามีปัญหาแน่นอน

แนวทางแก้ไขชั่วคราวและกลยุทธ์ระยะยาว

การจัดการฉุกเฉิน (หยุดความเสียหายอย่างรวดเร็ว)

  • บล็อกพารามิเตอร์ที่ไม่จำเป็น: ใช้ robots.txt ห้ามบอทรวบรวมข้อมูลพารามิเตอร์ที่เสี่ยงสูง (เช่น: Disallow: /*?*) แต่ต้องระวังไม่ให้บล็อกหน้าปกติผิดพลาด
  • เพิ่มแท็ก Canonical ชั่วคราว: เพิ่ม <link rel="canonical" href="URL หลัก" /> ในส่วนหัวของหน้าที่มีพารามิเตอร์ เพื่อระบุหน้าหลัก

แนวทางการปรับปรุงระยะยาว

  • ทำให้พารามิเตอร์เป็นมาตรฐาน: ร่วมมือกับทีมพัฒนาเปลี่ยนพารามิเตอร์ฟังก์ชัน เช่น การกรองหรือเรียงลำดับ ให้เป็นโครงสร้าง URL แบบคงที่ (เช่น /product/color-red) แทนการใช้พารามิเตอร์ไดนามิก
  • กฎการติดตามที่เป็นมาตรฐาน: ใช้ JavaScript หรือ Tag Manager เพื่อจัดการแทร็กโฆษณา ป้องกันการแสดงพารามิเตอร์ utm_* ใน URL

วิเคราะห์ 3 วิธีการจัดการ URL ให้เป็นมาตรฐาน

แท็ก Canonical

หลักการสำคัญ
เพิ่ม <link rel="canonical" href="URL มาตรฐาน" /> ในส่วนหัวของ HTML เพื่อแจ้งเสิร์ชเอนจินว่าหน้านี้เป็นเวอร์ชันหลัก เพื่อป้องกันการจัดทำดัชนีซ้ำซ้อน

ขั้นตอนการทำ

  • กำหนด URL มาตรฐาน: เลือกหน้า URL ที่ไม่มีพารามิเตอร์หรือมีพารามิเตอร์น้อยที่สุดเป็นหน้าหลัก (เช่น example.com/product)
  • เพิ่มโค้ด: ใส่แท็ก canonical ในส่วนหัวของหน้าที่มีพารามิเตอร์ทั้งหมด โดยชี้ไปที่ URL หลัก
  • ตรวจสอบ: ใช้ “เครื่องมือตรวจสอบ URL” ใน Google Search Console เพื่อยืนยันว่าเสิร์ชเอนจินรู้จัก URL มาตรฐาน

ข้อดีและการใช้งาน

  • ต้นทุนต่ำ: ไม่ต้องตั้งค่าบนเซิร์ฟเวอร์ เหมาะสำหรับเว็บไซต์ขนาดกลางและเล็กที่มีทรัพยากรจำกัด
  • ความยืดหยุ่น: สามารถตั้งค่าแยกหน้าได้ เช่น เก็บหน้าที่มีฟังก์ชันเช่นการแบ่งหน้า หรือการกรองไว้ได้
  • กรณีศึกษา: แพลตฟอร์มบล็อกแห่งหนึ่งเพิ่มแท็ก canonical บนหน้าที่มีพารามิเตอร์ติดตามโฆษณา (เช่น ?ref=ad) และใน 3 สัปดาห์หลังจากนั้น หน้า URL หลักมีผู้เข้าชมเพิ่มขึ้น 25%

ความเสี่ยงที่อาจเกิดขึ้น

ขึ้นอยู่กับการทำงานของบอท: หากเสิร์ชเอนจินไม่รู้จักแท็ก อาจทำให้มาตรฐานไม่ถูกนำไปใช้

การตั้งค่าผิดพลาด:

  1. ชี้ไปยังหน้าผิด (เช่น ตั้ง canonical ของหน้า A เป็นหน้า B);
  2. มีแท็ก canonical ซ้ำซ้อนหลายตัว (เช่น มีทั้งในส่วนหัวและปลั๊กอิน)

การตั้งค่าพารามิเตอร์ในเครื่องมือเสิร์ชเอนจิน

หลักการสำคัญ

ใช้ Google Search Console, แพลตฟอร์มเว็บมาสเตอร์ของ Baidu เพื่อแจ้งเสิร์ชเอนจินว่าควรจัดการกับพารามิเตอร์เฉพาะอย่างไร เช่น “ไม่สนใจ” หรือ “สนใจ”

ขั้นตอนตั้งค่า (ตัวอย่าง Google)

เข้าสู่ระบบ Search Console แล้วไปที่ฟังก์ชัน “พารามิเตอร์ URL”
การกำหนดประเภทพารามิเตอร์

  1. ละเลย:เช่น utm_* (พารามิเตอร์โฆษณา), session_id (ID เซสชัน) พารามิเตอร์เหล่านี้ไม่มีผลต่อเนื้อหา สามารถตั้งให้ละเลยได้
  2. เก็บไว้:เช่น page=2 (การแบ่งหน้า), color=red (การกรอง) จำเป็นต้องเก็บพารามิเตอร์เพื่อรักษาฟังก์ชัน

กฎการส่ง:ระบบจะกรองคำขอการรวบรวมข้อมูลตามกฎเหล่านี้

ข้อดีและสถานการณ์ที่เหมาะสม

  • การจัดการแบบกลุ่ม:เหมาะสำหรับเว็บไซต์ขนาดใหญ่ที่มีประเภทพารามิเตอร์หลากหลายและโครงสร้างซับซ้อน (เช่น อีคอมเมิร์ซ, แพลตฟอร์มข่าว)
  • ควบคุมการรวบรวมข้อมูลโดยตรง:เมื่อตั้งกฎเสร็จแล้ว เครื่องมือค้นหาจะไม่รวบรวม URL ที่มีพารามิเตอร์ไม่มีประโยชน์อีกต่อไป
  • ตัวอย่าง:แพลตฟอร์มอีคอมเมิร์ซแห่งหนึ่งตั้งค่าให้ละเลย sort=price (พารามิเตอร์การจัดเรียง) ช่วยลดการจัดทำดัชนีหน้าซ้ำได้ถึง 40%

ข้อควรระวัง

  • ความขัดแย้งของกฎ:ถ้ากำหนดกฎหลายอย่างทับซ้อนกัน (เช่น กำหนดละเลยทั้ง ref และ utm_*) ต้องตรวจสอบให้ตรรกะสอดคล้องกัน
  • จำกัดเฉพาะเครื่องมือค้นหาที่ส่งข้อมูลแล้ว:Baidu และ Google ต้องตั้งค่าแยกต่างหาก และไม่มีผลกับเครื่องมือค้นหาอื่น ๆ เช่น Bing
  • ระยะเวลาการมีผล:กฎต้องรอให้เครื่องมือค้นหาทำการรวบรวมข้อมูลซ้ำถึงจะมีผล (โดยปกติ 1-4 สัปดาห์)

Robots.txt การบล็อก + 301 รีไดเร็กต์

ตรรกะหลัก

  • Robots.txt:ห้ามเครื่องมือค้นหารวบรวม URL ที่มีพารามิเตอร์ ลดการจัดทำดัชนีที่ไม่มีประสิทธิภาพ
  • 301 รีไดเร็กต์:เปลี่ยนเส้นทาง URL แบบไดนามิกไปยัง URL มาตรฐานอย่างถาวร ส่งต่อความน่าเชื่อถือและรวมทางเข้าให้เป็นหนึ่งเดียว

ขั้นตอนการดำเนินการ

บล็อก Robots

เพิ่มกฎใน robots.txtDisallow: /*?* (บล็อก URL ที่มีเครื่องหมายคำถามทั้งหมด)

กรณียกเว้น:ถ้าต้องการเก็บพารามิเตอร์บางตัว (เช่น การแบ่งหน้า) ให้เปลี่ยนเป็น Disallow: /*?utm_* (บล็อกเฉพาะพารามิเตอร์โฆษณา)

ตั้งค่า 301 รีไดเร็กต์

Apache เซิร์ฟเวอร์:เพิ่มในไฟล์ .htaccess

RewriteCond %{QUERY_STRING} ^.*$
RewriteRule ^(.*)$ /$1? [R=301,L]

Nginx เซิร์ฟเวอร์:เพิ่มในไฟล์คอนฟิก:

if ($args ~* ".+") {
rewrite ^(.*)$ $1? permanent;
}

ทดสอบและตรวจสอบ

  • ใช้เครื่องมือ (เช่น Redirect Checker) ยืนยันว่ารีไดเร็กต์ทำงานถูกต้อง
  • ตรวจสอบรายงาน “Coverage” ในเครื่องมือสำหรับเว็บมาสเตอร์ เพื่อดูจำนวน URL ที่ถูกบล็อกลดลง

เปรียบเทียบแผนและคำแนะนำในการเลือก

มิติแท็กมาตรฐานเครื่องมือค้นหา301+Robots
ความยากในการใช้งานต่ำ (แค่แทรกโค้ด)กลาง (ต้องมีประสบการณ์ตั้งกฎ)สูง (ต้องพัฒนาด้านเทคนิค)
ความเร็วของการมีผลช้า (ขึ้นกับการรวบรวมข้อมูลซ้ำของบอท)กลาง (1-4 สัปดาห์)เร็ว (มีผลทันที)
ขนาดที่เหมาะสมไซต์ขนาดกลางและเล็กไซต์ขนาดกลางถึงใหญ่ (โครงสร้างพารามิเตอร์ซับซ้อน)ปัญหาเก่ารุนแรง / ทีมเทคนิคช่วยเหลือ
ส่งต่อความน่าเชื่อถือส่งต่อบางส่วน (ต้องได้รับการยอมรับจากบอท)ไม่ส่งต่อ (แค่ควบคุมการรวบรวมข้อมูล)ส่งต่อเต็มที่ (รีไดเร็กต์ 301)
ต้นทุนการบำรุงรักษาต่ำกลาง (ต้องอัปเดตกฎบ่อยๆ)สูง (ต้องตรวจสอบความเสถียรของรีไดเร็กต์)

คำแนะนำการเลือกแผนตามสถานการณ์

ตัวอย่างเช่น เว็บไซต์ขนาดเล็กที่มีทักษะทางเทคนิคน้อย หากเลือกใช้ 301 รีไดเร็กต์โดยไม่รอบคอบ อาจเกิดปัญหาเว็บลิงก์เสียทั้งไซต์ได้而大型电商若仅依赖规范标签,可能因参数过多导致规则失效。​

หลักการสำคัญในการเลือก方案​​คือ: การพิจารณาขนาดเว็บไซต์ ทรัพยากรทางเทคนิค และประเภทของพารามิเตอร์อย่างครบถ้วน

เว็บไซต์ขนาดกลางและเล็ก

ปัญหาและความต้องการ​

  • ทรัพยากรทางเทคนิคมีจำกัด ไม่สามารถรับมือกับการตั้งค่าเซิร์ฟเวอร์ที่ซับซ้อนได้
  • จำนวนพารามิเตอร์น้อย แต่มีพารามิเตอร์ที่ไม่จำเป็น เช่น การติดตามโฆษณา (เช่น utm_*) หรือรหัสเซสชัน

แนวทางแนะนำ​

  • แนวทางหลัก​: ใช้แท็ก Canonical เป็นหลัก + ตั้งค่าเครื่องมือค้นหาให้ละเว้นพารามิเตอร์รอง
  • มาตรการเสริม​: ใช้การเปลี่ยนเส้นทาง 301 จำนวนเล็กน้อย เพื่อจัดการกับพารามิเตอร์ที่ซ้ำบ่อย (เช่น ?ref=ad)

ขั้นตอนการดำเนินการ​

การตั้งค่าแท็ก Canonical​

  • ใช้ปลั๊กอิน CMS (เช่น Yoast SEO บน WordPress) เพื่อเพิ่มแท็กชี้ไปยัง URL หลักที่ไม่มีพารามิเตอร์อย่างเป็นชุด
  • เครื่องมือยืนยัน: ใช้ฟีเจอร์ “ตรวจสอบ URL” ใน Google Search Console เพื่อยืนยันสถานะการรู้จักหน้า Canonical

การตั้งค่าให้ละเว้นพารามิเตอร์ที่ไม่จำเป็น​

  • ใน Google Search Console ที่เมนู “พารามิเตอร์ URL” ตั้งค่า utm_* และ session_id เป็น “ละเว้น”
  • ใน Baidu Webmaster Tools ส่งลิงก์เสียหรือใช้ฟีเจอร์ “กรองพารามิเตอร์”

การเปลี่ยนเส้นทาง 301 เฉพาะจุด​

ตั้งค่า 301 รีไดเรกต์แยกสำหรับ URL ที่มีพารามิเตอร์ที่มีปริมาณการเข้าชมสูง (เช่น หน้าโปรโมชั่น) ไปยังหน้าหลัก

คำเตือน​

  • ห้าม: เพิ่มแท็ก Canonical หลายแท็กในหน้าเดียวกัน (เช่น ซ้ำซ้อนระหว่างปลั๊กอินกับโค้ดที่เพิ่มเอง)
  • ห้าม: กำหนด Canonical ของหน้าที่เป็นไดนามิกไปยังหน้าที่มีเนื้อหาไม่ตรงกัน

อีคอมเมิร์ซ/แพลตฟอร์มขนาดใหญ่

ปัญหาและความต้องการ​

  • ประเภทพารามิเตอร์ซับซ้อน รวมทั้งฟังก์ชัน (กรอง, เรียงลำดับ) และการติดตาม (โฆษณา, การทดสอบ A/B)
  • จำนวนหน้ามาก ต้องจัดการกฎแบบเป็นชุดเพื่อหลีกเลี่ยงค่าใช้จ่ายการดูแลด้วยมือที่สูง

แนวทางแนะนำ​

  • แนวทางหลัก​: ใช้กฎพารามิเตอร์ของเครื่องมือค้นหาเป็นหลัก + ใช้แท็ก Canonical ช่วยเป็นทางเลือก
  • การปรับปรุงขั้นสูง​: ค่อยๆ แปลงพารามิเตอร์ฟังก์ชันให้เป็น URL แบบสถิต (เช่น /shoes/color-red)

ขั้นตอนการดำเนินการ​

การจำแนกพารามิเตอร์และตั้งกฎ​

  • พารามิเตอร์ติดตาม​ (เช่น utm_*, campaign_id): ตั้งค่า “ละเว้น” ใน Google/Baidu
  • พารามิเตอร์ฟังก์ชัน​ (เช่น color=red, sort=price): อนุญาตให้รวบรวมข้อมูลแต่เพิ่ม Canonical ชี้ไปยังหน้าที่ไม่มีพารามิเตอร์หรือหน้าหมวดหมู่

การเปลี่ยนเป็น URL แบบสถิต​

  • ร่วมมือกับทีมพัฒนาเพื่อเปลี่ยนเงื่อนไขการกรองเป็นโครงสร้างไดเรกทอรี (เช่น example.com/shoes/color-red) แทนที่จะใช้รูปแบบ ?color=red
  • ใช้ JavaScript จัดการพารามิเตอร์รอง (เช่น การเรียงลำดับ, การแบ่งหน้า) เพื่อไม่ให้แสดงใน URL

การติดตามและปรับปรุงอย่างต่อเนื่อง​

ตรวจสอบรายงาน “หน้าซ้ำ” ในเครื่องมือสำหรับเว็บมาสเตอร์ทุกสัปดาห์และปรับลำดับความสำคัญของกฎพารามิเตอร์

ตัวอย่างกรณีศึกษา​

อีคอมเมิร์ซเสื้อผ้าแห่งหนึ่งเปลี่ยนพารามิเตอร์ ?color=red&size=M ให้เป็น URL แบบสถิต /dress/red-medium หลังจากที่น้ำหนักหน้าหลักถูกรวมแล้ว อันดับคำค้นหาหลักเพิ่มขึ้น 50%

เว็บไซต์ที่มีปัญหามรดกทางเทคนิค

ปัญหาและความต้องการ​

  • ไม่ได้จัดการพารามิเตอร์ไดนามิกมานาน เกิดการรวบรวมซ้ำจำนวนมาก ส่งผลให้ปริมาณการเข้าชมลดลงอย่างต่อเนื่อง
  • ทีมเทคนิคมีทรัพยากรเพียงพอ สามารถจัดการการปรับแต่งที่ซับซ้อนได้

แผนแนะนำ

  • การจัดการด่วน: ใช้ Robots บล็อกพารามิเตอร์ที่มีความเสี่ยงสูง + ทำการ 301 รีไดเร็กต์ทั้งเว็บไซต์
  • กลยุทธ์ระยะยาว: ทำพารามิเตอร์ให้อยู่ในรูปแบบสแตติก + ล้าง URL ที่ไม่มีประสิทธิภาพเป็นระยะ

ขั้นตอนการดำเนินการ

การบล็อกด่วนด้วย Robots.txt:

บล็อกพารามิเตอร์ที่ไม่จำเป็นทั้งหมด: Disallow: /*?* (ระวังอย่าบล็อกพารามิเตอร์ที่จำเป็น เช่น การแบ่งหน้า)

ส่งไฟล์ Robots ที่อัปเดตใน Google Search Console เพื่อเร่งการบังคับใช้

ทำ 301 รีไดเร็กต์ทั่วทั้งเว็บไซต์:

ตัวอย่างกฎเซิร์ฟเวอร์ Apache (รีไดเร็กต์โดยลบพารามิเตอร์ทั้งหมด):

RewriteCond %{QUERY_STRING} .
RewriteRule ^(.*)$ /$1? [R=301,L]

รีไดเร็กต์โดยเก็บพารามิเตอร์ที่จำเป็น เช่น ?page=2 ไปยัง /page/2/

การล้างและอัปเดตลิงก์เสีย:

ใช้ Screaming Frog สแกนทั้งเว็บไซต์และกรอง URL ที่มีข้อผิดพลาด 404 หรือ 500 ที่มีพารามิเตอร์

ส่งคำขอ “ลบลิงก์เสีย” ในเครื่องมือสำหรับผู้ดูแลเว็บเพื่อเร่งการอัปเดตดัชนีของเสิร์ชเอนจิน

การติดตามในช่วงเปลี่ยนผ่าน

  • เตือนความเสี่ยง: ภายใน 1 สัปดาห์หลังรีไดเร็กต์ อาจเกิดความผันผวนของทราฟฟิก (เช่น การจัดอันดับของคำค้นหาหางยาวบางคำลดลงชั่วคราว)
  • เปรียบเทียบข้อมูล: เปรียบเทียบ “ทราฟฟิกค้นหาธรรมชาติ” และ “จำนวนการจัดทำดัชนี” ก่อนและหลังรีไดเร็กต์ ถ้าไม่มีการปรับปรุงภายใน 2 สัปดาห์ ควรตรวจสอบกฎรีไดเร็กต์ว่าผิดพลาดหรือไม่

กรณีศึกษาการใช้แผนผสม

กรณีที่ 1: การล้าง URL ซ้ำ 70% สำหรับเว็บไซต์เนื้อหา

พื้นหลัง: เว็บไซต์ข่าวแห่งหนึ่งมีหน้าซ้ำจำนวนหลายหมื่นหน้าที่เกิดจากพารามิเตอร์สแตมป์เวลา (?t=20230101) ทำให้ทราฟฟิกถูกกระจาย

แผน:

  • ตั้งแท็ก Canonical ไปยังหน้าที่ไม่มีพารามิเตอร์
  • ตั้งค่าให้ Google เครื่องมือค้นหาข้ามพารามิเตอร์ t
  • ส่งคำขอ “ลบ” สำหรับ URL ที่มีพารามิเตอร์ที่ถูกจัดทำดัชนีแล้ว

ผลลัพธ์: ลดการจัดทำดัชนีซ้ำลง 70% ใน 3 เดือน และทราฟฟิกหน้าหลักเพิ่มขึ้น 35%

กรณีที่ 2: อัปเกรดพารามิเตอร์เป็นสแตติกสำหรับเว็บไซต์อีคอมเมิร์ซ

พื้นหลัง: เว็บไซต์อีคอมเมิร์ซ 3C ใช้พารามิเตอร์ ?brand=xx&price=1000-2000 ทำให้คะแนน SEO กระจาย

แผน:

  • ขั้นตอนที่ 1: 301 รีไดเร็กต์ URL ที่มีพารามิเตอร์ทั้งหมดไปยังหน้าหมวดหมู่หลัก
  • ขั้นตอนที่ 2: พัฒนารูปแบบ URL แบบสแตติก (/laptops/brand-xx/price-1000-2000)
  • ขั้นตอนที่ 3: ส่ง URL ใหม่ไปยัง Baidu/Google และอัปเดต Sitemap พร้อมกัน

ผลลัพธ์: หลัง 6 เดือน ทราฟฟิกหมวดหมู่หลักเพิ่มขึ้นเป็นสองเท่า และอัตราตีกลับลดลง 20%

3 สถานการณ์ที่ต้องห้ามเด็ดขาด

สถานการณ์ข้อผิดพลาดผลกระทบ
เว็บไซต์ขนาดกลางและเล็กใช้ Canonical และ Meta Robots Noindex พร้อมกันหน้าเว็บอาจถูกลบออกจากดัชนีทั้งหมด
อีคอมเมิร์ซ/แพลตฟอร์มขนาดใหญ่ละเลยพารามิเตอร์ทั้งหมดอย่างสิ้นเชิงฟังก์ชันกรองเสียหาย ส่งผลเสียต่อประสบการณ์ผู้ใช้
เว็บไซต์ที่มีปัญหาประวัติศาสตร์บล็อกด้วย Robots โดยไม่ตั้ง 301 รีไดเร็กต์เกิดลิงก์เสียจำนวนมาก น้ำหนัก SEO ไม่ถูกรีไซเคิล

วิธีแก้ไข

  • เว็บไซต์ขนาดกลางและเล็ก: เลือกใช้ Canonical หรือ Meta Robots อย่างใดอย่างหนึ่ง โดยแนะนำให้ใช้ Canonical เป็นอันดับแรก
  • แพลตฟอร์มอีคอมเมิร์ซ: แยกแยะพารามิเตอร์ประเภทฟังก์ชันกับพารามิเตอร์ติดตาม และละเลยเฉพาะพารามิเตอร์ติดตามเท่านั้น
  • เว็บไซต์ที่มีปัญหาประวัติศาสตร์: บล็อกด้วย Robots และตั้ง 301 รีไดเร็กต์ต้องทำควบคู่กัน และ URL ที่รีไดเร็กต์ต้องสามารถเข้าถึงได้

เมื่อเครื่องมือค้นหาเข้าใจเว็บไซต์ของคุณได้ง่ายขึ้น ผู้ใช้ก็จะค้นหาคุณได้ง่ายขึ้นเช่นกัน

Picture of Don Jiang
Don Jiang

SEO本质是资源竞争,为搜索引擎用户提供实用性价值,关注我,带您上顶楼看透谷歌排名的底层算法。

最新解读
滚动至顶部