Share →

ตลอดหลายปีที่ผ่านมา มีการเข้าใจผิดเกี่ยวกับการทำงานของ search engine เกิดขึ้นหลายครั้ง สำหรับนัก SEO มือใหม่สิ่งนี้จะสร้างความเข้าใจผิดว่าสิ่งใดควรจะเป็นสิ่งที่ควรทำ ในหัวข้อต่อไปนี้เราจะอธิบายจากเรื่องจริงที่เกิดขึ้น

Search engine submission

ในช่วงยุคปลายทศวรรตที่ 1990 search engine มีฟอร์ม “submission” ซึ่งเป็นส่วนหนึ่งของกระบวกการ optimization โดยที่เว็บไซด์หรือเจ้าของเว็บไซด์จะแท็กเว็บไซด์หรือหน้าเพจด้วย keyword และกด “ส่งค่า” ไปให้ตัว engine หลังจากกระบวนการ submission ตัว bot จะทำการ crawl และรวมค่าดังกล่าวไว้ใน index ด้วย ซึ่งเป็นการทำ SEO แบบง่ายๆ

แต่ทุกอย่างเปลี่ยนไปจากเดิมแล้ว เนื่องจากกระบวนการดังกล่าวไม่สามารถรองรรับงานได้ และ submission บ่อยครั้งที่จะถูก spam และในทางปฏิบัติมักจะเป็นหน้าที่ของ crawl-bases engine มากกว่า ตั้งแต่ปี 2001 ไม่มีการใช้ search engine submission อีกต่อไป และมันก็ไม่มีประโยชน์ในการใช้งานอีกต่อไป  การเพิ่มลิงค์ในเว็บไซด์อื่น นั้นเป็นวิธีการเปิดเผยเนื้อหาให้กับ engine ได้ดีที่สุด

คุณยังอาจจะพบหน้า submission (อย่างน้อยก็มีที่ Bing) แต่นั้นเป็นสิ่งที่ใช้กันในอดีต และมันไม่มีความจำเป็นในทางปฏิบัติใน SEO ยุคใหม่อีกต่อไป ถ้าคุณได้ยินเกี่ยวการเสนองานของนักSEO เกี่ยวกับบริการ “Search engine submission” นั้นหมายความว่า คุณควรจะหานักSEO มืออาชีพคนใหม่ดีกว่า ถึงแม้ว่า engine จะใช้ บริการ submission ในการ crawl เว็บไซด์ของท่าน แต่มันก็ไม่ได้สร้างประโยชน์ที่มีคุณค่าต่อการทำ index หรือการจัดอันดับที่ดีขึ้นสำหรับคำค้นหาเลย

แท็ก Meta

กาลครั้งหนึ่งนานมาแล้ว เมื่อสมัยมีการใช้  search engine submission อย่างแพร่หลาย แท็ก meta (โดยเฉพาะ แท็ก meta keyword) นั้นเป็นส่วนสำคัญมากในกระบวนการทำ SEO คุณจะใส่คำ keyword ที่คุณต้องการสำหรับเว็บไซด์เพื่อใช้ในการจัดอันดับสำหรับคำดังกล่าว กระบวนการนี้ง่ายต่อการ spam และ มันถูกปลดออกจากกระบวนการจัดอันดับของ engine ตัวหลักเรียบร้อยแล้ว

แต่ก็ยังเป็นจริงเกี่ยวกับแท็กอื่น เช่น แท็ก title (ไม่เกี่ยวกับแท็ก meta แต่มักจะรวมกลุ่มอยู่ด้วยกัน) และ meta descritption(ที่กล่าวไว้ก่อนหน้านี้) จะเป็นส่วนสำคัญอย่างมากในกระบวนการทำ SEO นอกจากนี้แท็ก meta robots ยังเป็นเครื่องมือสำคัญสำหรับการควบคุมการเข้าถึงของ spider

ความหนาแน่นของคำ keyword

เคยเห็นหน้าเว็บเพจที่คล้ายกับ spam หรือเปล่า? บางทีอาจจะมีลักษณะแบบนี้ “Bob’s cheap Seattle plumber is the best cheap Seattle plumber for all your plumbing needs. Contact a cheap Seattle plumber before it’s too late”

ไม่ต้องแปลกใจที่ เกี่ยวกับปริศนาในการทำ SEO เรื่องความหนาแน่นของคำ keyword  ซึ่งเกี่ยวกับสมการทางคณิตศาสตร์ที่เกิดจากจำนวนคำที่ใช้เป็นคำ keyword หารด้วยจำนวนคำทั้งหมดในหน้าเพจ ซึ่งถูกใช้ใน search engine เพื่อใช้ในการหาความเกี่ยวเนื่องและการคำนวณการจัดอันดับ

แม้จะมีบทพิสูจน์มากมายว่าเรื่องดังกล่าวนี้ไม่เป็นจริง แต่เครื่องมือของ SEO จำนวนไม่น้อยยังคงยึดมั่นในหลักการของการใช้ความหนาแน่นของคำ keyword เป็นปัจจัยสำคัญ มันไม่ควรที่จะถูกละเลยเสียทีเดียวและควรมีการใช้คำ keyword อย่างชาญฉลาดและเป็นประโยชน์ ค่าของ 10 คำ keyword ที่ใส่ลงไปในหน้าเพจมีค่าน้อยกว่าลิงค์ดีๆ จากแหล่งอื่นเพียงลิงค์เดียวและการทำแบบนี้อาจจะถูกมองว่าคุณเป็นพวก search spammer อีกด้วย

จ่ายเงินซื้อโฆษณาให้กับ Search engine จะช่วยให้อันดับดีขึ้นหลังจากไม่ได้จ่ายเงินซื้อแล้ว

สิ่งนี้น่าจะเรียกว่าทฤษฏีสมคบคิดที่กล่าวว่าถ้าเราจ่ายเงินโฆษณากับ Search engine (PPC) จะช่วยปรับปรุงอันดับของดีขึ้นหลังจากไม่ได้จ่ายเงินซื้อแล้ว

จากประสบการณ์ทั้งหมดที่เราเคยเห็นและเคยได้ยินมาเกี่ยวกับเรื่องนี้ มันไม่สามารถพิสูจน์เรื่องราวเหล่านี้ได้เลย โดยที่ Google, Yahoo! และ Bing ทั้งหมดมีมาตรการป้องการบุคคลในองค์กรทำเรื่องแบบนี้

ที่ Google มีคนโฆษณาจ่ายเงินหลายสิบล้านดอลลาร์ในแต่ละเดือน ซึ่งพวกเขาก็ไม่สามารถได้สิทธิพิเศษในการเข้าถึงหรือถูกพิจารณาเป็นพิเศษในการค้นหา เราเชื่อว่าสิ่งนี้ยังคงปริศนาต่อไป แต่สิ่งที่เราเห็นแน่นอน เมื่อมีการจ่ายเงินในคำ keyword เหล่านั้นให้ทาง search engine จะส่งผลให้อันดับที่ดีขึ้นและเพิ่มอัตราการคลิกผ่านเข้าไปสูงขึ้น

การ Spam search engine

ตั้งแต่มีเว็บค้นหาเกิดขึ้นก็มี Spam เกิดขึ้นมาเป็นของคู่กัน การ spam search engine (การสร้างหน้าเพจและมีการออกแบบให้มีการโกงขบวนการจัดอันดับของ search engine) ได้เกิดขึ้นตั้งแต่กลางยุคปี 1990 แล้ว

ด้วยผลตอบแทนมูลค่าสูง (จากคำบอกกล่าว ของคนที่ทำ SEO เพียงวันเดียวที่เขาอยู่ตำแหน่งดีที่สุดของหน้าค้นหาใน google ของคำว่า “ซื้อไวอาก้า” เขาสามารถทำเงินได้ถึง $20,000) มันไม่ค่อยน่าแปลกใจนักกับสิ่งที่เกิดขึ้นกับ engine ซึ่งส่งผลถึงความนิยมภายในเว็บไซด์ การ spam ยากขึ้นมากเมื่อเทียบกับอดีต และในความเห็นของเรานั้น มันคุ้มค่าน้อยลงมากๆ ในการที่จะทำ spam ด้วยสองเหตุผลหลักๆ คือ

1. ไม่คุ้มค่าที่จะพยายามทำ

ผู้ใช้ไม่ชอบการspam และทาง search engine มีแรงจูงใจทางการเงินในการที่ต่อสู้กับเรื่องนี้สูงมาก  หลายคนเชื่อว่าทาง google มีเทคโนโลยีที่เหนือกว่าคู่แข่งในการควบคุมและกำจัด spam มาไม่น้อยกว่า 10 ปี มันไม่ต้องสงสัยเลยว่า engine จะลงทุนเวลา, ความพยายามและทรัพยากรเพื่องานนี้  ในบางครั้ง spam ก็ยังสามารถทำงานได้แต่มันเป็นผลตอบแทนในระยะสั้นๆ เท่านั้น ซึ่งมันจะดีกว่าถ้าเราเอาความพยายามนั้นมาสร้างเว็บไซด์ที่มีเนื้อหาที่ดี แทนที่จะใช้เวลาทั้งหมดในการทำ spam search engine ทำไมเราไม่ลงทุนกับการเพิ่มคุณค่าให้กับเว็บไซด์และจัดทำกลยุทธ์ในระยะยาวแทนที่จะทำการ spam

2. engine ที่ชาญฉลาดขึ้น

หนึ่งในหน้าที่หลักของ search engine ซึ่งมีกระบวนการที่ชาญฉลาดคือการต่อสู้กับการ spam มันเป็นการยากมากที่จะไปรบกวนกระบวนการทำงานของ search engine ด้วยหลักการที่ซับซ้อนอย่างเช่น TrustRank,HITS, การวิเคราะห์ทางสถิติและข้อมูลในอดีต และอีกหลากหลายถูกจัดทำขึ้นเพื่อตรวจหาการ spam แล้วได้มีการจัดทำกลยุทธ์ “white hat” สำหรับให้คำแนะนำในการทำเว็บไซด์เพื่อไม่ให้มีการละเมิดกฏเกณฑ์ของsearch engine ด้วย

ยิ่งกว่านั้นอีก การอัพเดพ Google’s Panda ได้มีอัลกอริทึมที่สามารถพัฒนาตัวเองเพื่อใช้ในการต่อสู้กับ spam และมีการลดคุณค่าของเพจเหล่านั้นในระดับที่ไม่เคยมีมาก่อนในอดีต แล้วสิ่งเหล่านี้ได้มีการพัฒนาอย่างต่อเนื่องปีต่อปีอีกด้วย

คำแนะนำต่อจากนี้ไม่ได้มีเจตนาเพื่อเปิดเผยกลยุทธ์ในการทำspam แต่เนื่องจากมีเว็บไซด์จำนวนมากที่ถูกบทลงโทษ, สั่งระงับ หรือขึ้นเครื่องหมายเตือน และต้องการคำแนะนำ เราจะกล่าวถึงปัจจัยหลายๆ อันที่ทำให้ engine ระบุเว็บไซด์เหล่านี้เป็น spam ซึ่งจะช่วยนัก SEO หลีกเลี่ยงปัญหาเหล่านี้

สิ่งที่ต้องระลึกถึงเป็นอย่างยิ่ง คือ เราจะไม่ได้ทำเพียงแค่ตบตาเพื่อให้ช่วยคุณอยู่ได้ ซึ่งหลายครั้งที่ทาง search engine ก็สามารถตรวจจับและลงโทษเว็บไซด์ของคุณได้ ถ้าคุณยังทำการ spam

วิเคราะห์การ Spam ระดับเพจ

Search engine จะทำการวิเคราะห์การ spam ในระดับเพจ และทั้งเว็บไซด์ เราจะมาพิจารณาถึงหลักการในพิจารณาในทางปฏิบัติกับ URL กัน

Keyword stuffing

หนึ่งในเทคนิคที่เห็นชัดคือ keyword stuffing ซึ่งเกี่ยวกับการใช้คำ keyword ซ้ำไปซ้ำมาให้หน้าเพจเพื่อที่ต้องการที่จะให้มีความเกี่ยวเนื่องใน search engine จากที่เรากล่าวมาก่อนแล้ว การเพิ่มจำนวนครั้งของ keyword ในหน้าเพจนั้นส่งผลให้มีอันดับที่ดีนั้นเป็นสิ่งที่ไม่ถูกต้อง การศึกษาชี้ให้เห็นว่าหลายพันเว็บไซด์ที่อยู่ในอันดับต้นๆ ของหน้าค้นหานั้นมีคำค้นหาที่แตกต่างจากคำ keyword ที่พบกันซ้ำๆในหน้า ซึ่งการทำซ้ำของคำ keyword นั้นไม่มีบทบาทต่อการยกอันดับและมีความสัมพันธ์น้อยมากกับการมีอันดับดีๆ อีกด้วย

Engine มีกระบวนการที่มีประสิทธิภาพดีเยี่ยมในการจัดการเรื่องนี้ การสแกนหน้าเพจสำหรับการตรวจสอบ keyword stuffing นั้นไม่ใช่เรื่องยากและกระบวนการดังกล่าวจะอยู่ในอัลกอริทึมของ engine เสมอด้วย

การจัดหาลิงค์

หนึ่งในวิธีที่นิยมมากที่สุดในการทำ web spam คือการจัดหาลิงค์เนื่องจากว่า search engine จะใช้ลิงค์ในการหาความนิยมในอัลกอริทึมสำหรับการจัดอันดับ และนี้เป็นหนึ่งในรูปแบบการ spam ที่ตรวจสอบโดย search engine ลำบากที่สุด เพราะมันสามารถมีด้วยกันหลายรูปแบบ รูปแบบการจัดหาลิงค์ประกอบไปด้วย

  • โครงการแลกเปลี่ยนลิงค์ โดยที่เว็บไซด์จะทำการสร้างลิงค์ในหน้าเพจในรูปแบบที่ลิงค์ไปยังที่หนึ่งแล้วมีการลิงค์กลับมาโดยเป็นความพยายามที่จะเพิ่มความนิยม ทางengine มีระบบตรวจสอบการ spam ในลักษณะนี้ค่อนข้างดี และจะทำการลดคุณค่าของเพจนั้นลง ถ้าเว็บเพจเข้าอยู่ในรูปแบบดังกล่าวนี้
  •  รูปแบบของลิงค์ ซึ่งประกอบด้วย “link farms” และ “link networks” ซึ่งเป็นเว็บไซด์คุณค่าต่ำที่ถูกสร้างขึ้นเพื่อจะเป็นที่รวมลิงค์เพื่อหวังจะทำการเพิ่มความนิยม โดยทาง search engine ใช้วิธีมากมายในการตรวจจับการเชื่อมต่อของเว็บไซด์เหล่านี้ โดยใช้ link overlap หรือปัจจัยอื่นๆ มาประกอบ
  • ลิงค์ที่มีการจ่ายเงิน ที่ใช้ในการเพิ่มอันดับที่สูงขึ้น  โดยมีการซื้อลิงค์จากเว็บไซด์และเพจ ในบางครั้งเครือข่ายของผู้ซื้อและผู้ขายมีขนาดใหญ่มาก ถึงแม้ว่าทาง engine ทำงานอย่างหนักเพื่อจะหยุดสิ่งเหล่านี้ แต่สิ่งเหล่านี้ก็ยังคงอยู่เนื่องจากสิ่งนี้ยังเป็นที่ต้องการของทั้งผู้ซื้อและผู้ให้บริการ
  •  ไดเรกทอรี่ลิงค์คุณภาพต่ำซึ่งบ่อยครั้งจะเป็นแหล่งของการจัดหาลิงค์ในด้าน SEO มีเว็บไดเร็กทอรีที่เรียกเก็บเงินสำหรับการวางลิงค์ที่เกิดขึ้นเพื่อบริการ ทาง Google บ่อยครั้งที่ต้องต่อสู้กับเว็บไซด์ในรูปแบบนี้โดยการเอาคะแนน PageRank(หรือการลดค่ามันอย่างมาก) แต่หลายกรณีทาง Google ก็มิได้ทำอะไร

มีอีกหลายวิธีในการจัดหาลิงค์ซึ่งทาง search engine จะต้องทำการระบุและสร้างอัลกอริทึมเพื่อทำการลดผลกระทบการ spam ในรูปแบบนี้ และมีวิธีการ spam ใหม่ๆ เกิดขึ้นเสมอ ทางวิศวกรจะต้องต่อสู้กับเรื่องเหล่านี้ต่อไปด้วยการใช้อัลกอริทึม,คนตรวจสอบ และรายงานการ spam จากเว็บมาสเตอร์ และนัก SEO

CLOAKING 

หลักการพื้นฐานของทุกคำแนะนำของ search engine คือการที่ตัว crawler เข้าถึงเนื้อหาที่จะต้องเหมือนกันกับเนื้อหาที่แสดงให้กับผู้ใช้ทั่วไปดู นั้นหมายความว่า จะไม่มีการซ่อนตัวโค๊ด html ในเว็บไซด์ของคุณซึ่งบุคคลทั่วไปจะไม่สามารถมองเห็นได้

เมื่อไรที่ไม่ปฏิบัติตามคำแนะนำ ทาง engine จะเรียกสิ่งนี้ว่า “cloaking” และจะทำการตัดเพจดังกล่าวออกจากกระบวนการจัดอันดับในหน้าผลลัพธ์ Cloaking สามารถเกิดขึ้นได้ในหลายกรณีและเกิดได้ในหลายเหตุผลทั้งในด้านดีและไม่ดี ในบางกรณี ทาง engine ก็มีการอนุญาตให้มีการทำ Cloaking ถ้าการทำดังกล่าวส่งผลดีต่อผู้ใช้งาน

เพจ “Low value”

ถึงแม้ว่าในทางเทคนิคจะไม่ถือสิ่งนี้เป็น web spam แต่ทาง engine จะมีวิธีการในการพิจารณาถ้าเพจเหล่านั้นมีเนื้อหาเฉพาะ และมีคุณค่าซึ่งจะทำการรวมสิ่งเหล่านี้ลงไปใน index และผลลัพธ์ของการค้นหา หน้าที่มีเนื้อหาเพียงเล็กน้อย , เนื้อหาซ้ำและ มีการสร้างเนื้อหาแบบไดนามิกซึ่งจะมีข้อความเฉพาะเพียงเล็กน้อยเท่านั้น ทาง engine จะพิจารณาหน้าเพจเหล่านั้นโดยใช้อัลกอริทึมในการตรวจสอบความหลากหลายของเนื้อหาและการวิเคราะห์ลิงค์ซึ่งจะระบุให้เป็นเพจแบบ “low value”

Panda update ในปี 2011 ของ Google จะมีการลดคุณภาพของเนื้อหาของเว็บในลักษณะนี้ในระดับความรุนแรงอย่างที่ไม่เคยมีมาก่อน และทาง Google ก็ยังคงทำการพัฒนาเรื่องเหล่านี้ต่อไปอีกด้วย

การวิเคราะห์ spam ในระดับโดเมน

นอกจากจะพิจารณาการ spamในแต่ละหน้าเพจ ทาง engine ยังทำการพิจารณาทั้งโดเมนหรือซับโดเมนด้วย ซึ่งทาง search engine อาจจะระบุให้ทั้งหมดเป็น spam ก็ได้  แน่นอนสิ่งนี้ไม่ได้รวมโดเมนที่ทำธุรกิจแบบไม่ค่อยถูกต้อง แต่ในทางปฏิบัติการตรวจสอบยังต้องมีการพัฒนาต่อไปอีก

วิธีการลิงค์

ในแต่ละหน้าเพจ ทาง engine สามารถตรวจสอบชนิดของลิงค์และคุณภาพของสิ่งที่อ้างอิงไปถึง ถ้าทางเว็บไซด์มีการจัดหาลิงค์ในรูปแบบที่อธิบายด้านบนซึ่งสิ่งนี้อาจจะส่งผลกระทบอย่างรุนแรง ซึ่งท่านจะเห็นได้จากการลดลงของ traffic จากการค้นหา หรือแม้กระทั่งทางเว็บไซด์อาจจะถูกแบนจากการทำ index

ความน่าเชื่อถือ

เว็บไซด์ที่ได้รับความน่าเชื่อถือมักจะถูกคุกคามในรูปแบบที่แตกต่างกันจากบุคคลนรินาม นัก SEO หลายคนพูดถึง “สองมาตรฐาน” ที่ใช้ในการตัดสินเว็บไซด์ที่มีขนาดใหญ่หรือมีความสำคัญสูงกับเว็บไซด์ที่เพิ่งเกิดใหม่ สำหรับทาง search engine มีหลายสิ่งที่ต้องทำกับลิงค์ที่คุณใส่เพิ่มสำหรับโดเมนของคุณ ถ้าคุณสร้างเนื้อหาที่ซ้ำหรือคุณภาพต่ำใน blog ส่วนตัวแล้วทำการซื้อลิงค์จำนวนมากจากไดเรกทอรีจำพวก spam คุณก็จะยังคงมีปัญหากับการมีอันดับที่ไม่ดีต่อไป ถึงอย่างไร ถ้าคุณโพสเนื้อหาดังกล่าวลงบนหน้าเพจเช่น Wikipedia แล้วใช้ไดเรกทอรีจำพวก spam ชุดเดิมชี้ไปยัง URL นั้น จะพบว่าเนื้อหาที่คุณโพสไปจะอยู่ในอันดับที่ดี ซึ่งนั้นก็คือพลังของความน่าเชื่อของโดเมน

การสร้างความน่าเชื่อผ่านทางลิงค์นั้นเป็นวิธีการทีดีสำหรับการพิจารณาของ engine การมีเนื้อหาที่ซ้ำกันเพียงเล็กน้อยและมีลิงค์ที่มีปัญหาเพียงเล็กน้อย และถ้าจะดีกว่านั้น ถ้าเว็บไซด์ของคุณมีลิงค์หลายร้อยลิงค์จากแหล่งที่ดีและมีคุณภาพเช่น CNN.com หรือ Cornell.edu ในทางกลับกัน ถ้าคุณยังไม่มีลิงค์จากแหล่งคุณภาพสูงการพิจารณาจากอัลกอริทึมจะมีการเข้มงวดที่มากกว่า

คุณค่าของเนื้อหา

คล้ายกับการพิจารณาระดับเพจซึ่งมีการหลักเกณฑ์เช่น การมีเนื้อหาเฉพาะ และสิ่งที่ให้กับผู้เข้าชม ซึ่งหลักการดังกล่าวนั้นสามารถมาประยุกต์ใช้ได้ในระดับโดเมนด้วย engine ไม่ต้องการชุดคัดลอกของ Wikipedia หรือ Amazon หลายพันอัน มาเติมใน index และนั้นก็เป็นเรื่องของการใช้อัลกอริทึมและการตรวจสอบด้วยมือเพื่อป้องกันสิ่งเหล่านี้

ทาง Search engine ยังคงตรวจสอบประสิทธิผลของผลลัพธ์หน้าค้นหาของตัวเองเสมอ การวัดของพวกเขานั้นจะดูจากเมื่อมีผู้ใช้เลือกผลลัพธ์ในหน้าค้นหา แล้วกดปุ่มกลับออกมาจาก เบราเซอร์ทันที และพยายามเข้าผลลัพธ์อันอื่น นี้เป็นการบ่งบอกว่าผลลัพธ์เหล่านั้นไม่ตรงกับความต้องการของคำค้นหาของผู้ใช้มันไม่ใช่เพียงแค่อันดับสำหรับการค้นหา เมื่อคุณได้อันดับที่ดีขึ้น คุณยังต้องพยายามทำมันต่อไปอย่างไม่มีสิ้นสุด

+++คุณจะรู้ได้อย่างไรว่าคุณทำมันได้ไม่ดี+++

มันเป็นการยากมากที่จะรู้ว่าเว็บไซด์หรือหน้าเพจของคุณถูกลงโทษจาก search engine หรือถ้าคุณเปลี่ยนสิ่งใด แล้วทางอัลกอริทึมของ search engine จะพิจารณาให้มีผลกระทบในแง่ลบต่ออันดับหรือไม่ ก่อนที่คุณจะคิดว่าคุณถูกลงโทษ กรุณาตรวจสอบตามนี้ก่อน

ขั้นตอนที่ 1พิจารณาตัดออกทีละตัว เมื่อคุณพิจาณาตัดรายการด้านล่างออก และทำตามแผนผังข้างล่างต่อไปนี้

ความผิดพลาด

ความผิดพลาดในเว็บไซด์ของท่านอาจจะเป็นกีดกั้นการ crawl ได้ Webmaster Tools ของ Google ซึ่งเป็นเครื่องมือที่ดีและไม่เสียค่าใช้จ่ายใดๆ อีกด้วยซึ่งเป็นเครื่องมือที่สมควรนำมาใช้ในช่วงเริ่มต้นของการทำ SEO

การเปลี่ยนแปลง

การเปลี่ยนแปลงในเว็บไซด์หรือหน้าเพจของคุณบางทีอาจจะเกิดจากการเปลี่ยนวิธีการรับรู้เนื้อหาของ search engine (การเปลี่ยนแปลงหมายถึง การเปลี่ยนแปลงภายในหน้าเพจ, การเปลี่ยนโครงสร้างลิงค์ภายใน, การย้ายเนื้อหา เป็นต้น)

ความคล้ายคลึง

เว็บไซด์ที่มีการแชร์เนื้อหาที่คล้ายคลึงกัน จะถูกปรับลดอันดับและเมื่อไรที่ engine มีการอัพเดทอัลกอริทึมการจัดอันดับ ,การประเมินลิงค์ และความสำคัญ จะนำมาซึ่งการเปลี่ยนแปลงอันดับ

เนื้อหาซ้ำซ้อน

ในเว็บไซด์ยุคใหม่นั้นมักจะมีปัญหาเกี่ยวกับการซ้ำซ้อนของเนื้อหา โดยเฉพาะอย่างยิ่งเมื่อมันมีขนาดใหญ่ การตรวจสอบการโพสซ้ำซ้อนนั้นจะสามารถช่วยแก้ปัญหานี้ได้

ขั้นตอนที่ 2 ทำตามแผนผัง

ถึงแม้ว่าเราจะทำตามกระบวนการตามแผนผังแล้ว อาจจะไม่ดีสำหรับในทุกสถานการณ์  คุณสามารถหาข้อมูลได้จาก Google (และวีดีโอ youtube) บางทีจะทำให้เข้าใจถึงเนื้อหาในหัวข้อนี้มากขึ้น

การเอาบทลงโทษออกไป

ในการที่จะขอโอกาสให้ engine พิจารณาให้นั้นเป็นสิ่งที่ค่อนข้างเจ็บปวดและหลายครั้งไม่ได้ผลอีกด้วย และหลายครั้งเราไม่ทราบว่าทำไมถึงมีการลงโทษกับเว็บไซด์ของเรา ถึงอย่างไรก็ตามมันเป็นสิ่งสำคัญมากที่ควรจะรู้ว่าสิ่งใดที่เราทำ ทำให้เกิดการลงโทษหรือการแบบ

ข้อควรปฏิบัติ

  1. ถ้าคุณยังไม่ลงทะเบียนเว็บไซด์ของคุณกับบริการ Webmaster Tools ของ engine (ของ Google และ Bing) การลงทะเบียนนั้นเป็นการสร้างความน่าเชื่อและการเชื่อมต่อระหว่างคุณกับทีมเว็บมาสเตอร์ของ engine
  2. ศึกษาข้อมูลอย่างละเอียดใน Webmaster Tools ไม่ว่าหน้าเพจที่ไม่สามารถเข้าถึง หรือ ความผิดพลาดของ crawl ที่มีการแสดงไว้ หรือจะเป็นข้อความเตือนเกี่ยวกับ spam บ่อยครั้งเราสามารถหาความผิดพลาดที่เกิดขึ้นซึ่งในตอนแรกเราอาจจะคิดว่าเป็นการลงโทษเรื่องการ spam  แต่จริงๆแล้วอาจจะเป็นปัญหาเกี่ยวกับการเข้าถึงของเว็บไซด์ก็ได้
  3. ส่งคำขอให้พิจารณาผ่านทาง Webmaster Tools และทำการสร้างเว็บไซด์ใหม่ที่ดีและนั้นจะเป็นการสร้างโอกาสที่จะได้กลับมาอีกครั้ง
  4. การให้ข้อมูลต่อ engine นั้นเป็นสิ่งที่สำคัญในการพิจารณา ถ้าคุณทำการ spam บอกทุกสิ่งที่คุณทำ ไม่ว่าจะเป็นลิงค์ที่คุณได้รับมา, รวมถึงวิธีการที่คุณได้รับ, ผู้ขายที่ขายให้คุณ เป็นต้น engine โดยเฉพาะ Google ต้องการข้อมูลเหล่านี้เพื่อใช้ในอัลกอริทึมในอนาคต
  5. เอาออกหรือแก้ไขทุกสิ่งที่คุณสามารถทำได้ ถ้าคุณได้รับลิงค์ที่ไม่ดี พยายามที่จะเอามันออก ถ้าคุณทำบางสิ่งในเว็บไซด์ของคุณ ( over-optimized internal linking, keyword stuffing เป็นต้น) คุณต้องเอาสิ่งเหล่านี้ออกก่อนที่จะทำการร้องขอให้พิจารณาใหม่
  6. รอการตอบรับ ซึ่งอาจจะนานเป็นอาทิตย์หรือแม้จะเป็นเดือน ซึ่งกระบวนการพิจารณาต้องใช้เวลาเนื่องจากมีคิวที่รอหลายร้อย (หรือหลายพัน) เว็บไซด์ที่ต้องถูกพิจารณา
  7. ถ้าคุณมีอิทธิพลหรือใหญ่ในโลกอินเตอร์เน็ต การพิจารณาใหม่อาจจะทำได้เร็วขึ้นโดยการติดต่อโดยตรงที่งานสัมมนา วิศวกรจากทุก engine จะเข้าร่วมการสัมมนาด้วย (SMX, SES, Pubcon เป็นต้น) และค่าใช้จ่ายในการเข้าร่วมงานนั้นมันคุ้มค่ากับการที่จะถูกพิจารณาใหม่ให้เร็วขึ้นกว่าปกติ

ระลึกถึงเสมอว่า ตามกฎหมายทาง search engine มีสิทธิที่จะปฏิเสธหรืออนุญาตเว็บไซด์หรือเพจใดๆ ก็ได้ ดังนั้นคุณควรจะต้องไม่พยายามใช้เทคนิคที่ไม่แน่ใจ ซึ่งสิ่งนั้นอาจจะทำให้คุณตกอยู่ในที่นั่งลำบากก็ได้

บทความต่อไป: บทที่ 10 การวัดและติดตามผลของseo

บทความก่อนหน้า: บทที่8 เครื่องมือและบริการของSearch engine

Share →
0 comments
Read more:
itunes
iTunes 11 : วิธีสร้างริงโทนไอโฟน

Close