Share →

Search engine มีข้อจำกัดในการที่จะ crawl และแปลเนื้อหาในเว็บ Search engineไม่จำเป็นที่จะมองเห็นเว็บเพจในรูปแบบเหมือนที่คุณหรือผมมองเห็น  ในส่วนนี้เราจะสนใจในแง่มุมทางเทคนิคของการสร้าง (หรือปรับปรุง) เว็บเพจ ซึ่งพวกมันจะต้องถูกสร้างขึ้นให้ทั้ง search engine และคนทั่วไปที่จะเข้ามาในเว็บไซด์  โดยเนื้อหาส่วนนี้เหมาะสมที่จะแชร์ให้กับโปรแกรมเมอร์ของคุณ ผู้ออกแบบระบบข้อมูล และ คนออกแบบเว็บไซด์ ซึ่งทุกคนเหล่านี้จะมีส่วนในการสร้างและวางแผนเว็บไซด์เพื่อให้เป็นเว็บไซด์ที่เหมาะสมกับการเข้าถึงของ search engine ด้วย

 

เนื้อหาที่สามารถทำ Index

เพื่อที่จะถูกจัดทำรายการใน search engine เนื้อหาสำคัญของคุณควรจะอยู่ในรูปแบบของข้อความ HTML   ส่วนในกรณีของรูปภาพ, ไฟล์ Flash, Java applets และ เนื้อหาอื่นๆ ที่ไม่อยู่ในรูปของข้อความ มักจะถูกมองข้ามโดยตัว search engine spider นอกเสียจากว่ามีเทคโนโลยี crawling ที่ล้ำหน้ากว่าที่มีอยู่ในทุกวันนี้  วิธีการง่ายๆที่ทำให้มั่นใจได้ว่าคำหรือข้อความคุณจะถูกแสดงให้กับผู้เข้าชมและ search engine ได้เห็นคือการวางมันลงในข้อความ HTML ในหน้าเพจ ถึงอย่างไรก็ตาม วิธีการที่ซับซ้อนกว่าสามารถนำมาใช้ได้ สำหรับผู้ที่ต้องการรูปแบบหรือการแสดงผลที่ดีกว่า

 

การมองในแบบของ Search engine

หลายเว็บไซด์มีปัญหาสำคัญเกี่ยวกับการ index เนื้อหา ซึ่งควรจะมีการตรวจสอบอย่างละเอียดเกี่ยวกับเรื่องนี้ด้วยการใช้เครื่องมืออย่าง Google’s cache, SEO-browser.com หรือ MozBar ซึ่งจะทำให้คุณสามารถมองเห็นว่าส่วนใดของเนื้อหาที่ search engine มองเห็นและสามารถทำ index ได้

มองผ่านเบราเซอร์

มองผ่าน google cache

 

 

 

 

 

 

 

 

ดูซิ! เราเหมือนอะไร?

การมองผ่านGoogle cache เราสามารถเห็นว่า search engine มองโฮมเพจ JugglingPandas.com อย่างไร โดยเว็บเพจนี้ไม่ได้มีข้อมูลมากมายเหมือนที่เราเห็นเห็น และด้วยเหตุผลนี้ทำให้มันเป็นการยากสำหรับ search engine ที่จะแปลความเกี่ยวข้อง (relevancy) ของเว็บเพจนี้ได้

 

สิ่งที่ google มองเห็น

สิ่งที่คนทั่วไปมองเห็น

 

 

 

 

 

 

 

ลิงของฉันหายไปไหน แล้วทำไมเหลือแต่ข้อความหัวข้อเท่านั้น….แล้วลิงมันไปสนุกที่ไหนกันเนี่ย?

เมื่อเรามองผ่าน Google cache เราจะเห็นหน้าเพจว่าเป็นหน้าเพจที่ว่างเปล่า ไม่พบแม้กระทั่งข้อความที่บอกว่าเพจนี้เป็นเรื่องเกี่ยวกับสงครามของลิง ซึ่งเว็บไซด์นี้สร้างจาก Flash แต่มันเป็นเรื่องเศร้าที่ search engine ไม่สามารถ index ในเนื้อหาได้เลย หรือแม้กระทั่ง link ภายในเกมส์ เว็บเพจที่ไม่มีข้อความ HTML นั้นไม่เหมาะสมกับการจะใช้จัดอันดับใน search engine

ไม่ได้แค่เพียงตรวจสอบข้อความของเนื้อหาแบบทั่วไป  แต่การใช้เครื่องมือ SEO จะสามารถตรวจสอบว่าเพจที่เราสร้างขึ้นนั้นสามารถมองเห็นใน engine หรือเปล่า

 

โครงสร้างลิงค์ที่สามารถ Crawl ได้

ไม่เพียงแค่ต้องการให้ Search engine ได้เห็นเนื้อหาภายในเว็บไซด์ แต่ต้องการที่จะให้ search engine ได้สร้างรายชื่อเพจเพื่อจะทำindex โดยใช้link เพื่อเข้าถึงเนื้อหาต่าง ๆ โครงสร้างลิงค์ที่สามารถ Crawl ได้จะทำให้ spider สามารถหาทางที่จะ crawl ในเว็บไซด์ได้ ซึ่งเป็นสิ่งจำเป็นอย่างมากที่จะเข้าถึงหน้าเพจทั้งหมดในเว็บไซด์  หลายแสนเว็บไซด์มีการออกแบบที่ไม่ดีในส่วนของโครงสร้างการเข้าถึงหน้าเพจต่างๆ ทำให้ search engine ไม่สามารถเข้าถึงหน้าเพจได้อย่างมีประสิทธิภาพ ซึ่งจะส่งผลกระทบในความสามารถทำรายชื่อของเพจใน index ของ search engine ในเว็บไซด์นั้น ด้านล่างนี้ เราจะแสดงลักษณะของปัญหาที่เกิดขึ้น

 

 

ในตัวอย่างข้างบน  Spider ของ Google สามารถเข้าถึงหน้า “A” และเห็นลิงค์ไปยังหน้า “B” และ “E” ได้ ถึงแม้หน้า C และ หน้า D อาจจะเป็นหน้าเพจที่สำคัญของเว็บไซด์นี้ แต่ spider ไม่สามารถเข้าถึงมันได้ ซึ่งเกิดจากการที่ไม่มีทางเข้าโดยตรง หรือลิงค์ที่สามารถ crawl ไปยังหน้าเหล่านั้นได้ ถึงแม้ว่าเนื้อหาในหน้าเพจดี มีคีย์เวิร์ดที่ดี และการทำตลาดที่ดี แต่จะไม่มีความหมายอะไรทั้งสิ้น ถ้า spider ไม่สามารถเข้าถึงหน้าเพจเหล่านั้นได้

มาดูกันว่าทำไมบางเว็บเพจถึงไม่สามารถเข้าถึงได้ด้วย Search engine

จำเป็นต้องกรอกแบบฟอร์ม

ถ้าคุณต้องให้ผู้ใช้กรอกแบบฟอร์มก่อนที่จะเข้าถึงข้อมูลได้ ซึ่งส่งผลทำให้ search engine ไม่สามารถเข้าถึงหน้าเพจเหล่านั้นได้เลย ฟอร์มสามารถประกอบด้วยระบบล๊อกอิน หรือ แบบสอบถามที่กรอกให้เสร็จสิ้นก่อน ซึ่งในกรณีตัว spider จะไม่สามารถผ่านฟอร์มนี้ได้ ดังนั้น เนื้อหาหรือลิงค์ที่อยู่ด้านหลังฟอร์มนี้จะไม่สามารถเห็นได้โดย engine

 

ลิงค์ใน JavaScript

ถ้าคุณใช้ JavaScript สำหรับลิงค์ คุณจะพบว่าบางครั้ง ตัว search engine จะไม่สามารถ crawl ได้หรือ อาจจะให้ความสำคัญเพียงเล็กน้อยต่อลิงค์ที่อยู่ภายใน ลิงค์แบบ HTML มาตรฐานควรจะถูกใช้แทน JavaScript หรือสิ่งที่คล้ายๆ กับ JavaScript บนหน้าเพจ

 

ลิงค์นำไปยังเพจที่ถูกบล็อกโดยแท็ก meta robots หรือ robots.txt

แท็ก Meta Robots และ Robots.txt จะอนุญาตให้เจ้าของเว็บไซด์ป้องกัน spider เข้าถึงหน้าเพจได้ มีเว็บมาสเตอร์หลายคนไม่ได้ตั้งใจที่จะใช้มัน แต่ต้องการที่จะใช้ในการป้องกันการเข้าถึงของ bot บางประเภทเท่านั้น แต่มันอาจจะไปป้องกัน search engine ในการที่ crawl ได้ด้วย

 

Frames หรือ I-frames

ในทางเทคนิค ลิงค์ในทั้ง Frame และ I-frames สามารถ crawl ได้ แต่ engine ในปัจจุบันยังมีปัญหาในส่วนของโครงสร้างเพจและการติดตามเมื่อมีการใช้ Frame หรือ I-frameนอกเสียจากคุณจะมีความเข้าใจในการทำ index และการติดตามลิงค์ใน frame ของ search engine เป็นอย่างดีดังนั้นจึงควรหลีกเลี่ยงในการใช้ Frames หรือ I-frames

 

Robot ไม่สามารถใช้ฟอร์มค้นหาได้

ถึงแม้มีการพูดถึงมาก่อนหน้านี้แล้ว เกี่ยวกับปัญหาพื้นฐานซี่งยังต้องมีการโต้แย้งกันในปัจจุบัน บางเว็บมาสเตอร์มีความเชื่อว่า ถ้าพวกเขาวางกล่องค้นหาในหน้าเว็บไซด์แล้ว Engine จะสามารถหาทุกสิ่งที่ผู้ใช้งานหา แต่ในความจริงแล้ว spider ไม่ทำการค้นหาเนื้อหา จึงทำให้มีเพจหลายล้านเพจที่ถูกซ่อนอยู่หลังกล่องค้นหานี้ ซึ่งจะไม่ถูกรับรู้จนกว่า spider สามารถลิงค์เข้าไปในเพจเหล่านั้นได้

 

ลิงค์ใน Flash, Java หรือ plug-in อื่นๆ

ลิงค์ที่อยู่ในภายในเว็บไซด์ Panda (จากตัวอย่างด้านบน) เป็นภาพแสดงที่เห็นชัดมากในเรื่องราวนี้ ถึงแม้ว่ามีลิงค์และรายชื่อหลายสิบอันในหน้าเพจของ Panda แต่ Spider ไม่สามารถเข้าถึงมันได้ผ่านโครงสร้างลิงค์ได้ ซึ่งสิ่งที่สร้างมานั้นไม่สามารถมองเห็นได้ด้วย engine และจะไม่สามารถค้นหาได้จากคำค้นหาของผู้ที่ต้องการจะค้นหาข้อมูลด้วย

 

ลิงค์บนหน้าเพจด้วยหลายร้อยหรือหลายพันลิงค์

Search engine จะไม่เพียง crawl หลายๆ ลิงค์ที่อยู่บนเพจ แต่ไม่ได้หมายถึงไม่มีข้อจำกัดของการ crawl ด้วยข้อจำกัดง่ายๆ เพื่อที่จะหยุด spam และรักษาระบบการจัดอันดับ ซึ่งจะส่งผลให้ลิงค์ที่เกิน100 ลิงค์ขึ้นไปของเพจนี้มีความเป็นไปได้ที่จะไม่ถูก crawl และทำ index

 

+++ถ้าคุณหลีกเลี่ยงข้อผิดพลาดต่างๆได้ คุณจะมีลิงค์ HTMLที่ดีซึ่งจะการง่ายที่จะเข้าถึงเนื้อหาโดย spider+++

 

Rel=”nofollow” สามารถใช้ในรูปแบบดังต่อไปนี้

<a href="http://www.seomoz.org" rel="nofollow">Lousy Punks!</a>

          ลิงค์สามารถมีหลายAttribute ที่สามารถใช้กับมันได้ แต่ engine จะไม่สนใจสิ่งเหล่านั้นยกเว้นแท็ก rel=“nofollow” ในตัวอย่างข้างบน มีการเติม rel= “nofollow” เข้าไปในแท็กลิงค์ ซึ่งเป็นการบ่งบอกให้ search engine รับรู้ว่าเจ้าของเว็บไซด์ไม่ต้องการให้ลิงค์ดังกล่าวถูกแปลความหมายตามปกติ

Nofollow บอกว่าให้ search engine ไม่ต้องติดตามลิงค์ดังกล่าวเข้าไป ซึ่ง แท็ก nofollow จะเป็นวิธีที่ช่วยหยุดการเขียนคอมเมนต์ blog, guest book และ link injection spamอัตโนมัติได้ จากสิ่งที่ผ่านมาในอดีตทำให้ engine ลดคุณค่าของลิงค์ประเภทดังกล่าวลง โดยแค่มีการส่งค่าผ่านไปธรรมดา ลิงค์ที่ถูกแท็กด้วย nofollow จะถูกตีความแตกต่างกันเพียงเล็กน้อยในแต่ละ engine แต่มันก็ชัดเจนว่ามันจะให้น้ำหนักน้อยกว่าลิงค์ ประเภท “followed”มาก

 

แล้วลิงค์แบบ nofollow ไม่ดีหรือ?

ถึงแม้ว่าพวกมันไม่ได้ให้ความสำคัญเท่ากับลิงค์แบบ followed แต่ลิงค์แบบ nofollowed เป็นส่วนปกติของรูปแบบลิงค์แบบ diverse เว็บไซด์ซึ่งมีลิงค์เชื่อมกันภายในจำนวนมากจะมีการรวมตัวกันของลิงค์แบบ nofollowed จำนวนมาก และ นั้นมันก็ไม่ใช่สิ่งที่ไม่ดี ในความจริงแล้ว ปัจจัยของการจัดอันดับของ SEOmoz แสดงให้เห็นว่าเว็บไซด์ที่มีอันดับสูงมีแนวโน้มที่จะมีเปอร์เซ็นต์ของลิงค์แบบ nofollowes ภายใน ในอัตราที่สูงกว่าเว็บไซด์ที่อันดับที่ต่ำกว่า

 

การกำหนดเป้าหมาย และการใช้ keyword

Keyword เป็นสิ่งจำเป็นพื้นฐานสำหรับกระบวนการค้นหา  พวกเขาจะสร้างชุดของภาษาสำหรับค้นหา ในความเป็นจริงแล้ว หลักการทั้งหมดของการดึงข้อมูล (รวมทั้ง search engine ที่อยู่ในเว็บด้วยเช่น Google) จะอยู่บนพื้นฐานของการใช้ Keyword ที่ได้จากการ crawl และ index ของตัว engine ที่ทำกับเนื้อหาภายในเพจทั้งเว็บไซด์ พวกมันจะตามเก็บข้อมูลเพจในรูปแบบ index แบบ keyword ดังนั้นการเก็บสองหมื่นห้าพันล้านเว็บเพจลงในฐานข้อมูลอันเดียวนั้น ตัว engine จะต้องมีฐานข้อมูลเล็กๆ หลายๆ ล้านอัน ซึ่งจะเป็นที่รวมของคำ keyword หรือ วลี keyword โดยเฉพาะ ด้วยวิธีการนี้จะทำให้ engine ทำงานในการดึงข้อมูลได้เร็วกว่าปกติ ซึ่งพวกมันใช้เวลาในการทำงานเพียงเสี้ยววินาทีเท่านั้น

เป็นที่ชัดเจน ถ้าคุณต้องการให้เพจของคุณมีโอกาสถูกจัดอันดับในหน้าผลลัพธ์ของการค้นหาคำว่า “สุนัข” คุณควรที่จะแน่ใจว่ามีคำว่า “สุนัข” อยู่ในส่วนของเนื้อหาที่สามารถทำ index ได้

 

การให้ความสำคัญกับ keyword

Keyword มีความสำคัญต่อการค้นหาและมีผลต่อ engine ยกตัวอย่างเช่น คำค้นหาในรูปแบบทั่วไปอย่างในกรณีดังต่อไปนี้

เมื่อไรมีการค้นหาเกิดขึ้นengine จะทำการเลือกเพจโดยดูจากคำที่ใส่ลงไปในกล่องค้นหา ส่วนเรื่องอื่นๆ เช่นการจัดเรียงคำ (“tanks shooting” หรือ “shooting tanks”), การสะกดคำ, เครื่องหมายวรรคตอน, ตัวอักษรตัวใหญ่ของคำ keyword จะมีการพิจารณาเพิ่มเติมเข้าไปด้วย เพื่อให้ engine สามารถดึงหน้าเพจและทำการจัดอันดับที่ถูกต้อง

เพื่อให้บรรลุเป้าหมายของการทำงาน search engine จะทำการประเมิณรูปแบบของ keyword บนหน้าเพจ เพื่อประเมินหาความสอดคล้อง (relevance) ในส่วนของเอกสาร เพื่อเทียบกับคำค้นหา หนึ่งวิธีที่ดีที่สุดในการจัดอันดับของเพจ คือ เพจจะต้องมีคำ keyword ปรากฏอย่างเด่นชัดใน หัวข้อ, ข้อความ และส่วนข้อมูล meta

โดยปกติแล้ว จะมีการระบุคำ keyword เฉพาะ เพื่อให้ได้โอกาสการจัดอันดับที่ดีกว่าและมีการแข่งขันที่น้อยกว่า พิจารณารูปแผนที่ที่อยู่ด้านซ้ายสีแดงแสดงความเกี่ยวเนื่อง (relevance) ของคำว่า books ขอให้สังเกตว่ามีผลลัพธ์มากมายในคำ keyword แบบกว้าง (เทียบเคียงกับขนาดประเทศ) เมื่อมีการใช้คำ keyword ที่มีความเจาะจงมากกว่า เช่นใช้ keyword ว่าTale of Two Citties  จะมีผลลัพธ์ที่น้อยกว่า หรือการแข่งขันที่น้อยกว่า

 

การใช้คำ Keyword ที่ไม่ถูกต้อง

ตั้งแต่ยุคเริ่มต้นของการค้นหาออนไลน์ มีการใช้คำ Keyword ที่ไม่ถูกต้องซึ่งเกี่ยวข้องกับการ “ใส่” Keyword ลงในข้อความ, URL, แท็ก meta และลิงค์ ซึ่งเทคนิคดังกล่าวนี้มีผลเสียต่อเว็บไซด์ของคุณมากกว่า

ในยุคแรกของ search engine จะใช้ keyword ในรูปแบบของคำเกี่ยวเนื่อง (relevance) หลัก โดยไม่มีการคำนึงถึงว่ามีการใช้คำ keyword ในลักษณะใด ทุกวันนี้ถึงแม้ว่า search engine จะไม่สามารถอ่านและทำความเข้าใจเนื้อหาได้เหมือนมนุษย์ แต่มันก็สามารถทำงานได้ใกล้เคียงมนุษย์เป็นอย่างมาก

ในทางปฏิบัติ วิธีที่ได้ผลที่สุดคือการใช้คำ keyword เหล่านั้นจริงและใช้อย่างมีกลยุทธ์ (ดูรายละเอียดด้านล่าง) ถ้าเพจของคุณมีเป้าหมายที่จะมีคำ keyword ว่า “หอไอเฟล” ดังคุณควรจะมีเนื้อหาเกี่ยวกับหอไอเฟล, ประวัติหอไอเฟล หรือแม้กระทั่งโรงแรมในปารีสที่แนะนำ พูดอีกนัยหนึ่ง ถ้าคุณเพียงใส่คำว่า “หอไอเฟล” ลงในหน้าที่มีเนื้อหาไม่เกี่ยวข้อง เช่นในหน้าเพจเกี่ยวกับการผสมพันธ์สุนัข แล้วจะพยายามให้อันดับของคำว่า “หอไอเฟล” ดีคงเป็นไปได้ยาก

 

การเพิ่มประสิทธิภาพในเพจ

จากคำกล่าวที่ว่า การใช้และการกำหนดเป้าหมายของ keyword ยังคงเป็นส่วนหนึ่งของกระบวนการจัดอันดับและเราสามารถใช้ประโยชน์บางอย่างในเรื่องนี้เพื่อให้ผลทางปฏิบัติสำหรับการใช้ keyword เพื่อช่วยสร้างเพจให้ดีที่สุด  เราทำการทดลองจนได้ผลลัพธ์ของการค้นหาและผลของการเปลี่ยนคำ keyword เป็นจำนวนมาก เรามีคำแนะนำถ้าคุณต้องการที่จะเริ่มทำเว็บไซด์ของคุณดังต่อไปนี้

  • ใช้คำ keyword ในแทก title อย่างน้อยหนึ่งครั้ง พยายามที่ใช้จะคำ keyword ในส่วนของคำเริ่มต้นของแทก title มากที่สุดเท่าที่จะเป็นไปได้ ส่วนรายละเอียดของแทก tittle จะมีการกล่าวในภายหลัง
  • มีการใช้ keyword แบบเด่นชัดในส่วนบนของหน้าเพจ
  • มีอย่างน้อย 2-3 ครั้ง ในส่วนเนื้อหาของเพจ ซึ่งบางครั้งอาจจะใช้ keyword หลายครั้งมากขึ้นถ้ามีเนื้อหาที่ยาว และอาจจะพบว่ามีประโยชน์มากขึ้น ถ้ามีการใช้ keyword หรือ คำในลักษณะเดียวกันมากกว่าที่แนะนำไว้ด้วย แต่จากประสบการณ์ของเรา การเพิ่มขึ้นของชุดคำหรือวลีเหล่านั้นมีผลเพียงเล็กน้อยหรืออาจจะไม่มีผลต่อกับจัดอันดับเลย
  • อย่างน้อยมีหนึ่งครั้งใน attribute alt ในรูปภาพในเพจ สิ่งนี้ไม่เพียงช่วยในการค้นหาเว็บแต่ยังช่วยในการค้นหารูปด้วย ซึ่งจะเป็นการเพิ่ม traffic ให้กับเว็บไซด์เราด้วย
  • มีอย่างน้อยหนึ่งครั้งใน URLรายละเอียดเพิ่มเติมในส่วน URL กับ Keyword จะถูกกล่าวในตอนท้ายของเรื่องนี้
  • มีอย่างน้อยหนึ่งครั้งใน แทก meta description โดยแทก meta description จะไม่นำมาใช้ในการจัดอันดับโดย engine แต่มันช่วยให้ดึงดูดให้ผู้ค้นหาเลือกเข้ามาจากหน้าค้นหา  ซึ่งมันจะเป็นตัวอย่างของข้อความที่จะถูกใช้ใน search engine
  • ไม่มีลิงค์แบบ anchor text ในหน้าเพจของมันเองที่ชี้ไปยังหน้าอื่นๆในเว็บไซด์ของคุณเองหรือโดเมนอื่น (เรื่องนี้ค่อนข้างมีความซับซ้อน)

แล้วหน้าเพจที่ดีควรจะมี keyword density อย่างไร นี้เป็นตัวอย่างหน้าเพจที่ดีสำหรับข้อความคำ “running shoes”

 

บทความที่แล้ว: ตอนที่ 3 ทำไมการตลาดด้านการค้นหาจึงสำคัญ

บทความต่อไป: บทที่ 4 หลักการออกแบบและการพัฒนาเว็บไซด์ที่ดีสำหรับการเข้าถึงของ search engine เบื้องต้น ตอนที่ 2

 

Share →
0 comments
Read more:
Screen-Shot-2013-12-18-at-11.57.02-AM
5 เคล็ดลับในการดูแลธุรกิจให้ราบรื่นตลอดช่วงเทศกาลวันหยุด

Close