Share →

นัก SEO มักจะใช้เครื่องมือหลายอย่างเพื่อใช้ในการทำงาน ทาง Search engine ได้จัดหาเครื่องมือที่มีประโยชน์มากๆ หลายตัว โดยทาง search engine ต้องการให้ webmaster ที่ต้องการจะสร้างเว็บไซด์และเนื้อหาที่ดีมีทางที่จะเข้าถึงได้ ดังนั้นทาง Search engine จึงได้จัดสร้างเครื่องมือในหลายรูปแบบ บทวิเคราะห์ และคำแนะนำ โดยที่สิ่งเหล่านี้เป็นข้อมูลที่ไม่มีค่าใช้จ่าย  มีการให้ข้อมูลและโอกาสสำหรับการแลกเปลี่ยนข้อมูลกับทาง search engine อีกด้วย

ด้านล่างต่อไปนี้ เราได้อธิบายองค์ประกอบพื้นฐานที่ทาง search engine หลักๆ สนับสนุนและได้มีการอธิบายถึงประโยชน์ของมันไว้ด้วย

 

Search engine protocols ทั่วไป

1. Sitemaps

Sitemap มีลักษณะเหมือนรายชื่อของไฟล์ที่จะเป็นแนวทางให้ search engine ว่าพวกมันควรจะ crawl ในเว็บไซด์ของคุณอย่างไร Sitemap จะช่วยให้ search engine หาและแยกแยะเนื้อหาของเว็บไซด์ของคุณซึ่งบางครั้งsearch engine ไม่สามารถหาหน้าเพจเหล่านั้นเจอเองได้ sitemap ประกอบด้วยข้อมูลในหลายรูปแบบและมีจุดเด่นของเนื้อหาที่แตกต่างกันโดยที่ Sitemap อาจจะประกอบด้วยวีดีโอ, รูปภาพ, ข่าวสาร และความสามารถในการใช้กับอุปกรณ์พกพาด้วย

คุณสามารถหาข้อมูลเพิ่มเติมของเรื่องนี้ได้ที่ Sitemap.org และคุณสามารถสร้าง sitemap ด้วยตัวเองได้ที่ XML-Sitemaps.com ซึ่ง Sitemaps มีอยู่ด้วยกัน 3 รูปแบบ

  • XML Extensible Markup Language (เป็นรูปแบบที่แนะนำให้ใช้)

ข้อดี เป็นรูปแบบที่เป็นที่ใช้กันทั่วไปทาง search engine จะทำการแยกแยะอย่างง่ายดาย  และสามารถสร้างข้นโดยใช้โปรแกรมสร้าง sitemap ทั่วไป นอกจากนี้มันยังสามารถทำงานได้กับพารามิเตอร์ในหน้าเพจส่วนใหญ่อีกด้วย

ข้อเสีย ไฟล์จะมีขนาดที่ค่อนข้างใหญ่ ซึ่งไฟล์ XML จะมีการเปิดและปิดแทก ทำให้ขนาดของไฟล์มีขนาดใหญ่มาก

  •  RSS Really Simple Syndication หรือ Rich Site Summary

          ข้อดี  ง่ายต่อการดูแล  และ RSS sitemap ยังง่ายต่อการเขียนให้มันมีการอัพเดทเองอัตโนมัติเมื่อมีข้อมูลเพิ่มเติมอีกด้วย

ข้อเสีย ถึงแม้ว่า RSS ใช้ภาษา XML แต่เนื่องมาจากคุณสมบัติการอัพเอทของมันเองที่ทำให้การบริหารจัดการค่อนข้างยุ่งยาก

  •  Txt ไฟล์แบบข้อความ

ข้อดีเป็นรูปแบบที่ง่ายที่สุด โดยที่ Sitemap แบบข้อความในหนึ่ง URL สามารถยาวได้ถึง 50,000 บรรทัด

          ข้อเสีย ไม่สามารถเพิ่มเติมข้อมูล meta ในหน้าเพจได้

 

2. Robots.txt

ไฟล์ Robots.txt เป็นรูปแบบของ Robots Exclusion Protocol ซึ่งไฟล์นี้จะถูกเก็บไว้ในไดเรกทอรี่หลักของเว็บไซด์ (เช่น www.google.com/robots.txt) ไฟล์ robots.txt จะบอกถึงวิธีการให้กับตัว crawler ที่เข้ามาเยี่ยมชมเว็บไซด์ซึ่งอาจจะเป็น search spiders โดยการใช้ robots.txt เว็บมาสเตอร์จะสามารถระบุให้ search engine ให้ทำกำหนดส่วนของเว็บไซด์ที่สามารถcrawl ได้และยังบอกถึงตำแหน่งของไฟล์ sitemap และพารามิเตอร์ crawl-delay อีกด้วย

ต่อไปนี้เป็นคำสั่งที่สามารถใช้ได้:

  • Disallow ป้องกันไม่ให้ robot เข้าถึงพื้นที่หน้าเพจหรือแฟ้มดังกล่าว
  • Sitemap เป็นการระบุตำแหน่งของ sitemapของเว็บไซด์
  •  Crawl Delay เป็นการระบุความเร็ว (ในหน่วยมิลลิวินาที) ที่จะให้ robot สามารถ crawl ได้ใน server นี้

คำเตือน!! ไม่ใช้ทุก robot จะทำตาม robots.txt หลายคนที่มีเจตนาที่ไม่ดี (ตัวอย่างเช่นต้องการหา email address) ทำการสร้างบอทซึ่งไม่ทำตาม protocol และมันสามารถเข้าถึงพื้นที่ส่วนตัวได้ด้วย ด้วยเหตุผลดังกล่าว เราจึงแนะนำให้พื้นที่ส่วนจัดการระบบและพื้นที่ส่วนตัวของเว็บไซด์ไม่ถูกระบบใน robots.txt

 

3. Meta Robots

แท็ก Meta Robots ระบุขั้นตอนระดับเพจให้กับบอทของ search engine โดยแท็ก meta robot จะประกอบด้วยส่วนหัวเหมือนกับ Html

ในตัวอย่างด้านบน “NOINDEX, NOFOLLOW” เป็นการบอก robot ว่าไม่ต้องเก็บเพจนี้ไปทำ index และไม่ต้องเข้าไปในลิงค์ภายในหน้านี้

 

 

4. Rel= “Nofollow”

จากที่เคยกล่าวไว้ การมีลิงค์เหมือนกับการได้รับโหวต  ค่า rel=nofollow จะยอมให้คุณทำการเชื่อมโยงไปยังแหล่งนั้นโดยบอกกับ search engine ว่าไม่ต้องทำการโหวตให้ คำ “nofollow” คือการบอกให้ search engine ไม่ต้องตามลิงค์นี้ไป แต่บาง engine ก็ยังคงตามลิงค์นี้เพื่อไปค้นหาหน้าใหม่ ซึ่งลิงค์ที่ผ่านจากหน้านี้ไปจะมีคุณค่าน้อยลงกว่าปกติ แต่มันก็สามารถใช้ประโยชน์ได้ในบางสถานการณ์เช่นเมื่อคุณทำลิงค์ไปยังแหล่งที่ไม่น่าเชื่อถือ

ในตัวอย่างข้างบน คุณสมบัติที่ระบุในลิงค์นั้น ทำให้ไม่มีการเข้าไปยัง example.com เนื่องจากมีการเติมคำ rel=”nofollow” ลงไป

 

5.Rel= “canonical”

บ่อยครั้งที่มีเนื้อหาที่ซ้ำกันสองหรือสามครั้งในเว็บไซด์ของคุณในชื่อ URL ที่แตกต่างกัน เช่นในตัวอย่าง URL เหล่านี้จะอ้างถึงโฮมเพจเดียวกัน

  • http://www.example.com/
  • http://www.example.com/default.asp
  • http://example.com/
  • http://example.com/default.asp
  • http://Example.com/Default.asp

Search engine จะมองเห็นเป็น 5 หน้าที่แตกต่างกัน เพราะเนื้อหาที่ซ้ำกันในแต่ละหน้า จะส่งผลให้ search engine ทำการปรับลดอันดับลงเป็นอย่างมาก

แท็ก canonical จะช่วยแก้ปัญหาดังกล่าวโดยบอก search robot ว่าเพจนี้มีหน้าหลักเพียงเวอร์ชั่นเดียวเท่านั้นซึ่งจะใชในหน้าผลลัพธ์ของหน้าค้นหา

ในตัวอย่างข้างบน rel=cononical จะบอก robot ว่านี้เป็นเพจที่ทำการคัดลอกมาจาก http://www.example.com และใช้URL อันหลังเป็นหลัก

 

เครื่องมือของ search engine

Google Webmaster Tools กับคุณสมบัติยอดนิยม

Google Webmaster Tools

 

Settings

Geogprahic target ถ้าผู้ใช้เป้าหมายของคุณอยู่ในสถานที่เฉพาะ เว็บมาสเตอร์สามารถใช้เครื่องมือของ Google เพื่อดูข้อมูลว่าเว็บไซด์ของคุณถูกแสดงผลลัพธ์ในพื้นที่เฉพาะอย่างไร และยังช่วยปรับปรุงผลลัพธ์การค้นหาให้กับ Google สำหรับการค้นหาในพื้นที่เฉพาะอีกด้วย

 

Preferred Domain เป็นหนึ่งในเครื่องมือที่เว็บมาสเตอร์จะใช้ในการทำ index ในหน้าเพจของตนเอง ถ้าเว็บมาสเตอร์ต้องการระบุ preferred domain เฉพาะเช่น http://www.example.comและ google มองลิงค์ของเว็บไซด์นี้เป็น http://example.comซึ่งเราจะสามารถชี้ไปยัง http://www.example.comได้

 

URL Parameter คุณสามารถระบุข้อมูลให้กับ Google ในแต่ละพารามิเตอร์ของเว็บไซด์ของคุณได้ เช่น “sort=price” และ “sessionid=2” ซึ่งนี้จะช่วยให้การ crawl ของgoogle มีประสิทธิภาพมากขึ้น โดยเป็นการบอกตัว crawl ไม่ให้สนใจกับค่าพารามิเตอร์ที่ใช้ในการสร้างเนื้อหาที่ซ้ำกันและยังเป็นการเพิ่มหน้าที่เป็นเอกเทศให้กับการ crawl อีกด้วย

 

Crawl rate ผลกระทบจากCrawl rate กับ Googlebot นั้นจะเกิดขึ้นกับกระบวนการ crawl ซึ่งจะไม่มีผลบ่อยครั้งกับการ crawl ของ googlebot ในเว็บไซด์ที่มีการกำหนด โดย Google แนะนำให้กำหนด rateให้เหมาะสมกับจำนวนหน้าเพจของเว็บไซด์นั้น

 

Diagonostics

Malware Google จะให้ข้อมูลเกี่ยวกับการพบ malware ในเว็บไซด์ของคุณ Malware ไม่เพียงจะมีผลในแง่ลบกับผู้ใช้งาน แต่ยังมีผลด้านลบอย่างรุนแรงกับอันดับของเว็บไซด์ของคุณอีกด้วย

 

Crawl Errors ถ้า Googlebotมี error สำคัญเกิดขึ้นในขณะที่ทำการ crawl เว็บไซด์ของคุณ เช่น 404s มันจะรายงานว่า googlebots พบลิงค์ที่ไม่สามารถเข้าถึงได้

 

HTML Suggestions เป็นส่วนวิเคราะห์ของ search engine ซึ่งพบส่วนของ HTML ที่ไม่เหมาะสม โดยเฉพาะในส่วนของ meta description, แท็ก title และเนื้อหาที่ไม่สามารถทำ index ได้

 

Your Site on the web

ข้อมูลทางสถิตนี้จะให้ข้อมูลสำหรับสำหรับการทำ SEO ซึ่งมันจะให้ข้อมูลเกี่ยวกับ keyword ที่เหมาะสม, อัตราการคลิ๊กผ่าน, หน้าแรกที่ถูกส่งไปแสดงในหน้าค้นหา และสถิติของลิงค์ แต่นัก SEO หลายคนกล่าวว่าข้อมูลในส่วนนี้มักให้ข้อมูลที่ไม่สมบูรณ์เท่าไรนัก

 

Site Configuration

เป็นส่วนสำคัญที่ให้คุณใส่ข้อมูล Sitemap และทำการทดสอบ robots.txt, ปรับแก้ sitelinks และปรับเปลี่ยนรที่อยู่ของเว็บไซด์เมื่อคุณมีการย้ายเว็บไซด์ของคุณไปอยู่ทีอื่น โดยส่วนนี้อยู่ในส่วนของ “Settings” และ “URL Parameter” ซึ่งได้มีการกล่าวถึงมาแล้ว

 

 

+1 Metrics

เมื่อผู้ใช้มีการแชร์เนื้อหาบน Google+ โดยการกดปุ่ม +1  ซึ่งผลของการกระทำดังกล่าวนี้จะส่งผลต่อผลลัพธ์ของการค้นหา สามารถชมวีดีโอเกี่ยวกับ google+ เพื่อที่จะเข้าใจว่าสิ่งนี้มีความสำคัญสูงมาก ในส่วนของ Google webmaster tool มีการแสดงผลของการแชร์ +1 ไว้ในส่วนของประสิทธิ์ภาพของเว็บไซด์

 

Labs

เป็นส่วนทดลองของWebmaster Tools โดยแสดงการทดลองของ Google ใหม่ๆ ซึ่งเป็นส่วนที่เว็บมาสเตอร์ไม่สามารถละเลยได้ สิ่งที่สำคัญมากๆ ของรายงานในส่วนนี้คือ ประสิทธิภาพของเว็บไซด์ โดยแสดงให้เห็นถึงว่าเว็บไซด์ของคุณสามารถแสดงผลต่อผู้ใช้ได้เร็วหรือช้าแค่ไหน

 

Bing Webmaster Center

Bing Webmaster Center

 

คุณสมบัติหลัก

Site Overview เป็นส่วนที่แสดงภาพรวมของประสิทธิภาพของเว็บไซด์ของคุณในหน้าผลลัพธ์ของ Bing องค์ประกอบที่เราจะพบคือ จำนวนคลิ๊ก, ความประทับใจ, หน้าเพจที่ทำ index และ จำนวนเพจที่ทำการ crawl ในแต่ละเว็บไซด์

 

Crawl Stats บริเวณนี้คุณจะเห็นรายงานว่ามีจำนวนหน้าเพจทั้งหมดเท่าไรที่ Bing ทำการ Crawl และ error ที่พบ ซึ่งเหมือนกับGoogle Webmaster ซึ่งในส่วนนี้คุณสามารถใส่ Sitemap ลงไปเพื่อให้ Bing พบและกำหนดความสำคัญให้กับเนื้อหาของคุณได้

 

Index เป็นส่วนที่ยอมให้เว็บมาสเตอร์ทราบและควบคุมให้Bing ทำการ index เว็บไซด์ของคุณในลักษณะอย่างไรซึ่งมีการตั้งค่าคล้ายกับ Google Webmaster tool  โดยคุณสามารถเห็นการจัดการกับเนื้อหาของคุณโดยBing, การระบุค่า URL, การเอา URL ออกจากผลลัพธ์ และการสำรวจลิงค์และการปรับแก้ค่าพารามิเตอร์ต่างๆ

 

Traffic เป็นส่วนที่มีการสรุป Traffic ในรายงานของ Bing นั้นมีการแสดงถึงความประทับใจและอัตราการคลิ๊กผ่านซึ่งเป็นการรวมข้อมูลจากทั้ง Bing และ Yahoo รายงานดังกล่าวจะเป็นค่าเฉลี่ยของตำแหน่งจากทั้ง Bing และ Yahoo โดยมีการประมาณค่าใช้จ่ายถ้าคุณต้องการซื้อโฆษณาสำหรับแต่ละคำ keyword อีกด้วย

 

SEOMOZ OPEN SITE EXPLORER

OPEN SITE EXPLORER ของ SEOmoz นั้นไม่ได้ถูกจัดทำขึ้นจาก search engine แต่ก็ให้ข้อมูลในลักษณะเดียวกัน

 

คุณสมบัติ

Identify Powerful Links โดยที่ Open site explorer จะทำการเรียงลิงค์ภายในเว็บไซด์ โดยจะช่วยให้คุณสามารถพิจารณาได้ว่าลิงค์ใดเป็นลิงค์ที่สำคัญที่สุด

 

Find the Strongest Linking Domain เป็นเครื่องมือที่จะแนะนำว่าคุณควรจะทำการลิงค์ไปยังโดเมนใดดี

 

Analyze Link Anchor Text Distribution โดยที่ Open Site Explorer จะแสดงให้เห็นรูปแบบของข้อความที่ใช้ในการลิงค์มายังเว็บไซด์ของคุณ

 

Head to HeadCompariosn View เป็นคุณสมบัติที่ทำให้คุณสามารถเปรียบเทียบเว็บไซด์และช่วยอธิบายว่าทำไมอีกเว็บไซด์หนึ่งถึงมีการจัดอันดับที่ดีกว่าได้

 

Social Share Metrics เป็นตัววัดการแชร์ผ่าน Facebook, Like, Tweets และ +1 สำหรับเว็บไซด์

 

Search engine จัดเครื่องมือที่ดีสำหรับช่วยให้เว็บมาสเตอร์ได้ปรับปรุงอันดับของเว็บไซด์และผลลัพธ์ในหน้าค้นหา นี้เป็นก้าวที่สำคัญสำหรับ SEO และความสัมพันธ์ระหว่างเว็บมาสเตอร์กับsearch engine หรือพูดอีกอย่างก็ได้ว่า engine ได้เข้ามาช่วยเว็บมาสเตอร์มากกว่าที่เคยเป็น และมันเป็นจริงสำหรับทุกวันนี้ และมันจะยังคงเป็นจริงตลอดไปที่ว่าความรับผิดชอบสูงสุดสำหรับงาน SEO ยังต้องเป็นหน้าที่ของนักการตลาดและเว็บมาสเตอร์

 

นี้เป็นเหตุผลที่ทำให้การเรียนรู้ SEO ด้วยตัวเองเป็นสิ่งสำคัญ

 

บทความต่อไป: บทที่9 ปริศนาและความเข้าใจผิดเกี่ยวกับSearch engine

บทความก่อนหน้า: บทที่7 การเพิ่มความนิยมและลิงค์

 

Share →
0 comments
Read more:
powerpoint
สร้างผลงาน Powerpoint แบบมืออาชีพ

Close