สรุปความรู้ สัปดาห์ที่ 4 (28 พฤศจิกายน 2552)

อินเตอร์เน็ท : การสืบค้นข้อมูลอย่างหลากหลาย

อินเทอร์เน็ตเป็นแหล่งรวบรวมข้อมูลขนาดใหญ่ จนได้รับสมญานามว่า “ห้องสมุดโลก” ซึ่งมีข้อมูลหลากหลายประเภทและมีแนวโน้มจะเพิ่มขึ้นอย่างรวดเร็ว ดังนั้นในการที่เราจะค้นหา ข้อมูลที่ต้องการได้อย่างรวดเร็วนั้น ไม่ใช่เรื่องง่าย ๆ สำหรับผู้ที่ไม่คุ้นเคยกับแหล่งข้อมูลนี้ นั่นคือ มักประสบปัญหาไม่ทราบว่าข้อมูลที่ต้องการนั้นอยู่ในเว็บไซต์ใด ดังนั้นจึงได้มีเว็บไซต์ที่ให้บริการค้นหาข้อมูลต่าง ๆ บนอินเทอร์เน็ต ที่เรียกว่า เครื่องมือช่วยค้น ในการสืบค้นข้อมูลนั้นถ้าหากเราทราบแหล่งข้อมูลหรือเว็บไซต์ เราก็สามารถพิมพ์หรือระบุ URL ในช่อง Address ได้เลย แต่ถ้าหากเราไม่ทราบว่าแหล่งข้อมูลนั้นอยู่ที่ใด เราสามารถใช้เว็บไซต์ที่เป็น Search Engine ช่วยในการค้นหาได้อย่างรวดเร็ว

WWW (World Wide Web) คืออะไร
- มีชื่อเรียกหลายแบบ ได้แก่ WWW, W3 หรือ Web
- เป็นระบบสืบค้นข้อมูลข่าวสารในอินเทอร์เน็ต ที่นิยมมากและแพร่หลายที่สุด
- ข้อมูลจะถูกเก็บไว้บนเซิร์ฟเวอร์ที่มีอยู่มากมาย ผู้ต้องการใช้สามารถเข้าไปสืบค้นดูเองโดยไม่เสียค่าใช้จ่าย
- ข้อมูลในเวิลด์ไวด์เว็บ จะอยู่ในแบบมัลติมีเดีย ที่มีทั้งตัวอักษร รูปภาพ เสียง ภาพเคลื่อนไหวแบบวิดีโอ
โปรแกรม Internet Explorer-Internet Explorer เป็น Web browser ของบริษัท Microsoft พัฒนามาจาก NCSA Mosaic เช่นเดียวกับ
Netscape Navigator
- มีประสิทธิภาพสูง ใช้ง่าย มีฟังก์ชันการทำงานครบ คล้ายกับโปรแกรม Netscape Navigator
- เป็นโปรแกรมที่จัดให้มาพร้อมกับโปรแกรม Windows
- เป็น Web browser ที่ได้รับความนิยมสูงสุด
การเปิด Web site ที่ต้องการ
- การไปยังเว็บที่ต้องการ ทำได้หลายวิธี
- คลิกที่ช่อง Address พิมพ์ URL address ของเว็บไซต์ที่ต้องการติดต่อ แล้วกด Enter
- IE จัดเก็บ address ที่เคยติดต่อหลังสุด 15 แห่งไว้ เราสามารถเรียกมาใช้ใหม่ได้จากการคลิกปุ่มสามเหลี่ยมทางขวาของช่อง
Address
- จากเมนู File เลือกคำสั่ง Open พิมพ์ URL address ของเว็บไซต์ที่ต้องการติดต่อ แล้วกด Enter หรือ คลิกปุ่ม Open
Search Engine
- Search Engine เป็นโปรแกรมช่วยค้นข้อมูลบน WWWโดยผู้ใช้กรอกคำ วลี หรือประโยคที่เราต้องการค้น (Keyword)
- มีผู้จัดสร้างเว็บไซต์ขึ้นมา เพื่ออำนวยความสะดวกแก่ผู้ใช้ ช่วยค้นสิ่งที่ต้องการได้ง่าย สะดวก และรวดเร็ว
- ใน search engine จะมีโปรแกรมที่เรียกว่า crawlers หรือ robots หรือ spider ทำหน้าที่รวบรวม URL ของ
เว็บเพจบน อินเทอร์เน็ต มาเก็บไว้ในฐานข้อมูลของตน เมื่อพบเว็บเพจใหม่ ที่ยังไม่มีโดยอัตโนมัติ
- ควรใช้ search engine หลายโปรแกรมร่วมกัน เนื่องจากแต่ละโปรแกรมมีวิธีสืบค้นข้อมูลต่างกัน
การสืบค้นข้อมูลในเครือข่ายเวิลด์ไวด์เว็บ
- ข้อมูลที่สามารถสืบค้นได้อาจเป็น แฟ้มรูปภาพ แฟ้มภาพเคลื่อนไหว แฟ้มข้อมูลเสียง แฟ้มข้อมูลเอกสารประเภทต่างๆ ได้แก่
เอกสาร HTML เอกสาร Word เอกสาร pdf หรือ แฟ้มข้อมูลประเภทอื่นๆ
- เมื่อผู้ใช้ต้องการค้นข้อมูลเรื่องใด ก็เพียงแต่สร้างการเชื่อมต่อไปยังเว็บของผู้ให้บริการสืบค้นข้อมูล (Search Engine) และ
พิมพ์คําสําคัญ (Keyword) ที่ต้องการใช้ในการค้นหา
- โปรแกรมสืบค้นจะทําการตรวจสอบกับฐานข้อมูลที่มีอยู่และรายงานผลเป็น URL ที่เกี่ยวข้อง พร้อมทั้งตัวอย่างข้อความของเอกสาร
เว็บที่อยู่ใกล้กับคําสําคัญนั้น

0 ความคิดเห็น:

แสดงความคิดเห็น