ภาพ : Glen Cooper
ปริมาณข้อมูลทางอินเตอร์เน็ตที่เกิดขึ้นในระยะเวลา 48 ชั่วโมงนั้นมีขนาดใหญ่เกินไปสำหรับคอมพิวเตอร์พกพา 1 เครื่องหรือ 100 เครื่อง ที่จะประมวลผล ยิ่งความ ต้องการระบุภัยคุกคามในโลกไซเบอร์ก็เหมือนงมเข็มในมหาสมุทร นักวิเคราะห์เลยต้องพึ่งพาการสุ่มตัวอย่างข้อมูลขนาดเล็ก เพื่อสืบเสาะพฤติกรรมน่าสงสัยและภัยที่อาจเกิดขึ้น ทว่าการสุ่ม ตัวอย่างแบบนี้ก็ยังไม่ตอบโจทย์
แต่ใช่ว่าหนทางจะตีบตัน ล่าสุด วีเจย์ กาเดพัลลี เจ้าหน้าที่อาวุโสของห้องปฏิบัติการศูนย์ซุปเปอร์คอมพิวเตอร์ลินคอล์น เชื่อว่าระบบปฏิบัติการที่ช่วยประมวลผลข้อมูลจำนวนมหาศาลจะเป็นตัวช่วยที่ยอดเยี่ยมของนักวิเคราะห์ ให้เข้าถึงข้อมูลที่เกี่ยวข้องทั้งหมดในคราวเดียว ซึ่งทีมประสบความสำเร็จในการรวบรวมข้อมูลดิบของการใช้อินเตอร์เน็ต 1 กิกะบิต ภายใน 96 ชั่วโมง โดยเชื่อมโยงข้อมูลต่างๆในอินเตอร์เน็ตเข้ากับชุดข้อมูลที่พร้อมใช้งาน จนสร้างกลุ่มการประมวลผลที่เทียบเท่ากับคอมพิวเตอร์พกพาถึง 1,000 เครื่อง นำข้อมูลไปเก็บไว้ในคลังข้อมูลซุปเปอร์คลาวด์ของสถาบันเทคโนโลยีแมสซาชูเสตต์ในสหรัฐอเมริกา ซึ่งทุกคนที่มีบัญชีการใช้งานสามารถเข้าถึงได้
นักวิจัยเผยว่า การค้นหาภัยทางไซเบอร์ก็เหมือนการใช้โทรศัพท์ ผู้โทร.ปกติอาจโทร.ออกและรับสายในจำนวนเท่ากัน แต่ผู้ส่งสแปม (spam) อันเป็นประเภทหนึ่งของเมลขยะจะมีการโทรมากกว่าล้านครั้ง ดังนั้น การตรวจจับภัยคุกคามทางไซเบอร์ก็สามารถปรับปรุงได้ดีขึ้น ด้วยการสร้างรูปแบบรับส่งข้อมูลเครือข่ายพื้นฐานที่ถูกต้องแม่นยำ.