Egy olcsó és könnyen hozzáférhető szoftver, egy web crawler segítségével jutott hozzá nagy mennyiségű információhoz az amerikai Nemzetbiztonsági Ügynökség (NSA) titkos adatgyűjtését leleplező Edward Snowden – írta hírszerzési forrásokra hivatkozva a The New York Times. A web crawler (emlegetik még spiderként vagy botként is) olyan automatizált program, amelyet keresésre, tárgymutató készítésére és weboldalak támogatására szoktak alkalmazni. A robotprogram weboldalról weboldara „kúszik”, követi a linkeket és mindent lemásol, ami az útjába akad. A Moszkvába szökött Snowden ellen folytatott nyomozás arra a következtésre jutott, hogy az NSA-nél külső alkalmazottként dolgozó informatikus egy ilyen – egyelőre ismeretlen típusú – web crawler segítségéve „kaparta össze” a később kiszivárogtatott információkat. Az amerikai hírszerzés képviselői a múlt héten úgy nyilatkoztak, hogy az informatikus mintegy 1,7 millió fájlhoz férhetett hozzá — írja az MTI.
És még ez is...
-
2019. október 8.
Itt a Nagy Októberi Kiberbiztonság Hónapja
-
2012. augusztus 7.
Meghackelték az EU-t – és a világot
-
2015. július 31.
Bajban a kanadai hírszerzés
-
2014. november 11.
Leszorították a pornóoldalakat az élről
-
2015. december 8.
Félnek a fiatalok a digitális nyomoktól