Sok éve készül már a világ legnagyobb rádióteleszkópos rendszere, a Square Kilometer Array (SKA). A méreteiben csak a CERN nagy hadronütköztető gyűrűjéhez (Large Hadron Collider ring – LHC) hasonlítható, a déli féltekén megépülő hatalmas rendszer létrehozásában 20 ország 67 szervezete vesz részt, a korábban másfél-kétmilliárd euróra becsült, körülbelül tíz évig tartó beruházás munkálatai az eredeti tervek szerint idén kezdődtek volna meg, de időközben elhalasztották 2018-ra az indulást – írja az ITCafé.
A tíz év alatt az afrikai sivatagoktól kezdve Ausztrália és Új-Zéland kietlen területeiig sok ezer tányérantennát állítanak fel, melyek egyetlen közös célt szolgálnak: az eddigiekhez képest mérhetetlenül több rádiójelet felfogni a világűrből, majd ezeket az információkat kielemezve minél többet megtudni az univerzum történetéről és működéséről. Az irányító központok Dél-Afrikában és Nyugat-Ausztráliában lesznek, a központi számítógép hatalmas teljesítményű, körülbelül 100 millió átlagos PC összesített teljesítményének felel meg. Az SKA 50 ezerszer érzékenyebb lesz, mint a jelenleg működő rádiótávcsöves megfigyelőközpontok.
A projekt újabb mérföldkőhöz érkezett, ugyanis az ausztrál Curtin University, valamint a The University of Western Australia közreműködésével létrejött szervezet ( The International Centre for Radio Astronomy Research – ICRAR) bejelentette, hogy megkezdődtek az SKA számára kifejlesztett különleges szoftver prototípusának tesztjei Kínában, a Guangzhou (Kuangcsou) városában található Nemzeti Szuperszámítógépes Központban, a Tianhe-2 szuperszámítógépen – jelen pillanatban ez a világ második leggyorsabb gépe.
A tesztet egy nemzetközi csapat végzi, melyet Tao An, a sanghaji obszervatórium kutatója, illetve Andreas Wicenec, az ICRAR csillagászatiadat-feldolgozással foglalkozó szakembere vezetnek. A kutatásban részt vesznek a Cambridge-i Egyetem munkatársai is, akik a Science Data Processor komponenst, az SKA „agyát” vizsgálják.
A tesztelt framework elsődleges feladata az adatgyűjtés és adatfeldolgozás menedzselése – mivel nagyjából egymillió négyzetméteren több ezer egység gyűjti majd tízmilliószámra az adatokat, ez irtózatosan nagy feladat, melynél a szervezés kiemelten fontos.
A prototípus kezdetben 500 számítási csomópontot (node-ot) futtat a szuperszámítógépen, de ezt a későbbi fázisban 1000-re emelik. A végleges cél, hogy a rendszer képes legyen 8500-10 ezer node-ot irányítani. A teszt elején 66 ezer adategységet kezelnek, de ezt is emelik folyamatosan, hogy eljussanak az 50-60 millió egységhez.