Światowa sieć obliczeniowa LHC - Worldwide LHC Computing Grid

Worldwide LHC Computing Siatka ( WLCG ), wcześniej (do 2006) LHC Computing Siatka ( LCG ) to międzynarodowy projekt współpracy, która składa się z sieci oparte na sieci komputerowej infrastruktury obejmującego ponad 170 obliczeniowych ośrodków w 42 krajach, a od 2017 r. Został zaprojektowany przez CERN do obsługi ogromnej ilości danych pochodzących z eksperymentów Wielkiego Zderzacza Hadronów (LHC).

Do 2012 roku przeanalizowano dane z ponad 300 bilionów (3 × 10 14 ) zderzeń proton-proton LHC, a dane zderzeń LHC były wytwarzane z prędkością około 25 petabajtów rocznie. Od 2017 roku LHC Computing Grid jest największą na świecie siecią obliczeniową obejmującą ponad 170 obiektów obliczeniowych w światowej sieci w 42 krajach.

tło

Wielki Zderzacz Hadronów w CERN został zaprojektowany w celu przetestowania istnienia bozonu Higgsa , ważnej, ale nieuchwytnej wiedzy, której poszukiwali fizycy cząstek elementarnych od ponad 40 lat . Potrzebny był bardzo silny akcelerator cząstek , ponieważ bozony Higgsa mogły nie być widoczne w eksperymentach z niższymi energiami, a także dlatego, że należałoby zbadać ogromną liczbę zderzeń. Taki zderzacz wygenerowałby również bezprecedensowe ilości danych o zderzeniach wymagających analizy. Dlatego do przetwarzania danych potrzebne były zaawansowane urządzenia obliczeniowe.

Opis

Raport projektowy został opublikowany w 2005 roku. Ogłoszono, że będzie gotowy do danych 3 października 2008 roku. Popularny artykuł prasowy z 2008 roku przewidywał, że „Internet może wkrótce stać się przestarzały” ze względu na jego technologię. CERN musiał opublikować własne artykuły, próbując wyjaśnić zamieszanie. Obejmuje zarówno prywatne łącza światłowodowe, jak i istniejące, szybkie części publicznego Internetu . Pod koniec 2010 roku Grid składał się z około 200 000 rdzeni przetwarzających i 150 petabajtów miejsca na dysku, rozmieszczonych w 34 krajach.

Strumień danych z detektorów dostarcza około 300 GB / s danych, co po przefiltrowaniu pod kątem „ciekawych zdarzeń” daje strumień danych o wielkości około 300 MB / s. Centrum komputerowe CERN, uważane za „warstwę 0” sieci obliczeniowej LHC, ma dedykowane połączenie 10 Gbit / s z pokojem liczenia.

Oczekiwano, że projekt będzie generował 27 TB surowych danych dziennie oraz 10 TB „danych podsumowujących zdarzenia”, które stanowią wynik obliczeń wykonanych przez farmę procesorów w centrum danych CERN. Dane te są wysyłane z CERN do trzynastu instytucji akademickich Tier 1 w Europie, Azji i Ameryce Północnej za pośrednictwem dedykowanych łączy o przepustowości 10 Gbit / s lub większej. Nazywa się to optyczną siecią prywatną LHC. Ponad 150 instytucji poziomu 2 jest połączonych z instytucjami poziomu 1 przez ogólnokrajowe sieci badawcze i edukacyjne . Oczekuje się, że dane generowane przez LHC we wszystkich jego rozproszonych sieciach obliczeniowych będą stanowić łącznie 10–15 PB danych każdego roku. W sumie cztery główne detektory w LHC dostarczyły 13 petabajtów danych w 2010 roku.

Instytucje Tier 1 otrzymują określone podzbiory surowych danych, dla których służą jako repozytorium kopii zapasowych dla CERN. Wykonują również ponowne przetwarzanie, gdy konieczna jest ponowna kalibracja. Podstawowa konfiguracja komputerów używanych w sieci jest oparta na CentOS . W 2015 roku CERN przeszedł z Scientific Linux na CentOS.

Rozproszone zasoby obliczeniowe do analizy przez fizyków użytkowników końcowych są dostarczane przez projekty Open Science Grid , Enabling Grids for E-sciencE i LHC @ home .

Zobacz też

Bibliografia

Linki zewnętrzne