InfiniBand
Aktuální verze stránky ještě nebyla zkontrolována zkušenými přispěvateli a může se výrazně lišit od
verze recenzované 10. července 2019; kontroly vyžadují
13 úprav .
Infiniband (někdy zkráceně IB ) je vysokorychlostní přepínaná počítačová síť používaná ve vysoce výkonných výpočtech, která má velmi vysokou šířku pásma a nízkou latenci. Používá se také pro vnitřní připojení v některých počítačových systémech. Od roku 2014 byl Infiniband nejoblíbenější sítí pro superpočítače . Infiniband řadiče ( adaptér hostitelské sběrnice ) a síťové přepínače vyrábí Mellanox a Intel . Při vytváření Infinibandu byla zabudována škálovatelnost, síť používá síťovou topologii založenou na přepínačích ( Switched fabric ).
Jako komunikační síť pro clustery Infiniband soutěží se skupinou standardů Ethernet a proprietárními technologiemi [1] , jako jsou Cray a IBM. Při budování počítačových sítí konkuruje IB Gigabit Ethernet , 10 Gigabit Ethernet a 40/100 Gigabit Ethernet . IB se také používá k připojení zařízení pro ukládání informací DAS . [2] Vývojem a standardizací technologií Infiniband se zabývá InfiniBand Trade Association[3] .
Stručný popis
Stejně jako mnoho moderních sběrnic , jako je PCI Express , SATA , USB 3.0 , používá Infiniband pro přenos sériových signálů diferenciální páry . Tyto dva páry dohromady tvoří jednu základní obousměrnou sériovou sběrnici ( eng. lane ), označenou 1x. Základní rychlost je 2,5 Gbps v každém směru. Infiniband porty se skládají z jedné sběrnice nebo agregovaných skupin 4x nebo 12x základních obousměrných sběrnic. Nejčastěji používané porty jsou 4x [4] .
Pro porty existuje několik režimů přenosu dat na sběrnicích. Dřívější režimy používaly kódování 8B/10B [5] pro vyvážení signálu (každých 8 bitů dat se přenáší po sběrnici jako 10 bitů) s 20% režií:
- Single Data Rate (SDR, 1999) – provoz při základní rychlosti 2,5 Gb/s, efektivní rychlost (včetně nákladů na kódování) 2 Gb/s na sběrnici
- Double Data Rate (DDR, 2004) - přenosová rychlost je rovna dvojnásobku základní (5 Gb/s, efektivní 4 Gb/s). 4x port má fyzickou rychlost 20 Gbps a efektivních 16 Gbps
- Quad Data Rate (QDR, 2008) – respektive čtyřnásobně (základní 10 Gb/s), efektivní pro 4x 32 Gb/s porty.
Počínaje režimem FDR-10 se používá mnohem ekonomičtější kódování 64B/66B :
- Fourteen Data Rate 10 (FDR-10) - efektivní rychlost na 1x sběrnici těsně nad 10 Gb/s, pro 4x 40 Gb/s porty
- Fourteen Data Rate (FDR, 2011) - základní 1x rychlost sběrnice 14,0625 Gbps [6] , 4x port poskytuje cca 56 Gbps
- Enhanced Data Rate (EDR) - 1x rychlost 25,78125 Gbps, 4x - asi 100 Gbps
Hlavním účelem Infiniband je propojení mezi servery, včetně organizace RDMA ( Remote Direct Memory Access ).
Výkon
Generace: |
SDR |
DDR |
QDR |
FDR-10 |
FDR |
EDR |
HDR |
NDR
|
Efektivní propustnost, Gbps, na 1x sběrnici [7]
|
2 |
čtyři |
osm |
deset |
čtrnáct |
25 |
padesáti |
100
|
Efektivní rychlosti pro sběrnice 4x a 12x, Gbps
|
8, 24 |
16, 48 |
32, 96 |
41,25, 123,75 |
54,54, 163,64 |
100 300 |
200 600 |
400,
1200
|
Kódování (bit)
|
8/10 |
8/10 |
8/10 |
64/66 |
64/66 |
64/66 |
64/66 |
64/66
|
Typická zpoždění, µs [8] [9]
|
5 |
2.5 |
1.3 |
0,7 |
0,7 |
0,5 |
|
|
Rok vzniku [10]
|
2001, 2003 |
2005 |
2007 |
|
2011 |
2014 [7] |
~2017 [7] |
později 2020
|
Topologie a spojení
InfiniBand používá přepínaná média s připojením typu point-to-point, na rozdíl od dřívějších ethernetových sítí, které používaly sdílená média a zpočátku připojení přes sběrnici. Všechny přenosy začínají a končí na kanálovém adaptéru. Každý výpočetní uzel obsahuje adaptér HCA (host channel adapter) připojený k procesoru přes rozhraní PCI Express (dříve přes PCI-X ). Data a řídicí informace jsou odesílány mezi adaptéry, včetně těch, které jsou nezbytné pro implementaci QoS .
Pro periferní zařízení se předpokládalo použití TCA adaptérů (target channel adapter), které se však neprosadily a taková periferní zařízení jsou vytvářena na bázi standardních základních desek [11] .
Adaptéry HCA mají obvykle jeden nebo dva porty 4x, které lze připojit buď ke stejným portům HCA a TCA, nebo k přepínačům (switchům). Switche mohou být organizovány v sítích s topologiemi tlustého stromu ( Fat Tree ), Close Network , méně často - multidimenzionální torus, dvojitá hvězda a v různých hybridních kombinacích [5] [12] .
Porty a kabely Infiniband 4x se dodávají v následujících formách:
- CX4 (SFF-8470, např. Fujitsu MicroGiGaCN), pouze rychlosti DDR (někdy až QDR)
- QSFP (SFF-8435, SFF-8436, 40 Gb/s)
- QSFP+ (QSFP14, SFF-8685, 56 Gb/s)
- zQSFP+ (QSFP28, SFF-8665, 100 Gb/s).
Vzácnější 12x porty se dodávají v následujících formách:
- 12x MicroGiGaCN (Fujitsu FCN-260C024) [5]
- CXP [13]
Pro zajištění maximální propustnosti bylo přijato rozhodnutí omezit povolenou délku kabelu InfiniBand na 10 metrů (pouze aktivní kabel).
Kabely Infiniband jsou k dispozici v různých provedeních:
- Pasivní elektrické kabely (měděné lanka), obvykle v jednotkách metrů, někdy až 30 m. Pro delší kabely jsou k dispozici nižší rychlosti (7 m pro QDR)
- Aktivní elektrické kabely (stejné, ale se zesilovači, umožňují mírně zvýšit maximální délku kabelu pro danou rychlost)
- Aktivní optické kabely s integrovaným optickým kabelem o délce jednotek až desítek a stovek metrů.
- Aktivní optické moduly s optickým konektorem MTP/MTO pro připojení optických kabelů OM3/OM4 (8 vláken) nebo SR4 nebo LC/LC
Při použití univerzálních adaptérů Infiniband/Ethernet v ethernetové infrastruktuře lze také použít adaptéry pro porty SFP+.
Infiniband signály mohou cestovat několik palců přes desky s plošnými spoji, včetně vnitřních konektorů s vhodnou frekvenční odezvou, pokud jsou všechny páry v portu téměř stejně dlouhé.
Protokoly a API
Na úrovni datového spoje InfiniBand přenáší data ve formě paketů o délce až 4 KB (kilobajtů), které po spojení tvoří zprávu. Některá zařízení podporují menší maximální velikost paketů, například 2 kB. Typy zpráv:
- operace přístupu do paměti - čtení nebo zápis do paměti příjemce (RDMA).
- kanálové operace přeposílání zpráv (odesílatel odešle zprávu s daty, příjemce ji přijme v předem přidělené vyrovnávací paměti)
- transakční operace
- přenos více příjemcům (multicast, nepodporují všechny přepínače)
- atomová operace do paměti vzdáleného hostitele (sčítání atomů a porovnání s výměnou za 64bitová celá čísla)
Infiniband zprávy jsou rozděleny do služeb v závislosti na garancích doručení a nutnosti inicializovat spojení před výměnou:
- Reliable Connected (RC) - spolehlivé doručení, je vyžadována inicializace spojení mezi příjemcem a odesílatelem
- Unreliable Connected (UC) – nespolehlivé doručení, nutná inicializace
- Reliable Datagram (RD) je volitelná služba, implementovaná jen zřídka. Spolehlivé dodání bez inicializace
- Unreliable Datagram (UD) - nespolehlivé doručení, nevyžaduje inicializaci
- Později byla představena služba XRC [14] , která kombinuje některé vlastnosti RC a RD
Infiniband umožňuje využít princip RDMA ( anglicky Remote Direct Memory Access - vzdálený přímý přístup do paměti), při kterém přenos dat z paměti vzdáleného počítače do lokální paměti žadatele provádí přímo síťový řadič, přičemž účast CPU vzdáleného uzlu je vyloučena. RDMA umožňuje přenos dat bez dodatečného ukládání do vyrovnávací paměti a nevyžaduje aktivní provoz operačního systému, knihoven nebo aplikace na uzlu, jehož paměť se přistupuje.
Infiniband lze použít se dvěma nízkoúrovňovými generickými API, které byly vyvinuty z U-Net (Cornell, polovina 90. let) a VIA ( Virtual Interface Architecture , konec 90. let) [15] :
- Infiniband slovesa ( IB slovesa , OFED slovesa ) - standardizace API od Open Fabrics Alliance
- uDAPL (z angličtiny User Direct Access Programming Library , také kDAPL, kernel DAPL) je standard API pro abstraktní transport přímého přístupu ( anglicky Direct Access Transport , DAT) od DAT Collaborative .
Pomocí sloves nebo uDAPL lze implementovat programovací rozhraní a protokoly na vysoké úrovni, zejména:
- MPI ( Message Passing Interface ) je oblíbený standard pro předávání zpráv v počítačových clusterech. Existuje mnoho implementací MPI, které podporují sítě Infiniband.
- SHMEM , GASnet a další populární rozhraní RDMA
- IPoIB (IP over Infiniband) je skupina protokolů, které popisují přenos IP paketů přes Infiniband [16] :
- RFC 4390 "Dynamic Host Configuration Protocol (DHCP) přes InfiniBand"
- RFC 4391 "Přenos IP přes InfiniBand (IPoIB)"
- RFC 4392 "IP over InfiniBand (IPoIB) Architecture"
- SRP ( SCSI RDMA Protocol ) je protokol pro výměnu dat mezi zařízeními SCSI využívající RDMA [16] . Definováno v ANSI INCITS 365-2002.
- DDP ( Direct Data Placement ): RFC 4296 je architektura pro implementaci Direct Data Placement (DDP) a Remote Direct Memory Access (RDMA) v internetových sítích.
- SDP ( Socket Direct Protocol ) je protokol pro navazování virtuálních spojení a výměnu dat mezi sokety přes Infiniband [16] , přenos dat nevyužívá TCP stack operačního systému, ale využívá IP adresy a k jejich řešení lze využít IPoIB.
- iSER ( iSCSI Extensions for RDMA ) je standard IETF pro přizpůsobení iSCSI sítím RDMA [5]
Historie
InfiniBand se zrodil v roce 1999 sloučením dvou konkurenčních projektů: Future I/O a Next Generation I/O. Ve stejné době byla vytvořena InfiniBand Trade Association , která zahrnovala Compaq , Dell , Hewlett-Packard , IBM , Intel , Microsoft a Sun. [17]
Verze 1.0 specifikace InfiniBand, InfiniBand Architecture Specification, byla vydána v roce 2000. Zpočátku se předpokládalo, že IB se může současně stát náhradou za pomalou sběrnici PCI pro I/O, ethernetové sítě, specializované clusterové sítě a Fibre Channel . [18] [19]
Zařízení Infiniband vyrobili: Qlogic , Mellanox , Voltaire , Topspin .
Hlavní termíny:
- 2001: Mellanox začal dodávat 10 Gb/s (4x SDR) zařízení InfiniBridge a dodal více než 10 000 portů InfiniBand. [dvacet]
- 2002: Intel oznámil, že místo dodávek IB čipů vyvine sběrnici PCI Express . Microsoft ukončil podporu projektu a přešel na rozšíření Ethernet. Sun a Hitachi nadále podporovaly IB. [21]
- 2004: IB se začíná používat jako klastrová síť, která nabízí nižší latenci než ethernetové sítě. [18] OpenFabrics Alliance vyvíjí standardizovaný softwarový balík InfiniBand pro Linux. Následující rok získá linuxové jádro podporu IB. [22]
- 2005: IB se používá jako síť úložiště. [23]
- 2005: Topspin získala společnost Cisco .
- 2009: Mezi světovými superpočítači Top 500 byl Gigabit Ethernet použit v 259 a InfiniBand ve 181 clusterech. [24]
- 2010: Sloučení lídrů trhu Infiniband Mellanox a Voltaire [25] [26] . Kromě nich existuje ještě jeden výrobce IB zařízení, QLogic , který však vyrábí více Fibre Channel zařízení. Oracle významně investuje do Mellanoxu.
- 2011: FDR přepínače a adaptéry jsou oznámeny na International Supercomputing Conference . [27]
- 2012: Intel získává technologie QLogic související s InfiniBand. [28] [29] [30]
- 2019: NVIDIA získává Mellanox a stává se výhradním poskytovatelem řešení založených na InfiniBand [31] [32]
Viz také
Poznámky
- ↑ Vance, Ashlee China získala titul superpočítače z USA . New York Times (28. října 2010). Získáno 28. září 2017. Archivováno z originálu 27. září 2017. (neurčitý)
- ↑ Úložné zařízení | SFA12KX | DDN (nedostupný odkaz) . Datum přístupu: 17. ledna 2015. Archivováno z originálu 7. července 2017. (neurčitý)
- ↑ Obchodní asociace InfiniBand . Získáno 28. listopadu 2006. Archivováno z originálu 7. února 2006. (neurčitý)
- ↑ HPC-AI Advisory Council – Centrum podpory komunitního úsilí pro koncové uživatele HPC . Datum přístupu: 17. ledna 2015. Archivováno z originálu 24. září 2015. (neurčitý)
- ↑ 1 2 3 4 http://www.snia.org/sites/default/education/tutorials/2008/spring/networking/Goldenberg-D_InfiniBand_Technology_Overview.pdf Archivováno 24. září 2015 na Wayback Machine 2008
- ↑ Informační list FDR InfiniBand . Získáno 17. ledna 2015. Archivováno z originálu 26. srpna 2016. (neurčitý)
- ↑ 1 2 3 InfiniBand Roadmap: IBTA - InfiniBand Trade Association (odkaz není dostupný) . Datum přístupu: 17. ledna 2015. Archivováno z originálu 29. září 2011. (neurčitý)
- ↑ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf Archivováno 19. srpna 2019 na Wayback Machine // Mellanox, 2014
- ↑ InfiniBand je příliš rychlý na to, aby Ethernet zabil Archivováno 8. prosince 2015 na Wayback Machine / The Next Platform, Timothy Prickett Morgan, 2015-04
- ↑ Panda, Dhabaleswar K. Akcelerace rychlosti sítě s IB a HSE . Navrhování cloudových a gridových výpočetních systémů s InfiniBand a vysokorychlostním Ethernetem 23. Newport Beach, CA, USA: CCGrid 2011 (2011). Získáno 13. září 2014. Archivováno z originálu 13. června 2020. (neurčitý)
- ↑ Úvod do InfiniBand pro koncové uživatele Archivováno 26. září 2014 na Wayback Machine „Koncept TCA není dnes široce používán; místo toho je většina I/O zařízení implementována pomocí standardních serverových základních desek“
- ↑ HPC-AI Advisory Council – Centrum podpory komunitního úsilí pro koncové uživatele HPC . Datum přístupu: 17. ledna 2015. Archivováno z originálu 24. září 2015. (neurčitý)
- ↑ Příloha A6: 120 Gb/s 12x Small Form-factor Pluggable (CXP) Archivováno 9. ledna 2014 na Wayback Machine // Dodatek ke specifikaci architektury InfiniBand, svazek 2, vydání 1.2.1, 2009
- ↑ HPC-AI Advisory Council – Centrum podpory komunitního úsilí pro koncové uživatele HPC . Datum přístupu: 17. ledna 2015. Archivováno z originálu 24. září 2015. (neurčitý)
- ↑ Ron Brightwell, Keith Underwood. Kapitola 6 Rozhraní síťového programování pro vysoce výkonné výpočty; 6.3 Nízkoúrovňová síťová programovací rozhraní // Dosažení vysoce výkonné komunikace: Vertikální přístup / Ada Gavrilovska. - Boca Raton (Florida) : CRC Press, 2009. - S. 152. - 416 s. — ISBN 9781420093131 . Archivováno 27. prosince 2014 na Wayback Machine
- ↑ 1 2 3 Příloha A Koncepty InfiniBand Archivováno 1. srpna 2014 na Wayback Machine // Uživatelská příručka Cisco SFS Product Family Element Manager.
- ↑ Pentakalos, Odysseas Úvod do architektury InfiniBand . O'Reilly . Získáno 28. července 2014. Archivováno z originálu 9. srpna 2014. (neurčitý)
- ↑ 1 2 Kim, Ted Stručná historie InfiniBand: Hype to Pragmatism (odkaz není k dispozici) . Věštec. Získáno 28. července 2014. Archivováno z originálu 8. srpna 2014. (neurčitý)
- ↑ Porozumění PCI Bus, PCI-Express a InfiniBand Architecture Archivováno 24. července 2015 na Wayback Machine // Mellanox Whitepaper, 2006: "Tolik členů IBTA a samotné IBTA propagovalo InfiniBand jako náhradu za PCI."
- ↑ Časová osa . Technologie Mellanox. Získáno 28. července 2014. Archivováno z originálu dne 29. listopadu 2019. (neurčitý)
- ↑ Sun potvrzuje závazek vůči InfiniBand . Registr . Datum přístupu: 28. července 2014. Archivováno z originálu 4. března 2016. (neurčitý)
- ↑ Linuxové jádro 2.6.11 podporuje InfiniBand . Získáno 29. července 2014. Archivováno z originálu dne 21. října 2020. (neurčitý)
- ↑ Chystá se InfiniBand na comeback? , Infostor Vol . 10(2) , < http://www.infostor.com/index/articles/display/248655/articles/infostor/volume-10/issue-2/news-analysis-trends/news-analysis- trends/is-infiniband-poised-for-a-comeback.html > Archivováno 25. listopadu 2020 na Wayback Machine
- ↑ Lawson, Stephen Dva soupeřící superpočítače vybojovaly první místo (odkaz není k dispozici) . COMPUTERWORLD. Získáno 29. července 2014. Archivováno z originálu 10. ledna 2017. (neurčitý)
- ↑ Mellanox Technologies Archivováno 3. prosince 2010 na Wayback Machine .
- ↑ Raffo, Dave Sloučení největších prodejců InfiniBand; oko konvergované sítě (nedostupný odkaz) . Získáno 29. července 2014. Archivováno z originálu 1. července 2017. (neurčitý)
- ↑ Mellanox Demos Souped-Up Version of Infiniband , CIO (20. června 2011). Archivováno z originálu 7. ledna 2014. Staženo 1. srpna 2011.
- ↑ Intel kupuje aktiva InfiniBand společnosti QLogic za 125 milionů $ Archivováno 25. srpna 2012 na Wayback Machine . // ZDN.
- ↑ Technologie Intel Snaps Up InfiniBand, produktová řada od QLogic , HPCwire (23. ledna 2012). Archivováno z originálu 27. ledna 2012. Staženo 27. ledna 2012.
- ↑ Mellanox krčí rameny nad nákupem InfiniBand od Intelu Archivováno 27. dubna 2018 na Wayback Machine // The Reg 26. ledna 2012
- ↑ Nvidia, navzdory Intelu, pohltila jediného světového výrobce řešení InfiniBand – CNews . Získáno 12. března 2019. Archivováno z originálu 15. března 2019. (neurčitý)
- ↑ NVIDIA získá Mellanox za 6,9 miliardy $ | Redakce NVIDIA . Získáno 12. března 2019. Archivováno z originálu 11. března 2019. (neurčitý)
Literatura
- Tom Shanley, Infiniband Network Architecture, Addison-Wesley, 2000, ISBN 0-201-726823 , ISBN 0-201-726823zz (chybné)
- GREGORY F. PFISTER, Kapitola 42: Úvod do architektury InfiniBand // Vysoce výkonné velkokapacitní úložiště a paralelní I/O: Technologie a aplikace – Wiley, 2002, ISBN 978-0-471-20809-9 , strany 617-632.
Odkazy
Počítačové sběrnice a rozhraní |
---|
Základní pojmy |
|
---|
Procesory |
|
---|
Vnitřní |
|
---|
notebooky |
|
---|
Pohony |
|
---|
Obvod |
|
---|
Správa zařízení |
|
---|
Univerzální |
|
---|
Video rozhraní |
|
---|
Vestavěné systémy |
|
---|