SLinCA@Home | |
---|---|
Typ | Grid , distribuované výpočty , dobrovolné výpočty |
Vývojář | Ústav fyziky kovů NASU |
Operační systém | Linux , Windows |
První vydání | 14. září 2010 |
Hardwarová platforma | BOINC , SZTAKI Desktop Grid , XtremWeb-HEP, OurGrid |
Stát | Alfa |
webová stránka | dg.imp.kiev.ua |
SLinCA@Home (Scaling Laws in Cluster Aggregation - scale-invariant pattern in cluster aggregation) je výzkumný projekt, který využívá počítače připojené k internetu pro výzkum v oblasti materiálových věd .
SLinCA@Home byla založena skupinou výzkumníků z Ústavu fyziky kovů. G. V. Kurdyumov (IMP) z Národní akademie věd Ukrajiny . Projekt využívá software BOINC, platformu SZTAKI Desktop Grid a Distributed Computing API (DC-API) od SZTAKI. SLinCA@Home zahrnuje několik vědeckých aplikací věnovaných hledání vzorců invariantních měřítek v experimentálních datech a výsledcích počítačových simulací.
Projekt SLinCA@Home byl dříve spuštěn v lednu 2009 jako součást sedmého rámcového programu Evropské unie (FP7) na financování vědeckého výzkumu a technologického rozvoje v Evropě. V letech 2009-2010 využíval zařízení místního „Desk Grid“ MMF; od prosince 2010 využívá k řešení složitých výpočetních problémů distribuovanou výpočetní infrastrukturu poskytovanou dobrovolníky. Projekt je v současné době řízen skupinou vědců z IMP NASU v úzké spolupráci s partnery z IDGF Archivováno 24. února 2011 v týmu Wayback Machine and Distributed Computing 'Ukraine' Archivováno 14. března 2022 ve Wayback Machine . Od června 2010 SLinCA@Home pracuje jako součást projektu DEGISCO FP7 Archived 26. února 2011 na EU Wayback Machine .
SLinCA@Home je v alfa verzi.
Podle neoficiálních statistik BOINCstats (k březnu 2011) se projektu zúčastnilo více než 2000 dobrovolníků z 39 zemí, což z něj činí druhý nejpopulárnější BOINC projekt na Ukrajině (po projektu Magnetism@Home). [1] Asi 700 aktivních uživatelů poskytuje 0,5–1,5 TFLOPS výpočetního výkonu [2] výpočetního výkonu.
Jedna aplikace SLinCA byla spuštěna na otevřené globální distribuované výpočetní infrastruktuře (SLinCA@Home); tři další (MultiScaleIVideoP, CPDynSG a LAMMPS přes DCI) jsou testovány na uzavřeném lokálním IMF Desktop Gridu.
Projekt SLinCA@Home byl vytvořen za účelem hledání dosud neznámých vzorců invariantních měřítek na základě výsledků experimentů a simulací v následujících vědeckých aplikacích.
SLinCA | |
---|---|
Typ | Grid, distribuované výpočty, dobrovolné výpočty |
Vývojář | Ústav fyziky kovů NASU |
Zapsáno v | C , C++ |
Operační systém | Linux (32bitový), Windows (32bitový) |
První vydání | 24. července 2007 |
Hardwarová platforma | BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid |
Stát | Aktivní |
webová stránka | dg.imp.kiev.ua |
SLinCA (Scaling Laws in Cluster Aggregation) je první aplikací přenesenou do infrastruktury DG Deformation Physics Laboratory of IMF. Jeho cílem je nalézt zákony invariance měřítka v kinetickém scénáři agregace monomerů ve shlucích různých typů a v různých vědních oborech.
Procesy agregace klastrů jsou studovány v mnoha vědních oborech: agregace defektů ve vědě o materiálech, populační dynamika v biologii, růst a rozvoj měst v sociologii atd. Existující experimentální data naznačují přítomnost hierarchické struktury na mnoha úrovních měřítka. Dostupné teorie nabízejí mnoho scénářů pro agregaci klastrů, vytváření hierarchických struktur a vysvětlení jejich škálově invariantních vlastností. K jejich ověření je nutné využít výkonné výpočetní prostředky pro zpracování obrovských databází experimentálních výsledků. Typická simulace procesu agregace jednoho klastru s 106 monomery trvá přibližně 1-7 dní na jednom moderním procesoru, v závislosti na počtu kroků v metodě Monte Carlo .
Provádění SLinCA na síti v IRS umožňuje stovkám strojů s dostatečným výpočetním výkonem simulovat mnoho scénářů v mnohem kratším časovém rámci.
Typické technické parametry pro spuštění SLinCA verze IRS v globálním otevřeném IRS:
Předběžné výsledky aplikace SLinCA byly získány na výpočetních prostředcích EGEE testovacích infrastruktur CETA-CIEMAT a XtremWeb-HEP LAL ; zveřejněný v roce 2009 plakát na 4. školení EdgeS a 3. workshopu AlmereGrid , Almere , Nizozemsko (29.–30. března 2009). [3]
PlányMultiScaleIVideoP | |
---|---|
Typ | Grid, distribuované výpočty, dobrovolné výpočty |
Vývojář | Ústav fyziky kovů Národní akademie věd Ukrajiny (Wrapper pro IRS), Mathworks ( knihovny MATLAB ) |
Zapsáno v | C , C++ , MATLAB |
Operační systém | Linux (32bitový), Windows (32bitový) |
První vydání | 11. ledna 2008 |
Hardwarová platforma | MATLAB , BOINC, SZTAKI Desktop Grid, XtremWeb-HEP |
Stát | Alfa |
webová stránka | dg.imp.kiev.ua |
Optická mikroskopie se běžně používá k analýze strukturních charakteristik materiálů v úzkém rozsahu zvětšení, malé oblasti zájmu a ve statickém režimu. Mnoho kritických procesů spojených s nástupem a dynamickým šířením lomu je však pozorováno v širokém časovém rozmezí od 10 -3 s do 10 3 s a na mnoha úrovních měřítka od 10 -6 m (jednotlivé defekty) do 10 -2 m ( propojené sítě defektů). Aplikace Multiscale Image and Video Processing (MultiscaleIVideoP) je určena ke zpracování zaznamenaného vývoje materiálů během mechanické deformace na testovacím stroji. Výpočty zahrnují mnoho fyzikálních parametrů procesu (rychlost, síla, zvětšení, světelné podmínky, hardwarové filtry atd.) a parametrů zpracování obrazu (distribuce velikosti, anizotropie, lokalizace, parametry měřítka atd.). Proto jsou výpočty velmi pracné a provádějí se velmi pomalu. Proto je naléhavě nutné použít výkonnější výpočetní zdroje. Spuštění této aplikace v RDI umožňuje stovkám strojů s dostatečným výpočetním výkonem zpracovávat obrázky a videa v širším rozsahu měřítek a v mnohem kratších časových rámcích.
Typické technické parametry pro spuštění IRS verze aplikace MultiScaleIVideoP na uzavřeném lokálním IMF Desktop Gridu:
Předběžné výsledky aplikace MultiScaleIVideoP byly získány na výpočetních zdrojích EGEE testovacích infrastruktur CETA-CIEMAT a XtremWeb-HEP LAL; publikováno v roce 2009 jako poster na 4. vzdělávací akci EDGeS a 3. workshopu AlmereGrid v Almere v Nizozemsku (29.–30. března 2009). [čtyři]
V lednu 2011 byly získány a publikovány další výsledky zpracování dat videodohledu z experimentů s cyklickým omezením nakládáním hliníkové fólie. [5]
PlányCPDynSG | |
---|---|
Typ | Grid, distribuované výpočty, dobrovolné výpočty |
Vývojář | Ústav fyziky kovů NASU |
Zapsáno v | C , C++ |
Operační systém | Linux (32bitový), Windows (32bitový) |
První vydání | 14. dubna 2010 |
Hardwarová platforma | Stolní mřížka BOINC, SZTAKI |
Stát | Alfa |
webová stránka | dg.imp.kiev.ua |
Je známo, že růst měst (obcí, okresů atd.) se vysvětluje migrací, slučováním, růstem populace atd. Bylo tedy zjištěno, že rozdělení měst podle jejich velikosti v mnoha zemích podléhá mocenskému zákonu. . Tato závislost je potvrzena údaji o populacích v různých městech během jejich počáteční historie. Populace ve všech velkých městech roste mnohem rychleji než země jako celek ve značném časovém rozmezí. Stejně jako ve městech, která dosáhla zralosti, se však jejich růst může zpomalit nebo dokonce počet obyvatel klesnout z důvodů, které nesouvisejí s migrací do ještě větších měst. Různé teorie uvádějí rychlosti růstu, asymptotiky a distribuce takových populací. Důležitou vlastností aplikace je porovnání existujících teorií s pozorovacími daty a předpovědními scénáři dynamiky udržitelného růstu populace pro různé národní i mezinárodní regiony. Aplikace City Population Dynamics and Sustainable Growth (CPDynSG) umožňuje prozkoumat vztah mezi obrovským množstvím experimentálních dat a najít kvalitativní shodu mezi předpověďmi různých modelů a dostupnými historickými daty.
Typické technické parametry pro provoz IRS verze aplikace CPDynSG na uzavřeném lokálním „Desktop Gridu“ infrastruktury MMF:
V červnu až září 2010 byly obdrženy výsledky týkající se konceptu, výsledky portování RDI verze aplikace CPDynSG založené na platformě BOINC, platformě SZTAKI Desktop Grid a SZTAKI Distributed Computing API (DC-API). jako předběžné výsledky pro rozložení velikostí měst v několika zemích střední a východní Evropy. Je zaznamenána charakteristická izolovanost rozložení velikostí měst v Maďarsku a velmi podobný vývoj rozložení velikosti měst na Ukrajině a v Polsku byl také nalezen. Tyto výsledky byly prezentovány na Cracow Grid Workshop'10 Archived 28. července 2011 na Wayback Machine (11.-13. října 2010) v ústních a posterových prezentacích [6] . Prezentovaný stánek byl oceněn „ Za nejlepší posterovou prezentaci Cracow Grid Workshop'09 “.
PlányAktuální verze aplikace CPDynSG bude aktualizována pro stabilitu kontrolního bodu, nové funkce a podporu výpočtů GPU NVIDIA , aby bylo možné provádět analýzy rychleji (odhadem o 50 % až 200 % rychlejší).
LAMPY v IRP | |
---|---|
Typ | Grid, distribuované výpočty, dobrovolné výpočty |
Vývojář | Ústav fyziky kovů Národní akademie věd Ukrajiny (IRV shell), Sandia National Laboratories (LAMMPS) |
Zapsáno v | C , C++ |
Operační systém | Linux (32bitový), Windows (32bitový) |
První vydání | 4. června 2010 |
Hardwarová platforma | Stolní mřížka BOINC, SZTAKI |
Stát | Alfa |
webová stránka | dg.imp.kiev.ua |
Hledání nových funkčních zařízení v nanoměřítku se stalo důležitým trendem v moderní vědě o materiálech. Řízená výroba funkčních zařízení v nanoměřítku však vyžaduje pečlivý výběr a vyladění kritických parametrů (prvky, interakční potenciály, režimy vnějšího působení, teplota atd.) atomové samoorganizace ve vyvinutých modelech a strukturách pro funkční zařízení v nanoměřítku. Velmi slibné je proto molekulárně dynamické modelování nanovýrobních procesů s rozkladem fyzikálních parametrů a výčtem parametrů metodou „hrubé síly“. Pro tento účel byl jako kandidát na portování do IRS vybrán velmi oblíbený nekomerční open source balíček „Large-scale Atomic/Molecular Massively Parallel Simulator“ (LAMMPS) založený na platformě BOINC, SZTAKI Desktop Grid a API pro distribuované computing (DC-API). ) od SZTAKI. Takové modelování nanoobjektů s mnoha parametry vyžaduje zpravidla extrémně velké množství výpočetních zdrojů. Typická simulace studovaných nanostruktur pro jednu konfiguraci fyzikálních parametrů - například pro simulaci fyzikálních procesů v rozmezí 1-10 pikosekund kovových monokrystalů (Al, Cu, Mo atd.) s 10 7 atomy - vyžaduje přibližně 1-7 dní na jednom moderním CPU. Implementace LAMMPS v Gridu v IZS umožňuje využívat stovky strojů současně a získat obrovské množství výpočetních zdrojů pro provádění simulací v širokém rozsahu fyzikálních parametrů (konfigurací) a v mnohem kratším čase.
Typické technické parametry pro spuštění IRS verze aplikace MultiScaleIVideoP na uzavřeném lokálním IMF Desktop Gridu:
V září-říjnu 2010 byly získané předběžné výsledky prezentovány v ústní prezentaci na mezinárodní konferenci "Nanostrukturní materiály-2010" (nepřístupný odkaz) , Kyjev , Ukrajina [7]
PlányAktuální verze LAMMPS využívající aplikaci IRP bude aktualizována pro stabilitu kontrolních bodů, nové funkce a podporu výpočtů GPU NVIDIA , aby bylo možné provádět analýzy rychleji (odhadem o 300 až 500 % rychlejší).
Dobrovolné počítačové projekty | |
---|---|
Astronomie |
|
Biologie a medicína |
|
poznávací |
|
Podnebí |
|
Matematika |
|
Fyzické a technické |
|
Víceúčelový |
|
jiný |
|
Utility |
|