Výběr funkcí

Aktuální verze stránky ještě nebyla zkontrolována zkušenými přispěvateli a může se výrazně lišit od verze recenzované 30. září 2022; ověření vyžaduje 1 úpravu .

Výběr funkcí , také známý jako výběr proměnných , výběr atributů nebo výběr prediktorů (ve vzácných případech zobecnění) , je druh abstrakce , proces výběru podmnožiny významných prvků (závislých i nezávislých proměnných ) za účelem vytvoření modelu. Výběr funkcí se používá ze čtyř důvodů:

Ústředním poselstvím používání techniky výběru příznaků je myšlenka, že data obsahují některé příznaky, pokud jsou myšlenky nadbytečné nebo nevýznamné , lze je odstranit bez významné ztráty informací [2] . „ Nadbytečný“ a „ bezvýznamný“ jsou dva různé pojmy, protože jeden významný rys může být nadbytečný v přítomnosti jiného významného rysu, se kterým je vysoce korelován [3] .

Výběr funkce by měl být odlišen od extrakce funkcí . Extrakce prvků vytváří nové prvky jako funkce původních prvků, zatímco výběr prvků vrací podmnožinu prvků. Techniky výběru prvků se často používají v oblastech, kde je mnoho prvků a vzorky jsou relativně malé (málo datových bodů). Klasickými aplikacemi pro výběr prvků jsou analýza rukopisu a mikročipy DNA , kde existuje mnoho tisíc prvků a desítky až stovky vzorků .

Úvod

Algoritmus výběru prvků lze považovat za kombinaci vyhledávacích technik k reprezentaci nové podmnožiny prvků spolu s výpočtem míry, která odráží rozdíl v podmnožinách prvků. Nejjednodušším algoritmem je otestovat každou možnou podmnožinu funkcí a najít tu, která minimalizuje velikost chyby. Jedná se o vyčerpávající hledání prostoru a je výpočetně obtížné pro velké množství funkcí. Výběr metriky ovlivňuje výběr algoritmu. Metriky se liší pro tři hlavní kategorie algoritmů výběru prvků: obaly, filtry a metody vnoření [3] .

V tradičních statistikách je nejoblíbenější formou výběru prvků postupná regrese , což je technika zalamování. Je to chamtivý algoritmus , který přidává lepší vlastnost (nebo odstraňuje horší) v každém kroku algoritmu. Hlavním problémem je, když se algoritmus zastaví. Při trénování modelů se to obvykle provádí křížovou validací . Ve statistice jsou některá kritéria optimalizována. To vede k dědičnosti problému hnízdění. Byly také zkoumány robustnější metody, jako je metoda větvení a vazby a po částech lineární síť.

Výběr podmnožiny

Výběr podmnožiny vyhodnotí podmnožinu prvků jako skupinu stability. Algoritmy výběru podmnožin lze rozdělit na obaly, filtry a přílohy. Obálky používají vyhledávací algoritmus k analýze prostoru pro možné funkce a vyhodnocení každé podmnožiny spuštěním modelu na podmnožině. Obaly mohou být výpočetně drahé a hrozí u nich riziko přepasování modelu. „Filtry“ se ve svém přístupu k vyhledávání podobají „Wrapperům“, ale místo hodnocení modelu je hodnocen jednodušší filtr. Techniky hnízdění jsou zabudovány do modelu a jsou pro něj specifické.

Mnoho populárních přístupů používá chamtivé vertex search , které iterativně vyhodnocuje podmnožinu funkcí jako kandidáta, poté podmnožinu upravuje a hodnotí, o kolik je nová podmnožina lepší než stará. Bodování podmnožin vyžaduje použití bodovací metriky , která hodnotí podmnožiny funkcí. Vyčerpávající vyhledávání obvykle není proveditelné, takže vývojář (nebo operátor) definuje bod přerušení, přičemž jako uspokojivá podmnožina funkcí je vybrána podmnožina funkcí s nejvyšším dosaženým skóre, které bylo dosud nalezeno. Kritérium zastavení závisí na algoritmu. Možná kritéria jsou: skóre podmnožiny překračuje prahovou hodnotu, program překročil maximální povolenou dobu atd.

Alternativní techniky založené na vyhledávání jsou založeny na hledání cíle nejlepší projekce , které najde nízkorozměrné projekce dat s vysokým skóre – vyberou se prvky, které mají největší projekce v nízkorozměrném prostoru.

Přístupy vyhledávání:

Dvě oblíbené metriky filtrů pro klasifikační problémy jsou korelace a vzájemné informace , i když ani jedna není skutečnou metrikou nebo mírou vzdálenosti“ v matematickém smyslu, protože neobsahují trojúhelníkovou nerovnost , a proto nepředstavují skutečnou „vzdálenost“ – měly by spíše být chápán jako „hodnocení“. Tato skóre se počítají mezi kandidátskými funkcemi (nebo sadami funkcí) a požadovanou kategorií. Existují však skutečné metriky, které jsou jednoduchými funkcemi vzájemné informace [18] .

Další možné metriky filtru:

Kritérium optimality

Volba kritéria optimality je obtížná, protože problém výběru prvků má několik cílů. Mnoho kritérií zahrnuje míru přesnosti penalizovanou počtem vybraných prvků (jako je Bayesovské informační kritérium ). Nejstarší statistiky jsou C p Mallows a informační kritérium Akaike ( AIC) .  Přidávají proměnné, pokud je t - statistika větší než .

Dalšími kritérii jsou Bayesovské informační kritérium ( BIC ), které používá , minimální délka popisu ( MDL), která asymptoticky používá , Bonferroni / RIC, která používá , výběr funkcí s maximální závislostí a sada nových kritérií, která jsou diktována idea false discovery rate [ ( anglicky false discovery rate , FDR) a které používají něco blízkého . Kritérium maximální míry entropie lze také použít k výběru nejvýznamnější podmnožiny prvků [19] .    

Strukturální učení

Filtr pro výběr funkcí je speciálním případem obecnějšího paradigmatu zvaného „strukturální učení“ . Výběr funkcí najde smysluplnou sadu funkcí pro konkrétní cílovou proměnnou, zatímco strukturované učení najde vztahy mezi proměnnými, přičemž tyto vztahy obvykle vyjadřují jako graf. Nejběžnější algoritmy strukturovaného učení předpokládají, že data jsou generována Bayesovskou sítí , takže struktura je řízený grafový model . Optimálním řešením problému filtru pro výběr prvků je Markovovský plot cílového uzlu a Bayesovská síť má jeden Markovův plot pro každý uzel [20] .

Mechanismy výběru rysů založené na teorii informace

Existují různé mechanismy výběru funkcí, které využívají vzájemné informace k vyhodnocení různých funkcí. Obvykle používají stejný algoritmus:

  1. Vzájemné informace se vypočítávají jako odhad mezi všemi funkcemi ( ) a cílovou třídou ( )
  2. Objekt s nejvyšším skóre je vybrán (například ) a přidán do sady vybraných funkcí ( )
  3. Vypočítá se odhad, který lze získat ze vzájemných informací
  4. Vybereme funkci s nejvyšším skóre a přidáme ji do sady vybraných funkcí (například )
  5. Opakujte kroky 3. a 4. Dokud nezískáte určitý počet funkcí (například )

Nejjednodušší přístup využívá vzájemné informace jako „odvozený“ odhad [21] .

Existují však různé přístupy, které se pokoušejí snížit redundanci mezi funkcemi.

Výběr funkcí na základě minimální redundance-maximální relevance

Peng, Long a Ding [22] navrhli metodu výběru jevů, která může využívat vzájemnou informaci, korelaci nebo odhad vzdálenosti/podobnosti pro výběr prvku. Cílem je postihnout významnost prvku v případě redundance způsobené přítomností v jiných vybraných prvcích. Význam množiny znaků S pro třídu c je určen průměrnou hodnotou všech hodnot vzájemné informace mezi jednotlivými vlastnostmi f i a třídou c :

Redundance všech prvků v množině S je rovna průměrné hodnotě všech hodnot vzájemné informace mezi prvkem f i a prvkem f j :

Kritérium minimální – redundance – maximální – relevance ( mRMR  ) je kombinací dvou výše uvedených měření a definovaných jako:

Předpokládejme, že existuje kompletní sada n funkcí. Nechť x i je indikační funkce výskytu v množině fi , takže x i = 1 odráží přítomnost a x i = 0 odráží nepřítomnost znaku fi v globální optimální sadě znaků. Nechte a . Výše uvedený vzorec lze nyní přepsat jako optimalizační problém:

Algoritmus mRMR je aproximací teoreticky optimálního algoritmu výběru vlastností s maximální závislostí, který maximalizuje vzájemnou informaci mezi společnou distribucí vybraných vlastností a klasifikační proměnnou. Protože mRMR aproximuje problém kombinatorického odhadu s řadou mnohem menších problémů, z nichž každý používá pouze dvě proměnné, používá pravděpodobnosti párového spojení, které jsou robustnější. V některých situacích může algoritmus podcenit užitečnost funkcí, protože nemá schopnost měřit vztah mezi funkcemi, což může zvýšit význam. To může vést ke špatnému výkonu [21] jsou rysy jednotlivě neužitečné, ale stávají se smysluplnými v kombinaci (patologický případ je nalezen, když je třída funkcí parity rysů ). Obecně je algoritmus efektivnější (z hlediska množství požadovaných dat) než teoreticky optimální volba maximální závislosti, přesto vytváří sadu funkcí s malou párovou redundancí.

Algoritmus mRMR je zástupcem velké třídy filtračních metod, které různými způsoby balancují mezi významností a redundancí [21] [23] .

Kvadratické programování pro výběr funkcí

Algoritmus mRMR je typickým příkladem inkrementální chamtivé strategie pro výběr funkce – jakmile je funkce vybrána, nelze ji v následujících krocích z výběru odstranit. Zatímco mRMR lze optimalizovat pomocí plovoucího vyhledávání, aby se omezily některé funkce, lze jej přeformulovat jako globální problém optimalizace kvadratického programování [24] :

kde je vektor významnosti příznaků za předpokladu, že existuje celkem n příznaků, je párová matice významnosti a představuje relativní váhy příznaků. Problém QPFS je řešen metodami kvadratického programování. Ukázalo se, že QFPS je vychýlen směrem k rysům s nižší entropií [25] kvůli vlastní redundanci prvku na diagonále H matice .

Podmíněné vzájemné informace

Další odhad odvozený ze vzájemných informací je založen na podmíněné významnosti [25] :

kde a .

Výhodou SPEC CMI je, že jej lze vyřešit jednoduše nalezením dominantního vlastního vektoru Q . SPEC CMI také zpracovává funkce vztahů druhého řádu.

Sdílené vzájemné informace

Brown, Powcock, Zhao a Luhan [21] ve studii různých odhadů doporučili společné vzájemné informace [26] jako dobrý odhad pro výběr vlastností. Hodnocení se snaží najít prvek, který přidává nejvíce nových informací k již vybraným prvkům, aby se předešlo nadbytečnosti. Skóre je formulováno takto:


Hodnocení využívá podmíněné vzájemné informace a vzájemné informace k hodnocení redundance mezi již vybranými znaky ( ) a zkoumaným znakem ( ).

Výběr funkcí na základě kritéria nezávislosti lasa Hilberta-Schmidta

Pro vysokorozměrná data a malá data (například rozměrnost > a velikost vzorku < ) je užitečný Hilbert-Schmidtův test nezávislosti lasa (HSIC Lasso) [27] . Problém optimalizace lasa HSIC je dán jako

kde je míra nezávislosti jádra nazývaná (empirické) kritérium nezávislosti Hilbert -Schmidt (HSIC), označuje průběh, je regularizační parametr a jsou vstupní a výstupní centrované Gram matice a jsou Gramovy matice a jsou funkcemi jádra, je centrovaná matice, je m - rozměrná matice identity ( m : počet prvků ve vzorku), je m - rozměrným vektorem se všemi jedničkami a je -norma. HSIC má vždy nezápornou hodnotu a rovná se nule právě tehdy, když jsou dvě náhodné proměnné statisticky nezávislé pomocí univerzálního generujícího jádra, jako je Gaussovo jádro.  

HSIC Lasso lze psát jako

kde je Frobeniova norma . Optimalizační problém je problém lasa, a proto jej lze efektivně řešit pomocí moderních metod řešení lasa, jako je duální metoda zobecněného Lagrangiána .

Výběr funkcí na základě korelace

Correlation Feature Selection (CFS) vyhodnocuje podmnožiny prvků na základě následující hypotézy :  „Podmnožiny dobrých vlastností obsahují vlastnosti, které vysoce korelují s klasifikací, ale nekorelují spolu“ [28] [29] . Následující rovnost poskytuje odhad podmnožiny prvků S , sestávající z k prvků:

Zde je průměr všech korelací třídy prvků a je průměr všech korelací mezi prvky. Kritérium CFS je definováno takto:

Proměnné a jsou korelace, ale ne nutně Pearsonovy korelační koeficienty nebo Spearmanovo ρ . Disertační práce Marka Halla nepoužívá žádnou z nich, ale používá tři různé míry příbuznosti, minimální délku popisu ( MDL), symetrickou nejistotu a reliéf .  

Nechť x i je indikační funkce výskytu v množině pro vlastnost f i . Potom lze výše uvedený vzorec přepsat jako optimalizační problém:

Výše uvedené kombinatorické problémy jsou ve skutečnosti smíšené problémy lineárního programování 0-1 , které lze vyřešit pomocí větveného a vázaného algoritmu [30] .

Regulované stromy

Ukázalo se, že prvky z rozhodovacího stromu nebo souborů stromů jsou nadbytečné. K výběru podmnožiny funkcí lze použít nedávnou metodu nazvanou "regularized tree" [31] . Regularizované stromy jsou penalizovány proměnnou podobnou proměnným vybraným v předchozích uzlech stromu pro rozdělení aktuálního uzlu. Pro regularizované stromy je potřeba sestavit pouze jeden model (nebo jeden soubor stromů), a proto je algoritmus výpočetně efektivní.

Regularizované stromy přirozeně pracují s numerickými a kategorickými rysy, interakcemi a nelinearitami. Jsou invariantní s ohledem na měřítko atributů (jednotek) a necitlivé na odlehlé hodnoty, a proto vyžadují malé předběžné zpracování dat, jako je normalizace . Regularizovaný náhodný les ( RRF ) [32] je jedním z typů regularizovaných stromů . Driven RRF je vylepšení RRF, které je řízeno skóre důležitosti z běžného náhodného lesa.  

Přehled metaheuristických metod

Metaalgoritmus (nebo metaheuristický) je obecný popis algoritmu navrženého k řešení těžkých (typicky NP-těžkých problémů) optimalizačních problémů, pro které nejsou dostupné žádné metody řešení. Meta-algoritmus je typicky stochastický algoritmus, který se snaží dosáhnout globálního optima. Existuje mnoho meta-algoritmů od jednoduchého lokálního vyhledávání až po komplexní globální vyhledávací algoritmus.

Základní principy

Techniky výběru prvků jsou obvykle reprezentovány třemi třídami podle toho, jak kombinují algoritmy výběru a vytváření modelů.

Metoda filtru

Metody filtru vybírají proměnné bez ohledu na model. Jsou založeny pouze na obecných rysech, jako je korelace proměnné s predikcí. Filtrační metody potlačují nejméně zajímavé proměnné. Ostatní proměnné budou součástí klasifikačního nebo regresního modelu používaného ke klasifikaci nebo predikci. Tyto metody jsou velmi efektivní z hlediska výpočetního času a odolné proti přemontování [33] .

Metody filtrování však mají tendenci vybírat nadbytečné proměnné, protože neberou v úvahu vztah mezi proměnnými. Z tohoto důvodu se tyto metody používají především jako metody předzpracování.

Metoda zabalení

Metody obalování vyhodnocují podmnožiny proměnných a umožňují, na rozdíl od filtračních přístupů, detekovat možný vztah mezi proměnnými [34] . Dvě hlavní nevýhody těchto metod jsou:

  • Při nedostatečném počtu pozorování se zvyšuje riziko přemontování.
  • Významná doba výpočtu při velkém počtu proměnných.
Metoda vnoření

Metody vkládání byly navrženy jako pokus spojit výhody dvou předchozích metod. Učící algoritmus využívá svůj vlastní variabilní proces výběru a současně provádí výběr a klasifikaci vlastností.

Aplikace metaheuristiky výběru vlastností

Níže je uveden přehled aplikací metaalgoritmů výběru vlastností používaných v literatuře. Přehled podala v práci Julia Hammon [33] .

aplikace Algoritmus Přístup klasifikátor Funkce hodnoty Odkaz
SNP Výběr funkcí pomocí podobnosti funkcí Filtr r2 _ Phuong 2005 [34]
SNP genetický algoritmus Obal rozhodovací strom Správnost klasifikace (10-cr) Shah, Kusiak 2004 [35]
SNP Hledejte podle výstupu na vrchol Filtr + obal Naivní Bayesův klasifikátor Prediktivní zbytkový součet čtverců Lohn 2007 [36]
SNP Algoritmus simulovaného žíhání Naivní Bayesův klasifikátor Správnost klasifikace (5-cr) Ustunkar 2011 [37]
Heslo pro segmenty Algoritmus mravenčí kolonie Obal Umělá neuronová síť MSE Al-ani 2005
Marketing Algoritmus simulovaného žíhání Obal Regrese AIC , r2 Meiri 2006 [38]
Ekonomika Algoritmus simulace žíhání, genetický algoritmus Obal Regrese BIC Kapetanios 2005 [39]
Spektrální hmotnost genetický algoritmus Obal Vícenásobná lineární regrese, částečné nejmenší čtverce Střední kvadratická chyba predikce Broadhurst 2007 [40]
Spam Binary Particle Swarm Method + Mutace Obal rozhodovací strom vážená cena leden 2014 [14]
mikromatrice Barred Search + Particle Swarm Method Obal Podporujte vektorový stroj , k-nejbližší sousedy Euklidovská metrika Chang, Young 2009 [41]
mikromatrice PSO + genetický algoritmus Obal Podpora vektorového stroje Správnost klasifikace (10-cr) Alba 2007 [42]
mikromatrice Genetický algoritmus + Iterativní místní vyhledávání Vnořeno Podpora vektorového stroje Správnost klasifikace (10-cr) Duval 2009 [43]
mikromatrice Obal Regrese Zadní pravděpodobnost Hans, Dorba, Západ 2007 [44]
mikromatrice genetický algoritmus Obal metoda k-nejbližšího souseda Správnost klasifikace ( Křížová validace s vyloučením ) Aitken 2005 [45]
mikromatrice Hybridní genetický algoritmus Obal metoda k-nejbližšího souseda Správnost klasifikace (křížová validace s vyloučením) Oh Moon 2004 [46]
mikromatrice genetický algoritmus Obal Podpora vektorového stroje Citlivost a specifičnost Xuan 2011 [47]
mikromatrice genetický algoritmus Obal Párová podpora vektorového stroje Správnost klasifikace (křížová validace s vyloučením) Peng 2003 [48]
mikromatrice genetický algoritmus Vnořeno Podpora vektorového stroje Správnost klasifikace (10-cr) Hernandez 2007 [49]
mikromatrice genetický algoritmus Hybridní Podpora vektorového stroje Správnost klasifikace (křížová validace s vyloučením) Huerta 2006 [50]
mikromatrice genetický algoritmus Podpora vektorového stroje Správnost klasifikace (10-cr) Mooney, Pal, Das 2006 [51] .
mikromatrice genetický algoritmus Obal Podpora vektorového stroje EH-DIALL, CLUMP Jourdain 2011 [52] .
Alzheimerova choroba Welchův t-test Filtr vektorový stroj na podporu jádra Správnost klasifikace (10-cr) Zhang 2015 [53]
počítačové vidění Nekonečný výběr funkcí Filtr nezávislý Průměrná přesnost ,
ROC-plocha pod křivkou
Roffo 2015 [54]
Microarrays Centralita vlastního vektoru FS Filtr nezávislý Průměrná přesnost, přesnost, ROC AUC Roffo, Melzi 2016 [55]
XML Symetrický Tau algoritmus Filtr Strukturální asociativní klasifikace Přesnost, nátěr Shaharani, Hadzic 2014

Výběr funkcí zabudovaných do výukových algoritmů

Některé učící algoritmy provádějí výběr funkcí jako součást algoritmu:

  • -regularizační techniky , jako je řídká regrese, LASSO a -SVM
  • Regulované stromy [31] , jako je například regularizovaný náhodný les implementovaný v balíčku RRF [32]
  • Rozhodovací strom [56]
  • Memetický algoritmus
  • Random multinomial logit ( ang.  Random multinomial logit , RMNL)
  • Úzká vrstva autokódovací sítě
  • Identifikace submodulárních funkcí [57] [58] [59]
  • Výběr funkcí na základě místního učení [60] . Ve srovnání s tradičními metodami tato metoda nepoužívá heuristické vyhledávání, snadno si poradí s problémy s velkým počtem tříd a pracuje na lineárních i nelineárních problémech. Metoda je podpořena i z teoretické stránky. Numerické experimenty ukázaly, že metoda může dosáhnout téměř optimálního řešení, i když data obsahují více než milion nevýznamných prvků.

Viz také


Poznámky

  1. James, Witten, Hastie, Tibshirani, 2013 , str. 204.
  2. 1 2 Bermingham, Pong-Wong, Spiliopoulou a kol., 2015 , s. 10312.
  3. 1 2 3 Guyon, Elisseeff, 2003 .
  4. 12 Yang , Pedersen, 1997 .
  5. Urbanowicz, Meeker, LaCava, Olson, Moore, 2017 .
  6. Forman, 2003 , str. 1289–1305.
  7. Zhang, Li, Wang, Zhang, 2013 , str. 32–42.
  8. Bach, 2008 , str. 33–40.
  9. Zare, 2013 , str. S14.
  10. Soufan, Kleftogiannis, Kalnis, Bajic, 2015 , str. e0117988.
  11. Figueroa, 2015 , str. 162–169.
  12. Figueroa, Neumann, 2013 .
  13. Figueroa, Neumann, 2014 , str. 4730–4742.
  14. 1 2 Zhang, Wang, Phillips, 2014 , str. 22–31.
  15. Garcia-Lopez, Garcia-Torres, Melian, Moreno-Perez, Moreno-Vega, 2006 , str. 477–489.
  16. Garcia-Lopez, Garcia-Torres, Melian, Moreno-Perez, Moreno-Vega, 2004 , str. 59–68.
  17. Garcia-Torres, Gomez-Vela, Melian, Moreno-Vega, 2016 , str. 102-118.
  18. Kraskov, Stögbauer, Andrzejak, Grassberger, 2003 .
  19. Einicke, 2018 , str. 1097–1103.
  20. Aliferis, 2010 , str. 171–234.
  21. 1 2 3 4 Brown, Pocock, Zhao, Luján, 2012 , str. 27-66.
  22. Peng, Long, Ding, 2005 , str. 1226–1238.
  23. Nguyen, Franke, Petrovic, 2010 , str. 1529-1532.
  24. Rodriguez-Lujan, Huerta, Elkan, Santa Cruz, 2010 , str. 1491–1516
  25. 1 2 Vinh, Chan, Romano, Bailey, 2014 .
  26. Yang, Moody, 2000 , str. 687-693.
  27. Yamada, Jitkrittum, Sigal, Xing, Sugiyama, 2014 , str. 185-207.
  28. Hall, 1999 .
  29. Senliol, Gulgezen, Yu, Cataltepe, 2008 , str. 1-4.
  30. Nguyen, Franke, Petrovic, 2009 .
  31. 12 Deng, Runger , 2012 .
  32. 1 2 RRF: Regularized Random Forest Archivováno 5. ledna 2019 na Wayback Machine , R balíček v úložišti Comprehensive R Archive Network (CRAN)
  33. 12 Hammon , 2013 .
  34. 1 2 Phuong, Lin, Altman, 2005 , str. 301-309.
  35. Shah, Kusiak, 2004 , str. 183–196.
  36. Long, Gianola, Weigel, 2011 , str. 247–257.
  37. Ustunkar, Ozogur-Akyuz, Weber, Friedrich, Syn, 2011 , str. 1207–1218
  38. Meiri, Zahavi, 2006 , str. 842-858.
  39. Kapetanios, 2005 .
  40. Broadhurst, Goodacre, Jones, Rowland, Kell, 1997 , str. 71-86.
  41. Chuang, Yang, 2009 , str. 1689–1703
  42. Alba, Garia-Nieto, Jourdan, Talbi, 2007 .
  43. Duval, Hao, Hernandez, 2009 , str. 201-208.
  44. Hans, Dobrá, West, 2007 , str. 507-516.
  45. Aitken, 2005 , str. 148.
  46. Oh, Moon, 2004 , str. 1424–1437
  47. Xuan, Guo, Wang, Liu, Liu, 2011 , str. 588–603.
  48. Peng, 2003 , str. 358–362.
  49. Hernandez, Duval, Hao, 2007 , str. 90-101.
  50. Huerta, Duval, Hao, 2006 , str. 34-44.
  51. Muni, Pal, Das, 2006 , str. 106-117.
  52. Jourdan, Dhaenens, Talbi, 2011 .
  53. Zhang, Dong, Phillips, Wang, 2015 , str. 66.
  54. Roffo, Melzi, Cristani, 2015 , str. 4202–4210.
  55. Roffo, Melzi, 2016 , str. 19-38.
  56. Kohavi, John, 1997 , str. 273-324.
  57. Das, Kempe, 2011 .
  58. Liu, Wei, Kirchhoff, Song, Bilmes, 2013 .
  59. Zheng, Jiang, Chellappa, Phillip, 2014 .
  60. Sun, Todorovic, Goodison, 2010 , str. 1610-1626.

Literatura

Čtení pro další čtení

Odkazy