látogató számláló
HU | EN

Az interpretálhatóság szerepe a gépi tanulásban

Manapság egyre több területen alkalmazunk gépi tanulási modelleket, a tőzsdei árak alakulásának előrejelzésén keresztül az ipar számos területén át, egészen a különböző orvosi alkalmazásokig. Míg a régi algoritmusok jelentős része az ember által könnyen átlátható szabályokra vezethető vissza, addig számos új, jobban teljesítő modellt csak fekete dobozként kezelünk.

Mikor van szükség, és mikor nem a gépi tanulási modellek interpretálhatóságára? Hogyan tudunk értelmezhetővé tenni egy fekete doboz modellt, ami egy banki hitelbíráló rendszer része?

Az előadásban üzleti példákon keresztül tekintjük át a legfontosabb interpretálhatósági módszereket. Az interpretálható algoritmusok ilyen jellegű bemutatása egyaránt értékes lehet mindenkinek, aki fejlett analitikai megoldásokkal, gépi tanulási algoritmusokkal próbálja adatvagyonát kiaknázni.

Balogh Nóra
Data Scientist

Balogh Nóra a Tata Consultancy Services Hungary csapatában üzleti projektekben adatalapú megoldások fejlesztésén dolgozik. Részt vesz adatelemzési projektek pythonos megvalósításában, prediktív modellek építésében és az eredmények vizualizálásában is. Lelkesen népszerűsíti az adatos szemléletet, érdekli a gépi tanulási modellek értelmezhetőségének világa.