์„œ๋ก 


์ธ๊ณต์ง€๋Šฅ(Artificial Intelligence) ๋ชจ๋ธ์ด ํ˜„์‹ค์— ๋„์ž…๋  ๋•Œ์—๋Š” โ€˜๋Œ€์ฒด๋กœโ€™ ์ž˜ ์ž‘๋™ํ•˜๋Š” ๊ฒƒ์€ ์˜คํžˆ๋ ค ์ตœ์†Œ ์กฐ๊ฑด์ด ๋ฉ๋‹ˆ๋‹ค. ์˜คํžˆ๋ ค, ์šฐ๋ฆฌ๊ฐ€ ํ•ด๋‹น ๋ชจ๋ธ์„ ์‹ ๋ขฐํ•  ์ˆ˜ ์žˆ๋Š”์ง€๊ฐ€ ์ค‘์š”ํ•ด์ง‘๋‹ˆ๋‹ค. ์„ค๋ช…์„ฑ(Explainability)์ด๋ž€ โ€œ์ธ๊ณต์ง€๋Šฅ์ด ์ž์‹ ์ด ๋‚ด๋†“์€ ๊ฒฐ๊ณผ์— ๋Œ€ํ•ด ์‚ฌ๋žŒ์—๊ฒŒ ์ถฉ๋ถ„ํžˆ ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€?โ€๋ฅผ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค. ์ธ๊ณต์ง€๋Šฅ ๊ธฐ์ˆ ์˜ ํˆฌ๋ช…์„ฑ ๋“ฑ ์ธ๊ณต์ง€๋Šฅ ํ•ต์‹ฌ ๊ทœ์ œ๋“ค์„ ๋‹ฌ์„ฑํ•˜๊ณ  ๊ด€๋ฆฌ ๊ฐ๋…ํ•˜๋Š” ๋ฐ์— ๋‹ฌ์„ฑ๋˜์–ด์•ผํ•  ์š”์†Œ์ž…๋‹ˆ๋‹ค.

โ€œAre Self-Attentions Effective for Time Series Forecasting?โ€ [Paper, Repo] ์€ ์ธ๊ณต์ง€๋Šฅ ์ตœ์šฐ์ˆ˜ ํ•™ํšŒ์ธ NeurIPS 2024์—์„œ ๋ฐœํ‘œ๋œ ๋ณธ ์—ฐ๊ตฌ์‹ค์˜ ๋…ผ๋ฌธ์ด๋ฉฐ, ๋ณธ ๊ธ€์—์„œ๋Š” ๊ธฐ๋ณธ์ ์ธ ์„ค๋ช…์„ฑ์— ๋Œ€ํ•œ ๊ฐœ๋…๊ณผ ๋…ผ๋ฌธ ๋‚ด์šฉ์„ ์•Œ์•„๋ณด๊ณ ์ž ํ•ฉ๋‹ˆ๋‹ค.

์‚ฌ์ „ ์ง€์‹


๋ธ”๋ž™๋ฐ•์Šค(Black-box)

์ธ๊ณต์ง€๋Šฅ์€ ๋‹ค์–‘ํ•œ ๋ถ„์•ผ์—์„œ ๋†’์€ ์„ฑ๋Šฅ์„ ๋ณด์—ฌ์ฃผ์ง€๋งŒ, ํ•œ ๊ฐ€์ง€ ๋ฌธ์ œ์ ์ด ์กด์žฌํ•ฉ๋‹ˆ๋‹ค. ๋ฐ”๋กœ ๋ธ”๋ž™๋ฐ•์Šค(Black-box) ์„ฑ์งˆ์ž…๋‹ˆ๋‹ค. ๋ธ”๋ž™๋ฐ•์Šค๋ž€ ์ธ๊ณต์ง€๋Šฅ ๋ชจ๋ธ, ํŠนํžˆ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ๋‚ด๋ถ€ ์ž‘๋™ ๋ฐฉ์‹์„ ์ดํ•ดํ•˜๊ฑฐ๋‚˜ ์„ค๋ช…ํ•˜๊ธฐ ์–ด๋ ค์šด ํŠน์„ฑ์„ ๋‚˜ํƒ€๋‚ด๋Š” ์šฉ์–ด์ž…๋‹ˆ๋‹ค. ์ด๋Š” ์ธ๊ณต์ง€๋Šฅ์˜ ๋งŽ์€ ๋งค๊ฐœ๋ณ€์ˆ˜(Parameter) ๋ฐ ๊ตฌ์กฐ์  ๋ณต์žก์„ฑ์œผ๋กœ ์ธํ•ด ๋ฐœ์ƒํ•ฉ๋‹ˆ๋‹ค.

๋ธ”๋ž™๋ฐ•์Šค(Black-box): ์ถœ๋ ฅ(Outputs)์ด ์ž…๋ ฅ(Inputs)์œผ๋กœ๋ถ€ํ„ฐ ์–ด๋–ป๊ฒŒ ๋„์ถœ๋˜์—ˆ๋Š”์ง€ ๋ช…ํ™•ํ•˜๊ฒŒ ์•Œ๊ธฐ ์–ด๋ ค์šด ๊ฒฝ์šฐ

์ด๋Ÿฌํ•œ ์ธ๊ณต์ง€๋Šฅ์˜ ๋ธ”๋ž™๋ฐ•์Šค๋ฅผ ๊ทน๋ณตํ•˜๊ณ ์žํ•˜๋Š” ์—ฐ๊ตฌ ๋ถ„์•ผ๋ฅผ ์„ค๋ช… ๊ฐ€๋Šฅํ•œ AI (Explainable AI, XAI)๋ผ๊ณ  ํ•ฉ๋‹ˆ๋‹ค. ์„ค๋ช… ๊ฐ€๋Šฅํ•œ AI๋Š” ์ธ๊ณต์ง€๋Šฅ์˜ ์„ค๋ช…์„ฑ(Explainability)๋ฅผ ๋†’์—ฌ, ์ธ๊ณต์ง€๋Šฅ์ด ๊ฒฐ์ •์„ ๋‚ด๋ฆฌ๋Š” ๊ณผ์ •์„ ๋ณด๋‹ค ํˆฌ๋ช…ํ•˜๊ฒŒ ๋งŒ๋“ค์–ด ์‚ฌ๋žŒ๋“ค์—๊ฒŒ ์‹ ๋ขฐ๋ฅผ ์ค„ ์ˆ˜ ์žˆ๋Š” ๊ฒƒ์„ ๋ชฉํ‘œ๋กœ ํ•ฉ๋‹ˆ๋‹ค. XAI ๊ด€๋ จ ์—ฐ๊ตฌ๋Š” ํฌ๊ฒŒ ๋‘ ์ ‘๊ทผ ๋ฐฉ๋ฒ•์œผ๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

์‚ฌํ›„ ์„ค๋ช…๋ฒ• vs. ๋‚ด์žฌ ์„ค๋ช…๋ฒ•

์‚ฌํ›„ ์„ค๋ช…๋ฒ•(Post-hoc method)์€ ๋ชจ๋ธ์ด ํ›ˆ๋ จ๋œ ํ›„์— ๊ทธ ๊ฒฐ๊ณผ๋ฅผ ํ•ด์„ํ•˜๊ธฐ ์œ„ํ•ด ๋ณ„๋„์˜ ์„ค๋ช… ๊ธฐ๋ฒ•์„ ์ ์šฉํ•˜๋Š” ๋ฐฉ์‹์ž…๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ๋ณต์žกํ•œ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์„ ์šฐ์„  ํ•™์Šต์‹œํ‚จ ํ›„, ์˜ˆ์ธก ๊ฒฐ๊ณผ๋ฅผ ์„ค๋ช…ํ•˜๊ธฐ ์œ„ํ•ด ํ•ด์„ ๊ธฐ์ˆ (LIME, SHAP)์„ ์ ์šฉํ•ฉ๋‹ˆ๋‹ค.

์‚ฌํ›„ ์„ค๋ช…๋ฒ•์„ ๊ฐ€๋Šฅ์ผ€ํ•˜๋Š” ํ•ด์„ ๊ธฐ์ˆ  ์ค‘ ๋Œ€ํ‘œ ์˜ˆ์‹œ๋กœ๋Š” LIME(Local Interpretable Model-agnostic Explanations)์ด ์กด์žฌํ•ฉ๋‹ˆ๋‹ค. LIME์€ ์›๋ณธ ๊ฐœ๊ตฌ๋ฆฌ(Frog) ์ด๋ฏธ์ง€๊ฐ€ ์žˆ๊ณ , ํ•™์Šต๋œ ๋ธ”๋ž™๋ฐ•์Šค ๋ชจ๋ธ(Trained black-box AI Model)์ด ์žˆ์„ ๋•Œ, LIME์€ โ€œ์›๋ณธ ๊ฐœ๊ตฌ๋ฆฌ ์ค‘ ์–ด๋А ๋ถ€๋ถ„์ด ๊ฐ€์žฅ ํ•ต์‹ฌ์ ์ด์—ˆ๋Š”๊ฐ€?โ€ ์ฐพ์•„๋‚ด๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ํ•™์Šต๋œ ๋ธ”๋ž™๋ฐ•์Šค ๋ชจ๋ธ์— ํŠน์ • ๋ถ€๋ถ„์„ ๊ฐ€๋ฆฐ(Masking)ํ•œ ์‚ฌ์ง„๋“ค์„ ๋„ฃ์€ ํ›„, ๋Œ€์‘๋˜๋Š” ํ™•๋ฅ ๊ฐ’์„ ๋ฐ”ํƒ•์œผ๋กœ ๊ฐ€์žฅ ์œ ์˜๋ฏธํ•œ ๋ถ€๋ถ„์„ ์ฐพ์•„๋ƒ…๋‹ˆ๋‹ค.

LIME(Local Interpretable Model-agnostic Explanations)

๊ทธ์— ๋ฐ˜ํ•ด ๋‚ด์žฌ ์„ค๋ช…๋ฒ•(Intrinsic method)์€ ๋ชจ๋ธ ์ž์ฒด๋ฅผ ๋ณธ์งˆ์ ์œผ๋กœ ์„ค๋ช… ๊ฐ€๋Šฅํ•˜๊ฒŒ ๊ตฌํ˜„ํ•œ ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ํ•ด๋‹น ๋ชจ๋ธ๋“ค์€ ๋ณ„๋„์˜ ํ•ด์„ ๊ธฐ์ˆ ์„ ํ•„์š”๋กœ ํ•˜์ง€ ์•Š๊ณ  ํ•™์Šต๋œ ์ƒํƒœ ๊ทธ๋Œ€๋กœ ์˜ˆ์ธก ๊ฒฐ๊ณผ๋ฅผ ์‰ฝ๊ฒŒ ํ•ด์„ํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ์ธ๊ณต์ง€๋Šฅ ๋ชจ๋ธ ์ค‘ ์„ ํ˜• ํšŒ๊ท€(Linear regression), ๊ฒฐ์ • ๋‚˜๋ฌด(Decision tree) ๋“ฑ์ด ์ด์— ํ•ด๋‹น๋˜๋ฉฐ, ์ด๋“ค ๋ชจ๋ธ์€ ์‚ฐ์ ๋„์™€ ํ•จ๊ป˜ ๊ทธ๋ฆฌ๊ฑฐ๋‚˜ ๋ชจ๋ธ ์ž์ฒด๋ฅผ ์‹œ๊ฐํ™”ํ•˜์—ฌ ํ•ด์„ํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

์„ ํ˜• ํšŒ๊ท€(์™ผ์ชฝ)๊ณผ ๊ฒฐ์ • ๋‚˜๋ฌด(์˜ค๋ฅธ์ชฝ)์€ ์‹œ๊ฐํ™”๋ฅผ ํ†ตํ•ด ์‰ฝ๊ฒŒ ํ•ด์„ ๊ฐ€๋Šฅํ•˜๋‹ค

๋†’์€ ์„ฑ๋Šฅ์„ ๋‹ฌ์„ฑํ•˜๋Š” ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ๋“ค์€ ์„ ํ˜• ํšŒ๊ท€๋‚˜ ๊ฒฐ์ • ๋‚˜๋ฌด์™€๋Š” ๋‹ค๋ฅด๊ฒŒ ๋ณต์žกํ•œ ๊ตฌ์กฐ๋ฅผ ๊ฐ€์ง€๊ณ  ์žˆ์–ด ๋‚ด์žฌ ์„ค๋ช…๋ฒ•๋ณด๋‹ค๋Š” ์‚ฌํ›„ ์„ค๋ช…๋ฒ•์ด ์ฃผ๋กœ ์‚ฌ์šฉ๋˜์–ด ์™”์Šต๋‹ˆ๋‹ค. ๊ทธ๋Ÿฌ๋‚˜, ์ตœ๊ทผ ์—ฐ๊ตฌ๋“ค์€ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์— ์‚ฌํ›„ ์„ค๋ช…๋ฒ•์„ ์ ์šฉํ•˜๋Š” ๊ฒƒ์ด ๋ถ€์ •ํ™•ํ•  ์ˆ˜ ์žˆ๋‹ค๋Š” ๊ฒƒ์„ ํ™•์ธํ–ˆ์Šต๋‹ˆ๋‹ค.

"Saliency๋Š” ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด ์–ด๋””๋ฅผ ๋ณด๋Š”์ง€ ์•Œ๋ ค์ค„ ๋ฟ ์ •๋‹ต์— ๋Œ€ํ•œ ์ •๋ณด๋Š” ์ œ๊ณตํ•˜์ง€ ์•Š๋Š”๋‹ค" - Rudin, Cynthia. "Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead." Nature machine intelligence 1.5 (2019): 206-215.

์ด์— ์ผ๋ จ์˜ ์—ฐ๊ตฌ๋“ค์€ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ๊ตฌ์กฐ(Architecture)๋ฅผ ๋ฐ”๊ฟˆ์œผ๋กœ์จ ์„ค๋ช…์„ฑ์„ ๋†’์ด๋Š” ๋ฐฉ๋ฒ•๋“ค์„ ์ œ์•ˆํ–ˆ์Šต๋‹ˆ๋‹ค. ๊ด€๋ จ ์—ฐ๊ตฌ๋“ค์€ Generalized Additive Model (GAM)์„ ํ™œ์šฉํ•˜๊ฑฐ๋‚˜ ํŠธ๋žœ์Šคํฌ๋จธ(Transformer)์˜ ์–ดํ…์…˜(Attention)์„ ํ™œ์šฉํ•˜์—ฌ ๋”ฅ๋Ÿฌ๋‹์˜ ์„ค๋ช…๋ ฅ์„ ๋†’์˜€์Šต๋‹ˆ๋‹ค. ์•„๋ž˜ ๋…ผ๋ฌธ์€ ํŠธ๋žœ์Šคํฌ๋จธ(Transformer)์˜ ๊ตฌ์กฐ์  ๋ณ€๊ฒฝ์ด ํ•ด์„๋ ฅ์„ ํฌ๊ฒŒ ์ฆ๋Œ€์‹œํ‚ฌ ์ˆ˜ ์žˆ์Œ์„ ๋ฐœ๊ฒฌํ•˜๊ธฐ๋„ ํ–ˆ์Šต๋‹ˆ๋‹ค.

Darcet, Timothรฉe, et al. "Vision Transformers Need Registers." The Twelfth International Conference on Learning Representations.

๋ณธ๋ก 


๋ณธ ๋…ผ๋ฌธ์€ ์„ ํ–‰ ์—ฐ๊ตฌ์— ์ด์–ด ์‹œ๊ณ„์—ด ์˜ˆ์ธก(Time-series Forecasting) ๋ถ„์•ผ์—์„œ ์–ดํ…์…˜(Attetion), ํŠนํžˆ ์…€ํ”„ ์–ดํ…์…˜(Self-attention)์ด ๊ฐ€์ง€๋Š” ํ•ด์„์ /์„ฑ๋Šฅ์  ์˜์˜์— ๋Œ€ํ•ด ๋ถ„์„ํ•˜๊ณ ์ž ํ–ˆ์Šต๋‹ˆ๋‹ค. ์ด๋ฅผ ์œ„ํ•ด ๋„๋ฆฌ ์‚ฌ์šฉ๋˜๋Š” ์‹œ๊ณ„์—ด ๋ชจ๋ธ, PatchTST์˜ ์…€ํ”„ ์–ดํ…์…˜ ๋ถ€๋ถ„์„ ๋ถ„์„ํ•˜์˜€์Šต๋‹ˆ๋‹ค.

์‹œ๊ณ„์—ด ๋ชจ๋ธ(PatchTST)์˜ (์™ผ์ชฝ) ๊ธฐ์กด ์…€ํ”„ ์–ดํ…์…˜์„ ๊ทธ๋Œ€๋กœ ์‚ฌ์šฉํ–ˆ์„ ๋•Œ, (์˜ค๋ฅธ์ชฝ) ๊ธฐ์กด ์…€ํ”„ ์–ดํ…์…˜์— ๋‹จ์ˆœ ์„ ํ˜• ๋ชจ๋ธ๋กœ ๋Œ€์ฒดํ–ˆ์„ ๋•Œ์˜ ์‹œ๊ฐํ™”

์œ„ ๊ฒฐ๊ณผ๋Š” ๊ธฐ์กด ์…€ํ”„ ์–ดํ…์…˜์„ ์‚ฌ์šฉํ–ˆ์„ ๋•Œ์—๋Š” ํ๋ฆฌ๊ฒŒ(Blur) ๋‚˜์˜ค๋˜ ์ž…๋ ฅ๊ฐ’๊ณผ ์ถœ๋ ฅ๊ฐ’์˜ ๊ด€๊ณ„๊ฐ€ ์˜คํžˆ๋ ค ์…€ํ”„ ์–ดํ…์…˜์„ ๋‹จ์ˆœ ์„ ํ˜• ๋„คํŠธ์›Œํฌ(Linear network)๋กœ ๋Œ€์ฒดํ•˜์˜€์„ ๋•Œ ๋” ๋šœ๋ ทํ•ด์ง€๋Š” ํ˜„์ƒ์„ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค. ์ฆ‰, ์‹œ๊ฐ„์  ์ •๋ณด(Temporal information)๋ฅผ ํ•ด์„ํ•˜๋Š” ๋ฐ์— ์žˆ์–ด ์…€ํ”„ ์–ดํ…์…˜์ด ๋‹จ์ˆœ ์„ ํ˜• ๋„คํŠธ์›Œํฌ๋ณด๋‹ค ์ข‹์ง€ ์•Š์„ ์ˆ˜ ์žˆ๋‹ค๋Š” ๊ฒƒ์ž…๋‹ˆ๋‹ค. ์„ฑ๋Šฅ์ ์ธ ์ธก๋ฉด์—์„œ๋„ ์…€ํ”„ ์–ดํ…์…˜์€ ๋‹จ์ˆœ ์„ ํ˜• ๋„คํŠธ์›Œํฌ๋ฅผ ์‚ฌ์šฉํ–ˆ์„ ๋•Œ๋ณด๋‹ค ์œ ์˜๋ฏธํ•œ ์„ฑ๋Šฅ ์ฐจ์ด๋ฅผ ๋ณด์ด์ง€ ๋ชปํ–ˆ์œผ๋ฉฐ, ์˜คํžˆ๋ ค ๊ฐ์†Œํ•œ ์„ฑ๋Šฅ์„ ๋ณด์ด๊ธฐ๋„ ํ–ˆ์Šต๋‹ˆ๋‹ค.

์ด๋Ÿฌํ•œ ๊ด€์ฐฐ ๊ฒฐ๊ณผ์™€ ๋‹จ์ˆœ ์„ ํ˜• ๋„คํŠธ์›Œํฌ ๊ธฐ๋ฐ˜์˜ ์„ ํ–‰ ์—ฐ๊ตฌ๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ, ์…€ํ”„ ์–ดํ…์…˜์ด ์•„๋‹Œ ํฌ๋กœ์Šค ์–ดํ…์…˜(Cross-attention)์ด ์‹œ๊ฐ„์  ์ •๋ณด ๋ถ„์„ ๋“ฑ ์‹œ๊ณ„์—ด ์˜ˆ์ธก์—์„œ ์—ฌ๋Ÿฌ ์žฅ์ ์„ ๊ฐ€์งˆ ์ˆ˜ ์žˆ์Œ์„ ๊ฒฐ๋ก ์ง€์—ˆ์Šต๋‹ˆ๋‹ค.

๋ณธ ๋…ผ๋ฌธ์—์„œ ์ œ์•ˆ๋œ ๋ชจ๋ธ(d)๊ณผ ์ด์ „ ๋ชจ๋ธ๋“ค(a-c)์˜ ๋น„๊ต

์ œ์•ˆ๋œ ํฌ๋กœ์Šค ์–ดํ…์…˜ ๊ธฐ๋ฐ˜์˜ ๋ชจ๋ธ(CATS)๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ๋ณธ ์—ฐ๊ตฌ์ง„์€ ์ ์€ ๋งค๊ฐœ๋ณ€์ˆ˜๋งŒ์œผ๋กœ๋„ ๋†’์€ ์„ฑ๋Šฅ์„ ๋‹ฌ์„ฑํ•  ์ˆ˜ ์žˆ์—ˆ์œผ๋ฉฐ, ์ด๋Š” ๊ธฐ์กด SOTA(State of the art) ๋ชจ๋ธ ๋Œ€๋น„ ๋›ฐ์–ด๋‚œ ์„ฑ๋Šฅ์„ ๋ณด์—ฌ์ฃผ์—ˆ์Šต๋‹ˆ๋‹ค. ๋‚˜์•„๊ฐ€, ์ œ์•ˆ๋œ ํฌ๋กœ์Šค ์–ดํ…์…˜ ๊ธฐ๋ฐ˜์˜ ๋ชจ๋ธ(CATS)์€ ํ•ด์„ํ•˜๊ธฐ ์‰ฌ์šด ๊ฒฐ๊ณผ๋ฅผ ์ œ๊ณตํ•˜์˜€์Šต๋‹ˆ๋‹ค. ์•„๋ž˜ ๊ทธ๋ฆผ์ฒ˜๋Ÿผ ์ž…๋ ฅ ์‹œ๊ณ„์—ด์˜ ์ฃผ๊ธฐ์  ํŒจํ„ด(Periodic Pattern)์„ ์ •ํ™•ํžˆ ์žก์•„๋‚ด์—ˆ์œผ๋ฉฐ, ์ถ”๊ฐ€์ ์œผ๋กœ ์ถฉ๊ฒฉ(Shock)๊นŒ์ง€๋„ ํฌ์ฐฉํ•˜๋Š” ๋ชจ์Šต์„ ๋ณด์—ฌ์ฃผ์—ˆ์Šต๋‹ˆ๋‹ค.

๋ณธ ๋…ผ๋ฌธ์—์„œ ์ œ์•ˆ๋œ ๋ชจ๋ธ(Ours) ๋ฐ ์ด์ „ SOTA ๋ชจ๋ธ๋“ค์˜ ๋น„๊ต (x์ถ•: ์ž…๋ ฅ ์‹œ๊ณ„์—ด ๊ธธ์ด, y์ถ•: ์˜ˆ์ธก ์„ฑ๋Šฅ)
์ œ์•ˆ๋œ ๋ชจ๋ธ์˜ ํฌ๋กœ์Šค ์–ดํ…์…˜(Cross-attention) ๋ถ„์„

๊ฒฐ๋ก 


์„ค๋ช…์„ฑ์€ ์ธ๊ณต์ง€๋Šฅ์˜ ์‹ ๋ขฐ์„ฑ ๋ถ€๋ฌธ์—์„œ ํ•ต์‹ฌ ๊ฐœ๋… ์ค‘ ํ•˜๋‚˜์ž…๋‹ˆ๋‹ค. ๋ชจ๋ธ์˜ ์„ค๋ช…์„ฑ์„ ๋†’์ด๋Š” ๊ฒƒ์€ ์ธ๊ณต์ง€๋Šฅ์ด ์‚ฌ๋žŒ์ด ์˜๋„ํ•œ ๋Œ€๋กœ ์ž‘๋™ํ•˜๊ณ  ์žˆ๋Š”์ง€, ํŽธํ–ฅ์€ ์—†๋Š”์ง€ ํ™•์ธํ•˜๋Š” ๋ฐ ํ•„์ˆ˜์ ์ž…๋‹ˆ๋‹ค. ์„ค๋ช…์„ฑ์€ ์ธ๊ณต์ง€๋Šฅ ๋ชจ๋ธ์ด ๋‚ด๋ฆฐ ๊ฒฐ์ •์ด ์–ด๋–ป๊ฒŒ ๋„์ถœ๋˜์—ˆ๋Š”์ง€ ์ดํ•ดํ•˜๊ณ  ๋ถ„์„ํ•˜๋Š” ๋Šฅ๋ ฅ์„ ์ œ๊ณตํ•จ์œผ๋กœ์จ, ์‹œ์Šคํ…œ์˜ ํˆฌ๋ช…์„ฑ์„ ๋†’์ด๊ณ  ์‹ ๋ขฐ์„ฑ์„ ๊ฐ•ํ™”ํ•ฉ๋‹ˆ๋‹ค. ์…€ํ”„ ์–ดํ…์…˜๊ณผ ํฌ๋กœ์Šค ์–ดํ…์…˜์— ๋Œ€ํ•œ ๋ณธ ๋…ผ๋ฌธ์˜ ๋ฐœ๊ฒฌ์ด ๋ชจ๋ธ์˜ ์„ค๋ช… ๊ฐ€๋Šฅ์„ฑ ๋ถ„์•ผ ๋ฐœ์ „์— ๊ธฐ์—ฌํ•˜๊ธธ ๋ฐ”๋ž๋‹ˆ๋‹ค.

๊ด€๋ จ ์—ฐ๊ตฌ์‹ค ๋…ผ๋ฌธ

  • Outside the (Black) Box: Explaining Risk Premium via Interpretable Machine Learning [Under Review] | [Paper]
  • Fair sampling in diffusion models through switching mechanism [AAAI 2024] | [Paper] | [Code]