๋ ผ๋ฌธ๋ช : Adversarial Retain-free Unlearning for Bearing Prognostics and Health Management
์ ์: Chaewon Yoon, Jiyoung Lee, Hoki Kim
๊ฒ์ฌ์ง: IEEE Transactions on Industrial Informatics
์๋ก
์ 4์ฐจ ์ฐ์ ํ๋ช ์ ๋๋๋ก ์ฐ์ ํ์ฅ์์ ์ผ์ ๋ฐ์ดํฐ์ ์ธ๊ณต์ง๋ฅ์ ๊ธฐ๋ฐ์ผ๋ก ํ PHM(Prognostics and Health Management) ๊ธฐ์ ์ด ์ ๊ทน์ ์ผ๋ก ์ฌ์ฉ๋๊ณ ์์ต๋๋ค. ํนํ ๋ฒ ์ด๋ง ๊ฒฐํจ ์ง๋จ๊ณผ ๊ฐ์ ํต์ฌ ์ค๋น ๊ด๋ฆฌ ๋ถ์ผ์์ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด ๋์ ์ ํ๋๋ฅผ ๋ณด์ด๋ฉฐ ์ฐ์ ๊ฒฝ์๋ ฅ์ ์ข์ฐํ๋ ์ฃผ์ ๊ธฐ์ ๋ก ์๋ฆฌ ์ก์์ต๋๋ค.
๋จธ์ ์ธ๋ฌ๋(Machine Unlearning) ๊ธฐ์ ์ ์ฃผ์ ๋ฐ์ดํฐ ๋ฒ๋ น์ธ GDPR์์ ๋ช ์ํ๋ โ์ํ์ง ๊ถ๋ฆฌ(Right To Be Forgotten)โ์ฒ๋ผ, ๋ชจ๋ธ์ด ํ์ตํ ๋ฐ์ดํฐ ์ค ์ผ๋ถ๋ฅผ ๋์ค์ ์ญ์ ํด์ผ ํ๋ ์ํฉ์์ ์ ์ฉํ๊ฒ ์ฐ์ ๋๋ค.
๋ณธ ์ฐ๊ตฌ์ค์ ๋ ผ๋ฌธ โAdversarial Retain-free Unlearning for Bearing Prognostics and Health Managementโ [Paper]์ ๊ณต์ ํ๊ฒฝ์ ํ์ค์ ์ธ ์ ์ฝ ์กฐ๊ฑด์ ๊ณ ๋ คํด, ์ญ์ ๋์ ๋ฐ์ดํฐ์ ์ด๋ฏธ ํ์ต๋ ๋ชจ๋ธ๋ง์ผ๋ก ๋จธ์ ์ธ๋ฌ๋์ ์ํํ ์ ์๋ ์๋ก์ด ํ๋ ์์ํฌ๋ฅผ ์ ์ํฉ๋๋ค.
์ด ๊ธ์์๋ ์ ์กฐ ๊ณต์ ํ๊ฒฝ์์ ๊ธฐ์กด ๋จธ์ ์ธ๋ฌ๋ ๋ฐฉ์์ด ๊ฐ๋ ํ๊ณ์ ์ ์๋ ARU ๋ฐฉ๋ฒ์ ํจ๊ป ์ดํด๋ณด๊ฒ ์ต๋๋ค.
์ฌ์ ์ง์
์ ๋์ ์์
์ ๋์ ์์ (Adversarial Attack)๋ ํน์ ์ํ์ ์ ๋์ ๊ณต๊ฒฉ์ผ๋ก ์์ฃผ ์์ ๊ต๋(\(\epsilon\))์ ์ถ๊ฐํด ๋ชจ๋ธ์ด ์ํ์ ์์ ํ ๋ค๋ฅธ ํด๋์ค๋ก ๋ถ๋ฅํ๋๋ก ์ ๋ํฉ๋๋ค.
๋ํ์ ์ธ ์ ๋์ ๊ณต๊ฒฉ ๋ฐฉ๋ฒ์ผ๋ก๋ FGSM๊ณผ PGD๊ฐ ์์ต๋๋ค :
1. FGSM(Fast Gradient Sign Method) : ํ ๋ฒ์ gradient ๊ณ์ฐ์ผ๋ก ๊ต๋์ ์ถ๊ฐํฉ๋๋ค.
\[\begin{equation} \delta = \epsilon \cdot \operatorname{sign} (\nabla_{x}\mathcal{L} (f_{\theta} (x)), y), \end{equation}\]2. PGD(Projected Gradient Descent) : FGSM์ ์ฌ๋ฌ ๋จ๊ณ๋ก ํ์ฅํด ๋ ๊ฐ๋ ฅํ ๊ณต๊ฒฉ์ ์ํํฉ๋๋ค.
\[\begin{equation} x^{t+1} = \Pi_{\lVert \delta \rVert_{\infty}\le \epsilon} \left (x^t + \alpha \cdot \operatorname{sign} (\nabla_{x^t}\mathcal{L} (f_{\theta} (x^t), y)) \right), \end{equation}\]๋จธ์ ์ธ๋ฌ๋
๋ชจ๋ธ์ด ํ์ตํ ์ ์ฒด ๋ฐ์ดํฐ๋ฅผ \(\mathcal{D}\) ๋ผ๊ณ ํ ๋, ์ญ์ ์ฌ๋ถ์ ๋ฐ๋ผ ๋ฐ์ดํฐ๋ฅผ ์๋์ ๊ฐ์ด ๋ ๊ฐ์ง๋ก ๋๋ ์ ์์ต๋๋ค :
1. ์ญ์ ๋์ ๋ฐ์ดํฐ (Forget data) = \(\mathcal{D_F}\)
2. ์ ์ง ๋์ ๋ฐ์ดํฐ (Retain data) = \(\mathcal{D_R}\)
๋จธ์ ์ธ๋ฌ๋์ ๋ชจ๋ธ์ด \(\mathcal{D_R}\)๋ก๋ง ํ์ตํ ๋ชจ๋ธ์ ์ด์์ ์ธ ์ํ๋ก ๊ฐ์ ํฉ๋๋ค. ์ด ๊ธ์์๋ ์ด๋ฌํ ์ด์์ ์ธ ํ์ต ๋ฐฉ๋ฒ์ Retrain์ด๋ผ๊ณ ์ง์นญํฉ๋๋ค. ํ์ง๋ง ๋ชจ๋ธ์ ์ฒ์๋ถํฐ ์ฌํ์ตํ๋ Retrain์ ์๊ฐ, ๋น์ฉ์ ์ธ ๋ถ๋ด์ด ํฝ๋๋ค. ๋ฐ๋ผ์ ์ด๋ฏธ ํ์ต๋ ๋ชจ๋ธ์ ํน์ ์๊ณ ๋ฆฌ์ฆ์ผ๋ก ํ์ตํด ์ญ์ ๋์ ๋ฐ์ดํฐ๋ฅผ ์ ๊ฑฐํ๋ ๋จธ์ ์ธ๋ฌ๋ ๊ธฐ์ ์ด ํ์ํฉ๋๋ค.
๋จธ์ ์ธ๋ฌ๋์ ๋ชจ๋ธ์ด \(\mathcal{D_F}\)์ ์ ๋ณด๋ฅผ ์๋ ๋์์, \(\mathcal{D_R}\)์ ์ ๋ณด๋ฅผ ์ ์งํ๋๋ก ์ ๋ํด, Retrain ์ํ์ ๋น์ทํด์ง๋ ๊ฒ์ ๋ชฉํ๋ก ํฉ๋๋ค.
retain-free ์ธ๋ฌ๋
๊ธฐ์กด ์ฐ๊ตฌ์์ ์ ์๋ retain-free ์ธ๋ฌ๋ ๋ฐฉ๋ฒ๋ก ์ ์๊ฐํฉ๋๋ค. ๋ชจ๋ธ์ ๊ฐ์ค์น๋ฅผ \(\theta\)๋ผ๊ณ ํ ๋, ๊ฐ ๋ฐฉ๋ฒ์ ๋ค์๊ณผ ๊ฐ์ด ์ ๋ฐ์ดํธํฉ๋๋ค :
1. Gradient Ascent (GA) : \(\mathcal{D_F}\)์ ๋ํ ์์ค์ ์ต๋ํํด ์ธ๋ฌ๋ํฉ๋๋ค. \(\begin{equation} \theta \leftarrow \theta + \eta\cdot \nabla_{\theta} \mathcal{L} (f_{\theta} (x_f), y_f) \text{ where } (x_f, y_f) \in \mathcal{D_F} \end{equation}\)
2. Random Labeling (RL) : \(\mathcal{D_F}\) ์ํ์ ๋๋ค ๋ผ๋ฒจ์ ๋ถ์ฌ ์ธ๋ฌ๋ํฉ๋๋ค. \(\begin{equation} \theta \leftarrow \theta - \eta \cdot \nabla_{\theta}\,\mathcal{L}\big(f_{\theta}(x_f), \tilde{y}\big) \end{equation}\)
3. Adversarial Machine UNlearning (AMUN) : \(\mathcal{D_F}\)์ ์ต์ํ์ ๊ต๋(\(\epsilon^{\star}\))์ ๊ฐํด ์ ๋์ ์์ \(\mathcal{D_A}\)๋ฅผ ์ป๊ณ , \(\mathcal{D_F} \cup \mathcal{D_A}\)์ผ๋ก ๋ชจ๋ธ(\(\theta\))์ ์ฌํ์ตํฉ๋๋ค.
์ ๋์ ์์ \(\mathcal{D_A} = (x_f^{adv}, y_f^{adv})\)๋ ๋ค์๊ณผ ๊ฐ์ด ๊ตฌ์ฑํฉ๋๋ค :
๋จผ์ ์ ๋์ ๊ณต๊ฒฉ ์๊ณ ๋ฆฌ์ฆ \(A\)์ ๋ํด \(\mathcal{D_F}\)๋ฅผ ์ค๋ถ๋ฅํ๋ ์ต์ ๊ต๋ ํฌ๊ธฐ์ธ \(\epsilon^{\star}\)๋ฅผ ๊ตฌํฉ๋๋ค. \(\begin{equation} \epsilon^\star = \min \{\epsilon : \arg\max_i f_{\theta} (A (x_f, \epsilon))_i \neq y_f \} \end{equation}\)
๋ค์์ผ๋ก, ์ต์ ๊ต๋ ํฌ๊ธฐ \(\epsilon^{\star}\)๋ฅผ ์ ์ฉํ ์ ๋์ ์์ ์ธ \(\mathcal{D_A} = $(x_f^{adv}, y_f^{adv})\)๋ฅผ ๊ตฌํฉ๋๋ค. \(\begin{equation} x_f^{adv} = A(x_f, \epsilon^{star}), y_f^{adv} = arg \max_i f_{\theta}(x_f^{adv})_i \end{equation}\)
๋ง์ง๋ง์ผ๋ก ๋ชจ๋ธ์ \(\mathcal{D_F}\cup\mathcal{D_A}\)๋ก ์ฌํ์ตํฉ๋๋ค. \(\begin{equation} \theta \leftarrow \theta - \eta \sum_{ (x,y)\in \mathcal{D_F} \cup \mathcal{D_A}} \nabla_{\theta}\mathcal{L} (f_{\theta} (x),y) \end{equation}\)
๋ณธ๋ก
๊ธฐ์กด retain-free ์ธ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ์ ๋ชจ๋ธ์ ๊ตฌ์กฐ๋ฅผ ์ฌํ๊ฒ ๋ฌด๋๋จ๋ฆฌ๋ ๊ฒฝ์ฐ๊ฐ ๋ง์์ต๋๋ค. ๋ํ ๊ณต์ ๋ฐ์ดํฐ๋ก ์คํ ์ ๋ชจ๋ธ์ ๋ถ๋ฅ ๋ฅ๋ ฅ ๋ํ ์ ํ๋๋ ๋ฌธ์ ๋ฅผ ๋ณด์์ต๋๋ค.
๋ณธ ๋ ผ๋ฌธ์ ์ ์ฒด ๋ฐ์ดํฐ์ ๋ํ ์ ๊ทผ์ด ์ ํ๋ ํ๊ฒฝ์์ ๊ธฐ์กด retain-free ์ธ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ์ ๋ชจ๋ธ ๋ถ๊ดด ๋ฌธ์ ๋ฅผ ์ ๋ํํด ํ์ธํ๊ณ , ์ด๋ฅผ ํด๊ฒฐํ๋ ARU ํ๋ ์์ํฌ๋ฅผ ์ ์ํฉ๋๋ค.
Adversarial Retain-free Unlearning (ARU)๋ 2๊ฐ์ง ๋จ๊ณ๋ก ์ด๋ฃจ์ด์ง๋๋ค :
1.์ ๋์ ์์ ์์ฑ : \(\mathcal{D_F}\)๋ฅผ ์ด์ฉํด ๋ชจ๋ธ์ด ๊ธฐ์ตํ๋ ๋ฒ์ ๋ด์์ \(\mathcal{D_R}\)๋ก ์ธ์งํ๋ ์ ๋์ ์์ (\(\mathcal{\tilde{D}_R}\))๋ฅผ ์์ฑํฉ๋๋ค
2.๋ชจ๋ธ ์ฌํ์ต : ์์คํจ์ \(\mathcal{l}_{\texttt{SDA}}\)๋ฅผ ์ด์ฉํด, ํ์ต ๋ฐ์ดํฐ๊ฐ \(\mathcal{D_F}\)๊ณผ๋ ๋ฉ์ด์ง๋๋ก, \(\mathcal{\tilde{D}_R}\)์๋ ๊ฐ๊น์์ง๋๋ก ์ ๋ํฉ๋๋ค
๋ชจ๋ธ์ ๊ตฌ์กฐ ์ ๋ํ
๋ณธ ๋ ผ๋ฌธ์ Structural Similarity Correlation (SSC)๋ฅผ ํตํด ๊ธฐ์กด ์ฐ๊ตฌ๋ retain-free ์ธ๋ฌ๋ ๋ฐฉ๋ฒ๋ค์ด ๋ชจ๋ธ์ ๊ตฌ์กฐ๋ฅผ ์ผ๋ง๋ ๋ณด์กดํ๋์ง ์ ๋ํํฉ๋๋ค.
SSC๋ ๋ค์๊ณผ ๊ฐ์ ์ ์ฐจ๋ก ๊ณ์ฐ๋ฉ๋๋ค :
1. ๊ฐ retain ํด๋์ค์ prototype ๋ฒกํฐ ๊ณ์ฐ
๋ฐ์ดํฐ์ ์ ํด๋์ค \(C\)์ ๋ํด, \(k\in C\)์ธ \(k\)์ ๋ํด prototype ๋ฒกํฐ \(p_k\)๋ ๋ค์๊ณผ ๊ฐ์ด ๊ณ์ฐํฉ๋๋ค :
\[\begin{equation} p_k = \frac{1}{|S_k|} \sum_{x \in S_k} f (x), \end{equation}\]2. ํด๋์ค ๊ฐ ์ ์ฌ๋ matrix ๊ตฌ์ฑ
\(i,j \in C\)์ธ \(i,j\)์ ๋ํด์ ํด๋์ค prototype ๋ฒกํฐ ๊ฐ ์ฝ์ฌ์ธ ๊ฑฐ๋ฆฌ๋ก ํด๋์ค ๊ฐ ์ ์ฌ๋๋ฅผ ์ธก์ ํฉ๋๋ค.
ํด๋์ค \(i,j\)๊ฐ ์ ์ฌ๋๋ฅผ ๊ธฐ๋ฐ์ผ๋ก Representational Dissimilarity Matrix(RDM) \(M_{i,j}\)์ ๊ตฌ์ฑํฉ๋๋ค.
\[\begin{equation} M_{ij} = 1 - \frac{p_i \cdot p_j}{\|p_i\| \|p_j\|} \end{equation}\]3. Retrain์ RDM๊ณผ ์ธ๋ฌ๋ ํ ๋ชจ๋ธ์ RDM ์ฌ์ด์ ์ ์ฌ๋ ์ธก์
ํด๋น ๋จ๊ณ๋ ๋ ํด๋์ค์ ๊ตฌ์กฐ ์ฌ์ด์ ์ ๋์ ์ธ ์ ์ฌ๋๊ฐ ์๋, ๊ตฌ์กฐ์ ์ ์ฌ๋๋ฅผ ์ธก์ ํ๊ธฐ ์ํ ๋จ๊ณ์ ๋๋ค. ๋ฐ๋ผ์ ๋ RDM ์ฌ์ด์ ์ ์ฌ๋๋ฅผ ์ธก์ ํ ๋, Spearmanโs rank correlation์ ์ด์ฉํด ๋ ํ๋ ฌ์ ์ ์ฌ๋์ธ SSC๋ฅผ ๊ณ์ฐํฉ๋๋ค.
\[\begin{equation} SSC = 1 - {6\cdot \sum d_i^2 \over n(n^2-1)} \end{equation}\]SSC๊ฐ์ด ๋์์๋ก, ์ธ๋ฌ๋ ํ ๋ชจ๋ธ๊ณผ Retrain ๋ชจ๋ธ์ ๊ตฌ์กฐ๊ฐ ์ ์ฌํจ์ ์๋ฏธํฉ๋๋ค.
์ ๋์ ์์ ์์ฑ
retain-free ํ๊ฒฝ์์๋ \(\mathcal{D_R}\)์ ์ ๊ทผํ ์ ์์ต๋๋ค. ๋ฐ๋ผ์ ์ฌ์ ํ์ต๋ ๋ชจ๋ธ \(f\)์ forget ๋ฐ์ดํฐ \(\mathcal{D_F}\)๋ง์ผ๋ก retain ๋ฐ์ดํฐ์ ๋น์ทํ \(\mathcal{\tilde{D}_R}\)๋ฅผ ์์ฑํด์ผ ํฉ๋๋ค.
๊ธฐ์กด retain-free ์ธ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ ์ค AMUN์ \(\mathcal{D_F}\)์ ๋ํด untargeted adversarial attack์ ์ํํด ์ค๋ถ๋ฅ๊ฐ ๋ฐ์ํ ๋๊น์ง ์์์ ๋ฐฉํฅ์ผ๋ก ๋ ธ์ด์ฆ์ ๋ฐ๊ฒฝ์ ์ฆ๊ฐ์ํต๋๋ค.
๊ทธ๋ฌ๋ PHM ๋๋ฉ์ธ์์ ์ด ๋ฐฉ์์ผ๋ก ์ธ๋ฌ๋์ ์ํํ ๊ฒฝ์ฐ, ๋ชจ๋ธ์ด ํน์ ํด๋์ค ๋ฐฉํฅ์ผ๋ก ๋ถ๊ดด๋๋ embedding collapse ํ์์ด ๋ฐ์ํฉ๋๋ค.
๋ณธ ๋ ผ๋ฌธ์ ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด targeted adversarial attack์ ์ํํฉ๋๋ค.
๋จผ์ , forget ์ํ \((x_f, y_f)\in\mathcal{D_F}\)์ ๋ํด ์๋ ํด๋์ค \(y_f\)๋ฅผ ์ ์ธํ ํด๋์ค ์ค softmax ํ๋ฅ ์ด ๊ฐ์ฅ ๋์ ํด๋์ค \(\tilde{y}\)๋ฅผ ๋ค์๊ณผ ๊ฐ์ด ์ ์ํฉ๋๋ค :
\[\begin{equation} \tilde{y} = \arg\max_{f (x_f)_k \neq y_f} f (x_f)_k, \end{equation}\]์ด๋ ๋ชจ๋ธ์ด ํด๋น ์ํ์ ๊ฐ์ฅ ํผ๋ํ๋ ํด๋์ค ๋ฐฉํฅ์ ์๋ฏธํฉ๋๋ค. ์ฆ, ์์์ ๋ฐฉํฅ์ด ์๋ ๋ชจ๋ธ์ด ๊ฐ์ฅ ํผ๋ํ๋ ํด๋์ค ๋ฐฉํฅ์ผ๋ก์ targeted update๋ฅผ ์ํํฉ๋๋ค.
์ดํ, \(\mathcal{\tilde{D}_R}\)๋ PGD๋ฅผ ๋ณํํ ๋ค์๊ณผ ๊ฐ์ ๋ฐ๋ณต๋ ์ ๋ฐ์ดํธ๋ฅผ ํตํด ์์ฑ๋ฉ๋๋ค :
\[\begin{equation} x^{t+1} = \Pi_{\mathcal{B}_\epsilon} \Big( (x^t + \zeta^t) + \alpha \cdot \operatorname{sign}\Big( \nabla_{x^t + \zeta^t} \big[ \mathcal{L}(f(x^t + \zeta^t; \theta), \tilde{y}) \big] \Big) \Big), \end{equation}\]์ฌ๊ธฐ์ \(t\)๋ ๊ณต๊ฒฉ์ ๋ฐ๋ณต ๋จ๊ณ, \(\Pi_{\mathcal{B}_\epsilon}\)๋ ๋ ธ์ด์ฆ๊ฐ ๋ฐ๊ฒฝ \(\epsilon\)์ ๋์ง ์๋๋ก \(\mathcal{l}_{\inf}\)-ball์ผ๋ก ํฌ์ํ๋ ์ฐ์ฐ, ๊ทธ๋ฆฌ๊ณ \(\zeta^t\)๋ ๊ฐ ๊ณต๊ฒฉ ๋จ๊ณ๋ง๋ค ์ฃผ์ ๋๋ ์์ ํ๋ฅ ์ ๋ ธ์ด์ฆ์ ๋๋ค.
ํต์ฌ์ per-step stochasticity์ ๋๋ค. ๊ฐ ๋จ๊ณ๋ง๋ค ์์ ๋ ธ์ด์ฆ๋ฅผ ์ถ๊ฐํด ๊ตญ์ ์์ค ์งํ์ ๋ถ๋๋ฝ๊ฒ ๋ง๋ค๊ณ , ๋จ์ผ ๋ฐฉํฅ์ผ๋ก์ ๊ณผ๋ํ ์๋ ด์ ๋ฐฉ์งํฉ๋๋ค.
๊ฒฐ๊ณผ์ ์ผ๋ก ์์ฑ๋ \((\tilde{x}, \tilde{y})\)๋ ์ธ๋ฌ๋ ์ ๋ชจ๋ธ์ manifold ๊ทผ์ฒ์ ์์นํ๋ฉด์๋ retain ํด๋์ค์ ๊ธฐํํ์ ๊ตฌ์กฐ์ ์ ๋ ฌ๋ retain-like ์ํ๋ก์ ์๋ํฉ๋๋ค.
๋ชจ๋ธ ๊ตฌ์กฐ ๋ณด์กด์ ์ํ ์ธ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ
ARU์ ๋ชฉํ๋ retain ๋ฐ์ดํฐ์ ์ง์ ์ ๊ทผํ์ง ์๊ณ ๋ ๋ชจ๋ธ์ ๊ตฌ์กฐ๋ฅผ ๋ณด์กดํ๋ฉฐ forget ๋ฐ์ดํฐ์ ์ ๋ณด๋ฅผ ์ ๊ฑฐํ๋ ๊ฒ์ ๋๋ค. ์ด๋ฅผ ๋ค์๊ณผ ๊ฐ์ด ๊ณต์ํํ ์ ์์ต๋๋ค :
\[\begin{equation} \mathcal{L}_{ARU}(x_f, \tilde{x}, y;\alpha) = \mathcal{L}_\texttt{SDA}(x_f, \tilde{x};\alpha) + \mathcal{L}_\texttt{CE}(\tilde{x}, y) \end{equation}\]์ ์์คํจ์๋ ๋ ๊ฐ์ง ๊ตฌ์ฑ ์์๋ฅผ ๊ฐ์ง๋๋ค :
1. ์ธ๋ฌ๋ ํญ : \(\mathcal{L}_\texttt{SDA}\)๋ forget ์ํ \(x_f\)๋ฅผ ๊ธฐ์กด forget ํด๋์ค ์ค์ฌ์์ ๋ฉ์ด์ง๊ฒ ํ๊ณ , retain-like ๋ฐ์ดํฐ์ ์ค์ฌ ๋ฐฉํฅ์ผ๋ก ์ด๋ํ๋๋ก ์ ๋ํฉ๋๋ค.
2. ๋ชจ๋ธ ๊ตฌ์กฐ ๋ณด์กด ํญ : \(\mathcal{L}_\texttt{CE}\)๋ retain-like ๋ฐ์ดํฐ \(\mathcal{\tilde{D}_R}\)๋ก ์ฌํ์ตํด ๋ชจ๋ธ์ ๊ตฌ์กฐ๋ฅผ ๋ณด์กดํฉ๋๋ค.
์ฆ, ๋ ํญ์ ๊ฒฐํฉํจ์ผ๋ก์จ \(\mathcal{L}_\texttt{SDA}\)๋ฅผ ํตํ forget ๋ฐ์ดํฐ ๋ถ๋ฆฌ์ \(\mathcal{L}_\texttt{CE}\)๋ฅผ ํตํ ๋ชจ๋ธ์ ๊ตฌ์กฐ ๋ณด์กด์ ๋์์ ๋ฌ์ฑํฉ๋๋ค.
embedding space์์์ ์ฑ๋ฅ
ARU๋ฅผ ์ธ ๊ฐ์ง ๊ณต์ ๋ฐ์ดํฐ์ ์์ ํ๊ฐํ์ต๋๋ค :
1. CWRU ๋ฐ์ดํฐ์ : ๋ฒ ์ด๋ง ๊ฒฐํจ ํ์ง์์ ๋๋ฆฌ ์ฌ์ฉ๋๋ ๋ฐ์ดํฐ์ ์ ๋๋ค. CWRU ๋ฐ์ดํฐ์ ์ ๊ฒฐํจ ๋ถ์์ ๋ฐ๋ผ ์ ์, ๋ณผ ๊ฒฐํจ, ๋ด๋ฅ ๊ฒฐํจ, ์ธ๋ฅ ๊ฒฐํจ์ ๋ค ๊ฐ์ง ์ํ๋ก ๋๋๋ฉฐ, ๊ฐ ์ํ์ ๊ณต์ ์ฃผํ์๋ฅผ ์ํ๋ก ์์งํ ๋ฐ์ดํฐ์ ์ ๋๋ค.
2. PRivate Bearing Dataset(PRBD) ๋ฐ์ดํฐ์ : ๋ณธ ์ฐ๊ตฌ์์ ์ง์ ๊ตฌ์ถํ ๋ฒ ์ด๋ง ๊ฒฐํจ ์ง๋จ ๋ฐ์ดํฐ์ ์ ๋๋ค. CWRU ๋ฐ์ดํฐ์ ๊ณผ ๋ง์ฐฌ๊ฐ์ง๋ก ๋ค ๊ฐ์ง์ ๊ฒฐํจ ์ํ๋ฅผ ๊ฐ์ง๋๋ค.
3. CWRU + PRBD ๋ฐ์ดํฐ์ : ๊ณต๊ฐ๋ ๋ฐ์ดํฐ์ ๊ณผ ๊ณต๊ฐ๋์ง ์์ ๋ฐ์ดํฐ์ ์ ๋์์ ์ฌ์ฉํด ํ์ค์ ์ธ retain-free ํ๊ฒฝ์ ๊ฐ์ ํ์ต๋๋ค.
๋ํ MLP, TCN, CNN1D, Transformer์ ๋ค ๊ฐ์ง ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ์ฌ์ฉํด ๋ค์ํ PHM ํ๊ฒฝ์ ๊ตฌํํ์ต๋๋ค.
์ธ ๊ฐ์ง ๋ฐ์ดํฐ์ ์ ๋ํด ์คํํ ๊ฒฐ๊ณผ, ARU๋ ๋ชจ๋ ๋ฐ์ดํฐ์ ์์ ๊ฐ์ฅ ๋ฎ์ \(\Delta\)Acc๋ฅผ ๋ฌ์ฑํ๋ฉฐ Retrain๊ณผ ๊ฐ์ฅ ๋น์ทํ ์ ํ๋๋ฅผ ๊ธฐ๋กํ์ต๋๋ค.
๊ฒฐ๋ก
์ฐ์ ํ์ฅ์์๋ ์ธ๊ณต์ง๋ฅ์ ํ์ฉํ ๋ชจ๋ธ ์ง๋จ ์์คํ ์ด ๋๋ฆฌ ํ์ฉ๋๊ณ ์์ต๋๋ค. ์ด๋ ๋ฒ์ , ๋ณด์์ ์ด์ ๋ก ํน์ ๋ฐ์ดํฐ๋ฅผ ๋ชจ๋ธ์์ ์ญ์ ํด์ผ ํ๋ ์ํฉ์์ ๋ชจ๋ธ์ด ํด๋น ๋ฐ์ดํฐ๋ฅผ โ์๋๋กโ ๋ง๋ค์ด์ผ ํฉ๋๋ค. ํนํ ์ค์ ์ฐ์ ํ์ฅ์์๋ ์ ์ฒด ํ์ต ๋ฐ์ดํฐ์ ๋ค์ ์ ๊ทผํ๊ธฐ ์ด๋ ค์ด ๊ฒฝ์ฐ๊ฐ ๋ง์, ์ด๋ฅผ ํด๊ฒฐํ ์ ์๋ ์๋ก์ด ๋จธ์ ์ธ๋ฌ๋ ์ ๊ทผ๋ฒ์ด ์๊ตฌ๋ฉ๋๋ค.
๋ณธ ๋ ผ๋ฌธ์์๋ ์ด๋ฌํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด Adversarial Retain-free Unlearning(ARU) ํ๋ ์์ํฌ๋ฅผ ์ ์ํฉ๋๋ค. ARU๋ ๋ชจ๋ธ์ด ํ์ตํ ์ ์ฒด ๋ฐ์ดํฐ ๋์ , ์ญ์ ํ ๋ฐ์ดํฐ๋ง์ ์ด์ฉํด ํ์ํ ์ ๋ณด๋ ์ ์งํ๋ฉด์๋ ์ญ์ ํ ๋ฐ์ดํฐ๋ฅผ ํจ๊ณผ์ ์ผ๋ก ์ ๊ฑฐํฉ๋๋ค. ๋ค์ํ ๋ฐ์ดํฐ์ ์ ์ด์ฉํด ARU๊ฐ ๋ชจ๋ธ์ ๊ตฌ์กฐ์ ์ ํ๋๋ฅผ ์ ์งํ๋ฉด์๋ ํน์ ํด๋์ค๋ฅผ ์์ ์ ์ผ๋ก ๋ถ๋ฆฌํด๋์ ํ์ธํ์ต๋๋ค.
๋จธ์ ์ธ๋ฌ๋์ ์์ผ๋ก ํ๋ผ์ด๋ฒ์ ๋ณดํธ์ ์ฐ์ ๊ท์ ์ค์๋ฅผ ์ํด ๋์ฑ ์ค์ํด์ง ๊ธฐ์ ์ ๋๋ค. ๋ณธ ์ฐ๊ตฌ๊ฐ ์ค์ PHM ํ๊ฒฝ์์ ์ ์ฉ ๊ฐ๋ฅํ ์ธ๋ฌ๋ ๊ธฐ์ ์ ๊ธฐ์ฌํ๊ธฐ๋ฅผ ๋ฐ๋๋๋ค.
์ฐ๊ตฌ์ค ๊ด๋ จ ๋ ผ๋ฌธ๋ค
- Unlearning-Aware Minimization [NeurIPS 2025] | [Paper] | [Article]| [Code]
- Evaluating practical adversarial robustness of fault diagnosis systems via spectrogram-aware ensemble method [EAAI] | [Paper] | [Article]
- Black-box adversarial examples via frequency distortion against fault diagnosis systems [EAAI] | [Paper]
- Generating transferable adversarial examples for speech classification [Pattern Recognition] | [Paper]