Trustworthy
Artificial Intelligence
Lab


중앙대학교
신뢰할 수 있는 인공지능 연구실

Hoki Kim
South Korea

.

About us

본 연구실은 신뢰할 수 있는 인공지능
(Trustworthy AI)을 목표로
세 가지 핵심 개념⁺을 추구합니다.

⁺"Trustworthy AI: From Principles to Practices," Bo Li et al.(’23); "인공지능 신뢰성을 높이는 Trustworthy AI," Deloitte(’22); "Strategy to realize trustworthy artificial intelligence," MSIT(’21);

안전성
Safety

안전성은 훈련되지 않은 데이터나 악의적인 조작에 대해서도 안전하게 작동하는 능력입니다. 환경 변화 및 적대적 공격에 대해 강건성을 보장합니다.

더 알아보기

프라이버시
Privacy

프라이버시는 인공지능이 데이터의 기밀성을 유지하고 불필요한 개인 정보 수집을 방지하는 능력입니다. 민감 정보 유출 최소화를 보장합니다.

더 알아보기

설명성
Explainability

설명성은 작동 과정과 그 결과를 인간이 이해할 수 있는 형태로 명확히 제시하는 능력입니다. 법적·윤리적 책임을 준수하기 위한 선행 목표입니다.

더 알아보기
hokikim.jpg

Hoki Kim

Professor at Industrial Security, Chung-Ang University

B.S. and Ph.D. degrees at Seoul National University

Email trustworthyai.cau@gmail.com


Research Interests. As artificial intelligence (AI) continues to drive innovation across a wide range of industries, Trustworthy AI plays a pivotal role in mitigating potential risks and ensuring the safety of AI systems. As a researcher in machine learning and deep learning, I am currently focused on developing Trustworthy AI with the following topics:

  • Adversarial Robustness: adversarial attacks and adversarial defenses [NeurIPS 2023, Top AI Conf.; AAAI 2021, Top AI Conf.; NeuNet, IF Top 10%]
  • Generalization: sharpness-aware minimization [ICML 2023, Top AI Conf.], domain adaptation [PR, IF Q1]
  • Privacy: machine unlearning [NeurIPS 2025, Top AI Conf.], differential prviacy [ICML 2023, Top AI Conf.]
  • Industrial Applications: smart manufacturing [EAAI, IF Top 5%], finance [AEL, IF Q2], time-series modeling [NeurIPS 2024, Top AI Conf.]

Research Experience.

  • Reviewer for NeurIPS, ICML, ICLR, AAAI, IEEE Transactions on Image Processing, IEEE Transactions on Information Forensics & Security, and others.
  • Developer of torchattacks (2,000+ ⭐ GitHub stars) and torchbnn (500+ ⭐ GitHub stars).

Collaboration

신뢰할 수 있는 인공지능 실현을 위해
다양한 파트너와 적극 협력하고 있습니다.

We are working with various partners
to realize Trustworthy Artificial Intelligence.

Naver Cloud
×
Prosecution

개인정보보호 AI 기술 협력

[네이버클라우드 & 대검찰청]

Development of Privacy Protection AI Technology

[Naver Cloud & Prosecution Service]

NICE

AI 기술 평가 위원

[나이스 평가정보]

AI Evaluation Committee

[NICE]

KIAT
×
TAP

온디바이스 AI 보안 기술 협력

[KIAT & 탑전자산업]

Development of On-device AI Security Technology

[KIAT & TAP Electronics]

UROCK

디지털 포렌식 AI 기술 협력

[유락]

Development of Digital Forensic AI Technology

[UROCK]

MSIT

규제 준수형 언러닝 기술 개발

[과학기술정보통신부]

Development of Regulatory-Compliant Unlearning

[Ministry of Science and ICT]

KimCaddie
×
Dongguk University

골프 스윙 분석 AI 기술 협력

[김캐디 & 동국대]

Development of Golf Swing Analysis AI Technology

[KimCaddie & Dongguk University]

Strength

연구 Research

본 연구실은 새로운 시각을 제시하며, 영향력 있는 연구에 도전합니다.
최근 5년간 AI 최우수 학회(NeurIPS, ICML, AAAI) 및 SCI 저널에 20편 이상을 게재하였습니다.
나아가, 인공지능 신뢰성의 적용 영역을 응용 분야(금융·산업 공정)로 확장해 나가고 있습니다.

[AI 핵심연구 #SafeAI] 다양한 적대적 학습 기법 및 환경에서의 강건성 측정 지표들에 대한 실증적 검증

[AI 응용연구(금융) #FinanceAI] 부실 은행 예측을 위한 설명 가능 인공지능 개발 및 해석 도출

[AI 응용연구(산업 공정) #SmartFactoryAI] 스마트 공정의 IoT 기반 고장 진단 기술 및 강건성 측정

  • [NeurIPS, Top AI Conf.] Fantastic Robustness Measures: The Secrets of Robust Generalization
  • [AAAI, Top AI Conf.] Understanding Catastrophic Overfitting in Single-step Adversarial Training (⭐인용수 148회)
  • [IEEE TPAMI, SCIE Top 1%] GradDiv: Adversarial Robustness of Randomized Neural Networks
  • [EAAI, SCIE Top 5%] Evaluating Practical Adversarial Robustness of Fault Diagnosis Systems via Spectrogram-Aware Ensemble Method
  • [Financial Innovation, SSCI Top 1%] Pattern-Guided Forecasting Framework for Metal Price Prediction with Grouping Decomposed Series
  • ...more

교육 Education

본 연구실은 인공지능 신뢰성 전문가 양성을 목표로 합니다.
'안전한 인공지능(Safe AI)', '인공지능 규제와 신뢰성(AI Regulations and Trustworthy)' 등 신규 교과목을 개설하였습니다.
오픈소스 소프트웨어 생태계에도 기여하여 GitHub 플랫폼에서 3000개 이상의 ⭐Star를 달성하였습니다.

Selected Papers and Repos

        1. NeurIPSAI Core
          Are Self-Attentions Effective for Time Series Forecasting?
          Dongbin Kim, Jinseong Park, Jaewook Lee, and Hoki Kim
          In Thirty-eighth Conference on Neural Information Processing Systems, 2024
        1. NeurIPSAI Core
          Fantastic Robustness Measures: The Secrets of Robust Generalization
          Hoki Kim, Jinseong Park, Yujin Choi, and Jaewook Lee
          In Thirty-seventh Conference on Neural Information Processing Systems, 2023
        1. TPAMIAI Core
          Graddiv: Adversarial Robustness of Randomized Neural Networks via Gradient Diversity Regularization
          Sungyoon Lee, Hoki Kim, and Jaewook Lee
          IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022
        1. AAAIAI Core
          Understanding Catastrophic Overfitting in Single-step Adversarial Training
          Hoki Kim, Woojin Lee, and Jaewook Lee
          In Proceedings of the AAAI Conference on Artificial Intelligence, 2021
        1. arXivAI Core
          Torchattacks: A PyTorch Repository for Adversarial Attacks
          Hoki Kim
          arXiv preprint arXiv:2010.01950, 2020

        History

        .

        Location

        중앙대학교 서울캠퍼스 310관 1006호

        Contact

        trustworthyai.cau@gmail.com

        .