SW 학사공지
인공지능학부 이현기 교수, NeurIPS 2025 논문 채택 관련 인터뷰
- 25.11.18 / 윤승민
.png?type=image&id=5de473d3299cce6c699ea429ed59d493)
“좋은 연구는 협력에서 시작된다” — 국민대 이현기 교수,
세계 최고 AI 학회 NeurIPS 2025서 논문 4편 동시 채택
국민대학교 소프트웨어융합대학 이현기 교수 연구팀이 세계 최고 권위의 인공지능 학회 **Conference on Neural Information Processing Systems(NeurIPS 2025)**에서 논문 4편이 동시에 채택되는 쾌거를 이뤘다. NeurIPS는 전 세계 인공지능 연구자들에게 ‘꿈의 무대’로 불릴 만큼 치열한 경쟁률을 자랑하는 학회로, 단 한 편만 채택돼도 큰 의미를 가진다. 이번 성과는 국내 연구진으로서는 매우 이례적인 기록으로, 연구 역량을 세계적으로 입증한 사례로 평가된다. 이 교수는 “솔직히 과정이 쉽지 않았다”며 “여러 연구자분들로부터 좋은 평가를 받을 수 있어 감사하다”고 소감을 전했다. 겸손한 말투였지만, 그 속에는 수많은 실험과 검증, 밤샘 토론이 쌓인 연구의 무게가 담겨 있었다.
이번에 게재된 4편의 논문은 각각 다른 주제를 다루고 있지만, 모두 Reliable AI(신뢰할 수 있는 인공지능)이라는 하나의 방향을 향하고 있다.
첫 번째 논문은 인공지능이 새로운 지식을 학습할 때 기존 지식을 잊어버리는 Catastrophic Forgetting(카타스트로픽 폴게팅) 문제를 다룬다. 사람으로 치면 새 언어를 배우느라 모국어를 까먹는 것과 비슷한 현상이다. 이 교수는 “모델이 과거에 배운 내용을 유지하면서도 새로운 정보를 효율적으로 학습할 수 있는 이론적 기반을 제시했다”며, “AI에 ‘망각 방지 시스템’을 부여한 연구”라고 설명했다.
두 번째 논문은 Neural Process(뉴럴 프로세스) 모델에 Test-Time Scaling(테스트 타임 스케일링) 개념을 결합함으로써, 모델의 일반화 성능, 즉 처음 보는 문제를 유연하게 해결하는 능력을 크게 향상시킨 연구 결과를 제시했다.
세 번째 논문은 데이터 부족 문제를 해결하기 위한 새로운 접근으로, 대규모 언어모델(LLM)을 활용해 데이터를 증강하는 새로운 방법, 즉 Data Augmentation(데이터 증강) 기법을 제시했다. 일종의 AI판 ‘Data Pumping(데이터 펌핑)’ 기술인 셈이다.
마지막 논문에서는 LLM이 잘못된 정보를 필요 이상으로 확신에 차서 전달하는 Overconfidence(과신)문제를 다뤘다. AI가 자신이 얼마나 확신하는지를 스스로 판단할 수 있도록 Confidence Calibration(신뢰도 캘리브레이션) 기법을 개선했다.
이 교수는 이번 논문들이 높은 평가를 받은 이유로 "이론적 완결성과 실용적 확장성의 조화"를 꼽았다. 그는 “Continual Learning(컨티뉴얼 러닝) 논문은 과거 지식을 잊지 않게 하는 효율적인 학습 방법론을 제시했고, Test-Time Scaling(테스트 타임 스케일링) 논문은 Neural Process(뉴럴 프로세스)에 최적화 기법을 접목해 높은 성능을 보였다.”며 "나머지 논문들도 실제 산업적 문제를 해결하는 구체적인 대안을 제시했다"고 설명했다.
그러나 연구 과정은 결코 순탄치 않았다고 회상했다. "이론적으로 증명한 내용이 실제 모델에서 그대로 작동하는 건 전혀 다른 문제"라고 그는 말했다. 모델의 복잡도와 태스크 간 편차로 인해 실험 검증이 매우 어려웠다는 것이다.그는 “수없이 많은 시행착오 끝에 이론과 실험의 간극을 좁혔을 때, 그 순간이 가장 보람찼다"고 말했다.
이 교수는 이번 연구들이 단순한 학문적 성과에 그치지 않고, 산업과 사회 전반에 실질적인 기여를 할 수 있을 것으로 내다봤다. 그는 "LLM 학습에 필요한 데이터가 부족할 때 이번 연구의 데이터 증강 기법이 실제로 활용될 수 있다"며 "AI가 사회 변화에 적응하는 시대에는 과거 학습을 잊지 않는 기술이 필수적"이라고 강조했다. 또한 "신뢰도 기반 연구는 의료 분야의 AI 진단에도 응용 가능하다"고 덧붙였다. 그는 “AI가 자신이 얼마나 확신하는지를 정확히 표현할 수 있어야 한다”며, ”특히 의료처럼 사람의 생명과 직결된 분야에서는 그래야 인간이 신뢰하고 사용할 수 있다”고 설명했다.
이번 성과는 국내외 연구진과의 긴밀한 협업을 통해 이루어졌다. 이 교수는 "혼자 쓴 논문은 하나도 없다"며 협업이 좋은 연구의 출발점임을 강조했다. 이번 연구에는 일본 이화학연구소(RIKEN), 영국 임페리얼 칼리지 런던(Imperial College London), 미국 뉴욕대학교(New York University), 그리고 모교인 한국과학기술원(KAIST)의 대학원생들이 함께했다.
그는 "공동 연구의 가장 큰 장점은 다른 사람에게 설명하는 과정에서 스스로 정리가 되고, 새로운 시각의 아이디어를 얻을 수 있다는 점"이라며 "혼자보다 함께할 때 더 빠르고 깊은 연구가 가능하다"고 말했다.
이 교수는 “AI가 자신이 얼마나 확신하는지를 정확히 표현할 수 있어야 한다”며, 이를 위해 LLM의 Confidence Calibration(신뢰도 캘리브레이션)과 Bayesian Neural Network(베이지안 뉴럴 네트워크)기반 연구를 이어갈 계획이라고 밝혔다. 그는 마지막으로 "사람들에게 실질적인 신뢰를 줄 수 있는 연구야말로 진정한 의미의 좋은 연구"라며 "협력 속의 성장이 좋은 연구 환경의 핵심"이라고 강조했다.
이현기 교수의 네 편의 논문은 신뢰성·지속학습·데이터 효율화·확신도 검증이라는 네 가지 축을 통해 미래 인공지능의 방향성을 제시한다. 그의 연구는 단순한 기술적 진보를 넘어, 인공지능이 인간 사회 속에서 진정으로 신뢰받는 존재로 자리 잡을 수 있는 기반을 다지고 있다.
인터뷰를 마치며, 이 교수는 연구자이자 교육자로서의 신념을 덧붙였다. “좋은 연구는 결국 스스로의 확신에서 출발한다”며, “연구의 가치는 크기나 인용 수가 아니라 얼마나 꾸준히, 진정성 있게 탐구하느냐에 달려 있다”고 강조했다. 그는 작은 주제라도 그 하나하나의 성과가 쌓여 새로운 발전으로 이어진다는 믿음, 그리고 자신의 연구를 끝까지 밀고 나가는 태도가 진정한 연구자의 자세라고 말했다. 뿐만 아니라 “AI가 단순히 정답을 제시하는 기술을 넘어, 스스로 판단의 근거와 한계를 인식하는 ‘책임 있는 지능’으로 발전하길 바란다”며, “학생들과 함께 그런 미래를 만들어가고 싶다”고 포부를 밝혔다.
| 인공지능학부 이현기 교수, NeurIPS 2025 논문 채택 관련 인터뷰 | |||||
| 작성일 | 25.11.18 | 구분 | 학부 | 작성자 | 윤승민 |
|---|---|---|---|---|---|
| 조회수 | 783 | ||||
게시물 내용
“좋은 연구는 협력에서 시작된다” — 국민대 이현기 교수,세계 최고 AI 학회 NeurIPS 2025서 논문 4편 동시 채택
국민대학교 소프트웨어융합대학 이현기 교수 연구팀이 세계 최고 권위의 인공지능 학회 **Conference on Neural Information Processing Systems(NeurIPS 2025)**에서 논문 4편이 동시에 채택되는 쾌거를 이뤘다. NeurIPS는 전 세계 인공지능 연구자들에게 ‘꿈의 무대’로 불릴 만큼 치열한 경쟁률을 자랑하는 학회로, 단 한 편만 채택돼도 큰 의미를 가진다. 이번 성과는 국내 연구진으로서는 매우 이례적인 기록으로, 연구 역량을 세계적으로 입증한 사례로 평가된다. 이 교수는 “솔직히 과정이 쉽지 않았다”며 “여러 연구자분들로부터 좋은 평가를 받을 수 있어 감사하다”고 소감을 전했다. 겸손한 말투였지만, 그 속에는 수많은 실험과 검증, 밤샘 토론이 쌓인 연구의 무게가 담겨 있었다.
이번에 게재된 4편의 논문은 각각 다른 주제를 다루고 있지만, 모두 Reliable AI(신뢰할 수 있는 인공지능)이라는 하나의 방향을 향하고 있다.
첫 번째 논문은 인공지능이 새로운 지식을 학습할 때 기존 지식을 잊어버리는 Catastrophic Forgetting(카타스트로픽 폴게팅) 문제를 다룬다. 사람으로 치면 새 언어를 배우느라 모국어를 까먹는 것과 비슷한 현상이다. 이 교수는 “모델이 과거에 배운 내용을 유지하면서도 새로운 정보를 효율적으로 학습할 수 있는 이론적 기반을 제시했다”며, “AI에 ‘망각 방지 시스템’을 부여한 연구”라고 설명했다.
두 번째 논문은 Neural Process(뉴럴 프로세스) 모델에 Test-Time Scaling(테스트 타임 스케일링) 개념을 결합함으로써, 모델의 일반화 성능, 즉 처음 보는 문제를 유연하게 해결하는 능력을 크게 향상시킨 연구 결과를 제시했다.
세 번째 논문은 데이터 부족 문제를 해결하기 위한 새로운 접근으로, 대규모 언어모델(LLM)을 활용해 데이터를 증강하는 새로운 방법, 즉 Data Augmentation(데이터 증강) 기법을 제시했다. 일종의 AI판 ‘Data Pumping(데이터 펌핑)’ 기술인 셈이다.
마지막 논문에서는 LLM이 잘못된 정보를 필요 이상으로 확신에 차서 전달하는 Overconfidence(과신)문제를 다뤘다. AI가 자신이 얼마나 확신하는지를 스스로 판단할 수 있도록 Confidence Calibration(신뢰도 캘리브레이션) 기법을 개선했다.
이 교수는 이번 논문들이 높은 평가를 받은 이유로 "이론적 완결성과 실용적 확장성의 조화"를 꼽았다. 그는 “Continual Learning(컨티뉴얼 러닝) 논문은 과거 지식을 잊지 않게 하는 효율적인 학습 방법론을 제시했고, Test-Time Scaling(테스트 타임 스케일링) 논문은 Neural Process(뉴럴 프로세스)에 최적화 기법을 접목해 높은 성능을 보였다.”며 "나머지 논문들도 실제 산업적 문제를 해결하는 구체적인 대안을 제시했다"고 설명했다.
그러나 연구 과정은 결코 순탄치 않았다고 회상했다. "이론적으로 증명한 내용이 실제 모델에서 그대로 작동하는 건 전혀 다른 문제"라고 그는 말했다. 모델의 복잡도와 태스크 간 편차로 인해 실험 검증이 매우 어려웠다는 것이다.그는 “수없이 많은 시행착오 끝에 이론과 실험의 간극을 좁혔을 때, 그 순간이 가장 보람찼다"고 말했다.
이 교수는 이번 연구들이 단순한 학문적 성과에 그치지 않고, 산업과 사회 전반에 실질적인 기여를 할 수 있을 것으로 내다봤다. 그는 "LLM 학습에 필요한 데이터가 부족할 때 이번 연구의 데이터 증강 기법이 실제로 활용될 수 있다"며 "AI가 사회 변화에 적응하는 시대에는 과거 학습을 잊지 않는 기술이 필수적"이라고 강조했다. 또한 "신뢰도 기반 연구는 의료 분야의 AI 진단에도 응용 가능하다"고 덧붙였다. 그는 “AI가 자신이 얼마나 확신하는지를 정확히 표현할 수 있어야 한다”며, ”특히 의료처럼 사람의 생명과 직결된 분야에서는 그래야 인간이 신뢰하고 사용할 수 있다”고 설명했다.
이번 성과는 국내외 연구진과의 긴밀한 협업을 통해 이루어졌다. 이 교수는 "혼자 쓴 논문은 하나도 없다"며 협업이 좋은 연구의 출발점임을 강조했다. 이번 연구에는 일본 이화학연구소(RIKEN), 영국 임페리얼 칼리지 런던(Imperial College London), 미국 뉴욕대학교(New York University), 그리고 모교인 한국과학기술원(KAIST)의 대학원생들이 함께했다.
그는 "공동 연구의 가장 큰 장점은 다른 사람에게 설명하는 과정에서 스스로 정리가 되고, 새로운 시각의 아이디어를 얻을 수 있다는 점"이라며 "혼자보다 함께할 때 더 빠르고 깊은 연구가 가능하다"고 말했다.
이 교수는 “AI가 자신이 얼마나 확신하는지를 정확히 표현할 수 있어야 한다”며, 이를 위해 LLM의 Confidence Calibration(신뢰도 캘리브레이션)과 Bayesian Neural Network(베이지안 뉴럴 네트워크)기반 연구를 이어갈 계획이라고 밝혔다. 그는 마지막으로 "사람들에게 실질적인 신뢰를 줄 수 있는 연구야말로 진정한 의미의 좋은 연구"라며 "협력 속의 성장이 좋은 연구 환경의 핵심"이라고 강조했다.
이현기 교수의 네 편의 논문은 신뢰성·지속학습·데이터 효율화·확신도 검증이라는 네 가지 축을 통해 미래 인공지능의 방향성을 제시한다. 그의 연구는 단순한 기술적 진보를 넘어, 인공지능이 인간 사회 속에서 진정으로 신뢰받는 존재로 자리 잡을 수 있는 기반을 다지고 있다.
인터뷰를 마치며, 이 교수는 연구자이자 교육자로서의 신념을 덧붙였다. “좋은 연구는 결국 스스로의 확신에서 출발한다”며, “연구의 가치는 크기나 인용 수가 아니라 얼마나 꾸준히, 진정성 있게 탐구하느냐에 달려 있다”고 강조했다. 그는 작은 주제라도 그 하나하나의 성과가 쌓여 새로운 발전으로 이어진다는 믿음, 그리고 자신의 연구를 끝까지 밀고 나가는 태도가 진정한 연구자의 자세라고 말했다. 뿐만 아니라 “AI가 단순히 정답을 제시하는 기술을 넘어, 스스로 판단의 근거와 한계를 인식하는 ‘책임 있는 지능’으로 발전하길 바란다”며, “학생들과 함께 그런 미래를 만들어가고 싶다”고 포부를 밝혔다.
|
|||||














