본문 바로 가기

로고

국내 최대 기계 및 로봇 연구정보
통합검색 화살표
  • Particleworks(CFD S/W)
  • M-Terview

    (연구자 인터뷰)

    연구자 인터뷰는 기계.건설공학 분야의 종사자의 추천 및 자체 선정을 통해 선발된 우수 연구진을
    직접 방문하여 연구 정보를 취합하여 제작하고 있습니다. 주변에 알리고자 하시는 분이 계시면
    연구자료 인터뷰 신청을 통해 신청해 주세요.

    • 이승철 교수
      AI+X를 위한 딥러닝 기반 산업인공지능 요소 기술 개발
      이승철 교수(POSTECH 기계공학과)
      이메일:seunglee at postech.ac.kr
      장소:서면 인터뷰
      3881 5 1


    안녕하세요. 메트릭 회원 여러분!
    인공지능 기술의 발전으로 기계가 상식에 기초한 예측을 할 수 있게 된다면 모바일 비서나 로봇수송, 의료, 보육 등 우리의 일상에 실제로 도움이 되는 간단한 일을 수행할 수 있게 될 것입니다.

    오늘 인터뷰에서 만나 보실 이승철 교수님(POSTECH 기계공학과)은 다양한 산업 시스템 및 기계·전기 시스템을 분석/진단 및 제어하기 위한 인공지능을 연구하고 계시는 분이십니다. 최적화, 기계학습, 신호처리, 확률, 제어 등 융합 연구를 위한 인공지능과 시스템 통합에 대한 중점적으로 이야기해보도록 하겠습니다.


    1. 포항공과대학교 기계공학과의 산업인공지능 연구실에 대한 소개 부탁드립니다.

    포항공과대학교 기계공학과의 산업 인공지능 연구실은 2018년 시작하여 현재 이승철 교수를 중심으로, 박사 후 연구원 1명, 박사과정 2명, 통합과정 7명, 석사과정 6명, 총 16명의 연구원 및 대학원생으로 구성되어 있습니다. 우리 연구실에서는 다양한 산업 시스템 및 기계·전기 시스템을 분석/진단 및 제어하기 위한 인공지능을 개발하고 있으며, 최적화, 기계학습, 신호처리, 확률, 제어 등 융합 연구를 통해 기계 시스템, 재료, 의료 분야에 인공지능을 적용하는 연구를 최근에 하고 있습니다.




    2. 산업현장에서 기본적인 진단 및 분류는 기존의 방식과 비교해서 어떤 방식이 개선되었는지 자세한 설명 부탁드립니다.

    산업 현장에서 진단 및 분류를 수행하기 위해 크게 2가지(모델 기반 방식, 데이터 주도 방식) 메인 패러다임이 존재해왔습니다. 딥러닝이 각광 받기 이전 대부분의 산업 현장에서 사용된 모델 기반 방식은 시스템의 동작에 대한 물리적 현상을 모델링함으로써 문제를 해결하는 결정론적 방법을 사용했습니다. 모델 기반 방식은 해당 시스템에 대한 깊은 이해에 의존하며 현상을 과학적으로 설명할 수 있는 강력한 장점을 토대로 시스템 지향적으로 문제를 해결해왔습니다. 이는 높은 정확도를 가질 수 있고, 관련된 지배 방정식을 기초로 하여 하나의 시스템에서 또 다른 시스템으로 전달성이 좋습니다. 마지막으로, 산업에서 중요한 시스템의 scale up을 위한 완벽한 도구로 많이 이용되어 왔습니다. 하지만, 반대로 여러 문제점 발생하는데, 해당 도메인에 대해 깊이 알고 있는 엔지니어가 없다면 모델을 디자인할 수 없습니다.

    다중 물리 현상과 같은 복잡한 환경에서는 모델을 해석할 수 없기 때문에 문제를 단순화시켜야 하고, 이로 인해 파생되는 불확실성과 에러로 인해 예측하지 못한 결과를 얻을 수 있습니다. 또한, 모델링을 위한 시간이 많이 소요되기 때문에 물적, 시간적 비용이 높은 단점이 있습니다.

    반대로 최근 들어 각광받고 있는 데이터 주도 방식은 시스템의 작동 원리와는 상관없이 입력과 출력 데이터 사이의 관계를 모델링하는 확률론적 방법입니다. 이 방식은 머신러닝과 딥러닝 두 가지로 나누어지는데, 머신러닝은 특성인자 추출 및 kernel mapping과 같이 시스템의 물리적 현상에 대한 지식을 여전히 필요로 하는 반면, 딥러닝은 모델 자체에서 특성 인자 추출 및 디자인을 해주는 end-to-end 방식입니다.

    딥러닝은 도메인 지식이 부족한 비전문가도 데이터만 있다면 문제를 모델링하고 해결할 수 있어 여러 산업에서 다양하게 응용되고 있고, 그 성능 역시 모델 기반 방식 또는 머신러닝 방식을 뛰어넘는 사례를 많이 보입니다. 하지만 이러한 데이터 주도 방식 역시 여러 단점을 가지고 있는데, 가장 대표적으로 인과관계와 상관관계에 대한 오류를 가지고 올 수 있습니다.

    데이터는 일어난 현상 그 자체를 설명할 뿐, 이 현상이 발생한 이유에 대해 설명해주지 않습니다. 또한, 딥러닝은 입력 데이터와 출력 데이터 사이의 관계를 학습하지만, 중간과정은 알 수 없는 black-box 모델이기 때문에 데이터만을 근거로 산업에 적용하는 것은 굉장히 위험할 수 있습니다. 두 번째로, 학습 데이터의 수가 적다면 과적합(Overfitting) 문제를 발생시킬 수 있어 시스템의 일반화된 성능을 얻을 수 없으며, 노이즈가 많은 데이터라면 학습 결과의 신뢰성을 얻을 수 없습니다. 이러한 이유로 최근 기업에서는 양질의 빅데이터를 구축하는 추세이며, 연구자들은 설명 가능한 인공지능 알고리즘 개발에 집중하여 단점을 보완하고자 노력하고 있습니다. 미래에는 물리 기반 모델과 데이터 주도 방식을 상호보완하기 위해 2가지 방식이 결합된 물리 기반 인공지능(Physics-Informed AI)가 궁극적으로 지향되어야 할 방향이 될 것 같습니다.
     





    3. 기계시스템에 인공지능을 이용하기 위한 CNN, RNN 기반 심층 신경망 모델링은 어떤 것이며, 어떤 식으로 활용이 되는 건가요?

    대부분의 제조라인에서 조립 품질을 정량화하기 위해 음향 또는 진동 센서 등의 다양한 센서를 부착하여 데이터를 취득하고 이를 분석하고 있습니다. 일반적으로 분석에는 전문가의 지식과 경험이 이용됩니다. 예를 들면 기어 결함 주파수와 같이 고장에 관계된 특정 주파수를 감시하여 제품의 품질과 설비의 건전성을 확인합니다. 하지만 생산 공정이 복잡해지면서 몇 개의 인자 크기를 단순 비교하는 방법으로는 제품의 품질을 정확하게 예측하기가 쉽지 않아졌습니다. 학습 과정 중 데이터의 패턴을 스스로 분석할 수 있는 인공지능을 적용한다면 시스템의 상태 예측 정확도를 증가시킬 수 있을 것이라 기대할 수 있습니다.

    합성곱 신경망은 이미지 분류 분야에서 높은 성능을 보이는 구조로 학습 과정에서 이미지를 분류하기 위한 최적의 커널을 학습합니다. 소음 진동 분야에서는 음향 또는 진동 데이터를 취득하고 Short-Time Fourier Transform (STFT)를 통해 시간-주파수에 대한 이미지를 분석하기 때문에 합성곱 신경망은 제품 품질을 예측하는 데 효과적으로 사용될 수 있습니다. Fig 3은 음향 데이터의 시간-주파수 이미지에 대한 합성곱 신경망 적용 예시입니다. 전통적인 분석 방법으로는 시간-주파수 이미지에서 특정 시간대 혹은 특정 주파수대의 비정상적인 패턴을 확인하여 고장의 유무를 확인하기 때문에 전문가의 지식을 통해 특정 주파수나 시간의 위치(특성 인자 추출)가 선행적으로 결정되어야 했습니다. 하지만 딥러닝의 경우 정상 이미지와 비정상 이미지를 구분하기 위한 커널을 스스로 학습하고 이미지의 정상/비정상을 예측합니다. 주파수의 크기와 같은 단순한 형태부터 추상적인 형태의 특성 인자까지 다양하게 학습될 수 있으며, 뿐만 아니라 특성 인자는 합성곱 신경망의 성질 (convolution layer and pooling layer) 때문에 공간 불변성 (spatial invariance)도 지닐 수 있어 노이즈에 강건한 예측 결과를 추론할 수 있습니다. 결과적으로 이미지 분석에 사용하는 합성곱 신경망은 진동 데이터로부터 제품의 품질과 설비 건전성을 예측하는 산업 인공지능으로 탈바꿈합니다.

     



     

    인공지능은 앞선 예시와 같은 분류 문제뿐만 아니라 설비의 현재 상태를 반영하여 남은 수명을 예측하기 위해서도 사용할 수 있습니다. 소음, 진동 데이터와 같은 시계열 데이터를 이용하여 분석하는 대표적인 딥러닝 구조로 순환 신경망(recurrent neural network, RNN)을 예로 들 수 있습니다 (Fig 4).






    순환 신경망으로 예측된 수명은 사용자 경험에 의한 단순 역치(threshold) 기반이 아닌, 시계열 데이터의 동적 특성이나 패턴을 반영한 형태이기 때문에 보다 정확한 설비 정비시기를 결정하는 데 적합합니다. (Fig 5) 이를 통해 설비 유지보수 비용을 획기적으로 줄일 수 있습니다.






    4. 딥러닝 진단 기술은 산업 전반에 사용하면 효율적이지만 오류 가능성을 걱정해야만 할 것 같습니다. 처리 부분의 한계점 및 새로운 대안은 없는 건지 궁금합니다.

    딥러닝이 항상 완벽한 결과를 내는 것은 아닙니다. 딥러닝은 기본적으로 확률과 통계를 기반으로 하기에 항상 옳은 결과를 내는 것은 불가능하며, 오직 통계적으로 가장 가능성이 높은 결과를 제시할 뿐입니다. 자율주행 자동차의 경우 차체에 부착된 여러 센서를 통해 주변 환경의 정보들을 받아들입니다. 이러한 정보들에는 기존에 학습에 사용되었던 데이터와 유사한 데이터들이 있을 수 있고, 기존과는 전혀 다른 데이터가 포함되어있을 수 있습니다. 기존의 학습 데이터와 유사한 데이터라면, 결과를 어느 정도의 확신을 갖고 예측을 할 테지만, 기존과 다른 데이터가 들어온다면 모델은 기존의 정보들을 통해 어느 정도의 확률을 가지고 추론을 해야만 합니다. 그러나 이러한 추론이 어떠한 과정을 통해 도출되었는지는 black-box인 딥러닝의 특성상 알기가 어렵습니다.





    위와 같은 문제를 해결하기 위해 여러 방면의 접근이 이루어지고 있습니다. 자율주행 자동차의 경우 최대한 많은 주행을 통해 다양한 상황의 데이터를 수집하여 모델의 추론능력을 향상시키는 방향으로 문제를 해결하고 있으며 컴퓨터 비전에서는 결과에 대해 해석 가능한 모델을 개발함으로써 root-cause analysis를 시도하고 있습니다. 앞으로의 미래에는 활용 가능한 데이터의 양이 늘어나고, 결과에 대한 설명이 가능한 모델이 개발됨으로써 딥러닝의 활용도는 점차 넓어질 것으로 생각합니다.



    5. 삼성전자, 현대자동차, 포스코, 두산중공업, 서울성모병원 등 오랫동안 여러 분야와 함께 협력하여 연구도 진행하시는 것을 알고 있는데요. 구체적으로 어떤 연구를 함께 진행하고 계시는지 궁금합니다.






    5.1. 제조 분야

    제조(manufacturing) 환경에서는 제조/공정 설비를 통해 획득할 수 있는 각종 신호와 공정 이력, 시뮬레이션과 실험을 통해 얻을 수 있는 다양한 조건과 결과 등 무수히 많은 데이터가 발생하고 있습니다. 우리 연구실에서는 이러한 데이터와 인공지능 기술을 활용하여 시스템, 설비 등을 진단 및 분류하고, 알맞은 공정 조건 및 상황을 예측하며, 설계에 직·간접적인 도움을 줄 수 있는 연구를 수행하고 있습니다.

    (1) 인공지능을 이용한 진단 및 분류는 주로 진동 신호의 통계적 분석과 주파수 분석에 의존해왔습니다. 이와 같은 방식은 많은 전문 지식, 비용 및 시간을 수반하기 때문에 효율적이지 않으며 성능 개선 또한 쉽지 않습니다. 아울러, 분석 방법이 한정적이기 때문에 실제 현장에서 발생하는 문제를 해결하는 데 한계가 있습니다.
    산업인공지능 연구실에서는 실제 현장에서 필요한 성능 개선과 효율성을 제고하기 위하여 진단 및 분류를 위한 인공지능 알고리즘에 대해 연구하고 있습니다.








    여러 시스템에서 획득할 수 있는 신호를 진단, 분류하기 위해서는 특성을 잘 나타낼 수 있는 특성 인자를 우선적으로 추출한 뒤, 이를 다양한 알고리즘으로 진단, 분류하게 됩니다. 엔지니어의 배경지식을 활용하여 신호로부터 특성 인자를 추출해 SVM(support vector machine)과 같은 머신러닝 알고리즘이 빈번하게 사용되어 왔지만, 데이터의 유형이 다양해지고 그 수가 증가하면서 딥러닝 알고리즘 적용에 관한 연구를 활발하게 수행하고 있습니다. 이는 특성 인자 추출을 스스로 수행할 뿐만 아니라 높은 성능을 갖고 있습니다. 이와 관련한 사례로, 우리 연구실에서는 풍력 터빈의 베어링 결함 탐지를 위한 진동 신호의 다양한 이미지화 전처리 개발 및 적용한 바 있으며, CNN을 통한 다중 고장 신호 분류 기술을 보유하고 있습니다. (Fig 8)

    아울러, 진동 신호와 함께 소리 신호에서도 STFT (Short Term Fourier Transform)의 전처리 및 CNN 분류 알고리즘을 통해 아주 높은 성능의 고장 세부 유형 진단을 할 수 있었으며, 실시간으로 이를 파악할 수 있는 소프트웨어를 개발하였습니다.

    진단 분야에서 정상/고장 등의 상태를 정확하게 판단하는 것도 중요하지만, 결과에 대한 직관적인 이해를 돕고 딥러닝 모델의 판단 근거를 파악하기 위해서는 이를 위한 인공지능 모델 개발이 필요합니다. 딥러닝 알고리즘의 블랙박스 문제를 해결하고, 설명 가능한 인공지능 모델을 개발하기 위해 CAM(class activation map)을 적용한 연구를 수행하고 있습니다. 외팔보 예시를 통해 범주별로 차이를 내는 부분, 즉 진동이 더 심한 부분을 집중하는 것을 확인하였습니다. (Fig 9)
    해당 연구를 통해 실제 복잡한 기계 시스템을 영상을 이용해 저비용으로 진단할 수 있을 것으로 기대하고 있습니다.







    아울러, 딥러닝 기반 재료의 다상 미세조직 분류에 관한 연구를 수행하고 있습니다. 현재 다상 미세조직을 구분하려면 엔지니어의 배경지식을 많이 필요로 하는 상황이며, 분류 결과 또한 정확하지 않습니다. 각 범주별 미세조직 이미지를 딥러닝 알고리즘으로 학습하여 육안 분류가 어려운 재료의 다상 조직을 높은 정확도로 분류해 낼 수 있는 연구를 진행하였습니다. (Fig 10)





    (2) 인공지능을 이용한 예측은 공정, 실험, 시뮬레이션 등에서 앞으로 발생할 경우에 대해 분석을 제공하며 공정 및 설계에 도움을 줄 수 있는 연구입니다. 우리 연구실은 시뮬레이션 데이터와 실제 공정 및 실험 데이터의 융합을 통한 인공지능 기반 공정 제어 연구를 수행하고 있습니다. 사출 성형에 필요한 공정, 재료, 형상 등 수많은 조건의 불확실성을 개선하기 위해 시뮬레이션 데이터와 실제 데이터의 관계를 분석하고, 이를 전이학습을 통해 학습에 함께 사용할 수 있도록 연구한 바 있습니다. 이를 통해 사출 성형의 공정 조건을 추천해주는 시스템을 개발하고 있습니다. (Fig 11)





     

     

    아울러, 철강 연속주조공정의 주편 온도 예측 모델과 2차 냉각수량 도출 모델 개발을 진행하고 있습니다. (Fig 12)

     







    시계열 데이터 형태의 실제 공정 데이터와 시뮬레이션 데이터를 RNN 알고리즘으로 학습하여 현재 주편의 온도와 목표 온도로 가기 위한 냉각 수량 도출할 수 있습니다. 해당 기술은 실제 현장에서 주편 온도를 알기 위한 시뮬레이션 계산의 한계를 극복하고, 고비용 피드백 제어를 통해 필요 냉각수량을 도출하는 높은 비용을 개선할 수 있을 것으로 기대하고 있습니다. 재료 다상 이미지의 고화질 이미지 복원을 위한 연구도 진행하고 있습니다. 재료 이미지의 경우 바로 사용하기에 해상도가 낮은 경우가 많기 때문에 해상도를 높일 수 있는 모델 개발이 필요합니다. 우리 연구실에서는 이를 위해 CNN과 GAN(generative adversarial network) 알고리즘을 기반으로 저화질 이미지의 해상도를 높일 수 있는 SR(super resolution) 연구를 진행하고 있습니다. (Fig 13)





    5.2. 의료 분야

    인공지능을 의료 분야에 적용한 기술 개발 및 연구도 활발하게 진행하고 있습니다. 우리 연구실과 서울성모병원, 부천성모병원과 협력하여 인공지능 기반 판별과 분석에 대한 연구를 수행하고 있으며, 특히 사람의 생명과 관련된 의료분야인 만큼 매우 뛰어난 성능뿐만 아니라 강건한 알고리즘을 개발하고 적용하는 연구를 지속하고 있습니다. 내시경 영상과 같이 데이터가 영상으로 저장되는 경우 사람이 분석하기에 시간이 매우 오래 걸릴 뿐 아니라 정확도의 차이를 야기시킬 수 있습니다. 우리 연구실은 내시경 영상을 이미지 단위로 나누어 각 범주별 이미지를 저차원으로 임베딩하여 분류할 수 있는 기술을 보유하고 있습니다. 또한, 해당 모델이 판단한 중요한 부분을 확인하기 위하여 CAM을 적용하였고, 병변이 있는 부위를 주목하는 것을 확인하였습니다. (Fig 14)






    또한, 몇 가지 유형의 기침 소리를 담고 있는 음성 신호 분석을 통한 연하 장애 판별 모델을 개발하였습니다. 정상인과 연하 장애를 갖고 있는 환자의 기침 소리의 데이터를 이미지화하기 위한 STFT, MFCC(mel frequency cepstrum coefficient) 등의 전처리를 적용한 후 CNN을 통해 판별하는 알고리즘을 개발하였으며, 매우 높은 성능으로 이를 구별한다는 것을 확인하였습니다. 마지막으로, 의료 분야의 생산, 제조에 인공지능을 적용하기 위하여 줄기세포치료제의 줄기세포 평가 및 선별 연구를 수행하고 있습니다. (Fig 15)
    이를 통해 인공지능을 이용한 기능성 줄기세포 선별 정확도를 향상시킬 수 있을 것으로 기대하고 있습니다.







    6. 연구 진행 중 어려운 점이 있었다면 어떤 점이었으며, 어떻게 해결해 오셨는지 알려주세요.

    인공지능을 기반기술로 사용하는 만큼, 데이터가 연구의 큰 비중을 차지하며, 분야가 다양한 만큼 데이터 확보를 위해 해당 분야의 다른 기관들과 협업을 위주로 연구를 진행하고 있습니다. 인공지능 기술이 점차 대중화되는 현시점에서, 아직은 인공지능이라는 분야가 일반 대중들에게 생소할 것으로 생각됩니다. 이는 협업을 하는 다른 기관에도 적용이 되는데, 인공지능에 대한 지식(인공지능의 적용 가능 범위, 인공지능의 한계)이 없다면, 현실적인 연구 주제를 수립하기 어렵습니다. 또한, 데이터의 질 또한 매우 중요하기 때문에 이에 적합한 전처리 작업이 요구되는 경우가 많습니다. 협업하는 기관이 이러한 사항들을 자세히 알지 못한 경우, 시행착오가 잦아질 수 있습니다.

    데이터 측면에서 발생하는 또 다른 문제점은, 산업 현장에서 확보 가능한 데이터는 대부분 불균형(Imbalance)한 경우가 많습니다. 인공지능은 데이터 기반이기 때문에, 불균형한 데이터로부터 학습된 인공지능 모델은 신뢰할 수 없다는 문제가 있습니다. 마지막으로, 딥러닝의 경우에 모든 과정이 Black-Box로서 해석 가능하지 않다는 점에서 산업 현장에 적용하기에는 여전히 큰 장벽이 있습니다. 따라서, 최근에는 이러한 딥러닝 모델이 어떠한 근거로 의사결정을 했고, 더 나아가 물리적으로 어떤 의미가 있는지를 파악하는 해석 가능한 딥러닝 모델의 연구가 진행되고 있습니다.



    7. 기업 구글(Google)은 딥러닝의 대가인 Hinton 교수를 영입하고, 기계 학습 전문 기업 딥마인(DeepMind)와 네스트(Next)를 거액에 인수하는 등 우수한 연구진을 확보하여 기계학습 연구에 많은 투자를 하고 있습니다. 교수님께서 생각하시는 국내 상황과 국외상황을 구체적으로 비교해 주신다면 어떤 실정인가요?

    인공지능은 4차 산업혁명에 필수적인 요소 중 하나입니다. 인공지능 분야는 우수한 인재와 데이터의 양, 질적 차이에 의존하며 AI 핵심 기술력은 시간 흐름에 따라 가속화되어, 후발 주자가 따라가기 힘든 구조로 되어있습니다. 최근 많은 국가 및 기업들이 인공지능 분야 선점의 중요성을 알고 AI 관련 분야에 막대한 투자를 하고 있지만, 해외와 국내의 인공지능 기술 격차는 아직 상당한 수준입니다.

    인공지능 분야에서 저명한 회사들은 대표적으로 구글, 페이스북, 바이두가 있습니다. 이러한 해외 기업에서는 인공지능 기술에 가장 중요한 부분을 인력으로 판단하고, 발 빠르게 우수한 인공지능 연구진을 확보해왔습니다. 이러한 노력으로 구글은 2013년 제프리 힌턴이 설립한 ‘DNN 리서치’를, 2014년에 딥마인드를 인수하였습니다. 2014년 당시 딥러닝 분야의 전문가 중 20%가 딥마인드에 있었기에 구글은 회사의 가치보다 인재의 영입을 중요시했던 것으로 볼 수 있습니다. 또한 구글은 2016년 캐나다 몬트리올 대학교에 AI 연구소를 설립하고 AI 기술력을 확보한 대학 연구소와 글로벌 협력을 추진하였습니다.

    해외뿐 아니라 국내 기업에서도 인공지능 기술을 선점하기 위한 많은 투자를 하고 있습니다. 삼성은 AI를 미래 핵심사업 중 하나로 간주하고 AI 역량 강화에 힘쓰고 있습니다. 2017년 몬트리올에 인공지능 랩을 설립하여 요수아 벤지오 교수와 공동으로 영상, 음성인식, 자율주행 분야의 AI 알고리즘을 개발 연구를 진행하고 있습니다. 또한, AI 전문 분야 인력 부족 문제를 극복하기 위해 한국, 미국, 영국 등 5개국에 AI 연구센터를 설립하였고, 세바스찬 승 미국 프린스턴대 교수와 대니얼 리 코넬테크 교수, 위구연 미국 하버드대 교수를 영입하였습니다. 네이버는 2017년 제록스리서치센터유럽(XRCE)를 인수하고 홍콩과학 기술대학과 ‘네이버-홍콩과기대 AI연구소’를 설립하였으며, 관련 인재 확보를 위해 노력하고 있습니다.

    AI 강대국이 되기 위해서는 기업뿐 아니라 국가의 제도적인 지원도 필요합니다. 최근 인공지능 관련 학과의 대학교수들의 사기업 겸직 제한을 풀어, 교수들의 연구역량과 기업들의 현장 경험이 섞일 수 있도록 방안을 마련하였습니다. 글로벌 기업은 AI 기술력 확보를 위해 투자와 M&A를 확대하는 등 선제적 AI 기술 경쟁력 강화에 집중하고 있습니다. 국내 기업 또한 AI 우수 인력을 확보하는 것이 매우 중요하며, 글로벌 시장 인재를 대상으로 국가와 기업의 적극적이고 유연한 협력을 도모할 필요가 있습니다.



    8. 딥러닝은 만능이 아니므로 해결하고자 하는 문제에 집중해야만 합니다. 최적의 결과를 얻기 위해 선행 연구 분석과 기계학습, 수학적 모델링 기법 등 전략적인 공부가 필요한데요. 구체적으로 어떤 공부를 하면 좋을까요?

    인공지능을 효율적으로 활용하기 위해서는 머신러닝, 딥러닝 분야에 대한 전반적인 지식이 있어야 필요한 모델을 선정할 수 있습니다. 또한 알고리즘을 이해하기 위해서는 선형대수, 확률 및 통계 등의 수학적 지식이 요구됩니다. 인공지능 모델을 실제로 사용하기 위해서는 파이썬 라이브러리인 TensorFlow나 PyTorch 등을 사용할 수 있도록 기본적인 코딩 실력도 갖추어야 합니다.

    하지만 가장 중요한 것은 기계공학 분야의 이해가 밑받침이 되어야 기계분야의 문제에 인공지능을 올바르게 사용할 수 있다는 것입니다. 기계공학 분야의 토대가 없이 인공지능만으로 문제를 해결하려는 것은 원리를 모르고, 결과가 보장되지 않는 수많은 시도를 거듭하게 할 뿐입니다.

    산업인공지능 연구실은 홈페이지를 통해 인공지능을 사용하기 위해 기초적으로 수강해야 할 강의들을 온라인으로 제공하고 있습니다. 인공지능 분야의 연구 활성화를 위해 제한 없이 개방하고 있으니 많은 이용 부탁드립니다.

    (http://iai.postech.ac.kr/index.php/machine-learning/)


    9. 이런 연구에 힘입어 앞으로 연구 계획 중인 연구나 또 다른 목표가 있으신지 궁금합니다.

    현재, 4차 산업혁명을 말미암아 산업 전반적으로 AI와 융합하여 유의미한 변화가 시작되고 있습니다. 따라서 AI와 산업의 융합이 시작 단계이기에 연구의 주제들이 산발적으로 넓게 퍼져있는 상황입니다. 이런 상황에서, 산업인공지능 연구실은 AI를 활용하는 AI+X 연구 분야에서 선택과 집중을 할 예정이고, 기계공학 분야에서 AI를 적용하면서 공통적으로 발생하는 문제점을 파악하고, 이를 해결하며 기계공학 분야에서 AI+X 분야를 선점해 나갈 것입니다.

    공통적으로 발생하는 몇 가지 문제점을 예로 들자면, 실제의 기계 시스템에서는 비정상 상태보다 정상 상태가 압도적으로 많은 편이고, 이로 인해 데이터의 불균형이 발생하게 됩니다. 이렇게 된다면 단순히 모든 데이터를 정상 상태로 판단하여도, 정확도가 높게 측정이 됩니다. 두 번째로, 기계시스템에서 각종 센서로 측정된 시계열 데이터 분석은 컴퓨터공학 분야의 자연어 처리와는 다른 부분이 있습니다. 기계 시스템의 시계열 데이터에 적합한 인공지능 모델을 개발할 필요가 있습니다. 세 번째로, 현재 대부분의 AI 연산 과정은 Black-box로, AI 결과를 설명하기 힘든 문제점이 있습니다. 하지만 산업 현장의 기계시스템에 AI를 적용하기 위해서는, 산업 현장의 전문가를 설득할 수 있어야 합니다. 따라서 다른 분야보다 AI 결과를 설명이 할 수 있는 설명 가능한 인공지능이 특히 중요합니다.

    이렇게 기계공학 분야의 AI+X에서 공통적으로 발생하는 문제점은 컴퓨터공학의 순수한 AI 관점과는 다르게 접근하여 해결하여야 한다고 생각합니다. 이러한 견해로, 저희 산업인공지능 연구실은 기계공학 분야에 적합한 AI+X를 계속해서 연구하여, 기계공학 분야의 AI+X가 가지는 한계점을 극복하고, 이 분야의 혁신을 불러올 것입니다. 이런 과정을 거쳐, 궁극적으로 CAE(Computer-Aided Engineering)라는 학문에서 더 나아가, AIAE (Artificial Intelligence-Aided Engineering)라는 새로운 학문 분야를 개척해 나가는 목표를 가지고 있습니다.



    10. 앞으로 관련 분야를 공부하는 후학(대학원생들)에게 이 분야의 연구에 대한 비전을 제시해 주신다면.

    알파고 이후 인공지능에 대한 인식과 관심이 높아짐과 동시에 인공지능 연구뿐만 아니라 인공지능을 산업에 적용하려는 연구 분야(AI+X)도 각광 받기 시작했습니다. 하지만, AI+X는 융합 분야이기 때문에 서로 상이해 보이는 분야를 공부해야 하고, 인공지능 자체도 너무나도 빠르게 발전하고 있어 따라가기도 쉽지 않습니다.

    또한, 산업인공지능은 많은 연구가 되지 않은 분야로 미래에 대한 불확실성도 분명히 존재하여, 여러분들이 직접 걸으면서 새로운 길을 만들어 가야 합니다. 하지만, 이는 반대로 말하면 새로운 분야이기 때문에 연구주제가 무궁무진하고, 모든 연구가 최초라고 생각할 수 있을 만큼 매력적이라고 생각합니다. 뿐만 아니라 현재 학교, 연구소 및 기업 등 여러 기관에서 인재 채용을 위해 공격적인 투자를 진행하고 있으며, 앞으로도 더 많은 우수 연구인력을 사회가 필요로 할 것이라고 예상합니다.


     

    • 페이스북아이콘
    • 트위터 아이콘

    전체댓글 1

    [로그인]

    사용자 프로필 이미지
    |2020.08.23
    유익한 정보 감사합니다.
    댓글 입력란
    프로필 이미지
    0/500자
    댓글 입력란
    프로필 이미지
    0/500자

    서브 사이드

    서브 우측상단1