KR20220114691A - 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템 - Google Patents

기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템 Download PDF

Info

Publication number
KR20220114691A
KR20220114691A KR1020210018004A KR20210018004A KR20220114691A KR 20220114691 A KR20220114691 A KR 20220114691A KR 1020210018004 A KR1020210018004 A KR 1020210018004A KR 20210018004 A KR20210018004 A KR 20210018004A KR 20220114691 A KR20220114691 A KR 20220114691A
Authority
KR
South Korea
Prior art keywords
image
information
neural network
artificial neural
learning data
Prior art date
Application number
KR1020210018004A
Other languages
English (en)
Other versions
KR102643766B1 (ko
Inventor
김서규
최정헌
안승도
Original Assignee
주식회사 큐에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 큐에스 filed Critical 주식회사 큐에스
Priority to KR1020210018004A priority Critical patent/KR102643766B1/ko
Publication of KR20220114691A publication Critical patent/KR20220114691A/ko
Application granted granted Critical
Publication of KR102643766B1 publication Critical patent/KR102643766B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 기계학습 및 증강현실 기술을 이용하여 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법 및 시스템에 관한 것이다.
본 발명의 일 실시예에 따른 객체 정보 표시 시스템은, 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 서버; 및 적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하고, 상기 식별 정보를 참조하여 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단말; 을 포함한다.

Description

기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템 {The method and the system of displaying the object information using machine learning and augmented reality(AR) technology}
본 발명은 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템에 관한 것으로, 보다 구체적으로는 기계학습 및 증강현실 기술을 이용하여 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법 및 시스템에 관한 것이다.
구조물의 유지관리를 하기 위해서는 수년간의 경험이 필요하고, 숙련자라 할지라도 신규 구조물 도입 시 이를 숙지하는데 오랜 시간이 소요된다. 통상 정비사들은 설비의 유지 보수를 위한 메뉴얼을 항상 휴대하여 유지 보수 업무를 수행하여 왔다.
종래의 2차원 메뉴얼은 단순히 구성요소의 설명과 2차원 도면으로만 각 부품을 확인할 수 있도록 작성되어 있어, 사용자가 부품의 상세 설명을 확인하거나 상세 구성을 분해, 조립, 회전, 확대, 축소하는 것이 불가하여 한계점이 있었다.
이러한 문제점을 해결하기 위하여, 실사영상을 기반으로 한 정비 메뉴얼 단말기를 제공하는 방법이 안출되었다. 선행기술문헌 1을 참조하면, 실사영상을 기반으로 한 정비 메뉴얼 단말기는 정비하고자 하는 영역을 카메라로 촬영하여 무선통신을 통해 정비가이드 관리 서버로 전송하고, 정비 가이드 관리 서버는 전송받은 실사영상을 분석하여 이에 따른 정비 가이드 영상을 무선통신을 통해 정비 메뉴얼 단말기로 전송함으로써, 정비하고자 하는 영역에 대해서 실사 영상으로 구현된 정비 가이드를 실시간으로 제공받을 수 있게 된다.
하지만, 종래의 객체 인식 기법은 객체가 가지는 특성을 설계하고 검출함으로써 객체를 찾아내는 방식으로만 진행되었다. 객체를 인식하기 위해 2차원 이미지가 중점적으로 사용되었으며, QR 코드와 같은 특정 마커에 기초하여 객체를 식별하는 기술이 주를 이루어 유사한 구조를 갖는 객체를 높은 정확도로 구분하여 인식하기 어렵다는 문제점이 있다.
1. 한국 특허 등록 제 10-1195446 호 (발명의 명칭 : 증강현실 기반의 정비 가이드 제공 단말기 및 이를 이용한 정비 가이드 제공 방법)
이에, 본 발명의 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 시스템은 단말에서 획득된 영상 내의 객체를 인식하고, 인식된 객체의 정보를 영상 상에 표시하는 기술을 제시함에 목적이 있다.
또한, 본 발명의 객체 정보 표시 방법 및 시스템은 객체의 3차원 모델을 이용하여 다양한 조건에 따른 객체 이미지를 학습 데이터로 생성하고, 이로부터 학습된 인공 신경망을 기초로 영상 내의 객체를 인식하는 방법을 제시함에 목적이 있다.
또한, 본 발명의 객체 정보 표시 방법 및 시스템은 인식된 객체에 대응되는 객체 정보를 영상 내 증강 현실로 표시하는 방법을 제시함에 목적이 있다.
또한, 본 발명의 객체 정보 표시 방법 및 시스템은 사용자의 피드백에 기반하여 인공 신경망을 갱신하는 방법을 제시함에 목적이 있다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 객체 정보 표시 방법은, 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법에 있어서, 적어도 하나의 객체를 포함하는 영상을 획득하는 단계; 학습된 인공 신경망을 이용하여, 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하는 단계; 상기 식별 정보를 참조하여 상기 객체에 대응되는 객체 정보를 획득하는 단계; 및 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단계; 를 포함한다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 객체 정보 표시 방법은 상기 영상을 획득하는 단계 이전에, 서버로부터 상기 학습된 인공 신경망을 수신하는 단계; 를 더 포함하고, 상기 학습된 인공 신경망을 수신하는 단계는, 상기 학습된 인공 신경망을 구성하는 적어도 하나의 파라미터를 수신하는 단계; 를 포함할 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는, 객체의 3차원 이미지로부터 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 상기 인공 신경망을 학습할 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 학습 데이터를 생성함에 있어서, 상기 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지를 생성하고, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보를 생성하고, 상기 제1 이미지, 상기 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 제1 학습 데이터를 생성하고, 상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 학습 데이터에 포함되는 상기 제1 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 객체의 3차원 모델을 상기 제1 방향과 상이한 제2 방향에서 촬영한 제2 이미지, 상기 제2 이미지 상에서 상기 객체에 해당하는 제2 영역 정보 및 상기 객체의 식별 정보를 포함하는 제2 학습 데이터를 생성하고, 상기 인공 신경망은 상기 제1 학습 데이터 및 상기 제2 학습 데이터를 포함하는 학습 데이터에 기반하여 학습되는 신경망일 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 학습 데이터를 생성함에 있어서, 상기 객체의 3차원 모델을 상기 제1 방향에서 촬영한 제1 깊이 이미지를 생성하고, 상기 제1 학습 데이터는 상기 제1 깊이 이미지를 더 포함하고, 상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 이미지, 상기 제1 깊이 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 서버는 상기 학습 데이터를 생성함에 있어서, 상기 제1 이미지의 적어도 하나의 파라미터를 조절한 제3 이미지를 생성하고, 상기 적어도 하나의 파라미터는 이미지의 조도, 명암, 대비 및 선명도 중 적어도 하나를 포함하고, 상기 제3 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제3 영역 정보를 생성하고, 상기 제3 이미지, 상기 제3 영역 정보 및 상기 객체의 식별 정보를 포함하는 제3 학습 데이터를 생성하고, 상기 인공 신경망은 상기 제3 학습 데이터에 기반하여, 상기 제3 학습 데이터에 포함되는 상기 제3 이미지, 상기 제3 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 영상을 획득하는 단계는, 상기 객체에 대한 깊이 영상을 획득하는 단계; 를 포함하고, 상기 영역 정보 및 상기 식별 정보를 생성하는 단계는, 상기 학습된 인공 신경망을 이용하여, 상기 영상 및 상기 깊이 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 식별 정보를 생성하는 단계; 를 포함할 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 영역 정보 및 상기 식별 정보를 생성하는 단계에서 상기 객체의 식별 정보가 생성되지 않는 경우, 상기 객체 정보 표시 방법은, 사용자의 피드백에 기반하여 상기 인공 신경망을 갱신하는 단계; 를 더 포함할 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 인공 신경망을 갱신하는 단계는, 상기 영상 상에서 상기 객체에 해당하는 영역을 설정하는 사용자 입력 및 상기 객체의 식별 정보에 대한 상기 사용자 입력을 획득하는 단계; 상기 객체에 해당하는 영역을 참조하여, 상기 객체의 이미지 및 상기 객체의 깊이 이미지 중 적어도 하나를 포함하는 피드백 학습 데이터를 생성하는 단계; 및 상기 피드백 학습 데이터가 추가된 학습 데이터에 기반하여 상기 인공 신경망을 학습하도록 하는 요청을 상기 서버에 전송하는 단계; 를 더 포함할 수 있다.
또한, 본 발명의 객체 정보 표시 방법은, 상기 객체 정보를 표시하는 단계는, 상기 영상 상에 상기 객체에 대응되는 영역을 표시하는 제1 표시 개체를 표시하는 단계로써, 상기 제1 표시 개체는 상기 객체의 윤곽선의 적어도 일부를 따르는 선을 포함하고; 및 상기 객체 정보를 표시하는 제2 표시 개체를 상기 제1 표시 개체에 인접하여 표시하는 단계; 를 포함할 수 있다.
또한, 본 발명의 객체 정보 표시 시스템은, 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 시스템에 있어서, 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 서버; 및 적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하고, 상기 식별 정보를 참조하여 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단말; 을 포함한다.
본 발명의 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 시스템에 따르면, 객체의 3차원 모델을 이용하여 다양한 조건에 따른 객체 이미지를 학습 데이터로 활용함으로써 객체 인식의 정확도를 높일 수 있다.
또한, 본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 인식된 객체에 대응되는 객체 정보를 영상 내 증강 현실로 표시함으로써 사용자의 매뉴얼 활용도를 높일 수 있다.
또한, 본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 사용자의 피드백에 기반하여 인공 신경망을 갱신하는 기술을 도입함으로써, 양질의 학습 데이터를 확보할 수 있을 뿐 아니라 본 발명의 객체 정보 표시 시스템을 이용할수록 시스템의 정확도가 높아지는 이점을 가진다.
도 1은 본 발명의 일 실시예에 따른 객체 정보 표시 시스템의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 단말에 구비되는 객체 정보 표시 장치의 구성을 나타내는 도면이다.
도 3 및 도 4는 본 발명의 서버에 의해 학습된 인공 신경망의 예시적인 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 서버가 인공 신경망의 학습을 위한 학습 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 서버가 복수의 학습 데이터를 이용하여 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 단말이 인공 신경망을 이용하여 영역 정보 및 객체 정보를 출력하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 단말에 제공된 영상 상에 객체 정보가 표시된 화면을 나타내는 예시이다.
도 9는 본 발명의 일 실시예에 따른 객체 정보 표시 방법을 설명하기 위한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
이하, 첨부된 도면을 참고로 하여 본 발명의 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 객체 정보 표시 방법에 대하여 자세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 객체 정보 표시 시스템의 개략적인 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 객체 정보 표시 시스템(1000)은 기계학습 및 증강현실 기술을 기반으로 영상 내 객체를 인식하고, 인식된 객체의 정보를 상기 영상 상에 표시할 수 있다.
본 발명에서 '객체'(object)는 영상 내 인식 대상이 되는 타겟 대상물을 지칭하는 것으로, 예컨대 유지 보수를 위한 정비를 하는 경우 정비 대상이 되는 사물일 수 있다.
본 발명에서 '인공 신경망'은 서버(100) 또는 단말(200)이 수행하는 서비스에 적합하게 학습된 신경망으로, 머신 러닝(Machine Learning) 또는 딥러닝(Deep Learning) 기법에 의해 학습된 인공 신경망을 의미할 수 있다. 이와 같은 신경망의 구조에 대해서는 도 3 내지 도 4를 참조하여 후술한다.
본 발명의 일 실시예에 따른 객체 정보 표시 시스템은 도 1에 도시된 바와 같이 서버(100), 단말(200) 및 통신망(300)을 포함하여 구성된다.
본 발명의 서버(100)는 객체의 3차원 모델을 이용하여 인공 신경망을 학습하는 학습 데이터를 생성하고, 이러한 학습 데이터를 이용하여 영상 내 객체를 인식하는 인공 신경망을 학습한다. 또한 서버(100)는 단말(200)에 학습된 인공 신경망을 제공하고, 단말(200)로부터 피드백 학습 데이터를 획득하여 인공 신경망을 갱신할 수 있다.
이러한 서버(100)는 코로케이션 서버 (Co-location Server) 또는 클라우드 서버 (cloud server) 일 수 있고, 이러한 서버에 포함되는 장치일 수도 있으며, 이에 제한되지는 않는 다양한 공지의 형태로 구현될 수도 있다.
서버(100)가 단말(200)과 함께 본 발명의 객체 정보 표시 방법을 수행하는 구체적인 방법에 대해서는 이하 도 3 내지 도 9를 참조하여 후술한다.
본 발명의 단말(200)은 본 발명의 객체 정보 표시 방법을 수행하는 장치이다. 단말(200)은 서버(100)로부터 수신한 학습된 인공 신경망을 이용하여 본 발명의 객체 정보 표시 방법의 서비스를 수행할 수 있다.
구체적으로 단말(200)은 적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여, 영상으로부터 상기 객체에 대응되는 영역 정보, 식별 정보를 생성하여 상기 객체에 대응되는 객체 정보를 획득한다.
여기서 객체에 대응되는 '영역 정보'라 함은 영상 내 타겟이 되는 객체의 위치 또는 영역을 의미할 수 있으며, '식별 정보'라 함은 타겟이 되는 객체의 명칭, 고유 식별번호와 같이 객체를 특정할 수 있는 정보를 포함하는 것을 망라한다. 또한, 객체에 대응되는 '객체 정보'라 함은 사용자가 타겟이 되는 객체와 관련된 설명을 포함하는 것으로, 예컨대 타겟이 되는 객체의 매뉴얼 정보일 수 있다. 그 외에도 객체 정보는 객체와 관련된 정보를 포함하는 다양한 것일 수 있다.
도 2는 본 발명의 일 실시예에 따른 단말(200)에 구비되는 객체 정보 표시 장치(210)의 구성을 나타내는 도면이다.
도 2를 참조하면, 객체 정보 표시 장치(210)는 통신부(211), 제어부(212), 영상 획득부(213), 깊이 정보 획득부(214), 디스플레이부(215) 및 메모리(216)를 포함한다. 또한 도면에는 도시되지 않았으나, 본 발명의 일 실시예에 따른 객체 정보 표시 장치(210)는 입/출력부, 프로그램 저장부 등을 더 포함할 수 있다.
단말(200)은 유무선 통신 환경에서 웹 또는 모바일 서비스를 이용할 수 있는 통신 단말일 수 있다. 구체적으로, 단말(200)은 범용 (general purpose) 컴퓨터, 특수 목적용 컴퓨터, 스마트폰과 같은 모바일 단말, 데스크탑 또는 노트북 컴퓨터이거나, 착용가능한 디스플레이 장치 예컨대 HMD(Head Mounted Display)장치일 수 있으며, 이들과 결합하여 사용하는 부속 장치일 수 있다.
통신부(211)는 단말(200)이 서버(100)와 같은 다른 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
제어부(212)는 프로세서(Processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(Processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
영상 획득부(213)는 단말(200)에 구비되거나 단말(200)과 연결된 카메라 모듈로, 객체의 적어도 일부를 포함하는 영상을 획득할 수 있는 것이라면 비제한적으로 적용될 수 있다. 그 밖에 영상 획득부(213)는 사용자 단말(200)에 구비되거나 또는 단말(200)과 연결된 공지의 영상 획득 장치라면 비제한적으로 적용될 수 있다.
깊이 정보 획득부(214)는 단말(200)에 구비되거나 단말(200)과 연결된 카메라 모듈로, ToF 카메라, 뎁스 비전 카메라와 같은 3차원 영상 정보를 획득할 수 있는 것이라면 비제한적으로 적용될 수 있다.
디스플레이부(215)는 단말(200)에 구비되거나 단말(200)과 연결된 표시장치일 수 있으며, 사용자에게 본 발명의 객체 정보 표시 방법에 따른 표시 영상을 나타낼 수 있는 것이라면 비제한적으로 적용될 수 있다.
메모리(216)는 단말(200)이 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리는 자기 저장 매체(Magnetic Storage Media) 또는 플래시 저장 매체(Flash Storage Media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 메모리(216)는 서버(100)에 의해 생성된 인공 신경망 모델과 관련된 파라미터들을 일시적 및/또는 영구적으로 저장할 수 있다. 물론 메모리(216)는 인공 신경망들을 학습하기 위한 학습 데이터도 저장할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.
단말(200)은 서버(100)와 통신하며 본 발명의 객체 정보 표시 방법을 수행하거나 이러한 프로그램 또는 어플리케이션이 탑재될 수 있는 단말이라면 제한 없이 채용될 수 있다. 이하 명세서에서는 설명의 편의를 위해 사용자 단말(200)을 본 발명의 객체 정보 표시 방법을 수행하는 어플리케이션이 탑재된 모바일 단말 것으로 상정하고 설명하나, 본 발명의 범위가 이에 한정되는 것은 아니다.
단말(200) 및 이에 포함되는 객체 정보 표시 장치(210)가 수행하는 구체적인 객체 정보 표시 방법에 대해서는 이하 도 3 내지 도 9를 참조하여 후술한다.
한편 도 1을 참조하면, 본 발명의 일 실시예에 따른 통신망(300)은 시스템의 각 구성 간의 데이터 송수신을 매개하는 수단을 의미할 수 있다. 이와 같은 통신망(300)은 근거리 네트워크 (local area network; LAN), 광역 네트워크 (wide area network; WAN), 거대도시 네트워크 (metropolitan area network; MAN), 종합정보 네트워크 (Integrated Service Digital Network; ISDN) 등의 유선 네트워크, 3G나 LTE (Long Term Evolution), 5G 와 같은 이동통신이나 와이파이 (Wi-Fi), 와이파이 다이렉트 (Wi-Fi Direct), 위성통신 같은 무선 네트워크, 블루투스 (Bluetooth), 지그비 (Zigbee), 저전력 단거리 무선망 IPv6(6LoWPAN), 근거리장 통신(Near Field communication) 과 같은 단거리 무선 네트워크 (Wireless Personal Area Network) 중 어느 하나일 수 있고, 나아가 이들의 조합, 또는 임의의 다른 네트워크일 수도 있으며, 이들로 한정되는 것은 아니다.
도 3 및 도 4는 본 발명의 서버에 의해 학습된 인공 신경망의 예시적인 구조를 설명하기 위한 도면이다.
본 발명의 일 실시예에 따른 인공 신경망은 도 3에 도시된 바와 같은 합성 곱 신경망(CNN: Convolutional Neural Network) 모델에 따른 인공 신경망일 수 있다. 이때 CNN 모델은 복수의 연산 레이어(Convolutional Layer, Pooling Layer)를 번갈아 수행하여 최종적으로는 입력 데이터의 특징을 추출하는 데 사용되는 계층 모델일 수 있다.
본 발명의 일 실시예에 따른 서버(100)는 학습 데이터를 지도학습(Supervised Learning) 기법에 따라 처리하여 인공 신경망 모델을 구축하거나 학습시킬 수 있다. 서버(100)가 인공 신경망을 학습시키는 방법에 대한 상세한 설명은 후술한다.
본 발명의 일 실시예에 따른 서버(100)는 복수의 학습 데이터를 이용하여, 어느 하나의 입력 데이터를 인공 신경망에 입력하여 생성된 출력 값이 해당 학습 데이터에 표지된 값에 근접하도록 각 레이어 및/또는 각 노드의 가중치를 갱신하는 과정을 반복하여 수행함으로써 인공 신경망을 학습시킬 수 있다.
이때 본 발명의 일 실시예에 따른 서버(100)는 역전파(Back Propagation) 알고리즘에 따라 각 레이어 및/또는 각 노드의 가중치(또는 계수)를 갱신할 수 있다.
본 발명의 일 실시예에 따른 서버(100)는 입력 데이터의 특징 값을 추출하기 위한 컨볼루션 레이어(Convolution layer), 추출된 특징 값을 결합하여 특징 맵을 구성하는 풀링 레이어(pooling layer)를 생성할 수 있다. 또한 본 발명의 일 실시예에 따른 서버(100)는 생성된 특징 맵을 결합하여, 입력 데이터가 복수의 항목 각각에 해당할 확률을 결정할 준비를 하는 풀리 커넥티드 레이어(Fully Conected Layer)를 생성할 수 있다. 본 발명의 일 실시예에 따른 서버(100)는 입력 데이터에 대응되는 출력을 포함하는 아웃풋 레이어(Output Layer)를 산출할 수 있다.
도 3에 도시된 예시에서는, 입력 데이터가 5X7 형태의 블록으로 나누어지며, 컨볼루션 레이어의 생성에 5X3 형태의 단위 블록이 사용되고, 풀링 레이어의 생성에 1X4 또는 1X2 형태의 단위 블록이 사용되는 것으로 도시되었지만, 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다. 따라서 입력 데이터의 종류 및/또는 각 블록의 크기는 다양하게 구성될 수 있다.
한편 이와 같은 인공 신경망은 서버(100)의 저장부에 인공 신경망을 구성하는 적어도 하나의 노드의 계수, 노드의 가중치 및 인공 신경망을 구성하는 복수의 레이어 간의 관계를 정의하는 함수의 계수들의 형태로 저장될 수 있다. 물론 인공 신경망의 구조 또한 저장부에 소스코드 및/또는 프로그램의 형태로 저장될 수 있다.
본 발명의 일 실시예에 따른 인공 신경망은 도 4에 도시된 바와 같은 순환 신경망(Recurrent Neural Network, RNN) 모델에 따른 인공 신경망일 수 있다.
도 4를 참조하면, 이와 같은 순환 신경망(RNN) 모델에 따른 인공 신경망은 적어도 하나의 입력 노드(N1)를 포함하는 입력 레이어(L1), 복수의 히든 노드(N2)를 포함하는 히든 레이어(L2) 및 적어도 하나의 출력 노드(N3)를 포함하는 출력 레이어(L3)를 포함할 수 있다. 이때 입력 레이어(L1)의 적어도 하나의 입력 노드(N1)에는 제2 텍스트 생성을 위한 하나 이상의 평가 이미지가 입력될 수 있다.
히든 레이어(L2)는 도시된 바와 같이 전체적으로 연결된(Fully Connected) 하나 이상의 레이어를 포함할 수 있다. 히든 레이어(L2)가 복수의 레이어를 포함하는 경우, 인공 신경망은 각각의 히든 레이어 사이의 관계를 정의하는 함수(미도시)를 포함할 수 있다. 출력 레이어(L3)의 적어도 하나의 출력 노드(N3)는 제어부(112)의 제어에 따라 인공 신경망이 입력 레이어(L1)의 입력 값으로부터 생성한 출력 값을 포함할 수 있다. 가령 출력 레이어(L3)에는 하나 이상의 평가 이미지에 대응되는 음을 묘사하는 제2 텍스트 데이터가 포함될 수 있다.
한편 각 레이어의 각 노드에 포함되는 값은 벡터일 수 있다. 또한 각 노드는 해당 노드의 중요도에 대응되는 가중치를 포함할 수도 있다.
한편 인공 신경망은 입력 레이어(L1)와 히든 레이어(L2)의 관계를 정의하는 제1 함수(F1) 및 히든 레이어(L2)와 출력 레이어(L3)의 관계를 정의하는 제2 함수(F2)를 포함할 수 있다. 제1 함수(F1)는 입력 레이어(L1)에 포함되는 입력 노드(N1)와 히든 레이어(L2)에 포함되는 히든 노드(N2)간의 연결관계를 정의할 수 있다. 이와 유사하게, 제2 함수(F2)는 히든 레이어(L2)에 포함되는 히든 노드(N2)와 출력 레이어(L2)에 포함되는 출력 노드(N2)간의 연결관계를 정의할 수 있다. 이와 같은 제1 함수(F1), 제2 함수(F2) 및 히든 레이어 사이의 함수들은 이전 노드의 입력에 기초하여 결과물을 출력하는 순환 신경망 모델을 포함할 수 있다.
서버(100)에 의해 인공 신경망이 학습되는 과정에서, 복수의 학습 데이터에 기초하여 제1 함수(F1) 및 제2 함수(F2)가 학습될 수 있다. 물론 인공 신경망이 학습되는 과정에서 전술한 제1 함수(F1) 및 제2 함수(F2) 외에 복수의 히든 레이어 사이의 함수들 또한 학습될 수 있다.
본 발명의 일 실시예에 따른 인공 신경망은 표지(Labeled)된 학습 데이터를 기반으로 지도학습(Supervised Learning) 방식으로 학습될 수 있다.
본 발명의 일 실시예에 따른 서버(100)는 복수의 학습 데이터를 이용하여, 어느 하나의 입력 데이터를 인공 신경망에 입력하여 생성된 출력 값이 해당 학습 데이터에 표지된 값에 근접하도록 전술한 함수들(F1, F2, 히든 레이어 사이의 함수들 등)을 갱신하는 과정을 반복하여 수행함으로써 인공 신경망을 학습시킬 수 있다.
이때 본 발명의 일 실시예에 따른 서버(100)는 역전파(Back Propagation) 알고리즘에 따라 전술한 함수들(F1, F2, 히든 레이어 사이의 함수들 등)을 갱신할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.
한편 도 3 및 도 4에서 설명한 인공 신경망의 종류 및/또는 구조는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다. 따라서 다양한 종류의 모델의 인공 신경망이 명세서를 통하여 설명하는 '인공 신경망'에 해당할 수 있다.
이하에서는 서버(100)가 인공 신경망을 학습하는 과정에 대해서 먼저 설명하고, 단말(200)이 학습된 인공 신경망을 이용하여 객체 정보를 표시하는 방법에 대하여 설명한다.
도 5는 본 발명의 서버(100)가 인공 신경망(620)의 학습을 위한 학습 데이터(520)를 생성하는 과정을 설명하기 위한 도면이고, 도 6은 본 발명의 서버(100)가 복수의 학습 데이터(610)를 이용하여 인공 신경망(620)을 학습하는 방법을 설명하기 위한 도면이다.
본 발명의 서버(100)는 도 5에 따라 생성된 학습 데이터를 이용하여 도 6의 방식으로 인공 신경망을 학습시킬 수 있다.
도 5를 참조하면, 본 발명의 서버(100)는 소스 데이터(510)로부터 인공 신경망의 학습을 위한 복수의 학습 데이터(520)를 생성한다.
소스 데이터(510)는 객체의 3차원 모델(511)을 포함하고, 3차원 모델은 객체의 실제 모습을 3D로 모델링한 이미지일 수 있다. 복수의 학습 데이터(520)는 3차원 모델(511)을 특정 방향에서 캡쳐한 2차원의 이미지와, 그 특정 방향에서의 깊이 정보를 포함한 깊이 이미지(depth map) 중 적어도 하나를 포함할 수 있다.
예를 들어, 첫 번째 학습 데이터(521)의 경우, 3차원 자동차 모델(511)을 D1 방향에서 캡쳐한 2차원이 이미지(521A)와 D1 방향에서의 깊이 이미지(521B)를 포함할 수 있다. 이와 유사하게 두 번째 학습 데이터(522) 및 세 번째 학습 데이터(523)도 3차원 모델(511)을 D2 방향에서, D3 방향에서 캡쳐한 2차원의 이미지와, 그 특정 방향에서의 깊이 정보를 포함한 깊이 이미지를 포함할 수 있다.
본 발명의 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 시스템에 따르면, 객체의 3차원 모델을 이용하여 다양한 조건에 따른 객체 이미지를 학습 데이터로 활용함으로써 객체 인식의 정확도를 높일 수 있다.
도 6을 참조하면, 본 발명의 서버(100)는 도 5에 도시된 바와 같이 객체의 3차원 모델(511)로부터 복수의 학습 데이터(520)를 생성하고, 생성된 복수의 학습 데이터(520)를 포함하는 학습 데이터(610)를 이용하여 인공 신경망(620)을 학습한다.
본 발명의 일 실시예에 따른 인공 신경망(620)은 복수의 학습 데이터(610) 각각에 포함되는 2차원 이미지, 깊이 이미지, 객체에 대응되는 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한(또는 학습하는) 신경망을 의미할 수 있다.
본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 객체의 3차원 모델(511)을 제1 방향(D1)에서 촬영한 제1 이미지(611A)를 생성하고, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보(611C)를 생성하고, 제1 이미지(611A), 제1 영역 정보(611C) 및 객체의 식별 정보(611D)를 포함하는 제1 학습 데이터(611)를 생성할 수 있다.
또한, 본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 객체의 3차원 모델(511)을 제1 방향과 상이한 제2 방향(D2)에서 촬영한 제2 이미지를 생성하고, 제2 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제2 영역 정보를 생성하고, 제2 이미지, 제2 영역 정보 및 객체의 식별 정보를 포함하는 제2 학습 데이터(612)를 생성할 수 있다.
이때, 본 발명의 인공 신경망(620)은 제1 학습 데이터(611) 및 제2 학습 데이터(612)에 기반하여 제1 학습 데이터(611) 및 제2 학습 데이터(612)에 포함되는 이미지, 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.
또한, 본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 객체의 3차원 모델(511)을 제1 방향(D1)에서 촬영한 제1 깊이 이미지(611B)를 더 생성하고, 제1 학습 데이터(611)는 제1 이미지(611A), 제1 영역 정보(611C) 및 객체의 식별 정보(611D)에 제1 깊이 이미지(611B)를 더 포함할 수 있다. 다시 말해, 복수의 학습 데이터(620)는 2차원 이미지, 객체에 대응되는 영역 정보 및 객체의 식별 정보 만을 포함하는 학습 데이터일 수도 있으며, 2차원 이미지, 깊이 이미지, 객체에 대응되는 영역 정보 및 객체의 식별 정보를 포함하는 학습 데이터일 수도 있다.
제1 학습 데이터(611) 및 제2 학습 데이터(612)가 제1 깊이 이미지(611B) 및 제2 깊이 이미지를 학습 데이터로 포함하는 경우, 본 발명의 인공 신경망(620)은 제1 학습 데이터(611) 및 제2 학습 데이터(612)에 포함되는 이미지, 깊이 이미지, 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.
또한, 본 발명의 서버(100)는 복수의 학습 데이터(620)를 생성함에 있어서, 제1 이미지(611A)의 적어도 하나의 파라미터를 조절한 제3 이미지를 생성할 수 있다. 이때, 적어도 하나의 파라미터는 이미지의 조도, 명암, 대비 및 선명도 중 적어도 하나일 수 있다. 다시 말해, 본 발명의 서버(100)는 객체의 3차원 모델(511)을 제1 방향(D1)에서 촬영한 제1 이미지(611A)의 조도를 조절하여 제1 이미지(611A)와 다른 제3 이미지를 생성할 수 있다. 이때 서버(100)는 제3 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제3 영역 정보를 생성하고, 상기 제3 이미지, 제3 영역 정보 및 객체의 식별 정보를 포함하는 제3 학습 데이터(613)를 생성할 수 있다.
이때, 본 발명의 인공 신경망(620)은 제3 학습 데이터(613)에 기반하여 제3 학습 데이터(613)에 포함되는 이미지, 깊이 이미지, 영역 정보 및 객체의 식별 정보 간의 상관관계를 학습한 신경망일 수 있다.
한편, 복수의 학습 데이터(610)에서 '객체에 대응되는 영역 정보'라 함은, 객체가 존재하는 위치를 나타내기 위한 마스크(mask) 이미지일 수 있으며, 객체의 '식별 정보'라 함은 객체의 명칭, 고유 식별번호와 같이 객체를 특정할 수 있는 정보를 의미할 수 있다.
도 7은 본 발명의 단말이 인공 신경망(620)을 이용하여 영역 정보(641) 및 객체 정보(642)를 출력하는 과정을 설명하기 위한 도면이다.
본 발명의 단말(200)은 서버(100)로부터 도 5 및 도 6의 방법에 따라 학습된 인공 신경망(620)을 수신하고, 수신된 인공 신경망(620)을 이용하여 영역 정보 및 객체 정보를 출력한다. 여기서 인공 신경망(620)을 수신한다 함은, 학습된 인공 신경망(620)을 구성하는 적어도 하나의 파라미터를 수신하는 것을 의미할 수 있다.
도 7을 참조하면, 본 발명의 단말(200)은 학습된 인공 신경망(620)을 이용하여, 영상(631) 및 깊이 영상(632)을 포함한 입력 정보(630)로부터 상기 객체에 대응되는 영역 정보(641) 및 식별 정보(642)를 포함하는 출력 정보(640)를 생성한다. 이때, 입력 정보(630)에서 깊이 영상(632)은 선택적인 정보일 수 있다.
한편, 단말(200)이 학습된 인공 신경망(620)을 이용하여 본 발명의 구체적인 객체 정보 표시 방법을 수행하는 것에 대해서는 도 9의 흐름도를 참조하여 후술하도록 한다.
도 8은 본 발명의 단말(200)에 제공된 영상 상에 객체 정보가 표시된 화면(80)을 나타내는 예시이다.
도 8은 구체적으로, 사용자가 단말(200)을 통해 자동차 내부 부품의 유지 보수를 위하여 자동차 내부 부품의 객체 정보를 표시하는 상황을 예시한다.
단말(200)이 적어도 하나의 객체가 포함된 영역의 영상을 획득하면, 제어부(212)는 학습된 인공 신경망을 이용하여 영상으로부터 인식 가능한 객체를 인식하여 객체 정보를 표시한다.
표시 화면(80)은 단말(200)로부터 획득된 영상과, 영상 상에 증강현실 기술로 표시되는 제1 영역(81)과 인식된 객체에 대응되는 객체 정보가 표시되는 제2 영역(83)을 포함할 수 있다. 여기서, '객체 정보'라 함은 사용자가 타겟이 되는 객체와 관련된 설명을 포함하는 것으로, 예컨대 타겟이 되는 객체의 매뉴얼 정보일 수 있다.
표시 화면(80)은 영상 상에 상기 객체에 대응되는 영역을 표시하는 제1 표시 개체(81A)를 포함할 수 있다. 이때, 제1 표시 개체(81A)는 객체의 윤곽선의 적어도 일부를 따르는 선을 포함할 수 있다. 또한, 표시 화면(80)은 객체 정보와 관련된 사항을 표시하는 제2 표시 개체(81B)를 제1 표시 개체(81A)에 인접하여 표시할 수 있다. 제1 표시 개체(81A) 및 제2 표시 개체(81B)는 단말(200)이 획득한 영상 상에 증강현실 기술로 표시될 수 있다. 또한, 단말(200)은 객체 정보와 관련된 사항을 영상이 표시되는 제1 영역(81)에 인접한 제2 영역(83)에 표시할 수도 있다.
본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 인식된 객체에 대응되는 객체 정보를 영상 내 증강 현실로 표시함으로써 사용자의 매뉴얼 활용도를 높일 수 있다.
한편, 도 8에 도시된 표시 형태는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.
도 9는 본 발명의 일 실시예에 따른 객체 정보 표시 방법을 설명하기 위한 흐름도이다. 이하에서는 도 1 내지 도 8을 통해 설명한 내용과 중복되는 내용의 설명은 생략하되, 도 1 내지 도 8을 함께 참조하여 설명한다.
본 발명의 단말(200)은 도 9에 도시된 바에 따라 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시할 수 있다.
단말(200)은 서버(100)로부터 학습된 인공 신경망(620)을 수신한다(S91).
단말(200)이 학습된 인공 신경망을 수신하는 단계(S91)는, 상기 학습된 인공 신경망을 구성하는 적어도 하나의 파라미터를 수신하는 단계를 포함할 수 있다.
단말(200)은 적어도 하나의 객체를 포함하는 영상을 획득하고(S92), 학습된 인공 신경망(620)을 이용하여, 상기 영상으로부터 객체에 대응되는 영역 정보(641) 및 식별 정보(642)를 생성한다(S93).
예컨대, 단말(200)이 객체인 자동차를 포함하는 영상을 획득한 경우, 학습된 인공 신경망(620)을 통해 단말(200)은 영상 내 포함된 객체가 구체적으로 어떤 자동차의 모델인지에 대한 모델명 즉, 식별 정보를 생성하고, 자동차를 제외한 영역을 마스킹하는 마스킹 이미지 즉, 영역 정보를 생성할 수 있다.
단말(200)은 상기 식별 정보를 참조하여 객체에 대응되는 객체 정보를 획득하고(S94), 생성된 영역 정보와 객체 정보를 표시 화면에 표시한다(S95)
한편, 영역 정보 및 식별 정보를 생성하는 단계(S93)에서 객체의 식별 정보가 생성되지 않는 경우, 본 발명의 객체 정보 표시 방법은, 사용자의 피드백에 기반하여 인공 신경망(620)을 갱신하는 단계를 수행할 수 있다.
다시 말해, 영역 정보 및 식별 정보를 생성하는 단계(S93)에서 객체의 식별 정보가 생성되지 않는 경우, 단말(200)은 피드백 학습 데이터를 생성(S96)함으로써 인공 신경망을 갱신할 수 있다.
영역 정보 및 식별 정보를 생성하는 단계(S93)에서 객체의 식별 정보가 생성되지 않는 경우는 객체가 인식 불가인 상태를 의미하므로, 본 발명의 객체 정보 표시 방법은 이 때의 영상 정보를 바탕으로 학습 데이터를 생성하고, 생성된 피드백 학습 데이터로 인공 신경망을 학습시키는 과정을 더 포함한다.
인공 신경망을 갱신하는 단계는, 영상 상에서 객체에 해당하는 영역을 설정하는 사용자 입력 및 객체의 식별 정보에 대한 사용자 입력을 획득하는 단계와, 객체에 해당하는 영역을 참조하여 객체의 이미지 및 객체의 깊이 이미지 중 적어도 하나를 포함하는 피드백 학습 데이터를 생성하는 단계와, 피드백 학습 데이터가 추가된 학습 데이터에 기반하여 서버(100)가 인공 신경망을 학습하도록 하는 요청을 상기 서버(100)에 전송하는 단계를 포함할 수 있다.
본 발명의 객체 정보 표시 방법 및 시스템에 따르면, 사용자의 피드백에 기반하여 인공 신경망을 갱신하는 기술을 도입함으로써, 양질의 학습 데이터를 확보할 수 있을 뿐 아니라 본 발명의 객체 정보 표시 시스템을 이용할수록 시스템의 정확도가 높아지는 이점을 가진다.
이상 설명된 본 발명에 따른 비-접촉식 장치 제어 방법의 다양한 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다.
이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
1000 … 객체 정보 표시 시스템
100 … 서버
200 … 단말
210 … 객체 정보 표시 장치
211 … 통신부
212 … 제어부
213 … 영상 획득부
214 … 깊이 정보 획득부
215 … 디스플레이부
216 … 메모리
300 … 통신망
510 … 3차원 모델
520 … 2차원 이미지
610 … 학습 데이터
620 … 인공 신경망
630 … 입력 데이터
640 … 출력 데이터

Claims (12)

  1. 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 방법에 있어서,
    적어도 하나의 객체를 포함하는 영상을 획득하는 단계;
    학습된 인공 신경망을 이용하여, 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하는 단계;
    상기 식별 정보를 참조하여 상기 객체에 대응되는 객체 정보를 획득하는 단계; 및
    상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단계; 를 포함하는, 객체 정보 표시 방법.
  2. 제1 항에 있어서,
    상기 객체 정보 표시 방법은 상기 영상을 획득하는 단계 이전에,
    서버로부터 상기 학습된 인공 신경망을 수신하는 단계; 를 더 포함하고,
    상기 학습된 인공 신경망을 수신하는 단계는, 상기 학습된 인공 신경망을 구성하는 적어도 하나의 파라미터를 수신하는 단계; 를 포함하는, 객체 정보 표시 방법.
  3. 제2 항에 있어서,
    상기 서버는,
    객체의 3차원 모델로부터 학습 데이터를 생성하고,
    상기 학습 데이터를 이용하여 상기 인공 신경망을 학습하는, 객체 정보 표시 방법.
  4. 제3 항에 있어서,
    상기 서버는 상기 학습 데이터를 생성함에 있어서,
    상기 객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지를 생성하고,
    상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보를 생성하고,
    상기 제1 이미지, 상기 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 제1 학습 데이터를 생성하고,
    상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 학습 데이터에 포함되는 상기 제1 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망인, 객체 정보 표시 방법.
  5. 제4 항에 있어서,
    상기 서버는 상기 객체의 3차원 모델을 상기 제1 방향과 상이한 제2 방향에서 촬영한 제2 이미지, 상기 제2 이미지 상에서 상기 객체에 해당하는 제2 영역 정보 및 상기 객체의 식별 정보를 포함하는 제2 학습 데이터를 생성하고,
    상기 인공 신경망은 상기 제1 학습 데이터 및 상기 제2 학습 데이터를 포함하는 학습 데이터에 기반하여 학습되는 신경망인, 객체 정보 표시 방법.
  6. 제4 항에 있어서,
    상기 서버는 상기 학습 데이터를 생성함에 있어서,
    상기 객체의 3차원 모델을 상기 제1 방향에서 촬영한 제1 깊이 이미지를 생성하고,
    상기 제1 학습 데이터는 상기 제1 깊이 이미지를 더 포함하고,
    상기 인공 신경망은 상기 제1 학습 데이터에 기반하여, 상기 제1 이미지, 상기 제1 깊이 이미지, 상기 제1 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망인, 객체 정보 표시 방법.
  7. 제4 항에 있어서,
    상기 서버는 상기 학습 데이터를 생성함에 있어서,
    상기 제1 이미지의 적어도 하나의 파라미터를 조절한 제3 이미지를 생성하고, 상기 적어도 하나의 파라미터는 이미지의 조도, 명암, 대비 및 선명도 중 적어도 하나를 포함하고,
    상기 제3 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제3 영역 정보를 생성하고,
    상기 제3 이미지, 상기 제3 영역 정보 및 상기 객체의 식별 정보를 포함하는 제3 학습 데이터를 생성하고,
    상기 인공 신경망은 상기 제3 학습 데이터에 기반하여, 상기 제3 학습 데이터에 포함되는 상기 제3 이미지, 상기 제3 영역 정보 및 상기 식별 정보 간의 상관관계를 학습한 신경망인, 객체 정보 표시 방법.
  8. 제1 항에 있어서,
    상기 영상을 획득하는 단계는,
    상기 객체에 대한 깊이 영상을 획득하는 단계; 를 포함하고,
    상기 영역 정보 및 상기 식별 정보를 생성하는 단계는,
    상기 학습된 인공 신경망을 이용하여, 상기 영상 및 상기 깊이 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 식별 정보를 생성하는 단계; 를 포함하는, 객체 정보 표시 방법.
  9. 제1 항에 있어서,
    상기 영역 정보 및 상기 식별 정보를 생성하는 단계에서 상기 객체의 식별 정보가 생성되지 않는 경우,
    상기 객체 정보 표시 방법은,
    사용자의 피드백에 기반하여 상기 인공 신경망을 갱신하는 단계; 를 더 포함하는, 객체 정보 표시 방법.
  10. 제9 항에 있어서,
    상기 인공 신경망을 갱신하는 단계는,
    상기 영상 상에서 상기 객체에 해당하는 영역을 설정하는 사용자 입력 및 상기 객체의 식별 정보에 대한 상기 사용자 입력을 획득하는 단계;
    상기 객체에 해당하는 영역을 참조하여, 상기 객체의 이미지 및 상기 객체의 깊이 이미지 중 적어도 하나를 포함하는 피드백 학습 데이터를 생성하는 단계; 및
    상기 피드백 학습 데이터가 추가된 학습 데이터에 기반하여 상기 인공 신경망을 학습하도록 하는 요청을 상기 서버에 전송하는 단계; 를 더 포함하는, 객체 정보 표시 방법.
  11. 제1 항에 있어서,
    상기 객체 정보를 표시하는 단계는,
    상기 영상 상에 상기 객체에 대응되는 영역을 표시하는 제1 표시 개체를 표시하는 단계로써, 상기 제1 표시 개체는 상기 객체의 윤곽선의 적어도 일부를 따르는 선을 포함하고; 및
    상기 객체 정보를 표시하는 제2 표시 개체를 상기 제1 표시 개체에 인접하여 표시하는 단계; 를 포함하는, 객체 정보 표시 방법.
  12. 영상 내 객체를 인식하고 인식된 객체의 정보를 상기 영상 상에 표시하는 시스템에 있어서,
    객체의 3차원 모델을 제1 방향에서 촬영한 제1 이미지, 상기 제1 이미지 상에서 상기 객체에 해당하는 영역을 나타내는 제1 영역 정보 및 상기 객체의 식별 정보를 포함하는 학습 데이터를 생성하고, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 서버; 및
    적어도 하나의 객체를 포함하는 영상을 획득하고, 학습된 인공 신경망을 이용하여 상기 영상으로부터 상기 객체에 대응되는 영역 정보 및 상기 객체의 식별 정보를 생성하고, 상기 식별 정보를 참조하여 상기 영상 상에 상기 영역 정보 및 상기 객체 정보를 표시하는 단말; 을 포함하는, 객체 정보 표시 시스템.
KR1020210018004A 2021-02-09 2021-02-09 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템 KR102643766B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210018004A KR102643766B1 (ko) 2021-02-09 2021-02-09 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210018004A KR102643766B1 (ko) 2021-02-09 2021-02-09 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템

Publications (2)

Publication Number Publication Date
KR20220114691A true KR20220114691A (ko) 2022-08-17
KR102643766B1 KR102643766B1 (ko) 2024-03-06

Family

ID=83110472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210018004A KR102643766B1 (ko) 2021-02-09 2021-02-09 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템

Country Status (1)

Country Link
KR (1) KR102643766B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195446B1 (ko) 2012-01-26 2012-12-24 이에스이 주식회사 증강현실 기반의 정비 가이드 제공 단말기 및 이를 이용한 정비 가이드 제공 방법
KR101960900B1 (ko) * 2018-10-12 2019-03-21 주식회사 에스피씨네트웍스 제품 식별 방법
KR20190080244A (ko) * 2017-12-28 2019-07-08 엘에스산전 주식회사 증강 현실 제공 시스템 및 방법
KR20200108518A (ko) * 2019-03-04 2020-09-21 인하대학교 산학협력단 증강현실 기반 3d 프린터 유지보수 방법 및 시스템
KR102186821B1 (ko) * 2019-06-25 2020-12-04 티팟스튜디오 주식회사 딥 러닝을 이용한 3차원 물체 인식에 기초하여 증강 현실 정보를 제공하는 방법 및 이를 이용한 시스템
KR102206108B1 (ko) * 2019-09-20 2021-01-21 광운대학교 산학협력단 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195446B1 (ko) 2012-01-26 2012-12-24 이에스이 주식회사 증강현실 기반의 정비 가이드 제공 단말기 및 이를 이용한 정비 가이드 제공 방법
KR20190080244A (ko) * 2017-12-28 2019-07-08 엘에스산전 주식회사 증강 현실 제공 시스템 및 방법
KR101960900B1 (ko) * 2018-10-12 2019-03-21 주식회사 에스피씨네트웍스 제품 식별 방법
KR20200108518A (ko) * 2019-03-04 2020-09-21 인하대학교 산학협력단 증강현실 기반 3d 프린터 유지보수 방법 및 시스템
KR102186821B1 (ko) * 2019-06-25 2020-12-04 티팟스튜디오 주식회사 딥 러닝을 이용한 3차원 물체 인식에 기초하여 증강 현실 정보를 제공하는 방법 및 이를 이용한 시스템
KR102206108B1 (ko) * 2019-09-20 2021-01-21 광운대학교 산학협력단 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법

Also Published As

Publication number Publication date
KR102643766B1 (ko) 2024-03-06

Similar Documents

Publication Publication Date Title
CN105103542B (zh) 手持型便携式光学扫描仪和使用的方法
US20190094875A1 (en) Generating occlusion-aware bird eye view representations of complex road scenes
CN113039563A (zh) 学习生成用于训练神经网络的合成数据集
JP7504212B2 (ja) Wifi/gpsベースのマップマージを伴うクロスリアリティシステム
US9865087B2 (en) Method and system for disambiguation of augmented reality tracking databases
CN108764187A (zh) 提取车道线的方法、装置、设备、存储介质以及采集实体
CN113811920A (zh) 分布式姿势估计
US20210089760A1 (en) Facial expression image processing method and apparatus
EP4143794A1 (en) Cross reality system for large scale environments
EP4104145A1 (en) Cross reality system with prioritization of geolocation information for localization
KR102198851B1 (ko) 물체의 3차원 모델 데이터 생성 방법
JP6719497B2 (ja) 画像生成方法、画像生成装置及び画像生成システム
WO2022165809A1 (zh) 一种训练深度学习模型的方法和装置
JP2017134814A (ja) 点群データに基づく車両輪郭検出方法、および装置
CN108596193B (zh) 一种搭建针对人耳识别的深度学习网络结构的方法及系统
CN104899563A (zh) 一种二维人脸关键特征点定位方法及系统
US11568202B2 (en) Method and apparatus for determining goodness of fit related to microphone placement
WO2022222647A1 (zh) 车辆意图预测方法、装置、设备及存储介质
CN114549291A (zh) 图像处理方法、装置、设备以及存储介质
US11334659B2 (en) Method of releasing security using spatial information associated with robot and robot thereof
KR20210129360A (ko) 인공지능을 활용한 3d 모형 증강현실 서비스 제공 시스템 및 그 방법
CN107293162A (zh) 运动教学辅助方法及装置、终端设备
KR102643766B1 (ko) 기계학습 및 증강현실 기술 기반의 객체 정보 표시 방법 및 객체 정보 표시 시스템
JP2017033556A (ja) 画像処理方法及び電子機器
CN112926498B (zh) 基于多通道融合和深度信息局部动态生成的活体检测方法及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right