KR101978295B1 - 3차원 정보 생성 방법 - Google Patents

3차원 정보 생성 방법 Download PDF

Info

Publication number
KR101978295B1
KR101978295B1 KR1020180164526A KR20180164526A KR101978295B1 KR 101978295 B1 KR101978295 B1 KR 101978295B1 KR 1020180164526 A KR1020180164526 A KR 1020180164526A KR 20180164526 A KR20180164526 A KR 20180164526A KR 101978295 B1 KR101978295 B1 KR 101978295B1
Authority
KR
South Korea
Prior art keywords
dimensional information
raw data
user equipment
camera module
generating device
Prior art date
Application number
KR1020180164526A
Other languages
English (en)
Inventor
이탁건
Original Assignee
코어다 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코어다 주식회사 filed Critical 코어다 주식회사
Priority to KR1020180164526A priority Critical patent/KR101978295B1/ko
Application granted granted Critical
Publication of KR101978295B1 publication Critical patent/KR101978295B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

라이다 방식으로 작동하며, 스마트 기기와 연동되어 대상물을 정확하게 스캐닝할 수 있는 3차원 정보 생성 기기를 활용한 3차원 정보 생성 방법이 제공된다.
상기 3차원 정보 생성 방법은 사용자 기기와 사용자 기기에 연동되는 3차원 정보 생성 기기를 이용하여, 대상물에 대한 3차원 정보를 생성하는 방법에 있어서, 상기 사용자 기기의 카메라 모듈로 대상물을 촬영하는 단계; 상기 사용자 기기의 촬영 영상에서 대상물을 특정하는 단계; 대상물에 대한 3차원 정보를 도출하는 단계를 포함하는 것을 특징으로 한다.

Description

3차원 정보 생성 방법{METHOD FOR GENERATING 3 DIMENSION INFORMATION}
본 발명은 3차원 정보 생성 방법에 관한 것이다.
3차원 정보 생성 기기는 대상물을 센싱하여, 대상물의 부피 및 깊이 정보 등과 같은 3차원 정보를 생성하는 기기이다. 3차원 정보 생성 기기는 다양한 산업 분야에 활용되고 있다. 일 예로, 3차원 정보 생성 기기는 인체의 체지방 분석을 위한 신체의 부피 측정 등에 이용될 수 있다.
한편, 라이다(Light detection and ranging; LiDAR)는 펄스 레이저광을 대기 중에 발사해 그 반사체 또는 산란체를 이용하여 거리 또는 대기현상 등을 측정하는 장치로서, 레이저 레이더라고도 한다. 반사광의 시간측정은 클럭펄스로 계산하며, 그 진동수 30MHz로 5cm, 150MHz로 1m의 분해능을 가져 기존의 카메라나 센서보다 월등한 탐지효율을 보인다.
따라서 3차원 정보 생성 기기에 라이다 방식을 적용하는 경우, 센싱 효율이 높아져 정확한 3차원 정보 생성이 가능할 것이다.
한편, 3차원 정보 생성 기기는 휴대용으로 마련되어 필요 시, 스마트 기기(스마트폰, 태블릿, 노트북 등)에 연결되어 사용될 수 있다. 이 경우, 스마트 기기의 촬영 영상을 통해, 3차원 정보 생성 기기의 스캐닝 영역과 대상물을 매칭시키고 대상물을 다양한 시점에서 스캐닝하여 3차원 정보를 생성한다면, 보다 정밀한 3차원 정보를 생성할 수 있을 것이다.
본 발명이 해결하고자 하는 과제는 라이다 방식으로 작동하며, 스마트 기기와 연동되어 대상물을 정확하게 스캐닝할 수 있는 3차원 정보 생성 기기를 활용한 3차원 정보 생성 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 3차원 정보 생성 방법은 사용자 기기와 사용자 기기에 연동되는 3차원 정보 생성 기기를 이용하여, 대상물에 대한 3차원 정보를 생성하는 방법에 있어서, 상기 사용자 기기의 카메라 모듈로 대상물을 촬영하는 단계; 상기 사용자 기기의 촬영 영상에서 대상물을 특정하는 단계; 대상물에 대한 3차원 정보를 도출하는 단계를 포함할 수 있다.
상기 사용자 기기의 촬영 영상에서 대상물을 특정하는 단계는 사용자가 상기 사용자 기기의 디스플레이를 조작하여 대상물을 특정하는 마크를 상기 촬영 영상에 마킹함으로써 이루어질 수 있다.
실재현실의 대상물은 상기 촬영 영상에서 표시된 대상물을 특정하는 마크와 매칭되고, 상기 3차원 정보 생성 기기는 상기 촬영 영상에서 표시된 대상물을 특정하는 마크에 의해 특정된 대상물에 대한 3차원 정보를 생성할 수 있다.
상기 카메라 모듈의 촬영 시점을 변경하며, 상기 3차원 정보 생성 기기로 복수의 미가공데이터를 획득하는 단계를 더 포함하고, 상기 3차원 정보 생성 기기는 상기 복수의 미가공데이터를 처리하여 대상물에 대한 3차원 정보를 생성할 수 있다.
상기 카메라 모듈의 촬영 시점은 단속적 또는 연속적으로 변경될 수 있다.
상기 복수의 미가공데이터는 상기 카메라 모듈의 각각의 촬영 시점에서의 대상물에 대한 3차원 정보이고, 상기 3차원 정보 생성 기기는 상기 복수의 미가공데이터 각각의 값 중 적어도 일부의 평균값을 대상물에 대한 3차원 정보로 결정하여 대상물에 대한 3차원 정보를 생성할 수 있다.
사용자에게 상기 복수의 미가공데이터가 처리가 가능함을 알리는 단계를 더 포함할 수 있다.
상기 사용자 기기의 디스플레이에는 상기 복수의 미가공데이터가 대상물에 대한 3차원 정보를 도출할 수 있을 만큼 축적되는 경우, 상기 복수의 미가공데이터가 축적되었다는 아이콘, 문자 및 배경 중 적어도 하나로 표시될 수 있다.
대상물에 대한 3차원 정보를 도출하는 단계는 상기 사용자 기기의 디스플레이에 대상물에 대한 3차원 정보가 수치, 표, 그래프 및 3차원 이미지 중 적어도 하나로 표시됨으로써 이루어질 수 있다.
상기 3차원 정보 생성 기기는, 하우징; 상기 하우징에 내장되는 기판; 상기 기판에 실장되고, 대상물로 광을 출사하는 광원; 상기 기판에 실장되고, 상기 광원에서 출사되어 대상물을 경유한 광이 조사되고, 3차원 정보를 생성하는 센서; 상기 기판과 전기적으로 연결되고, 상기 사용자 기기에 도킹되는 커넥터를 포함할 수 있다.
본 발명에서는 라이다 방식이 적용되고 사용자 기기와 연동되는 3차원 정보 생성 기기를 이용하며, 사용자 기기의 촬영 영상을 통해 스캐닝 영역을 확인하고 다양한 시점에서 스캐닝을 수행함으로써, 정밀한 3차원 정보를 생성할 수 있는 3차원 정보 생성 방법을 제공한다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 3차원 정보 생성 시스템을 나타낸 개념도이다.
도 2는 본 발명의 3차원 정보 생성 기기를 나타낸 사시도이다.
도 3은 본 발명의 3차원 정보 생성 기기를 나타낸 분해 사시도이다.
도 4는 본 발명의 3차원 정보 생성 방법을 나타낸 순서도이다.
도 5의 (1)은 본 발명의 사용자 기기의 촬영 영상을 나타낸 개념도이고, 도 5의 (2)는 본 발명의 사용자 기기의 촬영 영상에서 대상물을 특정하는 것을 나타낸 개념도이다.
도 6은 본 발명의 카메라 모듈의 촬영 시점을 변경하여, 3차원 정보 생성 기기로 복수의 미가공데이터를 획득하는 것을 나타낸 개념도이다.
도 7의 (1)은 본 발명의 사용자 기기를 통해 사용자에게 복수의 미가공데이터가 처리가 가능함을 알리는 것을 나타낸 개념도이고, 도 7의 (2)는 본 발명의 사용자 기기를 통해 사용자에게 대상물에 대한 3차원 정보를 수치로 알리는 것을 나타낸 개념도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "위(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하, 도면을 참조하여 본 발명의 3차원 정보 생성 시스템(1000)을 설명한다. 도 1은 본 발명의 3차원 정보 생성 시스템을 나타낸 개념도이고, 도 2는 본 발명의 3차원 정보 생성 기기를 나타낸 사시도이고, 도 3은 본 발명의 3차원 정보 생성 기기를 나타낸 분해 사시도이다.
본 발명의 3차원 정보 생성 시스템(1000)은 사용자 기기(100)와 3차원 정보 생성 기기(200)를 포함할 수 있다. 이 경우, 3차원 정보 생성 기기(200)는 사용자 기기(100)에 연동되어 사용될 수 있다. 즉, 사용자는 3차원 정보 생성 기기(200)를 휴대할 수 있으며, 필요 시, 사용자 기기(100)와 연동하여 대상물에 대한 3차원 정보를 획득할 수 있다.
본 발명의 3차원 정보 생성 시스템(1000)은 대상물에 대한 3차원 정보(대상물의 부피 및 깊이 정보 등)를 생성하는 것에 이용될 수 있다. 일 예로, 인체의 체지방 분석을 위한 신체의 부피 측정 등에 이용될 수 있다.
사용자 기기(100)는 스마트폰, 태블릿, PDA 및 랩톱 등과 같은 전기 통신 장치 중 하나 이상이 사용될 수 있으나, 이에 한정되는 것은 아니다.
사용자 기기(100)는 3차원 정보 생성 기기(200)에 대한 정보 및 조작 화면을 제공하기 위한 앱(APP; Application)이 구비되어 있을 수 있다. 사용자 기기(100)는 3차원 정보 생성 기기(200)로부터 대상물에 대한 3차원 정보를 수신받고, 이를 처리하여 대상물의 부피 및 형태 등을 시각적으로 나타낼 수 있으며, 이를 저장하여 데이터베이스화할 수 있다.
사용자 기기(100)는 케이스(110), 카메라 모듈(120) 및 디스플레이(130)를 포함할 수 있다.
케이스(110)는 사용자 기기(100)의 외관을 형성하는 부재일 수 있고, 카메라 모듈(120)은 케이스(110)에 내장되어 대상물과 그 주변을 촬영할 수 있고, 디스플레이(130)는 케이스(110)에 배치되어 촬영 영상(1)을 재생할 수 있다.
한편, 카메라 모듈(120)은 복수로 마련될 수 있다. 일 예로, 카메라 모듈(120)은 촬영 영역이 케이스(110)의 전방에 위치하는 "전방 카메라 모듈"과 촬영 영역이 케이스(110)의 후방에 위치하는 "후방 카메라 모듈"을 포함할 수 있다.
디스플레이(130)에는 다양한 종류의 스크린이 이용될 수 있으며, 일 예로, 디스플레이(130)는 사용자의 조작을 입력받는 터치 스크린(Touch screen)일 수 있다. 디스플레이(130)에는 카메라 모듈(120)의 촬영 영상(1)이 재생될 수 있다.
또한, 디스플레이(130)의 촬영 영상(1)에는 대상물을 특정하는 마크(2)가 표시될 수 있다. 즉, 사용자 기기(100)는 대상물을 특정하는 마크(2)를 촬영 영상(1)에 표시할 수 있다(도 2의 (3) 참조).
사용자가 사용자 기기(100)의 디스플레이(130)를 조작하여 대상물을 특정하는 마크(2)를 촬영 영상(1)에 마킹할 수 있다. 일 예로, 사용자는 포인터(100-1)를 이용하여 촬영 영상(1)에 대상물을 특정하는 마크(2)를 생성할 수 있다.
이 경우, 실재현실의 대상물은 촬영 영상(1)에서 표시된 대상물을 특정하는 마크(2)와 매칭될 수 있고, 이에 따라, 3차원 정보 생성 기기(200)는 촬영 영상(1)에 표시된 대상물을 특정하는 마크(2)에 의해 특정된 대상물에 대한 3차원 정보를 생성할 수 있다.
상술한 바에 따르면, 본 발명의 3차원 정보 생성 시스템(1000)에서는 사용자가 사용자 기기(100)를 통해 대상물을 명확하게 특정함으로써, 정확한 스캐닝을 수행할 수 있는 장점이 있다.
3차원 정보 생성 기기(200)에는 라이다(Light detection and ranging; LiDAR)의 원리가 적용될 수 있다. 즉, 3차원 정보 생성 기기(200)는 출사광이 대상물을 경유한 후 재귀하는 시간(ToF; Time-of flight)을 통해, 대상물에 대한 위치, 부피 및 3차원 깊이 정보(3D Depth information) 등을 생성할 수 있다(라이다 방식으로 3차원 정보 생성).
3차원 정보 생성 기기(200)는 하우징(210), 기판(220), 광원(230), 센서(240) 및 커넥터(250)를 포함할 수 있다.
하우징(210)은 3차원 정보 생성 기기(200)의 외관을 형성하는 외장 부재로서, 플라스틱 사출 성형 등에 의해 제작될 수 있다. 하우징(210)에는 기판(220)이 내장될 수 있다. 또한, 하우징(210)은 전방면과 후방면이 각각 형성된 제1하우징(211)과 제2하우징(212)을 포함할 수 있으며, 제1하우징(211)과 제2하우징(212)의 결합에 의해 내부 공간이 형성될 수 있다.
제1하우징(211)에는 광원(230)의 출사광(광원에서 출사되는 광)과 센서(240)의 조사광(센서로 조사되는 광)이 통과하는 채널이 형성될 수 있다.
기판(220)은 하우징(210)에 내장될 수 있다. 기판(220)에는 광원(230)과 센서(240)가 실장될 수 있다. 또한, 기판(220)은 커넥터(250)를 통해 사용자 기기(100)와 전기적으로 연결될 수 있으며 통신할 수 있다.
기판(220)에는 전원 집적 회로, 전자 제어 집적 회로, 통신 집적 회로 등이 형성되어 있을 수 있다. 전원 집적 회로를 통해 광원(230)과 센서(240)에 전원이 공급될 수 있으며, 전자 제어 집적 회로를 통해 광원(230)을 제어함과 동시에 센서(240)에서 생성된 3차원 정보를 처리할 수 있으며, 통신 집적 회로를 통해 사용자 기기(100)와 통신(정보 송신, 제어 신호 수신 등)할 수 있다.
광원(230)은 광을 출사하는 소자일 수 있고, 센서(240)는 광을 감지하는 센서일 수 있다. 광원(230)은 대상물로 광을 출사하며, 광원(230)의 출사광에 의해 3차원 정보 생성 기기(200)의 스캐닝 영역이 결정될 수 있다. 한편, 광원(230)에서는 일반적인 라이다와 같이 레이저광이 아닌 비레이저광(LED광)을 출사할 수 있다. 자율 주행 등과 비교하여 스캐닝 범위가 좁아 레이저광을 사용할 필요가 없으며, 근거리 트래킹에는 LED광이 적합하기 때문이다.
다만, 이에 한정되는 것은 아니고, 본 발명의 광원(230)에는 광학적 설계 요청에 따라 다양한 종류의 발광 소자가 이용될 수 있다. 일 예로, 광원(230)은 LED(Light emitting diode), LD(Laser diode), VCSEL(Vertical-cavity surface-emitting laser)일 수 있다.
한편, 광원(230)은 복수일 수 있으며, 일 예로, 제1광원(231), 제2광원(232) 및 제3광원(233)을 포함할 수 있다. 이 경우, 센서(240)는 수직 방향으로 제1광원(231)과 제3광원(233)과 동일한 위상을 가지는 동시에 제1광원(231)과 제3광원(233)의 사이에 위치할 수 있다. 또한, 센서(240)는 수평 방향으로 제2광원(232)과 동일한 위상을 가지는 동시에 수직 방향으로 제2광원(232)과 위상 차이를 가지며 위치할 수 있다.
한편, 광원(230)의 출사광은 대상물을 경유하여, 센서(240)로 조사될 수 있다. 즉, 센서(240)에는 광원(230)에서 출사되어 대상물을 경유한 광이 조사될 수 있으며, 센서(240)는 조사광을 감지하여 대상물에 대한 3차원 정보를 생성할 수 있다.
커넥터(250)는 하우징(210)의 상면에 위치할 수 있고, 기판(220)과 전기적으로 연결되는 동시에, 사용자 기기(100)에 도킹될 수 있다. 즉, 커넥터(250)는 사용자 기기(100)와 3차원 정보 생성 기기(200)를 전기적으로 연결(통신 가능)하는 기능을 수행할 수 있다.
커넥터(250)에는 다양한 종류의 커넥터가 이용될 수 있으며, 일 예로, 커넥터(250)는 USB 포트 형태로 마련될 수 있다.
이하, 도면을 참조하여 본 발명의 "3차원 정보 생성 방법"에 대해 설명한다. 도 4는 본 발명의 3차원 정보 생성 방법을 나타낸 순서도이고, 도 5의 (1)은 본 발명의 사용자 기기의 촬영 영상을 나타낸 개념도이고, 도 5의 (2)는 본 발명의 사용자 기기의 촬영 영상에서 대상물을 특정하는 것을 나타낸 개념도이고, 도 6은 본 발명의 카메라 모듈의 촬영 시점을 변경하여, 3차원 정보 생성 기기로 복수의 미가공데이터를 획득하는 것을 나타낸 개념도이고, 도 7의 (1)은 본 발명의 사용자 기기를 통해 사용자에게 복수의 미가공데이터가 처리가 가능함을 알리는 것을 나타낸 개념도이고, 도 7의 (2)는 본 발명의 사용자 기기를 통해 사용자에게 대상물에 대한 3차원 정보를 수치로 알리는 것을 나타낸 개념도이다.
본 발명의 "3차원 정보 생성 방법"은 사용자 기기(100)와 사용자 기기(100)에 연동되는 3차원 정보 생성 기기(200)를 이용하여, 대상물에 대한 3차원 정보를 생성할 수 있다.
본 발명의 "3차원 정보 생성 방법"은 사용자 기기(100)의 카메라 모듈(120)로 대상물을 촬영하는 단계(S100)와, 사용자 기기(100)의 촬영 영상(1)에서 대상물을 특정하는 단계(S200)와, 카메라 모듈(120)의 촬영 시점(시야)을 변경하며, 3차원 정보 생성 기기(200)로 복수의 미가공데이터(Raw data)를 획득하는 단계(S300)와, 사용자에게 복수의 미가공데이터의 처리가 가능함을 알리는 단계(S400)와, 미가공데이터를 처리하여 대상물에 대한 3차원 정보를 도출하는 단계(S500)를 포함할 수 있다.
도 5의 (1)에서 나타내는 바와 같이, 사용자 기기(100)의 카메라 모듈(120)로 대상물을 촬영하는 단계(S100)에서는, 디스플레이(130)에 촬영 영상(1)이 재생될 수 있다.
도 5의 (2)에서 나타내는 바와 같이, 사용자 기기(100)의 촬영 영상(1)에서 대상물을 특정하는 단계(S200)에서는, 디스플레이(130)의 촬영 영상(1)에 대상물을 특정하는 마크(2)가 표시될 수 있다.
한편, 상술한 바와 같이, 대상물을 특정하는 마크(2)는 사용자가 사용자 기기(100)를 조작함으로써 마킹될 수 있다(일 예로, 포인터로 터치 스크린에 마킹).
또한, 실재현실의 대상물은 촬영 영상(1)에서 표시된 대상물을 특정하는 마크와 매칭되고, 이에 따라, 3차원 정보 생성 기기(200)는 특정된 대상물에 대한 3차원 정보를 생성할 수 있다.
즉, 사용자가 대상물을 특정하는 마크(2)를 마킹함으로써, 3차원 정보 생성 기기(200)는 복수의 피사체 중 대상물을 트래킹하여 3차원 정보를 생성할 수 있다.
도 6에서 나타내는 바와 같이, 카메라 모듈(120)의 촬영 시점(시야)을 변경하며 3차원 정보 생성 기기(200)로 복수의 미가공데이터(Raw data)를 획득하는 단계(S300)는 사용자가 사용자 기기(100)를 이동(Moving)시킴으로써 실현될 수 있다.
이 경우, 카메라 모듈(120)의 촬영 시점(시야)는 변경될 수 있다. 또한, 카메라 모듈(120)의 촬영 시점은 단속적 또는 연속적으로 변경될 수 있다. 카메라 모듈(120)의 촬영 시점이 단속적으로 변경되는 경우 시계열적으로 단속적인 복수의 미가공 데이터를 획득할 수 있으며, 카메라 모듈(120)의 촬영 시점이 연속적으로 변경되는 경우 시계열적으로 연속적인 복수의 미가공 데이터를 획득할 수 있다.
한편, 3차원 정보 생성 기기(200)는 복수의 미가공데이터를 처리하여 3차원 정보를 생성할 수 있다.
이 경우, 복수의 미가공데이터는 카메라 모듈(120)의 각각의 촬영 시점에서의 대상물에 대한 3차원 정보일 수 있다. 3차원 정보 생성 기기(200)는 복수의 미가공데이터 각각의 값 중 적어도 일부의 평균값을 대상물에 대한 3차원 정보로 결정하여 대상물에 대한 3차원 정보를 생성할 수 있다.
일 예로, 3차원 정보 생성 기기(200)는 복수의 미가공데이터 각각의 값 중에서 복수의 미가공데이터의 평균값을 기준으로한 일정 범위 외의 값(최대값 범위, 최소값 범위 중)을 가지는 미가공데이터 값을 제외하고, 나머지 미가공데이터 값의 평균값으로 3차원 정보를 결정할 수 있다.
도 7의 (1)에서 나타내는 바와 같이, 사용자에게 복수의 미가공데이터의 처리가 가능함을 알리는 단계(S400)에서는, 디스플레이(110)에 복수의 미가공데이터가 축적되었다는 아이콘, 문자 및 배경 중 적어도 하나(3)가 표시될 수 있다.
일 예로, 복수의 미가공데이터가 대상물에 대한 3차원 정보를 도출할 수 있을 만큼 축적되는 경우, 디스플레이(110)에 "스캐닝 완료"라는 문구가 표시될 수 있다.
복수의 미가공데이터가 대상물에 대한 3차원 정보를 도출할 수 있을 만큼 축적되는 경우란, 다양한 기준에 의해 판단될 수 있다. 일 예로, 복수의 미가공데이터의 개수가 기설정된 개수 이상인 경우를 의미할 수 있다. 이 경우, 기설정된 개수는 복수의 미가공데이터 각각의 값 중 적어도 일부의 평균값과 실제 대상물의 3차원 정보 사이의 오차를 고려하여 결정될 수 있다.
도 7의 (2)에서 나타내는 바와 같이, 미가공데이터를 처리하여 대상물에 대한 3차원 정보를 도출하는 단계(S500)는 디스플레이(130)에 대상물에 대한 3차원 정보가 수치, 표, 그래프 및 3차원 이미지 중 적어도 하나(4)로 표시됨으로써 이루어질 수 있다. 일 예로, 디스플레이(110)에 대상물에 대한 3차원 정보(일 예로, 부피값)가 구체적인 수치로 표시될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (10)

  1. 사용자 기기와 사용자 기기에 연동되는 3차원 정보 생성 기기를 이용하여, 대상물에 대한 3차원 정보를 생성하는 방법에 있어서,
    상기 사용자 기기의 카메라 모듈로 대상물을 촬영하는 단계;
    상기 사용자 기기의 촬영 영상에서 대상물을 특정하는 단계;
    대상물에 대한 3차원 정보를 도출하는 단계;
    상기 카메라 모듈의 촬영 시점을 변경하며, 상기 3차원 정보 생성 기기로 복수의 미가공데이터를 획득하는 단계;
    상기 복수의 미가공데이터가 대상물에 대한 3차원 정보를 도출할 수 있는 만큼 축적된 경우, 사용자에게 상기 복수의 미가공데이터가 처리가 가능함을 알리는 단계를 포함하고,
    상기 복수의 미가공데이터는 상기 카메라 모듈의 각각의 촬영 시점에서의 대상물에 대한 3차원 정보이고,
    상기 3차원 정보 생성 기기는 상기 복수의 미가공데이터 각각의 값 중 적어도 일부의 평균값을 대상물에 대한 3차원 정보로 결정하여 대상물에 대한 3차원 정보를 생성하고,
    상기 복수의 미가공데이터의 개수가 기설정된 개수 이상인 경우, 상기 복수의 미가공데이터가 3차원 정보를 도출할 수 있을 만큼 축적된 것으로 판단되는 3차원 정보 생성 방법.
  2. 제1항에 있어서,
    상기 사용자 기기의 촬영 영상에서 대상물을 특정하는 단계는 사용자가 상기 사용자 기기의 디스플레이를 조작하여 대상물을 특정하는 마크를 상기 촬영 영상에 마킹함으로써 이루어지는 3차원 정보 생성 방법.
  3. 제2항에 있어서,
    실재현실의 대상물은 상기 촬영 영상에서 표시된 대상물을 특정하는 마크와 매칭되고,
    상기 3차원 정보 생성 기기는 상기 촬영 영상에서 표시된 대상물을 특정하는 마크에 의해 특정된 대상물에 대한 3차원 정보를 생성하는 3차원 정보 생성 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 카메라 모듈의 촬영 시점은 단속적 또는 연속적으로 변경되는 3차원 정보 생성 방법.
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    상기 사용자 기기의 디스플레이에는 상기 복수의 미가공데이터가 축적되었다는 아이콘, 문자 및 배경 중 적어도 하나로 표시되는 3차원 정보 생성 방법.
  9. 제1항에 있어서,
    대상물에 대한 3차원 정보를 도출하는 단계는 상기 사용자 기기의 디스플레이에 대상물에 대한 3차원 정보가 수치, 표, 그래프 및 3차원 이미지 중 적어도 하나로 표시됨으로써 이루어지는 3차원 정보 생성 방법.
  10. 제1항에 있어서,
    상기 3차원 정보 생성 기기는,
    하우징;
    상기 하우징에 내장되는 기판;
    상기 기판에 실장되고, 대상물로 광을 출사하는 광원;
    상기 기판에 실장되고, 상기 광원에서 출사되어 대상물을 경유한 광이 조사되고, 3차원 정보를 생성하는 센서; 및
    상기 기판과 전기적으로 연결되고, 상기 사용자 기기에 도킹되는 커넥터를 포함하는 3차원 정보 생성 방법.
KR1020180164526A 2018-12-18 2018-12-18 3차원 정보 생성 방법 KR101978295B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180164526A KR101978295B1 (ko) 2018-12-18 2018-12-18 3차원 정보 생성 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180164526A KR101978295B1 (ko) 2018-12-18 2018-12-18 3차원 정보 생성 방법

Publications (1)

Publication Number Publication Date
KR101978295B1 true KR101978295B1 (ko) 2019-05-14

Family

ID=66581091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180164526A KR101978295B1 (ko) 2018-12-18 2018-12-18 3차원 정보 생성 방법

Country Status (1)

Country Link
KR (1) KR101978295B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120086084A (ko) * 2011-01-25 2012-08-02 삼성전자주식회사 3차원 의료 영상으로부터 최적의 2차원 의료 영상을 자동으로 생성하는 방법 및 장치
KR20170125716A (ko) * 2016-05-04 2017-11-15 임재형 대상물의 위치 정보 측정 장치 그리고 그 제어 방법
KR101929212B1 (ko) * 2018-08-02 2018-12-14 (주)금성보안 이동객체를 마스킹처리하는 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120086084A (ko) * 2011-01-25 2012-08-02 삼성전자주식회사 3차원 의료 영상으로부터 최적의 2차원 의료 영상을 자동으로 생성하는 방법 및 장치
KR20170125716A (ko) * 2016-05-04 2017-11-15 임재형 대상물의 위치 정보 측정 장치 그리고 그 제어 방법
KR101929212B1 (ko) * 2018-08-02 2018-12-14 (주)금성보안 이동객체를 마스킹처리하는 장치 및 방법

Similar Documents

Publication Publication Date Title
US10795006B2 (en) 3D time-of-flight camera system and position/orientation calibration method therefor
WO2020168742A1 (zh) 一种车体定位方法及装置
EP3527935B1 (en) Context-based depth sensor control
CN107894588B (zh) 移动终端、距离测量方法、尺寸测量方法及装置
TWI485365B (zh) 用於估計一真實世界距離之方法及系統及電腦可讀媒體
US11294478B2 (en) Three-dimensional position indicator and three-dimensional position detection system
US20210405158A1 (en) Depth sensing using optical time-of-flight techniques through a transmissive cover
US20150071524A1 (en) 3D Feature Descriptors with Camera Pose Information
CN109104583A (zh) 控制方法及装置、深度相机、电子装置及可读存储介质
CN109584375B (zh) 一种物体信息显示方法及移动终端
CN111397586A (zh) 测量系统
CN115552356A (zh) 头戴式显示装置的跟踪方法和头戴式显示系统
CN111316059B (zh) 使用邻近设备确定对象尺寸的方法和装置
KR20200045946A (ko) 이동 단말기
KR101978295B1 (ko) 3차원 정보 생성 방법
JP6387478B2 (ja) 読取装置、プログラム、及びユニット
KR20210006605A (ko) 센서를 포함하는 전자 장치 및 그의 동작 방법
CN109333097A (zh) 定位方法及定位装置
CN111596507B (zh) 一种摄像模组及其制造方法
CN112379563A (zh) 一种基于结构光的三维成像装置、方法及电子设备
CN111127567B (zh) 一种tof模块标定方法
KR101956035B1 (ko) 인터랙티브 디스플레이 디바이스 및 그 제어 방법
WO2022224498A1 (ja) 認識装置、認識方法及びプログラム
US11216966B2 (en) Systems and methods for automated product measurement
KR101989003B1 (ko) 휴대 가능한 3차원 정보 생성 기기 및 3차원 정보 생성 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant