KR102335817B1 - 사용자 위치 연산 장치 - Google Patents

사용자 위치 연산 장치 Download PDF

Info

Publication number
KR102335817B1
KR102335817B1 KR1020190152855A KR20190152855A KR102335817B1 KR 102335817 B1 KR102335817 B1 KR 102335817B1 KR 1020190152855 A KR1020190152855 A KR 1020190152855A KR 20190152855 A KR20190152855 A KR 20190152855A KR 102335817 B1 KR102335817 B1 KR 102335817B1
Authority
KR
South Korea
Prior art keywords
user
distance
camera
angle
dof
Prior art date
Application number
KR1020190152855A
Other languages
English (en)
Other versions
KR20210064536A (ko
Inventor
김동호
서봉석
이예훈
강동호
박양배
박종현
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020190152855A priority Critical patent/KR102335817B1/ko
Publication of KR20210064536A publication Critical patent/KR20210064536A/ko
Application granted granted Critical
Publication of KR102335817B1 publication Critical patent/KR102335817B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

본 기술은 사용자 위치 연산 장치가 개시된다. 본 기술의 구체적인 예에 따르면, 적어도 둘의 카메라로부터 획득된 이미지의 DoF 영역을 도출하고 도출된 DoF 영역 내의 사물과 사용자 간의 관계식을 토대로 사용자 위치를 도출함에 따라, 기존의 콘서트 홀과 같은 건물 내의 GPS 수신 신호의 음영 지역에서도 실시간 사용자 위치를 정확하게 도출할 수 있고, 또한, 다중시점 영상 및 시점 간의 이동을 실행하는 360 및 VR 실감형 콘텐츠 제작 시 일 실시 예의 사용자 위치 관계를 토대로 이미지 정렬이 수행될 때 보다 가상 현실 서비스에 대한 몰입도 및 흥미성을 향상시킬 수 있고 사용자 만족도를 향상시킬 수 있다.

Description

사용자 위치 연산 장치{APPARAUS FOR CALCULATING POSITION OF USER}
본 발명은 사용자 위치 연산 장치에 관한 것으로, 더욱 상세하게는 적어도 둘 이상의 카메라를 통해 획득된 이미지를 이용하여 사용자 위치를 정확하게 도출할 수 있는 기술에 관한 것이다.
최근 다양한 VR/AR 서비스가 등장하면서 현실세계의 콘텐츠를 가상현실 혹은 증강현실로 표출하는 다양한 연구가 진행되있다.
최근 360 및 VR(Virtual Reality) 콘텐츠에 대한 관심과 요구가 증가하고 있으며, 그에 따른 콘텐츠와 사용자 간 상호작용 그리고 사용자의 능동성이 부각되고 있다. 이러한 요구에 맞춰 MPEG, JPEG과 같은 영상 표준단체에서 3DoF이상의 자유도를 가지는 콘텐츠 기술을 개발 및 협의 중에 있다.
하지만 실제 세계의 영상을 가상공간으로 옮기기 위해서 수반되어야 하는 필수과정인 정확한 위치 확인이 이러한 과정의 접근성을 많이 떨어뜨린다.
예를 들어 다중시점 영상을 획득함에 있어, 가장 중요한 요소는 영상이 촬영되는 위치이다. 현재 카메라에서 EXIF 정보를 통해 GPS 정보를 기록하지만 GPS는 성능 한계상 가장 높은 정확도를 가졌을 때 2m 내외의 정확도를 가진다. 이를 1m 이하로 줄이기 위해서는 새로운 기술이 필요하다.
따라서 본 발명은 카메라의 정보를 활용하여 촬영된 이미지에서 카메라의 위치를 연산함에 따라 기존 GPS 보다 카메라의 위치의 정확도를 향상시킬 수 있는 카메라 위치 연산 장치를 제공하고자 함에 목적이 있다.
전술한 목적을 달성하기 위한 일 실시 예의 양태에 의하면, 카메라 위치 연산 장치는, 사물을 포함하는 이미지를 획득하는 적어도 하나의 카메라; 및 획득된 각각의 이미지의 DoF(Depth of Field) 영역을 도출하고 도출된 DoF 영역의 사물과 사용자 간의 거리 및 각도를 연산하며 연산된 사용자 간의 거리 및 각도로 사용자 위치를 판정하는 콘텐츠 제작부를 포함하는 것을 일 특징으로 한다.
바람직하게 상기 콘텐츠 제작부는,
적어도 하나의 카메라의 이미지를 수신하는 이미지 수신부;
적어도 하나의 카메라로부터 획득된 이미지 중 DoF 영역을 도출하는 DoF 연산부;
사물과 카메라가 직각을 이루는 교점과 사물과 카메라와의 거리 및 각도, 및 교점과 사물과의 거리, 및 사용자와 카메라 간의 거리를 이용하여 사용자와 사물 간의 거리 및 각도를 연산하는 사물 위치 연산부; 및
카메라가 동시에 동일한 사물에 대해 초점이 맞는다는 조건에서 각각의 도출된 사용자와 사물 간의 거리 및 각도와 도출된 DoF 영역의 오차가 이루는 교점으로 사용자 위치를 판단하는 사용자 위치 판단부 중 적어도 하나로 구비될 수 있다.
바람직하게 상기 사용자 위치 판단부는,
카메라가 동시에 동일한 사물에 대해 초점이 맞는다는 조건을 만족하지 아니한 경우 카메라의 렌즈와 사물과의 거리가 작은 카메라를 기준으로 도출된 사용자와 사물 간의 거리 및 각도로 사용자 위치를 판단하도록 구비될 수 있다.
바람직하게 상기 DoF 영역은,
가우시안 분포에 대해 99%의 신뢰도를 가지는 영역으로 결정되며, 다음 식 11을 만족하는 것을 특징으로 하는 사용자 위치 연산 장치.
[식 1]
Figure 112019121466206-pat00001
여기서,
Figure 112019121466206-pat00002
는 카메라 렌즈의 Hyperfocal distance이고,
Figure 112019121466206-pat00003
는 카메라 렌즈의 화각 Focal length이며,
Figure 112019121466206-pat00004
는 카메라의 렌즈와 사물간의 거리 Focal distance이고,
Figure 112019121466206-pat00005
는 카메라 렌즈의 조리개 수치로
Figure 112019121466206-pat00006
이며,
Figure 112019121466206-pat00007
는 초점이 맞지 아니한 최대 허용 직경이다.
바람직하게 상기 사용자와 사물간의 거리 및 각도는 다음 식 12로부터 도출되는 것을 특징으로 하는 사용자 위치 연산 장치.
[식 12]
Figure 112019121466206-pat00008
여기서,
Figure 112019121466206-pat00009
,
Figure 112019121466206-pat00010
는 사물과 카메라 직각을 이루는 교점 P1과 사물 object 과의 거리 및 각도이고,
Figure 112019121466206-pat00011
는 P1과 사물 object 와의 거리이며,
Figure 112019121466206-pat00012
는 사용자와 카메라 간의 거리이다.
일 실시 예에 따르면, 적어도 둘의 카메라로부터 획득된 이미지의 DoF 영역을 도출하고 도출된 DoF 영역 내의 사물과 사용자 간의 관계식을 토대로 사용자 위치를 도출함에 따라, 기존의 콘서트 홀과 같은 건물 내의 GPS 수신 신호의 음영 지역에서도 실시간 사용자 위치를 정확하게 도출할 수 있다.
또한, 다중시점 영상 및 시점 간의 이동을 실행하는 360 및 VR 실감형 콘텐츠 제작 시 일 실시 예의 사용자 위치 관계를 토대로 이미지 정렬이 수행될 때 보다 가상 현실 서비스에 대한 몰입도 및 흥미성을 향상시킬 수 있고 사용자 만족도를 향상시킬 수 있다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시 예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 일 실시예의 사용자 위치 연산 장치의 구성도이다.
도 2는 일 실시예의 획득된 이미지를 보인 예시도이다.
도 3은 일 실시예의 이미지의 DoF 영역을 보인 예시도이다.
도 4 및 도 5는 일 실시예의 사물과 사용자 위치 관계를 나타낸 개념도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하여 도시한 것이다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서는 카메라로 촬영하는 이미지의 경우 EXIF를 통해 이미지 이외의 메타데이터가 제공되며, 메타데이터는 카메라에 대한 정보, 렌즈에 대한 정보, 시간, 위치 등을 포함한다.
최근 렌즈 및 카메라에 기술이 발전하면서 카메라와 렌즈가 초점을 맞추는 거리 Focal Distance에 대한 정보 및 렌즈의 화각 Focal Length가 카메라 내부에서 처리된다.
이에 일 실시 예에서는 렌즈와 카메라에서 획득하는 Focal Distance를 카메라와 초점이 맞은 물체와의 거리를 혼용하게 기재하고 이러한 Focal Distance를 도출하는 카메라 센서는 평면이기 때문에 초점 영역 역시 센서면과 평행한 평면을 이루며 Focal Distance는 초점 맞은 사물과의 실제 거리가 아닌 초점 평면과의 거리를 말한다.
도 1은 일 실시 예에 따른 카메라 위치 연산 장치의 구성을 보인 도면으로서, 도 1을 참조하면, 일 실시 예는 Focal Distance의 특성과 이동 방향을 탐지하는 가속센서/자이로 센서를 활용하여 사물과 카메라 간의 정확한 위치를 연산하도록 구비될 수 있고, 이에 장치는 적어도 하나의 카메라(10)와, 이미지 수신부(110), DoF(Depth of Field) 연산부(120), 사물 위치 연산부(130), 및 사용자 위치 판단부(140)를 포함하는 콘텐츠 제작부(100)를 포함할 수 있다.
이미지 수신부(110)는 적어도 하나의 카메라를 통해 수신된 이미지를 수신할 수 있다.
도 2는 카메라(10)를 통해 수신된 이미지를 보인 예시도이고, 도 3은 도2에 도시된 이미지에 포함된 DoF 영역을 도출하는 과정을 설명하기 위한 개념도이다. 도 2 및 도 3을 참조하면, 카메라(10)로부터 획득된 이미지는 광학적 특성에 따라 기 정해진 DoF 영역의 이미지를 포함한다. 이러한 DoF 영역은 이미지 내의 사물이 위치할 확률로 표시된다. 즉, 사물이 위치할 확률은 카메라(10)를 통해 획득된 이미지에 가우시안 분포를 통해 이미지 내의 사물이 위치할 확률적 신뢰도로 도출될 수 있다.
이에 도 3에 도시된 가우시안 분포에 대해 99%의 신뢰도를 가지는 영역으로 DoF 영역이 결정된다. 이러한 DoF 영역은 다음 식 1로부터 도출될 수 있다.
[식 1]
Figure 112019121466206-pat00013
여기서,
Figure 112019121466206-pat00014
는 카메라(100) 렌즈의 Hyperfocal distance이고,
Figure 112019121466206-pat00015
는 카메라 렌즈의 화각 Focal length이며,
Figure 112019121466206-pat00016
는 카메라의 렌즈와 사물간의 거리 Focal distance이고,
Figure 112019121466206-pat00017
는 카메라 렌즈의 조리개 수치로
Figure 112019121466206-pat00018
이며,
Figure 112019121466206-pat00019
는 초점이 맞지 아니한 최대 허용 직경이다.
도 4는 사물 위치 연산부(130)에 의거 하나의 카메라(10: CAM1)와 사물 object 및 사용자 Position 과의 관계를 설명하기 위한 개념도로서, 도 4를 참조하면, 사물 위치 연산부(130)는 이미지에 포함된 사물 위치와 사용자 간의 거리
Figure 112019121466206-pat00020
에 대한 관계를 나타내는 식 2로부터 도출된다.
[식 2]
Figure 112019121466206-pat00021
여기서,
Figure 112019121466206-pat00022
,
Figure 112019121466206-pat00023
는 사물과 카메라 직각을 이루는 교점 P1과 사물 object 과의 거리 및 각도이고,
Figure 112019121466206-pat00024
는 P1과 사물 object 와의 거리이며,
Figure 112019121466206-pat00025
는 사용자와 카메라 간의 거리이다.
이에 사물 위치 연산부(130)는 식 1에 의거 도출된 DoF 영역 내에 존재하는 사물과 사용자 간의 위치를 식 2로부터 도출할 수 있다. 이에 이미지 중 DoF 영역 내에 존재하는 사물과 사용자 간의 거리
Figure 112019121466206-pat00026
및 각도
Figure 112019121466206-pat00027
는 다음 식 3으로부터 도출될 수 있다.
[식 3]
Figure 112019121466206-pat00028
도 5는 사물 위치 연산부(130)의 적어도 둘의 카메라 CAM1, CMA2와 사물 object와 사용자 Position 간의 관계를 설명하기 위한 개념도로서, 도 5를 참조하면, 카메라 CAM1의 이미지에 포함된 사물과 사용자 간의 거리
Figure 112019121466206-pat00029
및 각도
Figure 112019121466206-pat00030
는 다음 식 4로부터 도출되며, 카메라 CAM2의 이미지에 포함된 사물과 사용자 간의 거리
Figure 112019121466206-pat00031
및 각도
Figure 112019121466206-pat00032
는 다음 식 5로부터 도출된다.
[식 4]
Figure 112019121466206-pat00033
[식 5]
Figure 112019121466206-pat00034
적어도 둘의 카메라가 동시에 동일한 사물에 대해 초점이 맞는다는 조건하에 사용자 위치 판정부(140)는 각 카메라로부터 도출된 각각의 사물과 사용자 간의 거리 및 각도 중 도출된 DoF 영역의 오차가 이루는 교점으로 인해 사용자 위치를 판정할 수 있다.
그러나, 적어도 둘의 카메라가 동시에 동일한 사물에 대해 초점이 맞지 아니한 경우 사용자 위치 판정부(140)는 각 카메라의 렌즈와 사물과의 거리 Focal Distance가 작은 카메라를 기준으로 DoF 영역을 도출하고 도출된 DoF 영역 내에 포함된 사물과 사용자 간의 거리 및 각도에 대한 범위를 추정할 수 있다.
이에 콘서트 홀의 촬영 시 사용자 위치가 반경 50 Cm 이내로 정확도가 향상된다.
이에 일 실시 예는 적어도 둘의 카메라로부터 획득된 이미지의 DoF 영역을 도출하고 도출된 DoF 영역 내의 사물과 사용자 간의 관계식을 토대로 사용자 위치를 도출함에 따라, 기존의 콘서트 홀과 같은 건물 내의 GPS 수신 신호의 음영 지역에서도 실시간 사용자 위치를 정확하게 도출할 수 있다.
또한, 다중시점 영상 및 시점 간의 이동을 실행하는 360 및 VR 실감형 콘텐츠 제작 시 일 실시 예의 사용자 위치 관계를 토대로 이미지 정렬이 수행될 때 보다 가상 현실 서비스에 대한 몰입도 및 흥미성을 향상시킬 수 있고 사용자 만족도를 향상시킬 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (5)

  1. 삭제
  2. 사물을 포함하는 이미지를 획득하는 적어도 하나의 카메라; 및
    획득된 각각의 이미지의 DoF(Depth of Field) 영역을 도출하고 도출된 DoF 영역의 사물과 사용자 간의 거리 및 각도를 연산하며 연산된 사용자 간의 거리 및 각도로 사용자 위치를 판정하는 콘텐츠 제작부를 포함하고,
    상기 콘텐츠 제작부는,
    적어도 하나의 카메라의 이미지를 수신하는 이미지 수신부;
    적어도 하나의 카메라로부터 획득된 이미지 중 DoF 영역을 도출하는 DoF 연산부;
    사물과 카메라가 직각을 이루는 교점과 사물과 카메라와의 거리 및 각도, 및 교점과 사물과의 거리, 및 사용자와 카메라 간의 거리를 이용하여 사용자와 사물 간의 거리 및 각도를 연산하는 사물 위치 연산부; 및
    적어도 둘의 카메라가 동시에 동일한 사물에 대해 초점이 맞는다는 조건에서 각각의 도출된 사용자와 사물 간의 거리 및 각도와 도출된 DoF 영역의 오차가 이루는 교점으로 사용자 위치를 판단하는 사용자 위치 판단부로 구비되는 것을 특징으로 하는 사용자 위치 연산 장치.
  3. 제2항에 있어서, 상기 사용자 위치 판단부는,
    카메라가 동시에 동일한 사물에 대해 초점이 맞는다는 조건을 만족하지 아니한 경우 카메라의 렌즈와 사물과의 거리가 작은 카메라를 기준으로 도출된 사용자와 사물 간의 거리 및 각도로 사용자 위치를 판단하도록 구비되는 것을 특징으로 하는 사용자 위치 연산 장치.
  4. 제2항에 있어서, 상기 DoF 영역은,
    가우시안 분포에 대해 99%의 신뢰도를 가지는 영역으로 결정되며, 다음 식 11을 만족하는 것을 특징으로 하는 사용자 위치 연산 장치.
    [식 11]
    Figure 112019121466206-pat00035

    여기서,
    Figure 112019121466206-pat00036
    는 카메라 렌즈의 Hyperfocal distance이고,
    Figure 112019121466206-pat00037
    는 카메라 렌즈의 화각 Focal length이며,
    Figure 112019121466206-pat00038
    는 카메라의 렌즈와 사물간의 거리 Focal distance이고,
    Figure 112019121466206-pat00039
    는 카메라 렌즈의 조리개 수치로
    Figure 112019121466206-pat00040
    이며,
    Figure 112019121466206-pat00041
    는 초점이 맞지 아니한 최대 허용 직경이다.
  5. 제3항에 있어서, 상기 사용자와 사물간의 거리 및 각도는 다음 식 12로부터 도출되는 것을 특징으로 하는 사용자 위치 연산 장치.
    [식 12]
    Figure 112019121466206-pat00042

    여기서,
    Figure 112019121466206-pat00043
    ,
    Figure 112019121466206-pat00044
    는 사물과 카메라 직각을 이루는 교점 P1과 사물 object 과의 거리 및 각도이고,
    Figure 112019121466206-pat00045
    는 P1과 사물 object 와의 거리이며,
    Figure 112019121466206-pat00046
    는 사용자와 카메라 간의 거리이다.
KR1020190152855A 2019-11-26 2019-11-26 사용자 위치 연산 장치 KR102335817B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190152855A KR102335817B1 (ko) 2019-11-26 2019-11-26 사용자 위치 연산 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190152855A KR102335817B1 (ko) 2019-11-26 2019-11-26 사용자 위치 연산 장치

Publications (2)

Publication Number Publication Date
KR20210064536A KR20210064536A (ko) 2021-06-03
KR102335817B1 true KR102335817B1 (ko) 2021-12-07

Family

ID=76396834

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190152855A KR102335817B1 (ko) 2019-11-26 2019-11-26 사용자 위치 연산 장치

Country Status (1)

Country Link
KR (1) KR102335817B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100878781B1 (ko) * 2008-03-21 2009-01-14 태양정보시스템(주) 휴대 단말기를 이용하여 구조물의 크기 및 좌표를 측정하는측량 방법
JP2014507723A (ja) 2011-01-31 2014-03-27 マイクロソフト コーポレーション 三次元環境の再現

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101043450B1 (ko) * 2009-07-31 2011-06-21 삼성전기주식회사 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법
KR101459522B1 (ko) * 2013-02-15 2014-11-07 브이앤아이 주식회사 모바일 기반의 부가정보를 이용한 위치 보정 방법
KR20180126408A (ko) * 2018-09-07 2018-11-27 이주형 사용자 단말의 위치를 판단하는 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100878781B1 (ko) * 2008-03-21 2009-01-14 태양정보시스템(주) 휴대 단말기를 이용하여 구조물의 크기 및 좌표를 측정하는측량 방법
JP2014507723A (ja) 2011-01-31 2014-03-27 マイクロソフト コーポレーション 三次元環境の再現

Also Published As

Publication number Publication date
KR20210064536A (ko) 2021-06-03

Similar Documents

Publication Publication Date Title
KR102465227B1 (ko) 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
US10116922B2 (en) Method and system for automatic 3-D image creation
CN109922251B (zh) 快速抓拍的方法、装置及系统
EP2328125B1 (en) Image splicing method and device
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
US20120250980A1 (en) Method, apparatus and system
CN107431745A (zh) 双相机自动聚焦
JP6004371B2 (ja) 撮像装置
CN105744138B (zh) 快速对焦方法和电子设备
US9756260B1 (en) Synthetic camera lenses
CN102984530A (zh) 图像处理系统及自动对焦方法
US20200267309A1 (en) Focusing method and device, and readable storage medium
CN110009675B (zh) 生成视差图的方法、装置、介质及设备
CN105578027A (zh) 一种拍照方法及装置
CN104798128A (zh) 注解方法和装置
WO2020042000A1 (zh) 相机设备及对焦方法
JP2011039974A (ja) 画像検索方法およびシステム
KR102335817B1 (ko) 사용자 위치 연산 장치
KR20180133052A (ko) 360도 이미지 및 비디오 기반의 증강현실 콘텐츠 저작 방법
KR101273634B1 (ko) 모바일 기기를 이용하는 증강현실 환경에서 복수 객체 추적방법 및 이를 이용한 시스템
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JP2008152374A (ja) 画像システム、撮影方位特定装置、撮影方位特定方法、プログラム
KR102571876B1 (ko) 적어도 하나의 플렌옵틱 비디오를 리포커싱하기 위한 방법 및 디바이스
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant