KR101487490B1 - 웨어러블 단말의 영상 분석 방법 - Google Patents

웨어러블 단말의 영상 분석 방법 Download PDF

Info

Publication number
KR101487490B1
KR101487490B1 KR20130163489A KR20130163489A KR101487490B1 KR 101487490 B1 KR101487490 B1 KR 101487490B1 KR 20130163489 A KR20130163489 A KR 20130163489A KR 20130163489 A KR20130163489 A KR 20130163489A KR 101487490 B1 KR101487490 B1 KR 101487490B1
Authority
KR
South Korea
Prior art keywords
image
grid
tracking
camera
user terminal
Prior art date
Application number
KR20130163489A
Other languages
English (en)
Inventor
한상봉
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR20130163489A priority Critical patent/KR101487490B1/ko
Application granted granted Critical
Publication of KR101487490B1 publication Critical patent/KR101487490B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

카메라가 부착된 웨어러블 단말이 상기 카메라에서 촬영된 영상을 분석하는 방법으로서, 상기 카메라가 기준 위치에서 촬영한 기준 영상에서 기준 대상을 설정하고, 상기 기준 영상에서의 상기 기준 대상의 위치를 기준점으로 설정하는 단계, 임의 시점에 상기 단말이 상기 기준 위치로부터 임의 위치로 움직인 움직임 정보를 기초로, 상기 임의 시점에 상기 카메라에서 촬영된 제1 영상과 상기 기준 영상의 변이 정보를 추출하는 단계, 그리고 상기 제1 영상에서 추적 대상을 추출하고, 상기 변이 정보를 기초로 상기 기준점으로부터 떨어진 상기 추적 대상의 위치를 계산하는 단계를 포함한다.

Description

웨어러블 단말의 영상 분석 방법{IMAGE PROCESSING METOHD IN WEARABLE DEVICE}
본 발명은 웨어러블 단말의 영상 분석 방법에 관한 것이다.
최근 IT 기술의 발달로, 몸에 착용할 수 있는 단말(Wearable Device)이 출시되고 있다. 특히, 단말은 머리에 착용할 수 있는 안경이나 헬멧 형태일 수 있는데, 헤드 마운티드 디스플레이(Head Mounted Display) 단말 또는 헤드 마운티드 단말이라고 부를 수 있다.
대표적인 헤드 마운티드 단말로 구글 글래스가 있다. 구글 글래스는 사용자 눈 앞의 디스플레이에 영상을 포함하는 각종 정보를 표시한다. 구글 글래스는 컴퓨팅 장치, 통신 장치, 카메라, 각종 센서, GPS 장치 등으로 구성되어 스마트폰과 같은 기능을 제공할 수 있다.
이러한 웨어러블 단말은 사용자의 움직임에 따라 움직인다. 따라서, 웨어러블 단말에서 촬영된 영상을 분석하여 특정 객체의 변이 정보를 계산하는 것이 어렵다.
본 발명이 해결하고자 하는 과제는 웨어러블 단말의 영상 분석 방법을 제공하는 것이다.
본 발명의 한 실시예에 따라 카메라가 부착된 웨어러블 단말이 상기 카메라에서 촬영된 영상을 분석하는 방법으로서, 상기 카메라가 기준 위치에서 촬영한 기준 영상에서 기준 대상을 설정하고, 상기 기준 영상에서의 상기 기준 대상의 위치를 기준점으로 설정하는 단계, 임의 시점에 상기 단말이 상기 기준 위치로부터 임의 위치로 움직인 움직임 정보를 기초로, 상기 임의 시점에 상기 카메라에서 촬영된 제1 영상과 상기 기준 영상의 변이 정보를 추출하는 단계, 그리고 상기 제1 영상에서 추적 대상을 추출하고, 상기 변이 정보를 기초로 상기 기준점으로부터 떨어진 상기 추적 대상의 위치를 계산하는 단계를 포함한다.
상기 변이 정보를 추출하는 단계는 상기 기준점을 기준으로 상기 기준 영상에서 그리드를 생성하고, 상기 움직임 정보를 기초로 상기 기준 영상에서의 그리드를 확장하여 상기 제1 영상에서의 그리드 정보를 계산하며, 상기 제1 영상에서의 그리드 정보를 기초로 상기 변이 정보를 추출할 수 있다.
상기 추적 대상의 위치를 계산하는 단계는 상기 제1 영상에서 상기 추적 대상이 위치한 그리드값을 상기 추적 대상의 위치로 계산할 수 있다.
상기 변이 정보를 추출하는 단계는 상기 움직임 정보를 기초로 상기 기준 위치의 그리드에 대응하도록 상기 제1 영상의 그리드 모양을 변형할 수 있다.
상기 영상 분석 방법은 상기 추적 대상의 위치를 기초로 상기 기준 영상에 상기 추적 대상을 표시하는 단계를 더 포함할 수 있다.
상기 추적 대상을 표시하는 단계는 상기 제1 영상에서 상기 추적 대상의 이미지를 추출하고, 상기 추적 대상의 위치에 대응하는 상기 기준 영상의 지점에, 상기 이미지를 겹쳐서 표시할 수 있다.
상기 기준 대상은 골프공이고, 상기 추적 대상은 골프채일 수 있다.
본 발명의 다른 실시예에 따르면 카메라가 부착된 웨어러블 단말이 상기 카메라에서 촬영된 영상을 분석하는 방법으로서, 상기 카메라가 기준 위치에서 촬영한 기준 영상에서 기준 대상을 설정하고, 상기 기준 영상에서의 상기 기준 대상의 위치를 기준으로 그리드를 생성하는 단계, 임의 시점에 상기 단말이 상기 기준 위치로부터 임의 위치로 움직인 움직임 정보를 기초로 상기 그리드를 확장하는 단계, 상기 임의 시점에 상기 카메라에서 촬영된 제1 영상에서 추적 대상을 결정하는 단계, 상기 제1 영상에서 상기 추적 대상이 위치한 그리드값을 추출하는 단계, 그리고 상기 그리드값을 기초로 상기 기준 대상에 대한 상기 추적 대상의 상대적 위치를 계산하는 단계를 포함한다.
상기 그리드를 생성하는 단계는 상기 기준 대상의 위치를 기준점으로 설정하고 상기 기준점을 기준으로 3차원 그리드를 생성할 수 있다.
상기 그리드를 확장하는 단계는 상기 움직임 정보를 기초로 상기 기준 위치의 그리드에 대응하도록 상기 제1 영상의 그리드 모양을 변형할 수 있다.
상기 영상 분석 방법은 상기 추적 대상의 상대적 위치를 기초로 상기 기준 영상에 상기 추적 대상을 표시하는 단계를 더 포함할 수 있다.
상기 추적 대상을 표시하는 단계는 상기 제1 영상에서 상기 추적 대상의 이미지를 추출하고, 상기 기준 대상으로부터 상기 상대적 위치에 해당하는 지점에, 상기 이미지를 겹쳐서 표시할 수 있다.
본 발명의 실시예에 따르면 웨어러블 단말을 착용한 사용자가 움직이더라도, 웨어러블 단말에서 촬영된 영상의 변이 정보를 추출할 수 있다.
도 1은 본 발명의 한 실시예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 한 실시예에 따른 사용자 단말의 예시이다.
도 3부터 도 7은 본 발명의 한 실시예에 따른 변이 정보 추출 방법을 설명하는 도면이다.
도 8부터 도 10은 본 발명의 한 실시예에 따른 객체 추적 방법을 설명하는 도면이다.
도 11은 본 발명의 한 실시예에 따른 영상 분석 방법의 흐름도이다.
도 12와 도 13 각각은 본 발명의 다양한 실시예를 설명하는 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 1은 본 발명의 한 실시예에 따른 사용자 단말의 블록도이고, 도 2는 본 발명의 한 실시예에 따른 사용자 단말의 예시이다.
도 1과 도 2를 참고하면, 사용자 단말(100)은 착용할 수 있는(wearable) 단말, 즉 웨어러블 단말이다. 예를 들면, 사용자 단말(100)은 헤드 마운티드(Head Mounted) 단말일 수 있고, 안경이나 헬멧 형태로 구현될 수 있다. 사용자 단말(100)의 외관은 다양하게 설계 변경될 수 있다.
사용자 단말(100)은 컴퓨팅부(110), 카메라(130), 움직임 측정 센서(150), 그리고 디스플레이(170)를 포함한다. 사용자 단말(100)은 통신부(190)를 더 포함할 수 있다.
컴퓨팅부(110)는 프로세서와 메모리를 통해 각종 프로그램 및 어플리케이션을 실행하고 처리한다. 컴퓨팅부(110)는 사용자 단말(100)에 포함된 각종 장치와 연결되어, 각종 장치를 제어한다. 본 발명의 객체 추적 방법은 어플리케이션으로 구현될 수 있다. 어플리케이션은 프로세서에 의해 실행되는 프로그램 언어로 구현된다. 어플리케이션은 컴퓨팅부(110)에 설치되며, 프로세서에 의해 실행될 수 있다. 어플리케이션은 프로그램 기록매체에 저장될 수 있다. 여기서, 컴퓨팅부(110)가 단독으로 모든 처리를 하는 것으로 설명하나, 외부 서버(미도시)가 사용자 단말(100)로부터 전송된 영상 및 움직임 정보를 기초로 컴퓨팅부(110)의 일부 기능을 수행할 수 있다.
카메라(130)는 사용자가 사용자 단말(100)을 착용했을 때, 전방을 촬영할 수 있도록 사용자 단말(100)에 설치된다.
움직임 측정 센서(150)는 사용자 단말(100)의 움직임 정보를 측정한다. 사용자가 머리 등에 사용자 단말(100)을 착용하기 때문에, 사용자가 움직이면 사용자 단말(100)도 움직인다. 따라서, 움직임 측정 센서(150)는 사용자 단말(100)이 기준 위치에서 임의 위치로 움직이면, 기준 위치로부터의 변이 정보를 측정한다. 움직임 측정 센서(150)는 3차원에서의 변이 정보를 추출한다. 움직임 측정 센서(150)는 가속도 센서, 자이로 센서, 중력 센서 등을 포함할 수 있다.
디스플레이(170)는 컴퓨팅부(110)에서 출력한 정보를 출력한다. 헤드 마운티드 단말의 디스플레이는 사용자가 사용자 단말(100)을 착용했을 때, 사용자의 눈 앞이나 눈 근처에 위치할 수 있다.
통신부(190)는 외부 통신 장치와 통신하는 통신 모듈을 포함한다. 통신 모듈은 와이파이나 블루투스와 같은 근거리 통신 모듈, 이동통신 모듈 등 다양할 수 있다. 통신부(190)는 외부 서버(미도시)와 통신한다. 통신부(190)는 수신한 정보를 컴퓨팅부(110)로 전달하고, 컴퓨팅부(110)로부터 전달된 정보를 지정된 서버로 전송할 수 있다.
도 3부터 도 7은 본 발명의 한 실시예에 따른 변이 정보 추출 방법을 설명하는 도면이다.
도 3을 참고하면, 사용자 단말(100)은 부착된 카메라를 통해 기준 위치(기준 자세)(10)에서 기준 대상(200)을 촬영한다. 사용자 단말(100)은 기준 대상(200)을 촬영한 기준 영상에서, 기준 대상의 위치를 기준점[예를 들면, 3차원상의 기준 좌표(0,0,0)]으로 설정할 수 있다. 사용자 단말(100)은 기준점을 기초로 가상의 그리드를 설정한다.
사용자 단말(100)이 임의 위치(20)로 움직이면, 사용자 단말(100)은 움직임 측정 센서(150)를 이용하여 기준 위치(10)로부터 임의 위치(20)로 움직인 움직임 정보를 측정한다. 이때, 사용자 단말(100)은 움직임 측정 센서(150)를 이용하여 카메라의 지향 방향(촬영 방향)을 알 수 있다. 움직임 정보는 기준 위치(10)로부터의 이동 방향, 이동 거리 등을 포함한다. 이때, 사용자 단말(100)은 사용자로부터 특정 정보를 입력받아 기준 대상(200)이 위치한 평면으로부터 카메라까지의 높이를 계산할 수 있다. 또는 사용자 단말(100)은 기준 영상에서 포함된 기준 대상의 크기와 실제 기준 대상의 크기를 비교하여 기준 대상(200)이 위치한 평면으로부터 카메라까지의 높이를 계산할 수 있다.
사용자 단말(100)은 움직임 정보를 기초로 기준 위치(10)에서 촬영한 영상과 임의 위치(20)에서 촬영한 영상의 변이 정보를 계산한다. 이때, 사용자 단말(100)이 기준 위치(10)에서 움직이면, 사용자 단말(100)은 움직인 만큼 가상의 그리드를 확장한다. 사용자 단말(100)은 기준점으로부터 그리드를 확장하기 때문에, 특정 객체가 놓인 그리드를 기초로 특정 객체가 기준점으로부터 얼마만큼 떨어져 있는지 알 수 있다.
도 4와 도 5를 참고하면, 사용자가 안경 모양의 사용자 단말(100)을 착용하고 골프를 한다. 사용자 단말(100)은 도 5와 같이, 기준 자세(예를 들면, 어드레스 자세)에서 촬영하여 기준 영상(300)을 획득한다. 기준 영상(300)은 기준 대상인 골프공(310)을 포함할 수 있다. 사용자 단말(100)은 사용자의 음성, 터치, 또는 모션 센싱 등의 제어 신호를 기초로 기준 영상(300)을 촬영할 수 있다.
도 3과 6을 참고하면, 사용자 단말(100)은 기준 영상(300)에서 골프공(310)을 기준으로 가상의 그리드를 설정한다. 이때, 골프공(310)이 그리드의 기준점이 된다. 여기서 그리드 간격 및 그리드 인덱스는, 예를 들어 표시한 것으로서, 이러한 정보는 다양하게 변경될 수 있다.
도 7을 참고하면, 사용자가 움직이면, 사용자 단말(100)은 움직인 위치에서 촬영하여, 영상(400)을 획득한다. 영상(400)은 골프공(310)을 포함하지 않을 수도 있다. 사용자 단말(100)은 움직인 만큼 가상의 그리드를 확장한다. 이렇게, 사용자 단말(100)은 자신의 움직임 정보를 기초로 기준 영상(300)과 이동 영상(400)의 변이 정보를 계산한다.
여기서 설명의 편의를 위해 영상(400)의 그리드를 직교 그리드로 표시하였다. 그러나 실제로 도 3의 임의 위치(20)에서 촬영하면, 바닥의 그리드가 기준점으로부터 멀어질수록 간격이 크게 보인다. 따라서, 사용자 단말(100)은 영상(400)의 움직임 정보에 대응하여 그리드 간격을 가변한다. 즉, 사용자 단말(100)은 기준 위치(10)의 그리드를 움직임 정보를 기초로 확장하되, 기준 위치(10)의 그리드에 대응하도록 임의 위치(20)에서 촬영된 영상의 그리드 모양을 변형한다.
도 8부터 도 10은 본 발명의 한 실시예에 따른 객체 추적 방법을 설명하는 도면이다.
도 8을 참고하면, 사용자 단말(100)은 촬영 영상(500)에서 추적할 추적 대상(예를 들면, 골프채)(600)을 결정한다. 사용자 단말(100)은 해당 영상을 촬영하는 시점의 움직임 정보를 기초로 기준 영상(300)과 해당 영상(500)의 변이 정보를 추출한다. 사용자 단말(100)은 변이 정보만큼 그리드를 확장하면서, 촬영된 영상과 기준 영상과의 변이 정보를 획득한다.
사용자 단말(100)은 변이 정보를 기초로 해당 영상(500)의 추적 대상(600)이 기준점으로부터 떨어진 위치를 계산한다. 즉, 사용자 단말(100)은 추적 대상(600)이 위치한 그리드값을 기초로 기준점으로부터 떨어진 추적 대상(600)의 위치를 계산할 수 있다. 예를 들어, 그리드값은 추적 대상(600)의 특정 위치(예를 들면, 헤드)를 기준으로 추출될 수 있다.
도 9를 참고하면, 사용자 단말(100)은 영상(500)에서 추적 대상(600) 이미지와 추적 대상(600)의 위치 정보를 추출한다. 그리고, 사용자 단말(100)은 추적 대상(600)의 위치 정보를 기초로 기준 영상(300)에 영상(500)의 추적 대상(600) 이미지를 겹쳐서 표시한다.
도 10을 참고하면, 사용자 단말(100)은 복수의 영상들에서 추적 대상을 추출하고, 복수의 추적 대상을 기준 영상(300)에 표시할 수 있다.
이와 같이, 사용자 단말(100)은 기준 대상(골프공)의 위치에 상대적인 추적 대상의 위치 변이를 모니터링하여, 추적 대상의 움직임 정보를 연속적으로 표시할 수 있다.
예를 들어, 사용자가 골프 스윙을 하면, 카메라가 지속적으로 움직인다. 그럼에도 불구하고, 사용자 단말(100)은 특정 객체의 위치를 기준 대상과의 상대적 위치로 계산하고, 기준 영상(어드레스 시점의 정지 영상)에 특정 객체를 오버레이하여 표시할 수 있다.
또한, 사용자 단말(100)은 이러한 그리드 기반 객체 추적을 통해 추적 대상의 다양한 움직임 정보(예를 들면, 헤드 각도나 헤드 스피드), 그리고 사용자의 움직임 정보(예를 들면, 스윙 시 사용자 머리의 움직임) 등을 분석할 수 있다.
도 11은 본 발명의 한 실시예에 따른 영상 분석 방법의 흐름도이다.
도 11을 참고하면, 사용자 단말(100)은 카메라가 기준 위치에서 촬영한 기준 영상에서 기준 대상을 설정한다(S110). 기준 영상에서의 기준 대상이 영상 분석의 기준점, 즉 그리드 기준점이 된다.
사용자 단말(100)은 임의 시점에 기준 위치로부터 임의 위치로 움직인 움직임 정보를 기초로, 임의 시점에 카메라에서 촬영된 영상과 기준 영상의 변이 정보를 추출한다(S120). 움직임 정보는 기준 위치로부터의 상대적 이동 정보로서, 움직임 측정 센서(150)에 의해 측정된다. 사용자 단말(100)은 움직임 정보를 기초로 기준 영상에서의 그리드를 확장하여, 임의 시점에 카메라에서 촬영된 영상의 변이 정보를 계산할 수 있다. 즉, 변이 정보는 사용자 단말(100)의 움직임 정보를 기초로 확장된 그리드를 기초로 계산된다.
사용자 단말(100)은 촬영한 영상에서 추적 대상을 추출한다(S130).
사용자 단말(100)은 해당 영상의 변이 정보를 기초로 기준 대상과 추적 대상의 상대적 위치 차이를 계산한다(S140).
사용자 단말(100)은 상대적 위치 차이를 기초로 기준 영상에 추적 대상을 표시한다(S150).
도 12와 도 13 각각은 본 발명의 다양한 실시예를 설명하는 도면이다.
도 12를 참고하면, 사용자가 사용자 단말(100)을 착용하고 골프장을 바라보는 경우, 사용자 단말(100)은 사용자가 실제로 보고 있는 장면 위에 가이드 정보(예를 들면, 지형, 거리, 추천 클럽, 풍속, 풍향, 고저 등)를 제공할 수 있다.
사용자가 움직이더라도, 사용자 단말(100)은 사용자 단말(100)의 움직임에 따라 기준 영상에서 확장된 그리드를 기초로 추적 대상의 위치를 보정하면서 가이드 정보를 표시할 수 있다.
도 13을 참고하면, 사용자가 사용자 단말(100)을 착용하고 조깅을 하는 경우, 사용자 단말(100)은 사용자가 실제로 보고 있는 장면 위에 가이드 정보(예를 들면, 사용자의 속도 정보, 다른 사람의 속도 정보 등)를 제공할 수 있다.
사용자 단말(100)은 자신의 움직임 정보와, 다른 사람의 움직임 정보를 조합하여 다른 사람의 이동 속도를 계산할 수 있다.
이와 같이, 본 발명의 실시예에 따르면 웨어러블 단말을 착용한 사용자가 움직이더라도, 웨어러블 단말에서 촬영된 영상의 변이 정보를 추출할 수 있고, 이를 기초로 다양한 영상 분석을 수행할 수 있다.
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (12)

  1. 카메라가 부착된 웨어러블 단말이 상기 카메라에서 촬영된 영상을 분석하는 방법으로서,
    상기 카메라가 기준 위치에서 촬영한 기준 영상에서 기준 대상을 설정하고, 상기 기준 영상에서의 상기 기준 대상의 위치를 기준점으로 설정하는 단계,
    임의 시점에 상기 단말이 상기 기준 위치로부터 임의 위치로 움직인 움직임 정보를 기초로, 상기 임의 시점에 상기 카메라에서 촬영된 제1 영상과 상기 기준 영상의 변이 정보를 추출하는 단계, 그리고
    상기 제1 영상에서 추적 대상을 추출하고, 상기 변이 정보를 기초로 상기 기준점으로부터 떨어진 상기 추적 대상의 위치를 계산하는 단계
    를 포함하는 영상 분석 방법.
  2. 제1항에서,
    상기 변이 정보를 추출하는 단계는
    상기 기준점을 기준으로 상기 기준 영상에서 그리드를 생성하고, 상기 움직임 정보를 기초로 상기 기준 영상에서의 그리드를 확장하여 상기 제1 영상에서의 그리드 정보를 계산하며, 상기 제1 영상에서의 그리드 정보를 기초로 상기 변이 정보를 추출하는 영상 분석 방법.
  3. 제2항에서,
    상기 추적 대상의 위치를 계산하는 단계는
    상기 제1 영상에서 상기 추적 대상이 위치한 그리드값을 상기 추적 대상의 위치로 계산하는 영상 분석 방법.
  4. 제2항에서,
    상기 변이 정보를 추출하는 단계는
    상기 움직임 정보를 기초로 상기 기준 위치의 그리드에 대응하도록 상기 제1 영상의 그리드 모양을 변형하는 영상 분석 방법.
  5. 제1항에서,
    상기 추적 대상의 위치를 기초로 상기 기준 영상에 상기 추적 대상을 표시하는 단계
    를 더 포함하는 영상 분석 방법.
  6. 제5항에서,
    상기 추적 대상을 표시하는 단계는
    상기 제1 영상에서 상기 추적 대상의 이미지를 추출하고, 상기 추적 대상의 위치에 대응하는 상기 기준 영상의 지점에, 상기 이미지를 겹쳐서 표시하는 영상 분석 방법.
  7. 제1항에서,
    상기 기준 대상은 골프공이고, 상기 추적 대상은 골프채인 영상 분석 방법.
  8. 카메라가 부착된 웨어러블 단말이 상기 카메라에서 촬영된 영상을 분석하는 방법으로서,
    상기 카메라가 기준 위치에서 촬영한 기준 영상에서 기준 대상을 설정하고, 상기 기준 영상에서의 상기 기준 대상의 위치를 기준으로 그리드를 생성하는 단계,
    임의 시점에 상기 단말이 상기 기준 위치로부터 임의 위치로 움직인 움직임 정보를 기초로 상기 그리드를 확장하는 단계,
    상기 임의 시점에 상기 카메라에서 촬영된 제1 영상에서 추적 대상을 결정하는 단계,
    상기 제1 영상에서 상기 추적 대상이 위치한 그리드값을 추출하는 단계, 그리고
    상기 그리드값을 기초로 상기 기준 대상에 대한 상기 추적 대상의 상대적 위치를 계산하는 단계
    를 포함하는 영상 분석 방법.
  9. 제8항에서,
    상기 그리드를 생성하는 단계는
    상기 기준 대상의 위치를 기준점으로 설정하고 상기 기준점을 기준으로 3차원 그리드를 생성하는 영상 분석 방법.
  10. 제8항에서,
    상기 그리드를 확장하는 단계는
    상기 움직임 정보를 기초로 상기 기준 위치의 그리드에 대응하도록 상기 제1 영상의 그리드 모양을 변형하는 영상 분석 방법.
  11. 제8항에서,
    상기 추적 대상의 상대적 위치를 기초로 상기 기준 영상에 상기 추적 대상을 표시하는 단계
    를 더 포함하는 영상 분석 방법.
  12. 제11항에서,
    상기 추적 대상을 표시하는 단계는
    상기 제1 영상에서 상기 추적 대상의 이미지를 추출하고, 상기 기준 대상으로부터 상기 상대적 위치에 해당하는 지점에, 상기 이미지를 겹쳐서 표시하는 영상 분석 방법.
KR20130163489A 2013-12-26 2013-12-26 웨어러블 단말의 영상 분석 방법 KR101487490B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130163489A KR101487490B1 (ko) 2013-12-26 2013-12-26 웨어러블 단말의 영상 분석 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130163489A KR101487490B1 (ko) 2013-12-26 2013-12-26 웨어러블 단말의 영상 분석 방법

Publications (1)

Publication Number Publication Date
KR101487490B1 true KR101487490B1 (ko) 2015-01-28

Family

ID=52592783

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130163489A KR101487490B1 (ko) 2013-12-26 2013-12-26 웨어러블 단말의 영상 분석 방법

Country Status (1)

Country Link
KR (1) KR101487490B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064684A (ja) 2005-08-29 2007-03-15 Canon Inc マーカ配置補助方法及び装置
KR20090105031A (ko) * 2008-04-01 2009-10-07 박찬애 영상처리기법을 이용한 골프 클리닉 시스템 및 그것의운용방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064684A (ja) 2005-08-29 2007-03-15 Canon Inc マーカ配置補助方法及び装置
KR20090105031A (ko) * 2008-04-01 2009-10-07 박찬애 영상처리기법을 이용한 골프 클리닉 시스템 및 그것의운용방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ghasemzadeh, Hassan, et al. "Wearable coach for sport training: A quantitative model to evaluate wrist-rotation in golf." Journ. Ambient Intelligence and Smart Environments 1.2 (2009): 173-184. *

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
JP7026214B2 (ja) ヘッドマウントディスプレイ追跡システム
CN108762492B (zh) 基于虚拟场景实现信息处理的方法、装置、设备及存储介质
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
CN108022302B (zh) 一种Inside-Out空间定位的AR立体显示装置
US10365710B2 (en) Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration
CN109002164B (zh) 头戴显示设备的显示方法、装置及头戴显示设备
US10504243B2 (en) Calibration system for a head-mounted display tracking system
IL308285B1 (en) System and method for augmentation and virtual reality
JP2013258614A (ja) 画像生成装置および画像生成方法
KR101341727B1 (ko) 3d gui 제어 장치 및 방법
JP7546116B2 (ja) 拡張現実のためのシステムおよび方法
JP6662914B2 (ja) 媒介現実
KR20130058424A (ko) 특징점의 삼차원 위치 계산 장치 및 방법
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
WO2019155840A1 (ja) 情報処理装置、情報処理方法、およびプログラム
TWI704376B (zh) 視角校正方法、虛擬實境顯示系統與運算裝置
US10587862B2 (en) Head-mounted device
JP2023047026A5 (ko)
US9445015B2 (en) Methods and systems for adjusting sensor viewpoint to a virtual viewpoint
US11694409B1 (en) Augmented reality using a split architecture
KR101487490B1 (ko) 웨어러블 단말의 영상 분석 방법
JP6467039B2 (ja) 情報処理装置
WO2017163647A1 (ja) 頭部装着装置
TWI587176B (zh) 行動虛擬實境操作方法、系統與其儲存媒體

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 6