KR20140076736A - 신체 정보를 이용한 자유손 포인팅 처리장치 - Google Patents

신체 정보를 이용한 자유손 포인팅 처리장치 Download PDF

Info

Publication number
KR20140076736A
KR20140076736A KR1020120145081A KR20120145081A KR20140076736A KR 20140076736 A KR20140076736 A KR 20140076736A KR 1020120145081 A KR1020120145081 A KR 1020120145081A KR 20120145081 A KR20120145081 A KR 20120145081A KR 20140076736 A KR20140076736 A KR 20140076736A
Authority
KR
South Korea
Prior art keywords
user
pointing
area
color image
information
Prior art date
Application number
KR1020120145081A
Other languages
English (en)
Other versions
KR101849414B1 (ko
Inventor
강석빈
이수웅
조현우
이준석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020120145081A priority Critical patent/KR101849414B1/ko
Publication of KR20140076736A publication Critical patent/KR20140076736A/ko
Application granted granted Critical
Publication of KR101849414B1 publication Critical patent/KR101849414B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

3D 사용자 인터랙티브 처리장치에 있어서, 카메라를 통해 입력받은 영상의 칼라 이미지로부터 사용자 신체의 모션 벡터를 추출하여, 사용자의 신체 위치의 추정도를 높이기 위한 시스템이다. 사용자의 신체가 급작스럽게 움직였을 경우에도, 정확한 사용자의 신체 좌표를 구할 수 있으므로, 더욱 정확한 포인팅 기능을 제공할 수 있다. 또한 기존의 포인팅 영역이 직사각형에만 국한되었던 것에 반해, 포인팅 영역은 폐곡면의 다양한 형태일 수 있다.

Description

신체 정보를 이용한 자유손 포인팅 처리장치 {Freehand pointing processing apparatus using body information}
본 발명은 사용자의 신체정보를 이용하는 자유손 포인팅 처리장치에 관한 것이다.
종래에는 사용자간의 3D 인터랙티브 시스템에서 사용되는 신체 정보에 기반한 포인팅 기술은 인체 정보에 내재된 공간적, 시간적 불안정성에 영향을 받는다. 그로인해, 인체 정보에만 의존하는 종래의 기술들은 포인팅 위치의 부정확성, 불안정성, 끊김 현상에서 자유로울 수 없었다.
인체 정보에 따른 포인팅 장치의 기능 저하 문제인 부정확성, 불안정성, 끊김 현상을 해결하기 위해, 입력되는 인체 정보의 칼라 이미지를 분석하여 정확한 사용자 포인팅 처리장치를 제공한다.
상기 기술적 과제는, 칼라 영상을 입력받는 입력부와, 입력된 칼라 영상을 분석하여, 사용자의 위치 정보로부터 발생하는 오류를 보정하는 모션기반 보정부와, 포인팅 영역이 폐곡면인 가상 포인팅 영역 제어 및 사용자의 포인팅 위치를 출력하는 사용자 인터페이스부를 포함하는 신체 정보를 이용한 자유손 포인팅 처리방법에 의해 달성된다.
인체 정보를 입력받는 시스템에 있어서, 포인팅 영역이 직사각형에 국한되지 않고, 원, 다각형, 임의의 폐곡면 등으로 확장되어, 다양한 포인팅 처리방법이 제공된다. 종래에 신체 정보에만 기반한 포인팅 기술은 인체 정보의 공간적, 시간적 불안정성에 영향을 받았지만, 본 발명의 칼라 영상 데이터를 통한 모션 기반 보정부에 의해 신체정보가 보정되므로, 정확한 포인팅 위치를 추출해 낼 수 있다.
도 1 은 본 발명의 일 실시예에 따른 신체 정보를 이용한 자유손 포인팅 처리장치의 구성도이다.
도 2 는 일 실시예에 따른 사용자 포인팅 영역을 도시한다.
도 3 은 도 2에 도시된 사용자 포인팅 영역에서 사용자 포인팅 위치 좌표를 추출하는 것을 설명하기 위한 도면이다.
도 4 는 일 실시예에 따른 장치 포인팅 영역에서 장치 포인팅 위치 좌표를 추출하는 것을 설명하기 위한 도면이다.
도 5 내지 7은 일 실시예에 따른 모션기반 보정부의 동작을 설명하기 위한 도면이다.
이하 본 발명의 일 실시예에 대하여 첨부된 도면을 참고로 그 구성 및 작용을 설명하면 다음과 같다. 또한 본 발명은 이하의 실시예에 한정되는 것은 아니다.
이하 본 발명의 실시예에 대하여 첨부된 도면을 참고하여 그 구성과 작용효과를 설명하면 다음과 같다.
도 1 은 본 발명의 일 실시예에 따른 신체 정보를 이용한 자유손 포인팅 처리방법의 구성도이다.
도 1 을 참조하면, 신체 정보를 이용한 자유손 포인팅 처리방법은 칼라 영상을 입력받는 입력부(10)를 포함할 수 있다. 또한, 사용자와 카메라와의 거리인 깊이정보를 처리하는 깊이정보 처리부(20)와, 깊이정보로부터 사용자 인체정보를 3D 위치로 인식하여, 머리, 팔, 다리, 어깨, 무릅 등의 위치를 출력하는 사용자 인지부(50)를 포함할 수 있다. 추가적 양상으로, 입력부(10)로부터 입력된 칼라 영상을 분석 처리하는 칼라영상 처리부(30)와, 칼라영상 처리부(30)로부터 입력받은 사용자 위치 정보의 오류를 보정하는 모션기반 보정부(60)를 포함 할 수 있다. 또한 추가적 양상으로, 사용자 인지부(50)와 모션기반 보정부(60)로부터 입력받은 사용자 신체정보를 통해 포인팅 대상 영역인 가상 윈도우 영역 제어 및 사용자의 포인팅 위치를 출력하는 사용자 인터페이스부(70)를 포함할 수 있다. 사용자 인터페이스부(70)로 입력받은 사용자 포인팅 위치가 출력되는 출력부(80)를 더 포함할 수 있다.
입력부(10)는 카메라와 사용자의 거리인 깊이정보와, 칼라 이미지 정보를 동시에 인식할 수 있는 깊이정보 카메라와 그를 구동하기 위한 디바이스 드라이버로 구성될 수 있다.
깊이정보 처리부(20)는 입력부(10)로부터 받은 사용자와 카메라 사이의 거리인 깊이정보를 파악하여, 그 값을 사용자의 개략적인 신체구조를 인식하도록 사용자 인지부(50)로 전달할 수 있다.
사용자 인지부(50)는 깊이정보 처리부(20)로부터 받은 깊이정보 값을 통해, 사용자의 인체를 3D 위치로 인식하여 사용자의 머리, 양팔, 양다리, 어깨, 무릎 등의 신체 위치를 추출할 수 있다.
칼라영상 처리부(30)는 입력부(10)로부터 받은 사용자의 칼라 영상 데이터를 처리하여 손 영역을 추출할 수 있다.
모션기반 보정부(60)는 칼라영상 처리부(30)로부터 입력받은 신체 영역을 추출한 칼라 영상 데이터 값을 통해, 움직이기 이전의 신체 좌표와 움직인 이후의 신체 좌표를 추출할 수 있다. 이때, 신체 영역이 급히 움직일 경우, 추출 좌표와 신체의 실제 좌표간에 오차가 있을 수 있다. 모션기반 보정부(60)는 오차가 발생한 좌표를 보정하기 위하여, 칼라영상 처리부(30)로부터 입력받은 칼라 이미지의 최근 n 프레임들로부터 누적된 모션 벡터 정보를 추출할 수 있다. 모션 벡터 정보는 신체 영역으로 추정된 부위의 일정 반경 이내의 모션 벡터 값들의 평균값으로 구해진다. 모션기반 보정부(60)가 신체 영역의 좌표를 추출해 내는 구체적인 과정은 도 5, 도 6, 도 7을 참조하여 후술한다.
사용자 인터페이스부(70)는 사용자 인지부(50)와 모션기반 보정부(60)로 부터 입력받은 사용자 신체정보를 기반으로하고, 사용자가 임의의 폐곡면으로 이루어진, 가상의 포인팅 영역을 설정한 후, 실제 사용자가 가리키는 포인팅 위치를 추출할 수 있다. 사용자 인터페이스부(70)가 신체 영역의 좌표를 추출해 내는 구체적인 과정은 도 2, 도 3, 도 4를 참조하여 후술한다.
출력부(80)는 사용자 인터페이스부(70)에서 추출된 사용자 신체 영역이 실제로 가르키는 포인팅 위치좌표를 디스플레이에 추출할 수 있다.
이하 도 2 내지 도 4를 참조하여 본 발명의 일 실시예에 따른, 사용자 인터페이스부(70)의 동작을 상세히 설명하기로 한다.
도 2 는 일 실시예에 따른 사용자 포인팅 영역(T3)을 도시한다.
본 발명의 일 실시예에 따르면, 사용자 포인팅 영역(T3)은 사용자의 신체 범위에 존재할 수 있다. 사용자 포인팅 영역(T3)은, 모니터와 같은 포인팅 대상 장치(T1)인 내의 장치 포인팅 영역(T2)이 임의의 비로 스케일링 반영되어 설정된다. 그로인해, 장치 포인팅 영역(T2)는 사용자 포인팅 영역(T3)과 크기의 차이만 있을 뿐 비슷한 형상일 수 있다. 장치 포인팅 영역(T2)과 사용자 포인팅 영역(T3)은 이에 한정되지 않으며, 원, 다각형 등 임의의 폐곡선의 형태가 가능하다.
사용자 포인팅 영역(T3)은 가상의 2D 평면이라 가정할 수 있다. 이때, 사용자 포인팅 영역(T3)의 중심 위치(100)는 하기의 <수학식 1>을 이용해 산출될 수 있다.
<수학식 1>
Figure pat00001
상기 <수학식 1>에서 p1은 사용자의 양 어깨의 중간점 좌표(x,y)이고, p2는 척추의 좌표이며,
Figure pat00002
는 설정 파라미터를 나타낸다.
사용자 포인팅 영역(T3)의 중심 위치(100)는 척추(p2)와 어깨 중심(p1)에서 일정 거리 떨어진 고정점일 수 있다.
도 3 은 도 2에 도시된 사용자 포인팅 영역(T3)에서 사용자 포인팅 위치(T4) 좌표를 추출하는 것을 설명하기 위한 도면이다.
사용자 포인팅 영역(T3)에서 중심점(100)이 추출되고, 사용자의 손 위치 좌표인 사용자 포인팅 위치(T4)가 하기의 <수학식 2>를 이용해 산출될 수 있다.
<수학식 2>
Figure pat00003
상기 <수학식 2>는 사용자 포인팅 위치(T4)의 좌표를 추출하기 위한 것으로, L은 사용자 포인팅 영역(T3)의 중심점(100)에서 손까지의 거리이고, R은 사용자 포인팅 영역(T3)의 중심점(100)에서 L의 연장선이 사용자 포인팅 영역(T3)의 외곽선과 만나는 점까지의 거리를 나타낸다.
도 4 는 일 실시예에 따른 장치 포인팅 영역(T2)에서 장치 포인팅 위치 좌표(T5)를 추출하는 것을 설명하기 위한 도면이다.
도 3 에서 얻어진 사용자 포인팅 위치(T4)에 대하여, 사용자 포인팅 영역(T3)의 중심점(100)에서 사용자 포인팅 영역(T3)의 외곽선까지의 거리 대 중심점(100)에서 사용자 포인팅 위치(T4)까지의 비인 d 와 또한
Figure pat00004
값에 의해, 최종적 손의 위치인 장치 포인팅 위치(T5)가 얻어질 수 있다.
장치 포인팅 영역(T2)의 중심(100)으로 부터 반경을 K라 하면, K에 대한 장치 포인팅 위치(T5)의 좌표 값은 하기 <수학식 3>을 이용해 산출될 수 있다.
<수학식 3>
Figure pat00005
상기 <수학식 3>은 장치 포인팅 위치(T5)의 좌표를 구하기 위한 수식으로, 도 3에서 구한 d와
Figure pat00006
값에 의해 최종적으로 장치 포인팅 위치(T5)의 좌표를 산출할 수 있다.
도 5 내지 도 7은 일 실시예에 따른 모션기반 보정부(60)의 동작을 설명하기 위한 도면이다.
모션기반 보정부(60)는 칼라영상 처리부(30)에서 입력받은 사용자의 신체정보를 통해, 사용자의 동작이 급작스럽게 이루어졌을 경우, 이를 보정하기 위해 칼라 영상의 이미지로부터 최근 n 프레임들을 이용하여 누적된 모션 벡터 정보를 획득한다.
동작의 일 실시예에 의하면, 도 5에 도시된 대로, 사용자의 이전 손 좌표(300)(Pt-1(x,y))가 급작스러운 동작으로 인해, 측정된 좌표(400)(Et(x,y))와 실제 손의 좌표가 다를 경우, 도 6에 도시된 대로, 최근의 n 개의 프레임을 이용하여 누적된 손의 모션 벡터(Vm(x,y,z))를 구할 수 있다.
도 7을 참조하면, 모션 벡터(Vm(x,y,z)) 값은 사용자 신체 위치 정보상, 손으로 추정된 부위의 일정 반경 이내의 모션 벡터 값들의 평균값으로 구해질 수 있다. 최종적인 손의 좌표(500)(Pt(x,y))는 하기 <수학식 4>를 이용해 산출될 수 있다.
<수학식 4>
Figure pat00007
상기 <수학식 4>는 최종적인 보정된 손의 좌표(500)(Pt(x,y))를 얻기 위한 것으로, Pt-1(x,y)는 사용자가 움직이기 이전의 손 좌표(300)를, Et(x,y)는 동작 이후 잘못 측정된 좌표(400)를, Vm(x,y)는 모션 벡터를 나타낸다. 또한,
Figure pat00008
는 적용 파라미터(adjustment parameter)를 나타내는 것으로, 사용자 인지부(50)에서 제공하는 사용자의 신체 위치 정보의 신뢰성을 바탕으로 하여 추정되며, 신뢰성이 최하일시에는 0, 최상일 시에는 1로 스케일링 된다. 상기 <수학식 4>과 잘못 측정된 좌표(400)(Et(x,y))를 보정하여 최종적인 손의 좌표(500)(Pt(x,y))를 추출할 수 있다.
10: 입력부
20: 깊이정보 처리부
30: 칼라영상 처리부
50: 사용자 인지부
60: 모션기반 보정부
70: 사용자 인터페이스부
80: 출력부
p1: 어깨중심 p2: 척추
T1: 포인팅 대상 장치 T2: 장치 포인팅 영역
T3: 사용자 포인팅 영역 T4: 사용자 포인팅 위치
T5: 장치 포인팅 위치
100: 사용자 포인팅 영역 중심
200: 장치 포인팅 영역 중심
300: 이전 손 좌표
400: 잘못 측정된 손 좌표
500: 보정된 손의 좌표

Claims (1)

  1. 칼라 영상을 입력받는 입력부와;
    입력된 칼라 영상을 분석하여, 사용자의 위치 정보로부터 발생하는 오류를 벡터 정보를 이용하여 보정하는 모션기반 보정부와;
    포인팅 영역이 폐곡면인 가상 포인팅 영역을 제어하여 포인팅 위치를 출력하는 사용자 인터페이스부를;
    포함하는 신체 정보를 이용한 자유손 포인팅 처리장치.
KR1020120145081A 2012-12-13 2012-12-13 신체 정보를 이용한 자유손 포인팅 처리장치 KR101849414B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120145081A KR101849414B1 (ko) 2012-12-13 2012-12-13 신체 정보를 이용한 자유손 포인팅 처리장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120145081A KR101849414B1 (ko) 2012-12-13 2012-12-13 신체 정보를 이용한 자유손 포인팅 처리장치

Publications (2)

Publication Number Publication Date
KR20140076736A true KR20140076736A (ko) 2014-06-23
KR101849414B1 KR101849414B1 (ko) 2018-04-16

Family

ID=51128902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120145081A KR101849414B1 (ko) 2012-12-13 2012-12-13 신체 정보를 이용한 자유손 포인팅 처리장치

Country Status (1)

Country Link
KR (1) KR101849414B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10001841B2 (en) 2015-02-05 2018-06-19 Electronics And Telecommunications Research Institute Mapping type three-dimensional interaction apparatus and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10001841B2 (en) 2015-02-05 2018-06-19 Electronics And Telecommunications Research Institute Mapping type three-dimensional interaction apparatus and method

Also Published As

Publication number Publication date
KR101849414B1 (ko) 2018-04-16

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
CN106846403B (zh) 一种三维空间中手部定位的方法、装置及智能设备
US10070120B2 (en) Optical see-through display calibration
US9881423B2 (en) Augmented reality-based hand interaction apparatus and method using image information
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US10365767B2 (en) Augmented reality image processing apparatus and method, and program
CN104380338B (zh) 信息处理器以及信息处理方法
US9542755B2 (en) Image processor and image processing method
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
EP2400375A1 (en) Information processing device and information processing method
US9947112B2 (en) Scanning device and method for positioning a scanning device
WO2018086461A1 (zh) 一种基于单目手势识别的视觉跟随方法及机器人
US10534426B2 (en) Interactive system, remote controller and operating method thereof
US9454226B2 (en) Apparatus and method for tracking gaze of glasses wearer
US9529446B2 (en) Re-anchorable virtual panel in three-dimensional space
US9524031B2 (en) Apparatus and method for recognizing spatial gesture
CN111801725A (zh) 图像显示控制装置及图像显示控制用程序
KR101849414B1 (ko) 신체 정보를 이용한 자유손 포인팅 처리장치
KR101543150B1 (ko) 행동 인식 장치 및 그의 행동 인식 방법
JP6981340B2 (ja) 表示制御プログラム、装置、及び方法
EP2908219A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP6645058B2 (ja) Cgエージェント表示方法、cgエージェント表示プログラム、及び情報処理端末
CN113643362A (zh) 2d人体姿态估计系统中基于人体测量的肢体校正器
CN117017523A (zh) 一种医疗辅助视频系统及方法
TW201301204A (zh) 追蹤頭部即時運動之方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant