KR101340797B1 - 3d 객체 표시가 가능한 휴대용 장치 및 그 방법 - Google Patents

3d 객체 표시가 가능한 휴대용 장치 및 그 방법 Download PDF

Info

Publication number
KR101340797B1
KR101340797B1 KR1020100085446A KR20100085446A KR101340797B1 KR 101340797 B1 KR101340797 B1 KR 101340797B1 KR 1020100085446 A KR1020100085446 A KR 1020100085446A KR 20100085446 A KR20100085446 A KR 20100085446A KR 101340797 B1 KR101340797 B1 KR 101340797B1
Authority
KR
South Korea
Prior art keywords
user
portable device
displayed
displaying
face
Prior art date
Application number
KR1020100085446A
Other languages
English (en)
Other versions
KR20120023247A (ko
Inventor
임종우
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Priority to KR1020100085446A priority Critical patent/KR101340797B1/ko
Priority to US12/976,589 priority patent/US20120054690A1/en
Publication of KR20120023247A publication Critical patent/KR20120023247A/ko
Application granted granted Critical
Publication of KR101340797B1 publication Critical patent/KR101340797B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Abstract

3D 객체 표시가 가능한 휴대용 장치 및 그 방법이 제공된다. 표시패널은 다면체 형태의 3D 객체를 표시하며, 객체 생성부는 사용자가 3D 객체의 다면들 중 일면을 터치한 상태에서 휴대용 장치를 회전시키면, 또는, 사용자의 얼굴이 회전되면, 3D 객체의 타면이 사용자를 향하여 표시되도록 표시된 3D 객체를 휴대용 장치가 회전된 방향으로 회전시키며, 제어부는 사용자를 향하여 표시된 타면에 매핑된 기능을 실행한다.

Description

3D 객체 표시가 가능한 휴대용 장치 및 그 방법{Portable Apparatus and Method for Displaying 3D Object}
본 발명은 3D 객체 표시가 가능한 휴대용 장치 및 그 방법에 관한 것으로서, 사용자의 시선에 따라 3D 객체의 소실점을 변경시켜 입체감을 다르게 표시할 수 있는 3D 객체 표시가 가능한 휴대용 장치 및 그 방법에 관한 것이다.
사용자 단말기는 3D(dimension) 기반의 객체를 이용하여 다양한 메뉴를 제공할 수 있다. 그러나, 기존의 3D 객체 기술은 좌측과 우측의 시각차에 따라 분리된 영상을 이용하여 입체감을 줄 뿐, 사용자의 시선이 변경되어도 동일한 화면을 보여준다. 즉, 기존의 3D 객체 기술은 사용자의 위치와 상관없이 동일한 UI를 보여준다.
또한, 기존의 헤드 트랙킹(Head Tracking)을 이용하는 3D 객체 기술은, 시선에 따라 변경되는 UI를 보여주나, TV와 같이 고정된 장치를 사용하는 경우로 제한적이다. 또한, 헤드 트랙킹을 이용하는 3D 객체 기술은 휴대용 기기와 같이 움직임이 있는 기기에서는 적외선 장치가 달린 안경과 같은 별도의 장치를 이용하여야 하므로, 3D 객체 기술에 적용하기 어렵다.
따라서, 상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 사용자의 시선에 따라 적응적으로 3D 객체의 입체감을 변경하여 보여줄 수 있는 3D 객체 표시가 가능한 휴대용 장치 및 그 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 3D(dimension) 객체 표시가 가능한 휴대용 장치는, 다면체 형태의 상기 3D 객체를 표시하는 표시패널; 사용자가 상기 3D 객체의 다면들 중 일면을 터치한 상태에서 상기 휴대용 장치를 회전시키는 제1동작 및 상기 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하면, 상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시키는 객체 생성부; 및 상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 제어부를 포함한다.
상기 제어부는, 상기 기능의 실행을 요청하는 사용자 명령이 입력되면 상기 기능을 실행한다.
상기 3D 객체의 타면이 상기 사용자를 향하여 표시되면, 상기 사용자는 상기 터치를 해제하여 상기 사용자 명령을 입력한다.
상기 객체 생성부는, 상기 휴대용 장치가 회전된 각도보다 더 큰 각도로 상기 3D 객체를 회전시켜, 상기 3D 객체의 타면이 확대 표시되도록 한다.
상기 표시된 3D 객체는 입체 큐브 형태이며, 상기 3D 객체를 이루는 다면 중 상기 사용자를 향하여 표시되는 면은 상기 휴대용 장치의 회전 방향에 따라 변경된다.
상기 사용자를 촬영하여 촬영 데이터를 출력하는 촬영부; 및 상기 촬영부에 의해 기촬영된 상기 사용자의 얼굴 비례 데이터를 저장하는 저장부를 더 포함하며, 상기 제어부는 상기 저장된 얼굴 비례 데이터와 상기 촬영 데이터를 비교하여 상기 사용자의 시선 방향을 판단하고, 상기 판단되는 시선 방향에 따라 소실점이 변경되는 상기 3D 객체를 생성한다.
상기 촬영부의 기준 좌표계를 설정하기 위한 기준 센서 및 상기 기준 좌표계를 기준으로 상기 촬영부의 회전 방향을 센싱하기 위한 방향 센서를 더 포함하며, 상기 객체 생성부는, 상기 센싱된 회전 방향으로 상기 3D 객체를 회전시켜, 상기 3D 객체의 다면들 중 상기 사용자를 향하여 표시되는 면을 변경한다.
상기 촬영부의 기준 좌표계를 설정하기 위한 기준 센서 및 상기 기준 좌표계를 기준으로 상기 촬영부의 기울기를 센싱하기 위한 기울기 센서를 더 포함하며, 상기 객체 생성부는, 상기 센싱된 기울기에 따라 상기 3D 객체의 다면들 중 상기 사용자를 향하여 표시되는 면을 변경한다.
한편, 본 발명의 일 실시예에 따른, 휴대용 장치의 3D(dimension) 객체 표시 방법은, 다면체 형태의 3D 객체를 표시하는 단계; 사용자에 의해 상기 표시된 3D 객체의 다면들 중 일면이 터치된 상태에서 상기 휴대용 장치가 회전되는 제1동작 및 상기 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하는 단계; 상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록, 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시켜 표시하는 단계; 및 상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 단계를 포함한다.
상기 실행하는 단계는, 상기 기능의 실행을 요청하는 사용자 명령이 발생하면, 상기 기능을 실행한다.
상기 회전시켜 표시하는 단계는, 상기 휴대용 장치가 회전된 각도보다 더 큰 각도로 상기 3D 객체를 회전시켜 상기 3D 객체를 확대표시한다.
상기 사용자를 촬영하여 촬영 데이터를 출력하는 단계; 상기 출력되는 촬영 데이터와 기촬영되어 저장된 상기 사용자의 얼굴 비례 데이터를 비교하여 상기 사용자의 시선 방향을 관찰하는 단계; 및 상기 판단되는 시선 방향에 따라 소실점이 변경되는 상기 3D 객체를 생성하는 단계를 더 포함할 수 있다.
상기 휴대용 장치가 회전된 방향은, 상기 휴대용 장치의 회전 방향을 센싱하기 위한 방향 센서 및 상기 휴대용 장치의 기울기 방향을 센싱하기 위한 기울기 센서 중 적어도 하나에 의해 센싱된다.
제안되는 본 발명의 일 실시예에 따르면, 사용자 단말기와 같이 고정되지 않고 움직이는 휴대용 장치에서, 사용자의 시각에 따라 소실점이 변경되어 보다 입체적인 3D 객체를 표시할 수 있다. 이는, 카메라에 의해 촬영된 데이터와 센싱 데이터를 비교하여, 사용자의 시선 변화를 관찰하고, 관찰된 시선에 적합한 3D 객체를 생성하는 것이 가능하기 때문이다.
또한, 본 발명의 일 실시예에 따르면, 적은 수의 센서를 이용하여, 시선에 따라 표시되는 3D 객체의 구현 정확도를 향상시킬 수 있으므로 비용 절감 및 제품의 경량화가 가능하다.
또한, 사용자의 시선에 따른 3D 객체의 입체적인 피드백을 통해, 사용자가 차량을 통해 이동하고 있는 경우에도, 3D 메뉴의 오동작 방지 기능을 구현할 수 있으며, 동작 인식의 정확도를 높일 수 있다.
또한, 본 발명의 일 실시 예에 따르면, 일반적인 헤드 트랙킹과 달리 거리에 따른 소실점 변경은 고려하지 않고, 시선에 따른 소실점 변경만을 고려하므로, 보다 적은 계산량으로 3D 객체를 표시할 수 있다.
도 1은 본 발명의 일 실시예에 따른 얼굴 비례 데이터를 측정하는 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 3D 객체 표시가 가능한 제1휴대용 장치를 도시한 블록도이다.
도 3a 내지 도 3c는 상대 각도의 일 예를 설명하기 위한 도면이다.
도 4a 및 도 4b는 상대 각도에 따라 소실점이 변경되는 3D 객체의 일 예를 설명하기 위한 도면이다.
도 5는 상대각도 및 제1휴대용 장치(200)의 기울기에 의해 소실점이 변경된 3D 객체 중 3D 버튼을 도시한 도면이다.
도 6은 3D 버튼의 평면도이다.
도 7은 본 발명의 다른 실시예에 따른 3D 객체 표시가 가능한 제2휴대용 장치를 도시한 블록도이다.
도 8은 본 발명의 다른 실시예에 따른 3D 객체 표시가 가능한 제3휴대용 장치를 도시한 블록도이다.
도 9는 본 발명의 일 실시예에 따른 휴대용 장치의 3D 객체 표시 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 3D 객체의 소실점을 변경시켜 3D 객체의 다양한 면을 표시하는 방법을 설명하기 위한 흐름도이다.
이하 첨부된 도면을 참조하여 본 발명의 실시예를 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 얼굴 비례 데이터를 측정하는 방법을 설명하기 위한 도면이다.
카메라 기능을 가지는 휴대용 장치(100)는 일반적으로 사용자가 1명으로 정해져 있다. 따라서, 휴대용 장치(100)는 사용자의 얼굴 비례 데이터를 작성하기 위하여, 내장된 카메라(c)를 이용하여 사용자의 얼굴을 촬영한다. 이 때, 도 1에 도시된 바와 같이 사용자는 얼굴을 고정시키고 정면을 바라보는 상태에서, 카메라(c)를 이용하여 얼굴의 정면을 촬영한다.
그리고, 사용자는 정면을 원점으로 하여 휴대용 장치(100)를 상하좌우로 이동 또는 회전하면서 얼굴을 추가적으로 촬영한다. 이 때, 사용자의 얼굴은 정면 방향을 유지한다. 이로써, 휴대용 장치(100)는 사용자 얼굴을 상하좌우 각각에서 바라볼 때의 얼굴 비례 데이터를 작성한다. 도 1에서 '위'는 휴대용 장치(100)가 사용자의 얼굴을 내려다보면서 촬영한 경우, '아래'는 휴대용 장치(100)가 사용자의 얼굴을 올려다보면서 촬영한 경우를 의미한다.
얼굴 비례 데이터는 휴대용 장치(100)에서 바라본 사용자 얼굴 중 눈, 코, 입 등의 얼굴 구성 요소들이 이루는 비례 데이터를 의미한다. 예를 들어, 도 1에서, 카메라(c)가 사용자의 얼굴보다 위에서 얼굴을 촬영하는 경우와, 정면에서 얼굴을 촬영하는 경우, 얼굴 비례 데이터는 서로 다르다.
얼굴 비례 데이터는 휴대용 장치(100)와 사용자 얼굴이 이루는 각도 별로 저장될 수 있다. 이 때, 사용자 얼굴을 정면에서 촬영한 경우의 각도는 0°이며, 이를 기준 각도로 사용할 수 있다.
도 2는 본 발명의 일 실시예에 따른 3D(dimension) 객체 표시가 가능한 제1휴대용 장치(200)를 도시한 블록도이다.
도 2에 도시된 제1휴대용 장치(200)는 사용자와의 인터렉션이 가능한 객체를 3D 형태로 표시하며, 스마트폰, 모바일폰, 표시기기, 퍼스널 컴퓨터 등 모든 전자기기에 적용될 수 있다. 도 2의 제1휴대용 장치(200)는 도 1의 휴대용 장치(100)일 수 있다.
도 2를 참조하면, 제1휴대용 장치(200)는 제1표시패널(210), 제1촬영부(220), 제1방향 센서(230), 제1기울기 센서(240), 제1기준 센서(250), 제1저장부(260) 및 제1제어부(270)를 포함한다.
제1표시패널(210)은 제1제어부(270)의 제어에 의해 2D 객체 또는 3D 객체를 표시하고, 제1휴대용 장치(100)에 저장된 다양한 영상들을 표시할 수 있다. 객체는 제1표시패널(210)에 표시되는 모든 영상을 의미한다. 3D 객체는 입체적으로 표시되는 객체이며, 2D 객체는 평면적으로 표시되는 객체이다.
제1표시패널(210)은 사용자의 얼굴 또는 시선과 제1휴대용 장치(200)의 상대 각도에 따라 표시형태가 변하는 3D 객체를 표시할 수 있다. 예를 들어, 사용자가 제1휴대용 장치(200)의 우측에서 제1휴대용 장치(200)를 바라보면, 제1표시패널(210)은 3D 객체의 기울기와 표시형태가 변경된 3D 객체를 표시한다.
제1촬영부(220)는 제1휴대용 장치(200)가 3D 객체를 표시하는 3D 모드로 동작하는 경우, 사용자를 지속적으로 촬영하여 촬영 데이터를 출력한다. 제1촬영부(220)는 사용자의 얼굴을 항시 촬영하기 위하여 넓은 시야각을 가질 수 있다. 또는, 제1촬영부(220)는 제1제어부(270)의 제어에 의해, 사용자의 얼굴만을 추적하여 촬영하고, 얼굴에 대한 촬영 데이터를 출력할 수 있다. 제1촬영부(220)는 내장형 카메라일 수 있다.
제1방향 센서(230)는 제1촬영부(220) 또는 제1휴대용 장치(200)의 회전 방향을 센싱하기 위한 센서로서 가속도 센서를 사용할 수 있다. 회전 방향은 제1휴대용 장치(200)가 사용자에 의해 이동되는 방향으로서, 예를 들어, 사용자의 정면 얼굴을 기준으로 좌, 우, 위, 또는 아래 방향일 수 있다. 회전 방향은 제1휴대용 장치(200)가 회전된 각도, 즉, 회전 각도에 대한 정보를 포함한다. 따라서, 본 명세서에서는 설명의 편의를 위하여, 회전 방향과 회전 각도가 혼용된다.
제1기울기 센서(240)는 제1촬영부(220) 또는 제1휴대용 장치(200)의 기울기를 센싱하기 위한 센서로서, 자이로스코프를 사용할 수 있다. 이하에서는, 제1휴대용 장치(200)를 예로 들어 설명한다. 제1휴대용 장치(200)의 제1표시패널(210)과 사용자 얼굴이 서로 대향하는 경우, 기울기는 0°로 센싱되며, 서로 대향하는 상태에서 제1휴대용 장치(200)가 우측으로 기울어지면, 기울기는 변한다.
제1기준센서(250)는 제1촬영부(220)의 x 축 또는 y축의 기준 좌표계를 설정하기 위하여 사용되며, 디지털 나침반을 사용할 수 있다. 기준 좌표계는 사용자 시선의 변화 유무를 관찰할 때 기준점, 또는, 원점으로 사용될 수 있다.
예를 들어, 3D 객체가 표시된 이후, 제1객체 생성부(271)는 제1방향 센서(230)에 의해 센싱된 회전 방향으로 3D 객체를 회전시켜, 3D 객체의 다면들 중 사용자를 향하여 표시되는 면이 변경되는 3D 객체를 생성할 수 있다.
또는, 3D 객체가 표시된 이후, 제1객체 생성부(271)는 제1기울기 센서(240)에 의해 센싱된 기울기에 따라 3D 객체의 다면들 중 사용자를 향하여 표시되는 면이 변경되는 3D 객체를 생성할 수 있다. 보다 자세한 설명은 후술한다.
제1저장부(260)는 도 1을 참조하여 설명한 사용자의 얼굴 비례 데이터를 기울기 또는 회전 각도에 따라 구분하여 저장할 수 있다. 기울기는 제1휴대용 장치(200)의 기울기이며, 회전 각도는 제1휴대용 장치(200)와 사용자의 얼굴이 이루는 각도이다. 회전 각도는 제1휴대용 장치(200)의 회전 방향에 따라 변경되며, 제1방향 센서(230)와 제1기준 센서(250)에 의해 센싱된 데이터를 이용하여 산출된다.
회전 각도는 제1휴대용 장치(200)가 사용자의 얼굴을 정면에서 바라보는 위치를 기준으로 산출될 수 있다. 즉, 사용자 얼굴을 정면에서 촬영한 경우, 회전 각도는 0°이며, 이를 기준 각도로 사용할 수 있다. 이로써, 회전 각도는 제1휴대용 장치(200)와 사용자 시선이 이루는 각도 및 방향에 대한 정보를 포함할 수 있다.
또한, 사용자가 다수인 경우, 얼굴 비례 데이터는 사용자 별로 매핑되어 저장될 수 있다.
[표 1]은 도 1에 의해 작성된 사용자의 얼굴 비례 데이터를 회전 각도 별로 저장하는 일 예를 보여준다.
사용자 1 얼굴 비례 데이터
회전
각도
10° 얼굴 비례 데이터1 얼굴 비례 데이터4 얼굴 비례 데이터7
20° 얼굴 비례 데이터2 얼굴 비례 데이터5 얼굴 비례 데이터8
-10° 얼굴 비례 데이터3 얼굴 비례 데이터6 얼굴 비례 데이터9
[표 1]에서, 회전 각도가 10°임은 사용자가 정면을 바라보면서, 사용자와 제1휴대용 장치(200)가 서로 대향하는 상태를 0°라고 할 때, 제1휴대용 장치(200)가 우측으로 10°이동한 경우 산출되는 각도이다. 회전 각도가 -10°임은 사용자는 정면을 바라보고 있고, 제1휴대용 장치(200)가 좌측으로 10° 이동한 경우 산출되는 각도이다.
[표 2]는 도 1에 의해 작성된 사용자의 얼굴 비례 데이터를 기울기와 회전 각도 별로 구분하여 저장하는 일 예를 보여준다.
사용자 1 얼굴 비례 데이터
30° -30°
회전
각도
10° 얼굴 비례 데이터11 얼굴 비례 데이터14 얼굴 비례 데이터17
20° 얼굴 비례 데이터12 얼굴 비례 데이터15 얼굴 비례 데이터18
-10° 얼굴 비례 데이터13 얼굴 비례 데이터16 얼굴 비례 데이터19
[표 2]에서 기울기 0°는 제1휴대용 장치(200)의 제1표시패널(210)과 사용자 얼굴이 서로 대향하는 경우, 제1휴대용 장치(200)의 기울기이다.
한편, 제1제어부(270)는 제1촬영부(220)로부터 출력되는 촬영 데이터를 기초로 사용자의 시선을 관찰하고, 관찰되는 사용자의 시선에 따라 변경되는 소실점을 인식할 수 있다.
제1객체 생성부(271)는 사용자가 3D 객체의 다면들 중 일면을 터치한 상태에서 제1휴대용 장치(200)를 회전시키는 제1동작 및 사용자가 3D 객체의 다면들 중 일면을 터치한 상태에서 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하면, 3D 객체의 타면이 사용자를 향하여 표시되도록, 표시된 3D 객체를 제1휴대용 장치(200)가 회전된 방향으로 회전시킬 수 있다.
제2동작의 경우, 제1객체 생성부(271)는 제1제어부(270)에서 관찰되는 사용자의 시선에 따라, 사용자를 향하여 표시되는 면이 변경되는 3D 객체를 생성할 수 있다. 제1객체 생성부(271)는 제1제어부(270) 내에서 동작되거나 또는 별도로 동작될 수 있다. 제1객체 생성부(271)는 사용자의 시선 또는 후술할 상대 각도에 따라 3D 객체를 생성하는 프로그램을 이용하여 3D 객체를 생성할 수 있다. 생성되는 3D 객체는 제1표시패널(210)에 표시된다.
일 예를 들어 설명하면, 제1휴대용 장치(200)가 3D 모드로 동작하는 경우, 제1제어부(270)는 사용자를 촬영하도록 제1촬영부(220)를 제어한다. 또한, 제1제어부(270)는 제1휴대용 장치(200)의 회전 방향과 기울기를 센싱하도록 제1방향 센서(230)와 제1기울기 센서(240)를 제어한다.
제1제어부(270)는 저장된 얼굴 비례 데이터와 촬영 데이터를 비교하여 사용자의 시선 방향을 판단할 수 있다. 자세히 설명하면, 제1제어부(270)는 제1촬영부(220)로부터 출력되는 촬영 데이터로부터 사용자의 얼굴 데이터를 검출하고, 검출된 얼굴 데이터를 분석하여 사용자의 시선 변화를 관찰할 수 있다. 이 때, 제1제어부(270)는 검출되는 사용자의 얼굴 데이터를 이용하여, 사용자의 얼굴을 추적하여 촬영하도록 제1촬영부(220)를 제어할 수도 있다.
제1제어부(270)는 검출된 얼굴 데이터로부터 얼굴 비례 데이터를 작성하고, 작성된 얼굴 비례 데이터와 가장 유사하거나 일치하는 얼굴 비례 데이터를 제1저장부(260)로부터 확인한다.
제1제어부(270)는 확인된 얼굴 비례 데이터에 대응하는 회전 각도를 확인하고, 확인된 회전 각도가 0°보다 크거나 작으면 시선의 변화가 있는 것으로 판단할 수 있다. 그리고, 제1제어부(270)는 확인된 회전 각도를 사용자의 시선 방향, 또는, 사용자의 시선 각도로 판단한다. 예를 들어, [표 1]에서 확인된 회전 각도가 10°인 경우, 제1제어부(270)는 사용자의 시선이 정면을 기준으로 우측으로 10°이동한 곳을 향하고 있는 것으로 판단한다.
또한, 제1제어부(270)는 제1방향 센서(230)와 제1기울기 센서(240)로부터 출력되는 센싱 데이터를 이용하여 제1휴대용 장치(200)의 회전 방향과 기울기를 산출한다. 제1휴대용 장치(200)의 회전 방향과 기울기는 곧 제1촬영부(220)의 회전 방향과 기울기일 수 있다.
제1제어부(270)는 확인된 사용자의 시선 방향, 제1휴대용 장치(200)의 회전 방향 및 제1휴대용 장치(200)의 기울기를 비교하며, 제1객체 생성부(271)는 소실점이 변경되는 3D 객체를 생성할 수 있다. 제1제어부(270)는 확인된 사용자의 시선 방향과 산출된 회전 방향을 비교하여, 제1휴대용 장치(200)와 사용자의 시선이 이루는 상대 각도를 산출한다. 또한, 제1제어부(270)는 사용자의 시선 방향과 기울기를 비교하여, 제1휴대용 장치(200)와 사용자의 시선이 이루는 상대 각도를 산출할 수 있다.
제1객체 생성부(271)는 산출된 상대 각도에 따라 소실점이 변경되는 3D 객체를 생성한다. 제1객체 생성부(271)는 저장된 얼굴 비례 데이터를 이용하거나 또는 상대 각도에 따라 지정된 3D 객체 생성 규칙을 이용하여 3D 객체를 생성할 수 있다. 3D 객체 생성 규칙은 3D 객체를 회전시키는 정도, 회전 방향, 보여지는 면 등을 상대 각도 별로 지정한 규칙이다.
예를 들어, 제1객체 생성부(271)는, 사용자의 시선과 제1휴대용 장치(100)가 서로 대향하는 경우, 0°의 상대각도에 대응하는 3D 객체를 생성할 수 있다.
또한, 사용자의 시선이 정면을 응시하고 있으며, 제1휴대용 장치(200)가 좌측 또는 우측 방향으로 n°이동한 경우, 제1객체 생성부(271)는 상대 각도 n°에 의해 소실점이 변경되는 3D 객체를 생성할 수 있다.
또한, 제1객체 생성부(271)는 입체감을 가지는 다면체 형태의 3D 객체를 생성할 수 있다. 이러한 경우, 제1객체 생성부(271)는 3D 객체의 다면들 중 상대 각도에 따라 사용자에게 보여지는 면을 변경할 수 있다. 예를 들어, 제1객체 생성부(271)는 제1휴대용 장치(200)가 회전되면, 다면을 가지는 3D 객체를 제1휴대용 장치(200)가 회전된 방향과 같은 방향으로 회전시켜, 사용자를 향하여 표시되는 면이 변경되도록 할 수 있다.
3D 객체가 입체 큐브 형태인 경우, 예를 들어, 제1휴대용 장치(200)가 좌측방향으로 m°, m은 양수) 회전되면, 제1객체 생성부(271)는 3D 객체의 우측면이 사용자에게 보여지도록 3D 객체를 좌측방향으로 m° 또는 m°의 2배 이상 회전시키고, 3D 객체의 우측면을 확대하여 표시할 수 있다. 이는, 3D 객체의 우측면이 사용자에게 보다 명확히 보여지도록 하기 위함이다.
또한, 3D 객체를 이루는 다면들 중 사용자를 향하여 표시되는 면은 제1휴대용 장치(200)의 회전 방향에 따라 변경된다.
또한, 사용자가 3D 객체의 다면들 중 일면을 터치한 상태에서 제1휴대용 장치(200)를 회전시키면, 제1객체 생성부(271)는 다면을 가지는 3D 객체를 제1휴대용 장치(200)가 회전된 방향으로 회전시킬 수 있다. 이로써, 3D 객체의 타면이 사용자를 향하여 표시될 수 있다. 3D 객체의 타면이 사용자를 향하여 표시되면, 사용자는 터치를 해제하여 사용자 명령을 입력할 수 있다. 즉, 사용자는 3D 객체의 타면에 해당하는 기능의 실행을 요청할 수 있다.
3D 객체의 회전에 의해 3D 객체의 다면들 중 타면이 사용자를 향한 후 사용자에 의해 상기 일면의 터치가 해제되면, 제1제어부(270)는 타면에 대응하는 기능을 실행할 수 있다.
도 3a 내지 도 3c는 상대 각도의 일 예를 설명하기 위한 도면, 도 4a 및 도 4b는 상대 각도에 따라 소실점이 변경되는 3D 객체의 일 예를 설명하기 위한 도면이다.
도 3a에 도시된 바와 같이, 사용자의 시선이 정면을 응시하고 있으며, 즉, 사용자의 시선의 변화가 없으며, 제1휴대용 장치(200)가 사용자의 시선과 대향하는 경우, 상대 각도는 0°이다. 이러한 경우, 제1객체 생성부(271)는 0°의 상대 각도, 즉, 정면에 대응하는 3D 객체를 생성한다. 이로써, 사용자는 도 4a에 도시된 바와 같이, 정면에서 바라보는 느낌의 3D 객체를 볼 수 있다.
도 3b에 도시된 바와 같이, 사용자의 시선이 정면을 응시하고 있으며, 제1휴대용 장치(200)가 우측으로 30°이동한 경우, 상대 각도는 30°이며, 이러한 경우, 제1객체 생성부(271)는 30°에 대응하는 3D 객체를 생성한다. 이로써, 사용자는 3D 객체의 좌측면을 더 명확히 볼 수 있다. 제1휴대용 장치(200)가 우측으로 30°회전한 것은 제1방향 센서(230)와 제1기울기 센서(240)의 센싱 데이터로부터 알 수 있으며, 이는 주지된 기술로서 상세한 설명은 생략한다.
또한, 도 3c에 도시된 바와 같이, 사용자의 시선이 우측으로 20°이동한 것으로 확인되고, 제1휴대용 장치(200)가 우측으로 30°이동한 경우, 상대 각도는 10°이다. 이로써, 제1객체 생성부(271)는 10°에 대응하는 3D 객체를 생성한다.
한편, 도 3c에서, 제1휴대용 장치(200)가 우측으로 30°이동한 후, 그 위치에서 우측으로 10°회전하면 제1휴대용 장치(200)의 기울기는 10°이다. 따라서, 제1객체 생성부(271)는 상대 각도 10°와, 기울기 10°에 대응하는 3D 객체를 생성한다.
또한, 도시되지는 않았으나, 사용자의 시선은 정면을 응시하고 있으며, 제1휴대용 장치가 좌측으로 30°이동한 경우, 상대각도가 -30°이다. 이러한 경우, 제1객체 생성부(271)는 -30°에 대응하는 3D 객체를 생성할 수 있다.
도 5는 상대각도 및 제1휴대용 장치(200)의 기울기에 의해 소실점이 변경된 3D 객체 중 큐브 형태의 3D 버튼(510)을 도시한 도면, 도 6은 3D 버튼(510)의 평면도이다. 3D 버튼(510) 역시 3D 객체다.
도 5를 참조하면, 제1휴대용 장치(200)와 사용자의 시선이 이루는 상대 각도는 -20°이다. 즉, 사용자는 정면을 바라보고 있으며, 제1휴대용 장치(200)는 좌측으로 20°회전한 상태이다. 따라서, 3D 버튼(510)이 큐브 형태인 경우, 제1객체 생성부(271)는 3D 버튼(510)의 우측면이 사용자에게 더 잘 보이는 3D 버튼(510)을 생성하여 제1표시패널(210)에 표시한다.
도 6을 참조하면, 3D 버튼(510)은 제1 내지 제5면을 가지며, 각 면에는 서로 다른 기능의 아이콘(511~515)이 표시된다. 상대 각도가 변할 때마다 제1객체 생성부(271)는 3D 버튼(510)의 소실점을 변경하여, 상대 각도에 대응하는 아이콘이 사용자에게 보다 잘 보여지는 3D 버튼(510)을 생성한다.
구체적으로 설명하면, 사용자가 3D 버튼(510) 중 정면에 보이는 하나의 아이콘(예를 들어, 511)을 터치하면, 제1제어부(270)는 터치된 일면의 아이콘(511)을 회전의 원점으로 정한다. 사용자가 좌우상하와 같은 임의 방향으로 제1휴대용 장치(200)를 회전시키면, 제1객체 생성부(271)는 원점을 기준으로 회전된 방향에 따라 기정의된 면의 아이콘이 보여지도록 한다. 예를 들어, 사용자가 아이콘(511)을 터치한 상태에서 제1휴대용 장치(200)를 좌측방향으로 회전시키면, 제1객체 생성부(271)는 3D 버튼(510)을 좌측으로 회전시켜 우측면의 아이콘(514)이 사용자에게 보다 입체적으로 보여지도록 한다.
이 때, 제1객체 생성부(271)는 센싱된 제1휴대용 장치(200)의 회전 각도보다 더 많이 3D 버튼(510)을 회전시킬 수 있다. 예를 들어, 센싱된 제1휴대용 장치(200)의 회전 각도가 20°이면, 제1객체 생성부(271)는 3D 버튼(510)을 포함하는 3D 객체를 40°회전시켜 표시한다. 이로써, 사용자는 도 5에 도시된 바와 같이, 보다 쉽고 정확히 3D 버튼(510)의 우측면에 표시된 아이콘(514)을 확인할 수 있다.
제1제어부(270)는 아이콘(514)의 기능의 실행을 요청하는 사용자 명령이 입력되면 아이콘(514)의 기능을 실행한다. 예를 들어, 3D 버튼(510)의 회전에 의해 표시되는 아이콘(514)이 사용자가 원하는 아이콘이면, 사용자는 아이콘(511)의 터치를 해제한다. 이로써, 제1제어부(270)는 표시된 아이콘(514)에 해당하는 기능을 실행한다. 도 5의 경우, 제1제어부(270)는 전화걸기와 관련된 기능을 실행할 수 있다. 또한, 사용자가 아이콘(511)을 터치한 상태에서, 제1휴대용 장치(200)를 아래방향으로 회전시킨 후 아이콘(511)의 터치를 해제하면, 제1제어부(270)는 메일 보내기에 해당하는 기능을 실행한다.
도 7은 본 발명의 다른 실시예에 따른 3D(dimension) UI 표시가 가능한 제2휴대용 장치(700)를 도시한 블록도이다.
도 7에 도시된 제2휴대용 장치(700)는 도 1의 휴대용 장치(100)일 수 있다.
도 7을 참조하면, 제2휴대용 장치(700)는 제2표시패널(710), 제2촬영부(720), 제2방향 센서(730), 제2기준 센서(740), 제2저장부(750), 제2제어부(760) 및 제2객체 생성부(770)를 포함한다.
제2표시패널(710), 제2촬영부(720), 제2방향 센서(730), 제2기준 센서(740), 제2저장부(750), 제2제어부(760) 및 제2객체 생성부(770)는 제1표시패널(210), 제1촬영부(220), 제1방향 센서(230), 제1기준센서(250), 제1저장부(260), 제1제어부(270) 및 제1객체 생성부(271)와 거의 동일하므로, 상세한 설명은 생략한다.
다만, 제2휴대용 장치(700)는 제2방향 센서(730)와 제2기준 센서(740)에 의해 센싱된 데이터를 이용하여, 제2휴대용 장치(700)의 회전 방향을 센싱할 수 있다. 또한, 제2휴대용 장치(700)는 제2촬영부(710)에 의해 촬영되는 촬영 데이터와 제2저장부(750)에 저장된 얼굴 비례 데이터를 비교하여, 사용자의 시선 변화를 관찰할 수 있다. 그리고, 제2휴대용 장치(700)는 사용자의 시선과 제2휴대용 장치(700)간의 상대 각도를 고려하여, 사용자의 시선에 따라 소실점이 변하는 3D 객체를 생성할 수 있다.
도 8은 본 발명의 다른 실시예에 따른 3D(dimension) 객체 표시가 가능한 제3휴대용 장치(800)를 도시한 블록도이다.
도 8에 도시된 제3휴대용 장치(800)는 도 1의 휴대용 장치(100)일 수 있다.
도 8을 참조하면, 제3휴대용 장치(800)는 제3표시패널(810), 제3촬영부(820), 제3기준 센서(830), 제3저장부(840), 제3제어부(850) 및 제3객체 생성부(860)를 포함한다.
제3표시패널(810), 제3촬영부(820), 제3기준 센서(830), 제3저장부(840), 제3제어부(850) 및 제3객체 생성부(860)는 제1표시패널(210), 제1촬영부(220), 제1기준 센서(250), 제1저장부(260), 제1제어부(270) 및 제1객체 생성부(271)와 거의 동일하므로, 상세한 설명은 생략한다.
다만, 제3휴대용 장치(800)는 방향 센서 및 기울기 센서를 이용하지 않고, 제3촬영부(810)에 의해 촬영되는 촬영 데이터와 제3저장부(840)에 저장된 얼굴 비례 데이터를 비교하여, 사용자의 시선 변화를 관찰할 수 있다. 그리고, 제3휴대용 장치(800)는 사용자의 시선과 제3휴대용 장치(800)간의 상대 각도를 고려하여, 사용자의 시선에 따라 소실점이 변하는 3D 객체를 생성할 수 있다.
도 9는 본 발명의 일 실시예에 따른 휴대용 장치의 3D(dimension) UI 표시 방법을 설명하기 위한 흐름도이다.
도 9의 3D 객체 표시 방법은 도 2를 참조하여 설명한 제1휴대용 장치(200)에 의해 동작될 수 있다.
910단계에서, 휴대용 장치가 3D 모드로 동작하면 휴대용 장치는 3D 객체를 표시한다.
920단계에서, 휴대용 장치는 구비된 카메라에 의해 사용자의 시선 변화를 관찰하고, 방향 센서와 기울기 센서에 의해 카메라의 회전 방향과 기울기를 센싱한다. 휴대용 장치는 카메라에 의해 촬영된 촬영 데이터와 기저장된 얼굴 비례 데이터를 비교하여 시선 변화를 관찰할 수 있다.
930단계에서, 사용자의 시선의 변화가 관찰되면, 940단계에서, 휴대용 장치는 사용자의 시선과 휴대용 장치(즉, 카메라) 간의 상대 각도를 산출한다.
950단계에서, 휴대용 장치는 산출된 상대 각도에 따라 소실점이 변경된 3D 객체를 생성하여 표시한다.
반면, 960단계에서, 사용자의 시선 변화는 없으나, 카메라의 기울기 변화 또는 회전 방향이 센싱되면, 970단계에서, 휴대용 장치는 사용자의 시선과 휴대용 장치(즉, 카메라) 간의 상대 각도를 산출한다. 이 때, 사용자의 시선 변화가 없으므로, 휴대용 장치는, 카메라의 회전 각도를 상대 각도로 정할 수 있다.
그리고, 휴대용 장치는 950단계를 수행하여, 970단계에서 산출된 상대 각도에 대응하는, 소실점이 변경된 3D 객체를 생성하여 표시한다.
도 9는 휴대용 장치가 회전되는 제1동작 및 사용자의 얼굴이 회전되는 제2동작을 예로 들어 설명하였으며, 제1동작 및 제2동작이 동시에 발생하는 경우에도, 도 9에 설명한 방식과 유사하게 3D 객체를 생성하여 표시할 수 있음은 물론이다. 제2동작은 즉, 사용자의 시선이 변환하는 동작일 수 있다.
도 10은 본 발명의 일 실시예에 따른 3D 객체의 소실점을 변경시켜 3D 객체의 다양한 면을 표시하는 방법을 설명하기 위한 흐름도이다.
도 10의 각 과정은 도 9의 950단계 이후 수행될 수 있다.
1010단계에서, 휴대용 장치는 다면체 형태의 3D 버튼을 생성하여 표시할 수 있다. 다면체 형태는 예를 들어, 큐브 형태이며, 이에 한정되지 않는다. 3D 버튼은 950단계에서 표시되는 3D 객체 또는 도 6에 도시된 3D 버튼일 수 있다.
1020단계에서, 사용자가 3D 버튼의 일면을 터치하여 유지하면, 휴대용 장치는 터치 상태를 유지한다. 3D 버튼의 일면은 예를 들어, 도 6의 아이콘(511)이 표시되는 면일 수 있다.
1030단계에서, 상기 터치가 유지된 상태에서 휴대용 장치가 좌측으로 회전되거나 사용자의 얼굴이 우측으로 회전되어 시선이 변하면, 1040단계에서, 휴대용 장치는 좌측으로 회전되는 3D 버튼을 생성하여 표시할 수 있다. 즉, 휴대용 장치는 1010단계에서 표시된 3D 버튼을 우측으로 회전시켜, 3D 버튼의 우측면이 사용자를 향하도록 할 수 있다. 1040단계에서 사용자를 향하는 우측면은 도 6의 아이콘(514)이 보여지는 면일 수 있다. 즉, 휴대용 장치는 사용자가 3D 버튼의 다면들 중 일면을 터치한 상태에서 휴대용 장치를 회전시키는 제1동작 및 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하면, 3D 객체의 타면이 사용자를 향하여 표시되도록, 표시된 3D 객체를 휴대용 장치가 회전된 방향으로 회전시킨다.
1050단계에서, 사용자가 아이콘(511)의 터치를 해제하면, 1060단계에서, 휴대용 장치는 3D 버튼의 우측면에 해당하는 기능을 실행할 수 있다.
상술한 본 발명의 실시 예는 헤드 트랙킹에 의한 3D 화면을 구현하는 경우에도 적용할 수 있다. 또한, 카메라를 두 개 이상 구비하는 경우, 사용자의 시선 또는 시점 변화를 보다 정확히 인식할 수 있다.
또한, 본 발명의 실시 예는 휴대용 장치의 이동을 인식할 때, x 방향과 y 방향의 회전을 고려하였으나, 이 뿐만 아니라, 휠처럼 회전하는 동작, 흔드는 동작 등도 고려하여 3D 객체를 생성할 수 있다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
200: 제1휴대용 장치 210: 제1표시패널
220: 제1촬영부 230: 제1방향 센서
240: 제1기울기 센서 250: 제1기준 센서
260: 제1저장부 270: 제1제어부
271: 객체 생성부

Claims (15)

  1. 3D(dimension) 객체 표시가 가능한 휴대용 장치에 있어서,
    다면체 형태의 상기 3D 객체를 표시하는 표시패널;
    사용자가 상기 3D 객체의 다면들 중 일면을 터치한 상태에서 상기 휴대용 장치를 회전시키는 동작이 발생하면, 상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시키는 객체 생성부; 및
    상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 제어부
    를 포함하는, 3D 객체 표시가 가능한 휴대용 장치.
  2. 제1항에 있어서,
    상기 제어부는, 상기 기능의 실행을 요청하는 사용자 명령이 입력되면 상기 기능을 실행하는, 3D 객체 표시가 가능한 휴대용 장치.
  3. 제2항에 있어서,
    상기 3D 객체의 타면이 상기 사용자를 향하여 표시되면, 상기 사용자는 상기 터치를 해제하여 상기 사용자 명령을 입력하는, 3D 객체 표시가 가능한 휴대용 장치.
  4. 3D(dimension) 객체 표시가 가능한 휴대용 장치에 있어서,
    다면체 형태의 상기 3D 객체를 표시하는 표시패널;
    사용자가 상기 3D 객체의 다면들 중 일면을 터치한 상태에서 상기 휴대용 장치를 회전시키는 제1동작 및 상기 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하면, 상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시키는 객체 생성부; 및
    상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 제어부를 포함하며,
    상기 객체 생성부는, 상기 휴대용 장치가 회전된 각도보다 더 큰 각도로 상기 3D 객체를 회전시켜, 상기 3D 객체의 타면이 확대 표시되도록 하는, 3D 객체 표시가 가능한 휴대용 장치.
  5. 제1항 및 제4항 중 어느 하나의 항에 있어서,
    상기 표시된 3D 객체는 입체 큐브 형태이며, 상기 3D 객체를 이루는 다면 중 상기 사용자를 향하여 표시되는 면은 상기 휴대용 장치의 회전 방향에 따라 변경되는, 3D 객체 표시가 가능한 휴대용 장치.
  6. 3D(dimension) 객체 표시가 가능한 휴대용 장치에 있어서,
    다면체 형태의 상기 3D 객체를 표시하는 표시패널;
    사용자가 상기 3D 객체의 다면들 중 일면을 터치한 상태에서 상기 휴대용 장치를 회전시키는 제1동작 및 상기 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하면, 상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시키는 객체 생성부;
    상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 제어부;
    상기 사용자를 촬영하여 촬영 데이터를 출력하는 촬영부; 및
    상기 촬영부에 의해 기촬영된 상기 사용자의 얼굴 비례 데이터를 저장하는 저장부
    를 포함하며,
    상기 제어부는 상기 저장된 얼굴 비례 데이터와 상기 촬영 데이터를 비교하여 상기 사용자의 시선 방향을 판단하고, 상기 판단되는 시선 방향에 따라 소실점이 변경되는 상기 3D 객체를 생성하는, 3D 객체 표시가 가능한 휴대용 장치.
  7. 제1항, 제4항 및 제6항 중 어느 하나의 항에 있어서,
    촬영부의 기준 좌표계를 설정하기 위한 기준 센서 및
    상기 기준 좌표계를 기준으로 상기 촬영부의 회전 방향을 센싱하기 위한 방향 센서
    를 더 포함하며,
    상기 객체 생성부는, 상기 센싱된 회전 방향으로 상기 3D 객체를 회전시켜, 상기 3D 객체의 다면들 중 상기 사용자를 향하여 표시되는 면을 변경하는, 3D 객체 표시가 가능한 휴대용 장치.
  8. 제1항, 제4항 및 제6항 중 어느 하나의 항에 있어서,
    촬영부의 기준 좌표계를 설정하기 위한 기준 센서 및
    상기 기준 좌표계를 기준으로 상기 촬영부의 기울기를 센싱하기 위한 기울기 센서
    를 더 포함하며,
    상기 객체 생성부는, 상기 센싱된 기울기에 따라 상기 3D 객체의 다면들 중 상기 사용자를 향하여 표시되는 면을 변경하는, 3D 객체 표시가 가능한 휴대용 장치.
  9. 휴대용 장치의 3D(dimension) 객체 표시 방법에 있어서,
    다면체 형태의 3D 객체를 표시하는 단계;
    사용자에 의해 상기 표시된 3D 객체의 다면들 중 일면이 터치된 상태에서 상기 휴대용 장치가 회전되는 동작이 발생하는 단계;
    상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록, 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시켜 표시하는 단계; 및
    상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 단계
    를 포함하는, 휴대용 장치의 3D 객체 표시 방법.
  10. 제9항에 있어서,
    상기 실행하는 단계는, 상기 기능의 실행을 요청하는 사용자 명령이 발생하면, 상기 기능을 실행하는, 휴대용 장치의 3D 객체 표시 방법.
  11. 제10항에 있어서,
    상기 사용자 명령은, 상기 3D 객체의 타면이 상기 사용자를 향하여 표시된 후 상기 터치가 해제되면 발생하는, 휴대용 장치의 3D 객체 표시 방법.
  12. 휴대용 장치의 3D(dimension) 객체 표시 방법에 있어서,
    다면체 형태의 3D 객체를 표시하는 단계;
    사용자에 의해 상기 표시된 3D 객체의 다면들 중 일면이 터치된 상태에서 상기 휴대용 장치가 회전되는 제1동작 및 상기 사용자의 얼굴이 회전되는 제2동작 중 적어도 하나가 발생하는 단계;
    상기 3D 객체의 타면이 상기 사용자를 향하여 표시되도록, 상기 표시된 3D 객체를 상기 휴대용 장치가 회전된 방향으로 회전시켜 표시하는 단계; 및
    상기 사용자를 향하여 표시된 타면에 매핑된 기능을 실행하는 단계
    를 포함하며,
    상기 회전시켜 표시하는 단계는, 상기 휴대용 장치가 회전된 각도보다 더 큰 각도로 상기 3D 객체를 회전시켜 상기 3D 객체를 확대표시하는, 휴대용 장치의 3D 객체 표시 방법.
  13. 제9항 및 제12항 중 어느 하나의 항에 있어서,
    상기 표시된 3D 객체는 입체 큐브 형태이며, 상기 3D 객체를 이루는 다면 중 상기 사용자를 향하여 표시되는 면은 상기 휴대용 장치의 회전 방향에 따라 변경되는, 휴대용 장치의 3D 객체 표시 방법.
  14. 제9항 및 제12항 중 어느 하나의 항에 있어서,
    상기 사용자를 촬영하여 촬영 데이터를 출력하는 단계;
    상기 출력되는 촬영 데이터와 기촬영되어 저장된 상기 사용자의 얼굴 비례 데이터를 비교하여 상기 사용자의 시선 방향을 관찰하는 단계; 및
    상기 관찰되는 시선 방향에 따라 소실점이 변경되는 상기 3D 객체를 생성하는 단계
    를 더 포함하는, 휴대용 장치의 3D 객체 표시 방법.
  15. 제9항 및 제12항 중 어느 하나의 항에 있어서,
    상기 휴대용 장치가 회전된 방향은, 상기 휴대용 장치의 회전 방향을 센싱하기 위한 방향 센서 및 상기 휴대용 장치의 기울기 방향을 센싱하기 위한 기울기 센서 중 적어도 하나에 의해 센싱되는, 휴대용 장치의 3D 객체 표시 방법.
KR1020100085446A 2010-09-01 2010-09-01 3d 객체 표시가 가능한 휴대용 장치 및 그 방법 KR101340797B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100085446A KR101340797B1 (ko) 2010-09-01 2010-09-01 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
US12/976,589 US20120054690A1 (en) 2010-09-01 2010-12-22 Apparatus and method for displaying three-dimensional (3d) object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100085446A KR101340797B1 (ko) 2010-09-01 2010-09-01 3d 객체 표시가 가능한 휴대용 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20120023247A KR20120023247A (ko) 2012-03-13
KR101340797B1 true KR101340797B1 (ko) 2013-12-11

Family

ID=45698850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100085446A KR101340797B1 (ko) 2010-09-01 2010-09-01 3d 객체 표시가 가능한 휴대용 장치 및 그 방법

Country Status (2)

Country Link
US (1) US20120054690A1 (ko)
KR (1) KR101340797B1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5476955B2 (ja) * 2009-12-04 2014-04-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
DE102010011039A1 (de) * 2010-03-11 2011-09-15 Volkswagen Ag Verfahren und Vorrichtung zum Betreiben einer Benutzerschnittstelle
JP5664036B2 (ja) 2010-09-07 2015-02-04 ソニー株式会社 情報処理装置、プログラム及び制御方法
US20130257753A1 (en) * 2012-04-03 2013-10-03 Anirudh Sharma Modeling Actions Based on Speech and Touch Inputs
US9898183B1 (en) * 2012-09-19 2018-02-20 Amazon Technologies, Inc. Motions for object rendering and selection
KR101916663B1 (ko) 2012-12-18 2018-11-08 삼성전자주식회사 이용자의 시선 방향 또는 중력 방향 중 적어도 하나를 이용하여 3차원 영상을 표시하는 3차원 디스플레이 장치
TWI526046B (zh) * 2013-05-29 2016-03-11 惟勤科技股份有限公司 提供觀看者在不同觀看角度下仍可接收到正確立體影像的方法
JP5741659B2 (ja) * 2013-09-17 2015-07-01 カシオ計算機株式会社 動画選別装置、動画選別方法及びプログラム
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
EP3623924A1 (en) * 2013-09-17 2020-03-18 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
US9483143B2 (en) * 2013-09-27 2016-11-01 International Business Machines Corporation Method and system providing viewing-angle sensitive graphics interface selection compensation
KR102176217B1 (ko) * 2013-12-31 2020-11-09 주식회사 케이티 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치
US9507417B2 (en) * 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
KR102194237B1 (ko) * 2014-08-29 2020-12-22 삼성전자주식회사 깊이 영상 촬영 장치 및 깊이 정보 획득 방법
WO2016039570A1 (en) 2014-09-12 2016-03-17 Samsung Electronics Co., Ltd. Method and device for executing applications through application selection screen
US10146301B1 (en) 2015-03-26 2018-12-04 Amazon Technologies, Inc. Rendering rich media content based on head position information
US9967539B2 (en) * 2016-06-03 2018-05-08 Samsung Electronics Co., Ltd. Timestamp error correction with double readout for the 3D camera with epipolar line laser point scanning
US11402917B2 (en) * 2018-06-20 2022-08-02 Sony Interactive Entertainment Inc. Gesture-based user interface for AR and VR with gaze trigger
CN111885366A (zh) * 2020-04-20 2020-11-03 上海曼恒数字技术股份有限公司 一种用于虚拟现实屏幕的立体显示方法、装置、存储介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060022185A (ko) * 2004-09-06 2006-03-09 엘지전자 주식회사 메뉴 실행 기능을 갖는 이동통신 단말기 및 그 제어방법
KR20080064025A (ko) * 2007-01-03 2008-07-08 엘지전자 주식회사 입체 인터페이스를 이용한 이동통신 단말기의 동작방법
KR20100093507A (ko) * 2010-08-06 2010-08-25 임연준 입체 메인화면이 표시되는 휴대단말기

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7814436B2 (en) * 2003-07-28 2010-10-12 Autodesk, Inc. 3D scene orientation indicator system with scene orientation change capability
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
US8745536B1 (en) * 2008-11-25 2014-06-03 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060022185A (ko) * 2004-09-06 2006-03-09 엘지전자 주식회사 메뉴 실행 기능을 갖는 이동통신 단말기 및 그 제어방법
KR20080064025A (ko) * 2007-01-03 2008-07-08 엘지전자 주식회사 입체 인터페이스를 이용한 이동통신 단말기의 동작방법
KR20100093507A (ko) * 2010-08-06 2010-08-25 임연준 입체 메인화면이 표시되는 휴대단말기

Also Published As

Publication number Publication date
US20120054690A1 (en) 2012-03-01
KR20120023247A (ko) 2012-03-13

Similar Documents

Publication Publication Date Title
KR101340797B1 (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
US9829989B2 (en) Three-dimensional user input
JP6046729B2 (ja) 全方向ジェスチャー入力
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
US9342925B2 (en) Information processing apparatus, information processing method, and program
US9367951B1 (en) Creating realistic three-dimensional effects
EP3629133B1 (en) Interface interaction apparatus and method
US8823647B2 (en) Movement control device, control method for a movement control device, and non-transitory information storage medium
CN113050802A (zh) 用于在虚拟现实环境中导航的方法、系统及设备
US10649616B2 (en) Volumetric multi-selection interface for selecting multiple objects in 3D space
WO2013082760A1 (en) Method and system for responding to user's selection gesture of object displayed in three dimensions
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
US9411412B1 (en) Controlling a computing device based on user movement about various angular ranges
JP2017004356A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
JP6099237B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
US20130249864A1 (en) Methods for input-output calibration and image rendering
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
KR20120016386A (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
KR101514653B1 (ko) 특징점 추적 방법을 이용한 영상 컨텐츠 제어 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170529

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180529

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190530

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191202

Year of fee payment: 7