KR102149732B1 - 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 - Google Patents
표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 Download PDFInfo
- Publication number
- KR102149732B1 KR102149732B1 KR1020207013489A KR20207013489A KR102149732B1 KR 102149732 B1 KR102149732 B1 KR 102149732B1 KR 1020207013489 A KR1020207013489 A KR 1020207013489A KR 20207013489 A KR20207013489 A KR 20207013489A KR 102149732 B1 KR102149732 B1 KR 102149732B1
- Authority
- KR
- South Korea
- Prior art keywords
- change
- display
- display device
- virtual space
- interest
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/363—Graphics controllers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/10—Special adaptations of display systems for operation with variable images
- G09G2320/103—Detection of image changes, e.g. determination of an index representative of the image change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/10—Special adaptations of display systems for operation with variable images
- G09G2320/106—Determination of movement vectors or equivalent parameters within the image
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
표시 장치(100)가 갖는 센서부(105)는, 표시 장치(100)가 갖는 디스플레이(104)의 현실 공간에 있어서의 배향의 변화를 검지한다. 제어부(101)에 의해 실현되는 표시 제어 장치는, 복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 검지된 배향의 변화에 따라 변화시키고, 가상 공간을 시선 방향으로 관찰한 모습을 나타내는 화상을 생성한다. 생성된 화상은, 디스플레이(104)에 표시된다. 여기서, 제어부(101)에 의해 실현되는 표시 제어 장치는, 복수의 오브젝트로부터, 주목 오브젝트를 특정하고, 주목 오브젝트를 중심으로, 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고, 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 나타내는 화상을 생성한다.
Description
본 발명은 표시 제어 장치, 표시 제어 방법, 프로그램, 그리고 비일시적인 컴퓨터 판독 가능한 정보 기록 매체에 관한 것이다.
종래부터, 장애물에 가려져 유저의 위치에서는 시인이 곤란한 영역이나 오브젝트를 표시하는 방법으로서, 예를 들어 특허문헌 1은, 운전자의 사각 영역을 카메라로 촬상하고, 촬상한 화상을 운전자 시점에서 본 화상으로 변환함과 함께, 운전자 시점에서 본 차량의 반투명 화상을 중첩하여 표시하는 방법을 개시하고 있다.
한편, 가상 현실(Virtual Reality) 시스템이나, 확장 현실(Augmented Reality) 시스템, 대체 현실 시스템에 있어서, 헤드 마운트 디스플레이를 장착한 유저의 배향을 검지하고, 검지된 배향에 따라, 3차원 공간에 대한 시선 방향을 변화시키고, 3차원 공간을 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하여 헤드 마운트 디스플레이에 표시하는 기술이 있다. 특허문헌 1의 기술에서는, 운전자의 사각 영역을 운전자가 주목하는 영역이라고 미리 상정한 후에, 사각 영역의 화상을 차량의 반투명 화상과 중첩하여 표시하고 있다.
여기서, 표시 장치에 표시 장치의 위치를 검출하는 기능이 있다면, 유저의 헤드의 이동에 따라, 가상 공간에 있어서의 관찰 위치를 이동시키는 표시 제어가 가능하다. 그에 의해, 예를 들어 유저가, 다른 오브젝트에 의해 일부가 가려져 있는 오브젝트의 가려진 부분을 들여다보도록 헤드를 이동시킨 경우, 당해 가려진 부분을 관찰하는 것이 가능하게 된다.
그러나, 표시 장치가, 현실 공간에 있어서의 표시 장치의 위치를 검출하는 기능을 갖지 않는 경우, 유저의 헤드의 이동에 따른 표시 제어를 행할 수 없어, 들여다보기를 실현할 수 없다. 또한, 표시 장치가, 현실 공간에 있어서의 표시 장치의 위치를 검출하는 기능을 갖는 경우라도, 그 검출 정밀도가 낮은 경우에는, 적절한 위치로 관찰 위치를 이동시킬 수 없어, 적절한 들여다보기를 실현하지 못할 우려가 있다.
본 발명은 상기 과제를 해결하기 위한 것으로, 가상 공간 등을 당해 가상 공간 등 내의 관찰 위치에서 관찰한 모습을 표시 장치에 표시시키는 표시 제어 장치에 있어서, 표시 장치의 현실 공간에 있어서의 위치를 검출하지 않아도, 당해 가상 공간 등 내의 당해 관찰 위치를 적절하게 이동시키는 표시 제어 장치, 표시 제어 방법, 프로그램, 그리고 비일시적인 컴퓨터 판독 가능한 정보 기록 매체를 제공하는 것을 목적으로 한다.
상기 과제를 해결하는 본 발명의 일 실시 형태에 관한 표시 제어 장치는, 표시 장치를 제어하는 것이며, 당해 표시 제어 장치는,
복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 상기 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키고,
상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하고,
상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시한다.
여기서, 당해 표시 제어 장치는,
상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하고,
상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성한다.
상기 표시 제어 장치가 실행하는 표시 제어 방법은, 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 등에 기록된 프로그램을, 상기 표시 장치에 접속된 컴퓨터, 혹은 상기 표시 장치와 일체로 형성된 컴퓨터가 실행하고, 상기 표시 장치를 제어하는 표시 제어 장치로서 기능시킴으로써, 실현할 수 있다.
또한, 상기 정보 기록 매체는, 컴퓨터와는 독립적으로 배포ㆍ판매할 수 있다. 여기서, 비일시적인(non-transitory) 정보 기록 매체란, 유형의(tangible) 정보 기록 매체를 말한다. 비일시적인 정보 기록 매체는, 예를 들어 콤팩트 디스크, 플렉시블 디스크, 하드 디스크, 자기 디스크, 디지털 비디오 디스크, 자기 테이프, 반도체 메모리이다. 또한, 일시적인(transitory) 정보 기록 매체란, 전송 매체(전반 신호) 그 자체를 나타낸다. 일시적인 기록 매체는, 예를 들어 전기 신호, 광 신호, 전자파이다. 또한, 일시적인(temporary) 기억 영역이란, 데이터나 프로그램을 일시적으로 기억하기 위한 영역이며, 예를 들어 RAM(Random Access Memory)과 같은 휘발성 메모리이다.
본 발명에 따르면, 가상 공간 등을 당해 가상 공간 등 내의 관찰 위치에서 관찰한 모습을 표시 장치에 표시시키는 표시 제어 장치에 있어서, 당해 표시 장치의 현실 공간에 있어서의 위치를 검출하지 않아도, 당해 가상 공간 등 내의 당해 관찰 위치를 적절하게 이동시킬 수 있다.
도 1은, 실시 형태에 관한 표시 장치의 하드웨어 구성을 도시하는 개략 블록도이다.
도 2는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화하기 전의 모습을 도시하는 상면도이다.
도 3은, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후의 모습을 도시하는 상면도이다.
도 4는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화하기 전의, 가상 공간의 모습을 도시하는 상면도이다.
도 5는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후의, 가상 공간의 모습을 도시하는 상면도이다.
도 6은, 실시 형태에 관한 표시 장치의 기능 구성을 도시하는 개략 블록도이다.
도 7a은, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화하기 전에 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 도시하는 화상이다.
도 7b은, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후에 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 도시하는 화상이다.
도 8은, 시선 방향의 변화에 기인하는 속도 성분을 산출하는 방법을 설명하기 위한 도면이다.
도 9는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후에 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 도시하는 화상이다.
도 10은, 실시 형태에 관한 표시 장치의 제어부에 의해 실행되는 표시 처리의 흐름을 도시하는 흐름도이다.
도 11은, 변형예에 관한 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후의, 가상 공간의 모습을 도시하는 상면도이다.
도 12는, 다른 변형예에 관한 현실 공간에 있어서 표시 장치와 유저의 배향 및 위치가 변화한 후의 모습을 도시하는 상면도이다.
도 13은, 다른 변형예에 관한 현실 공간에 있어서 표시 장치와 유저의 배향 및 위치가 변화한 후의, 가상 공간의 모습을 도시하는 상면도이다.
도 2는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화하기 전의 모습을 도시하는 상면도이다.
도 3은, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후의 모습을 도시하는 상면도이다.
도 4는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화하기 전의, 가상 공간의 모습을 도시하는 상면도이다.
도 5는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후의, 가상 공간의 모습을 도시하는 상면도이다.
도 6은, 실시 형태에 관한 표시 장치의 기능 구성을 도시하는 개략 블록도이다.
도 7a은, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화하기 전에 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 도시하는 화상이다.
도 7b은, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후에 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 도시하는 화상이다.
도 8은, 시선 방향의 변화에 기인하는 속도 성분을 산출하는 방법을 설명하기 위한 도면이다.
도 9는, 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후에 가상 공간을 관찰 위치에서 시선 방향으로 관찰한 모습을 도시하는 화상이다.
도 10은, 실시 형태에 관한 표시 장치의 제어부에 의해 실행되는 표시 처리의 흐름을 도시하는 흐름도이다.
도 11은, 변형예에 관한 현실 공간에 있어서 표시 장치와 유저의 배향이 변화한 후의, 가상 공간의 모습을 도시하는 상면도이다.
도 12는, 다른 변형예에 관한 현실 공간에 있어서 표시 장치와 유저의 배향 및 위치가 변화한 후의 모습을 도시하는 상면도이다.
도 13은, 다른 변형예에 관한 현실 공간에 있어서 표시 장치와 유저의 배향 및 위치가 변화한 후의, 가상 공간의 모습을 도시하는 상면도이다.
이하에 본 발명의 실시 형태를 설명한다. 또한, 본 실시 형태는 설명을 위한 것이며, 본원 발명의 범위를 제한하는 것은 아니다. 따라서, 당업자라면 이들의 각 요소 혹은 전체 요소를 이것과 균등한 것으로 치환한 실시 형태를 채용하는 것이 가능한데, 이들 실시 형태도 본 발명의 범위에 포함된다. 또한, 본원 발명의 실시 형태를 도면을 참조하여 설명함에 있어서, 도면 중 동일 또는 상당하는 부분에는 동일 부호를 붙인다.
도 1은, 본 실시 형태에 관한 표시 장치(100)의 하드웨어 구성을 도시하는 개략 블록도이다. 표시 장치(100)는, 예를 들어 각종 센서나 제어 장치를 구비한 헤드 마운트 디스플레이에 의해 구성된다.
스마트폰이나 태블릿 컴퓨터, 패블릿 등을 어태치먼트에 장착함으로써, 헤드 마운트 디스플레이가 구축되어도 된다. 이 경우에는, 스마트폰 등의 컴퓨터를 상기 각 부로서 기능시키기 위한 프로그램을, 당해 스마트폰 등으로 실행시킴으로써, 표시 장치(100)가 실현된다.
이 외에, 각종 센서와 표시 화면을 구비한 헤드 마운트 디스플레이와, 당해 헤드 마운트 디스플레이를 제어하기 위해 유선 통신 혹은 무선 통신에 의해 접속된 컴퓨터에 의해, 표시 장치(100)를 실현할 수도 있다. 이 양태에서는, 컴퓨터는, 헤드 마운트 디스플레이로부터 각종 센서로 검지된 측정값을 취득하고, 당해 측정값에 기초하여 화상을 생성하고, 당해 화상을 헤드 마운트 디스플레이의 표시 화면에 표시시킨다.
도 1에 도시하는 바와 같이, 표시 장치(100)는, 제어부(101)와, ROM(Read Only Memory)(102)과, RAM(103)과, 디스플레이(104)와, 센서부(105)와, 조작부(106)로 구성되고, 각 부는 버스(107)에 의해 접속되어 있다.
제어부(101)는, 예를 들어 CPU(Central Processing Unit)로 구성되며, 표시 장치(100) 전체를 제어한다.
ROM(102)은, 제어부(101)가 표시 장치(100) 전체를 제어하기 위한 프로그램이나 각종 데이터를 저장하는 불휘발성 메모리이다.
RAM(103)은, 제어부(101)가 생성한 정보나, 그 정보의 생성에 필요한 데이터를 일시적으로 저장하기 위한 휘발성 메모리이다.
디스플레이(104)는, LCD(Liquid Crystal Display) 및 백라이트 등을 구비하며, 제어부(101)에 의한 제어 하, 예를 들어 제어부(101)로부터 출력된 화상을 표시한다.
센서부(105)는, 자세 센서나 가속도 센서를 구비하며, 표시 장치(100)의 배향, 즉 디스플레이(104)의 배향을 검지한다. 여기서, 센서부(105)는, 배향 그 자체를 검지하는 것이 아니라, 배향의 변화를 검지하는 것으로 해도 된다.
조작부(106)는, 버튼, 키보드, 터치 패널 등의 입력 장치로 구성된다. 조작부(106)는, 표시 장치(100)의 유저로부터의 조작 입력을 접수하고, 접수한 조작 입력에 대응하는 신호를 제어부(101)에 출력한다.
상기 예에서는, ROM(102), RAM(103)과 협동하여 표시 장치(100)를 제어하는 제어부(101)에 의해, 본 실시 형태의 표시 제어 장치가 실현되며, 표시 장치(100)와 표시 제어 장치는 일체로 구성되고, 전자가 후자를 포함한다.
이 외에, 제어부(101), ROM(102), RAM(103)을, 헤드 마운트 디스플레이와 통신 가능하게 접속된 외부의 컴퓨터에 의해 실현하고, 디스플레이(104) 및 센서부(105)는 당해 컴퓨터에 접속된 헤드 마운트 디스플레이가 구비하는 것을 이용하고, 조작부(106)로서, 당해 컴퓨터에 접속된 입력 장치를 이용하는 것으로 해도 된다. 이 양태에서는, 본 실시 형태의 표시 제어 장치는, 제어부(101)가 ROM(102), RAM(103)과 협동함으로써, 헤드 마운트 디스플레이의 외부에 실현되고, 표시 제어 장치가 헤드 마운트 디스플레이의 디스플레이(104)나 센서부(105)를 포함하는 표시 장치(100)를 제어한다.
이어서, 본 실시 형태에서의 현실 공간(201)과, 표시 장치(100)에 표시되는 가상 공간(3차원 공간)(301)에 있어서의 표시 장치(100) 및 유저(202)의 위치 관계에 대하여 설명한다. 도 2는, 현실 공간(201)에 있어서 표시 장치(100)와 유저(202)의 배향이 변화하기 전(시각 ta)의 모습을 도시하는 상면도이다. 도 4는, 현실 공간(201)에 있어서 표시 장치(100)와 유저(202)의 배향이 변화하기 전(시각 ta)의, 가상 공간(301)의 모습을 도시하는 상면도이다. 또한, 도 3은, 현실 공간(201)에 있어서 표시 장치(100)와 유저(202)의 배향이 변화한 후(시각 tb)의 모습을 도시하는 상면도이다. 도 5는, 현실 공간(201)에 있어서 표시 장치(100)와 유저(202)의 배향이 변화한 후(시각 tb)의, 가상 공간(301)의 모습을 도시하는 상면도이다. 이하, 이들 도면을 참조하여 설명한다. 또한, 이들 도면에 있어서는, 시각 ta부터 시각 tb까지의 시간의 경과를 나타내기 위해, 영소문자를 적절하게 부여하고 있다. 이하의 설명에서는, 당해 영소문자를 적절하게 생략하여 설명한다.
도 2 및 도 3에 도시하는 바와 같이, 현실 공간(201)에 있어서, 유저(202)는, 표시 장치(100)를 눈앞에 장착하고 있다. 유저(202)가 표시 장치(100)를 장착하고 있을 때에는, 표시 장치(100)의 표시 방향(203)은, 유저(202)가 표시 장치(100)를 보는 시선 방향과 역배향으로 된다.
도 4 및 도 5에 도시하는 바와 같이, 가상 공간(301)에 있어서, 정지 혹은 이동하는 복수의 오브젝트(401 내지 404)가 배치되어 있다. 또한, 본 실시 형태에 있어서는, 오브젝트(402, 403)는 정지해 있고, 오브젝트(401)는 화살표 A 방향으로, 오브젝트(404)는 화살표 B 방향으로, 각각 가상 공간(301) 내를 이동하고 있다. 오브젝트(401 내지 404)는, 컴퓨터 그래픽스에 의해 작성되어 있고, 가상 공간(301) 내의 위치나 크기, 형상, 오브젝트(401, 404)의 이동 속도는 미리 설정되어 있는 것으로 한다. 일례로서, 표시 장치(100)가 컴퓨터 그래픽스에 의해 재현된 역의 홈을 표시하는 경우, 오브젝트(401, 404)는 전동차나 사람 등, 역의 홈에 있어서 이동하는 오브젝트이고, 오브젝트(402, 403)는 기둥이나 간판 등, 역의 홈에 있어서 정지해 있는 오브젝트이다.
또한, 현실 공간(201)에 있어서의 방위(211)와 가상 공간(301)에 있어서의 방위(311)는, 어긋나도 되고, 일치시켜도 된다. 본 실시 형태에 있어서, 양자는 어긋나 있다.
도 6은, 본 발명의 실시 형태에 관한 표시 장치(100)의 기능 구성을 도시하는 개략 블록도이다. 도 6에 도시하는 바와 같이, 표시 장치(100)는, 검지부(111)와, 변화부(112)와, 생성부(113)와, 특정부(114)와, 표시부(115)와, 디스플레이(104)를 구비한다.
검지부(111)는, 표시 장치(100)의 현실 공간(201)에 있어서의 배향의 변화를 검지한다. 예를 들어, 검지부(111)는, 센서부(105)에 의한 측정 결과로부터, 현실 공간(201)에 있어서의 기준축에 대한 표시 장치(100)의 표시 방향(203)의 변화를 검지한다. 현실 공간(201)에 있어서의 기준축으로서는, 현실 공간(201)에 있어서의 중력 방향, 또는 표시 장치(100)의 디스플레이(104)의 상하 방향을 채용하는 것이 전형적이다.
본 실시 형태에 있어서, 제어부(101) 및 센서부(105)가 협동함으로써, 검지부(111)로서 기능한다.
변화부(112)는, 검지부(111)에 의해 검지된 표시 장치(100)의 배향에 따라, 가상 공간(301)에 대한 시선 방향(303)을 변화시킨다. 예를 들어, 우선, 변화부(112)는, 시각 ta부터 시각 tb까지의 동안의 검지부(111)에 의해 검지된 표시 장치(100)의 표시 방향(203)의 변화에 대하여, 현실 공간(201)에 있어서의 기준축 주위의 회전량 θ를 취득한다. 구체적으로는, 도 2에 있어서, 유저(202)가 헤드의 배향을 바꾸기 전에는, 표시 방향(203a)은, 표시 장치(100a)로부터 유저(202a)를 향하고 있다. 또한, 도 3에 있어서, 유저(202)가 헤드의 배향을 바꾼 후에는, 표시 방향(203b)은, 표시 장치(100b)로부터 유저(202b)를 향하고 있다. 표시 방향(203a)과 표시 방향(203b)이 이루는 각이 기준축 주위의 회전량 θ이다. 회전량 θ는, 소위 요각에 상당한다. 도 3에 있어서, 유저(202)는, 헤드를 왼쪽으로 회전시키고 있다.
시각 ta부터 시각 tb까지의 시간 간격은, 용도에 따라 정할 수 있다. 예를 들어, 이 시간 간격은, 표시 장치(100)의 디스플레이(104)의 리프레시 간격(예를 들어, 수직 동기 주기)으로 할 수 있다. 또한, 후술하는 바와 같이, 처리는 반복하여 행해지므로, 어떤 반복 단위에 있어서의 시각 tb는, 다음 반복 단위에 있어서의 시각 ta로서 해석된다.
그리고, 변화부(112)는, 시선 방향(303a)을 가상 공간(301)에 있어서의 관찰 위치(302a)의 기준축 주위로 회전량 θ만큼 회전시킴으로써, 시선 방향(303a)을 시선 방향(303b)으로 변화시킨다.
본 실시 형태에 있어서, 제어부(101)가 변화부(112)로서 기능한다.
생성부(113)는, 가상 공간(301)을 관찰 위치(302)에서 시선 방향(303)으로 관찰한 모습을 나타내는 화상을 생성한다. 예를 들어, 생성부(113)는, 오브젝트(401 내지 404)의 가상 공간(301) 내에 있어서의 소정의 위치 및 형상에 기초하여, 투시 투영 등의 기술을 사용하여, 관찰 위치(302)에서 시선 방향(303)으로 보았을 때의 화상을 생성한다.
특정부(114)는, 복수의 오브젝트(401 내지 404)가 생성부(113)에 의해 생성된 화상 내에서 묘화되는 위치가 이동하는 화상 내 속도 중, 가상 공간(301) 내에 있어서의 당해 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은 오브젝트를, 주목 오브젝트로 특정한다.
이하, 화상 내 속도와, 오브젝트의 이동에 기인하지 않는 속도 성분에 대하여, 도 7a 및 도 7b를 사용하여 설명한다. 도 7a는, 시각 ta에 있어서 가상 공간(301)을 관찰 위치(302)에서 시선 방향(303)으로 관찰한 모습을 나타내는 화상(501a)이고, 도 7b는, 시각 tb에 있어서 가상 공간(301)을 관찰 위치(302)에서 시선 방향(303)으로 관찰한 모습을 나타내는 화상(501b)을 도시한다. 복수의 오브젝트(401 내지 404) 중, 가상 공간(301) 내에 있어서 정지해 있는 오브젝트(402, 403)에서는, 시선 방향(303)이 변화하면, 그 시선 방향(303)의 변화에 기인하는 속도 성분을 화상 내 속도로 하여, 생성된 화상(501a, 501b) 내에서 묘화되는 위치가 이동한다. 예를 들어, 오브젝트(402)에서는, 시선 방향(303)의 변화에 기인하는 속도 성분 S2x를 화상 내 속도 V2로 하여, 생성된 화상(501a, 501b) 내에서 묘화되는 위치가 이동한다. 또한, 가상 공간(301) 내에 있어서 이동하고 있는 오브젝트(401, 404)에서는, 시선 방향(303)이 변화하면, 그 시선 방향(303)의 변화에 기인하는 속도 성분과, 자신의 이동에 기인하는 속도 성분의 합성 속도를 화상 내 속도로 하여, 생성된 화상 내에서 묘화되는 위치가 이동한다. 예를 들어, 오브젝트(401)에서는, 시선 방향(303)의 변화에 기인하는 속도 성분 S1x와, 자신의 이동에 기인하는 속도 성분 Ax의 합성 속도를 화상 내 속도 V1로 하여, 생성된 화상(501a, 501b) 내에서 묘화되는 위치가 이동한다. 일반적으로, 유저는, 이동하는 오브젝트에 주목하고 있는 경우, 그 오브젝트를 시야, 즉 생성된 화상 내의 중심에 취한 상태에서 그 오브젝트의 이동에 수반하여 시선 방향(303)을 변화시킨다고 생각된다. 그 결과, 유저가 주목하고 있는 오브젝트, 즉 주목 오브젝트에 있어서는, 시선 방향(303)이 변화해도, 시선 방향(303)의 변화에 기인하는 속도 성분, 즉 화상 내 속도 중, 주목 오브젝트의 이동에 기인하지 않는 속도 성분은, 다른 오브젝트보다 작다고 생각된다. 따라서, 본 실시 형태에서는, 복수의 오브젝트 중, 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은 오브젝트를 주목 오브젝트로서 특정한다.
구체적으로는, 우선, 특정부(114)는, 각 오브젝트(401 내지 404)에 대하여, 시선 방향(303)이 변화되기 직전에 각 오브젝트(401 내지 404)가 가상 공간(301) 내에 있어서 존재하고 있던 위치의, 시선 방향(303)이 변화되기 직전에 생성된 화상 내에 있어서의 직전 위치와, 시선 방향(303)이 변화되기 직후에 생성되어야 할 화상 내에 있어서의 직후 위치를 구한다. 구체적으로는, 특정부(114)는, 직전 위치를, 가상 공간(301) 내에 있어서의 오브젝트(401 내지 404)의 기지의 위치나 이동 속도, 관찰 위치(302) 및 시선 방향(303)으로부터 산출한다. 또한, 특정부(114)는, 직후 위치를, 직전 위치, 변화 후의 관찰 위치(302) 및 변화 후의 시선 방향(303)으로부터 산출한다. 그리고, 특정부(114)는, 직후 위치와 직전 위치의 차를, 시선 방향(303)의 변화에 기인하는 속도 성분, 즉 오브젝트의 이동에 기인하지 않는 속도 성분으로서 산출한다. 또한, 특정부(114)는, 오브젝트(401 내지 404)의 대표점(예를 들어, 중심점이나 무게 중심점)의 위치를, 오브젝트(401 내지 404)의 위치로 한다.
이하, 오브젝트(401)를 예로 들어, 도 8을 사용하여 시선 방향(303)의 변화에 기인하는 속도 성분을 산출하는 방법에 대하여 설명한다. 예를 들어, 도 4에 도시하는 바와 같이 시각 ta에 있어서, 오브젝트(401)가 Pa에 위치하고 있다고 하자. 이때, 먼저 특정부(114)는, Pa, 관찰 위치(302) 및 시선 방향(303)에 기초하여, 시각 ta에 있어서 생성된 화상(501a) 내에 있어서의 Pa의 위치 Pia를 산출한다. 그리고, 특정부(114)는, Pa, 시각 tb에 있어서의 관찰 위치(302), 및 시각 tb에 있어서의 시선 방향(303)에 기초하여, 시각 tb에 있어서 생성되어야 할 화상(501b) 내에 있어서의 Pa의 위치 Pib를 산출한다. 그리고, 특정부(114)는, Pib와 Pia의 차를, 시선 방향(303)의 변화에 기인하는 속도 성분 S1x로서 산출한다. 즉, 특정부(114)는, 오브젝트(401)가 정지해 있다고 가정하였을 때의 Pib와 Pia의 차, 즉 화상 내 속도를 시선 방향(303)의 변화에 기인하는 속도 성분 S1x로서 산출한다. 특정부(114)는, 이와 같이 하여 가상 공간(301) 내의 오브젝트(401 내지 404) 각각에 대하여, 시선 방향(303)의 변화에 기인하는 속도 성분을 산출한다.
그리고, 특정부(114)는, 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은지 여부를 판정한다. 여기서, 오브젝트의 이동에 기인하지 않는 속도 성분이 소정 기준으로 작은지 여부를 판정하는 방법의 일례로서, 특정부(114)는, 오브젝트(401 내지 404) 각각에 대하여 구해진 시선 방향(303)의 변화에 기인하는 속도 성분 중, 최소 속도 성분이 소정 기준으로 작다고 판정한다. 그리고, 특정부(114)는, 시선 방향(303)의 변화에 기인하는 속도 성분이 최소인 오브젝트(401 내지 404)를 주목 오브젝트로 특정한다. 예를 들어, 특정부(114)는, 오브젝트(401 내지 404)의 시선 방향(303)의 변화에 기인하는 속도 성분 중, 오브젝트(401)에 관한 속도 성분 S1x가 최소일 때, 오브젝트(401)를 주목 오브젝트로서 특정한다. 또한, 다른 예로서, 시선 방향(303)의 변화에 기인하는 속도 성분이 소정 역치 이하, 또는 소정 역치 미만일 때, 특정부(114)는, 그 속도 성분은 소정 기준으로 작다고 판정해도 된다. 또한, 특정부(114)는, 검지된 시선 방향(303)의 변화에 대한 속도 성분의 비가, 소정 역치 미만일 때, 그 속도 성분은 소정 기준으로 작다고 판정해도 된다. 구체적으로는, 특정부(114)는, 시선 방향(303)의 변화에 기인하는 속도 성분을, 검지된 시선 방향(303)의 변화의 속도로 제산한 값이, 소정 역치 미만일 때, 그 속도 성분은 소정 기준으로 작다고 판정해도 된다.
본 실시 형태에 있어서, 제어부(101)가 특정부(114)로서 기능한다.
그리고, 생성부(113)는, 화상을 생성할 때, 오브젝트(401 내지 404) 중, 특정부(114)에 의해 특정된 주목 오브젝트 이외의 오브젝트이며, 가상 공간(301)을 시선 방향(303)으로 관찰하면 주목 오브젝트를 가리는 오브젝트의 투명도를 증가시키고 나서, 화상을 생성한다. 예를 들어, 생성부(113)는, 배경을 소정의 배경색(예를 들어 흑색)으로 묘화하고, 관찰 위치(302)로부터 먼 오브젝트부터 순서대로 묘화한다. 그리고, 주목 오브젝트 이외의 다른 오브젝트를 묘화해야 할 픽셀이 배경색 이외의 색으로 묘화되어 있던 경우, 생성부(113)는, 그 픽셀은, 이미 주목 오브젝트의 색으로 묘화되어 있는, 즉 당해 다른 오브젝트에 의해 가려지는 주목 오브젝트의 픽셀이라고 판정한다. 그리고, 생성부(113)는, 당해 다른 오브젝트를 주목 오브젝트를 가리는 오브젝트라고 판정하고, 당해 다른 오브젝트의 투명도를 증가시키고 나서, 화상을 생성한다. 예를 들어, 특정부(114)에 의해 오브젝트(401)가 주목 오브젝트로서 특정되었을 때, 생성부(113)는, 오브젝트(402)가 오브젝트(401)를 가리는 오브젝트라고 판정하면, 도 9에 도시하는 바와 같이 오브젝트(402)의 투명도를 증가시키고 나서, 화상(501b)을 생성한다. 생성부(113)는, 오브젝트(402)의 투명도를 증가시킴으로써, 유저가 주목하는, 오브젝트(402)에 의해 가려진 오브젝트(401)의 부분을 시인하기 쉬운 화상을 생성할 수 있다. 또한, 주목 오브젝트가 다른 주목 오브젝트에 의해 가려지는 경우, 생성부(113)는, 주목 오브젝트를 가리는 다른 주목 오브젝트의 투명도를 증가시키지 않고 화상을 생성한다.
본 실시 형태에 있어서, 제어부(101)가 생성부(113)로서 기능한다.
표시부(115)는, 생성부(113)에 의해 생성된 화상을, 디스플레이(104)에 표시한다. 예를 들어, 표시부(115)는, 시각 ta에 있어서 도 7a에 도시하는 바와 같은 화상(501a), 시각 tb에 있어서 도 9에 도시하는 바와 같은 화상(501b)을 각각 디스플레이(104)에 표시한다.
본 실시 형태에 있어서, 제어부(101)가 표시부(115)로서 기능한다.
이어서, 본 발명의 실시 형태에 관한 표시 장치(100)의 동작에 대하여 설명한다. 도 10은, 표시 장치(100)의 제어부(101)에 의해 실행되는 표시 처리의 흐름을 도시하는 흐름도이다. 본 처리는, 예를 들어 조작부(106)를 통하여 본 처리의 개시 지시를 접수한 것을 계기로서 개시된다.
우선, 표시 장치(100)는, 가상 공간(301) 내에 있어서, 관찰 위치(302) 및 시선 방향(303)을 미리 정해진 초기 상태로 설정한다(스텝 S101).
이어서, 표시 장치(100)는, 가상 공간(301)을 초기화한다(스텝 S102). 이 초기화 시에는, 표시 장치(100)는, 예를 들어 가상 공간(301) 내에 배치되는 오브젝트의 위치, 형상, 배향, 외관을 취득, 설정하거나, 가상 공간(301)의 무한 원방에 배치된다고 상정되는 배경의 화상 등을 취득, 설정한다.
이어서, 표시 장치(100)는, 표시 장치(100)의 배향을 검지하고, 디스플레이(104)의 표시 방향이, 현실 공간(201)에 있어서 기준축 주위로 회전한 회전량 θ를 취득한다(스텝 S103). 스텝 S103은, 반복 실행되므로, 여기서 취득되는 회전량 θ는, 센서 등에 의해 전회 측정된 표시 방향(203)과, 금회 측정된 표시 방향(203)의 차분에 상당한다.
이어서, 표시 장치(100)는, 취득된 회전량 θ에 따라, 시선 방향(303)을 갱신한다(스텝 S104).
그리고, 표시 장치(100)는, 가상 공간(301) 내의 오브젝트(401 내지 404)에 대하여, 시선 방향(303)의 변화에 기인하는 속도 성분을 산출하지 않은 오브젝트를 선택한다(스텝 S105).
표시 장치(100)는, 스텝 S105에 있어서 선택된 오브젝트의 직전 위치 및 직후 위치를 산출한다(스텝 S106).
그리고, 표시 장치(100)는, 스텝 S106에 있어서 산출된 직후 위치와 직전 위치의 차를, 선택된 오브젝트의, 시선 방향(303)의 변화에 기인하는 속도 성분으로서 산출한다(스텝 S107). 그리고, 표시 장치(100)는, 모든 오브젝트(401 내지 404)에 대하여 시선 방향(303)의 변화에 기인하는 속도 성분을 산출하였는지 여부를 판정한다(스텝 S108). 표시 장치(100)는, 모든 오브젝트(401 내지 404)에 대하여 시선 방향(303)의 변화에 기인하는 속도 성분을 산출하지 않았을 때(스텝 S108; "아니오"), 스텝 S105의 처리로 복귀된다.
표시 장치(100)는, 모든 오브젝트(401 내지 404)에 대하여 시선 방향(303)의 변화에 기인하는 속도 성분을 산출하였을 때(스텝 S108; "예") 산출된 속도 성분 중, 최소 속도 성분에 관한 오브젝트를 주목 오브젝트로서 특정한다(스텝 S109).
표시 장치(100)는, 스텝 S109에 있어서 특정된 주목 오브젝트를 가리는 오브젝트가 있는지 여부를 판정한다(스텝 S110). 표시 장치(100)는, 주목 오브젝트를 가리는 오브젝트가 없을 때(스텝 S110; "아니오"), 스텝 S112의 처리로 진행한다.
주목 오브젝트를 가리는 오브젝트가 있을 때(스텝 S110; "예"), 표시 장치(100)는, 주목 오브젝트를 가리는 오브젝트의 투명도를 소정 정도만큼 증가시킨다(스텝 S111).
그리고, 표시 장치(100)는, 관찰 위치(302)에서 시선 방향(303)으로 가상 공간(301)을 관찰한 모습을 나타내는 화상을 생성한다(스텝 S112).
이후, 표시 장치(100)는, 디스플레이(104)의 수직 동기 인터럽트가 생길 때까지 대기하고 나서(스텝 S113), 생성된 화상을 디스플레이(104)로 전송하여 유저에게 제시한다(스텝 S114).
그리고, 표시 장치(100)는, 가상 공간(301)의 상태를 갱신한다(스텝 S115). 예를 들어, 가상 공간(301)이 시간의 경과에 따라 변화하는 컴퓨터 그래픽스에 의해 구성되는 경우에는, 오브젝트의 위치나 배향을, 당해 오브젝트에 설정된 속도, 가속도, 각속도, 각가속도 등에 의해 갱신하는 물리 시뮬레이션을 행하거나, 미리 정해진 조건에 기초하여 오브젝트를 변형시킨다.
그리고, 표시 장치(100)는, 스텝 S103의 처리로 복귀된다. 표시 장치(100)는, 예를 들어 조작부(106)를 통하여 본 처리의 종료 지시를 접수할 때까지, 반복하여 상기 처리를 실행한다. 또한 스텝 S113에 있어서 대기한다는 점에서, 이 처리의 반복 주기는 수직 동기 주기로 된다.
이상 설명한 바와 같이, 본 발명의 실시 형태에 관한 표시 장치(100)는, 표시 장치(100)의 현실 공간(201)에 있어서의 배향이 변화하면, 가상 공간(301)에 있어서의 시선 방향(303)을 변화시키고, 가상 공간(301) 내의 오브젝트(401 내지 404)의 화상 내 속도 중, 오브젝트(401 내지 404)의 이동에 기인하지 않는 속도 성분이 소정 기준으로 작은 오브젝트를 주목 오브젝트로 특정한다. 그 때문에, 유저가 가상 공간(301) 내의 이동하는 오브젝트를 눈으로 쫓고 있을 때, 표시 장치(100)는 자신의 위치를 검지할 수 없어도, 자신의 배향의 변화를 검지함으로써, 유저가 주목하는 오브젝트를 특정할 수 있다.
또한, 표시 장치(100)는, 특정된 주목 오브젝트가 다른 오브젝트에 의해 가려져 있는 경우, 주목 오브젝트를 가리는 오브젝트의 투명도를 증가시키고 나서, 화상을 생성한다. 따라서, 표시 장치(100)는, 다른 오브젝트에 의해 가려져 있는 주목 오브젝트의 부분을 시인 가능하게 할 수 있다.
이상으로 본 발명의 실시 형태에 대하여 설명하였지만, 상기 실시 형태는 일례로서, 본 발명의 적용 범위는 이것에 한정되지 않는다. 즉, 본 발명의 실시 형태는 여러 가지 응용이 가능하며, 모든 실시 형태가 본 발명의 범위에 포함된다.
예를 들어, 상기 실시 형태에 있어서, 표시 장치(100)는, 시선 방향(303)의 변화에 따라 관찰 위치(302)를 변화시킴으로써, 주목 오브젝트의 들여다보기를 실현해도 된다. 예를 들어, 도 11에 도시하는 바와 같이, 관찰 위치(302a)에서 시선 방향(303a)으로 주목 오브젝트(401a)를 보면, 주목 오브젝트(401a)의 일부가 오브젝트(404a)에 의해 가려진다고 하자. 이때, 유저는, 오브젝트(404a)에 의해 가려져 있는 주목 오브젝트(401a)의 부분을 들여다보고자 하여, 현실 공간(201)에 있어서 헤드를 회전시킴과 함께, 헤드의 위치를 이동시킨다고 상정된다. 단, 표시 장치(100)가 자신의 위치를 검지할 수 없을 때에는, 유저가 헤드를 이동시켜도, 그 이동을 검지할 수 없다. 이러한 상황에 있어서, 표시 장치(100)는, 헤드의 회전, 즉 표시 장치(100)의 배향의 변화를 검지하고, 그 배향의 변화에 따라 가상 공간(301)에 있어서의 시선 방향(303a)을 변화시킴과 함께, 시선 방향(303a)의 변화에 따라 관찰 위치(302a)를 변화시켜도 된다.
구체적으로는, 상기 실시 형태에 있어서, 변화부(112)는, 변화시킨 시선 방향(303)의 변화에 따라, 당해 시선 방향(303)이 변화한 방향과 역방향으로 관찰 위치(302)를 변화시켜도 된다. 예를 들어, 시각 ta부터 시각 tb까지의 동안에, 도 2에 도시하는 상태로부터 도 3에 도시하는 바와 같이 유저가 헤드를 반시계 방향으로 θ 회전시켰을 때, 변화부(112)는, 검지부(111)에 의해 검지된 표시 장치(100)의 표시 방향(203)의 변화에 대하여, 현실 공간(201)에 있어서의 기준축 주위의 회전량 θ를 취득한다. 그리고, 도 11에 도시하는 바와 같이, 변화부(112)는, 시선 방향(303a)을 가상 공간(301)에 있어서의 관찰 위치(302a)의 기준축 주위로 회전량 θ만큼 회전시킴으로써, 시선 방향(303a)을 시선 방향(303b)으로 변화시킨다. 또한, 변화부(112)는, 특정부(114)에 의해 특정된 주목 오브젝트(401a)의 위치 Pa를 중심으로, 관찰 위치(302a)를 회전량 θ만큼 시선 방향(303)이 변화한 방향과 역방향으로 회전 이동시킴으로써, 관찰 위치(302a)를 관찰 위치(302b)로 변화시킨다. 도 11에 도시하는 예에서는, 시선 방향(303a)은, 반시계 방향으로 회전함으로써, 시선 방향(303b)으로 변화하고 있기 때문에, 변화부(112)는, 관찰 위치(302a)를 시계 방향으로 회전량 θ만큼 회전 이동시킴으로써, 관찰 위치(302b)로 변화시킨다. 이에 의해, 표시 장치(100)가 표시 장치(100)의 위치를 검출하는 기능을 갖지 않는 경우라도, 변화시킨 시선 방향(303)에 따라, 시선 방향(303)이 변화한 방향과 역방향으로 관찰 위치(302)를 변화시킴으로써, 유저(202)의 위화감을 억제하면서 관찰 위치(302)를 주목 오브젝트의 들여다보기에 적절한 위치로 변화시킬 수 있다.
또한, 복수의 주목 오브젝트가 특정된 경우에는, 변화부(112)는, 복수의 주목 오브젝트 중, 자신의 이동에 기인하지 않는 속도 성분, 즉 시선 방향(303)의 변화에 기인하는 속도 성분이 최소인 오브젝트를 중심으로 관찰 위치(302)를 시선 방향(303)이 변화한 방향과 역방향으로 변화시키면 된다. 또한, 변화부(112)가 관찰 위치(302)를 시선 방향(303)이 변화한 방향과 역방향으로 회전시키는 양은, 시선 방향(303)의 회전량 θ와 동일한 양에 한정되지 않는다. 예를 들어, 변화부(112)는, 시선 방향(303)의 회전량 θ에 비례하는 회전량으로, 관찰 위치(302)를 시선 방향(303)이 변화한 방향과 역방향으로 변화시켜도 된다.
또한, 상기 실시 형태에서는, 표시 장치(100)가 표시 장치(100)의 배향의 변화를 검지하고, 그 변화에 기초하여, 주목 오브젝트를 특정하는 예에 대하여 설명하였다. 그러나, 표시 장치(100)는, 추가로 표시 장치(100)의 위치를 검지하는 기능을 구비해도 된다. 이 경우, 변화부(112)는, 검지된 표시 장치(100)의 위치에 따라, 가상 공간(301)에 있어서의 관찰 위치(302)를 변화시켜도 된다.
예를 들어, 도 12에 도시하는 바와 같이, 변화부(112)는, 시각 ta부터 시각 tb까지의 동안의 검지부(111)에 의해 검지된 표시 장치(100)의 위치(204)의 변화에 대하여, 이동량 d를 취득한다. 구체적으로는, 도 12에 있어서, 유저(202)가 헤드의 배향을 바꾸기 전에는, 표시 장치(100)의 대표점(예를 들어, 중심점이나 무게 중심점)은, 위치(204a)에 위치한다. 또한, 도 12에 있어서, 유저(202)가 헤드의 배향을 바꾼 후에는, 표시 장치(100)의 대표점은, 위치(204b)에 위치한다. 따라서, 표시 장치(100)의 이동량 d는, 위치(204a)와 위치(204b)의 차분 벡터이다. 그리고, 변화부(112)는, 도 13에 도시하는 바와 같이, 가상 공간(301)에 있어서 관찰 위치(302a)를 이동량 d만큼 이동시킴으로써, 관찰 위치(302a)를 관찰 위치(302b)로 변화시킨다. 그리고, 생성부(113)는, 가상 공간(301)을 관찰 위치(302b)에서 시선 방향(303b)으로 관찰한 모습을 나타내는 화상을 생성한다. 그리고, 특정부(114)는, 상기 실시 형태와 마찬가지로, 생성부(113)에 생성되는 화상 내에서 오브젝트가 묘화되는 위치가 이동하는 화상 내 속도 중, 오브젝트의 이동에 기인하지 않는 속도 성분이 소정 기준으로 작은 오브젝트를 주목 오브젝트로 특정한다.
일반적으로, 표시 장치(100)가 자신의 배향뿐만 아니라 위치도 검지할 수 있는 경우에는, 유저가 주목 오브젝트를 시야의 중심에 넣은 상태에서 시선 방향을 변화시키는 것을 상정하여, 변화 전후의 시선 방향(303)의 교점에 있는 오브젝트를 주목 오브젝트로 특정한다고 생각된다. 그러나, 표시 장치(100)의 배향이나 위치의 검지 정밀도가 낮은 경우에는, 그 교점을 정확하게 특정하지 못할 우려가 있다. 한편, 특정부(114)는, 생성부(113)에 생성되는 화상 내에서 오브젝트가 묘화되는 위치가 이동하는 화상 내 속도 중, 오브젝트의 이동에 기인하지 않는 속도 성분이 소정 기준으로 작은 오브젝트를 주목 오브젝트로 특정하기 때문에, 표시 장치(100)의 배향이나 위치의 검지 정밀도가 낮은 경우라도, 주목 오브젝트를 특정할 수 있다.
또한, 상기 실시 형태에서는, 표시 장치(100)의 배향의 변화를 검지하였을 때, 주목 오브젝트를 특정하는 예에 대하여 설명하였다. 즉, 상기 실시 형태에서는, 표시 장치(100)의 배향이 변화하지 않는 동안은, 표시 장치(100)는 주목 오브젝트를 특정하지 않는다. 그러나, 표시 장치(100)는, 예를 들어 표시 장치(100)의 배향의 변화를 마지막에 검지하고 나서 소정 기간, 마지막에 특정된 주목 오브젝트를 주목 오브젝트로서 특정해도 된다. 표시 장치(100)의 배향의 변화가 검지되지 않게 된 것은, 유저가 이미 표시 장치(100)를 주목 오브젝트를 관찰하기 쉬운 배향으로 이동시켰기 때문이라고 생각된다. 그 때문에, 표시 장치(100)는, 표시 장치(100)의 배향의 변화를 마지막에 검지하고 나서 소정 기간에 대하여, 표시 장치(100)의 배향의 변화가 검지되지 않았어도, 마지막에 특정된 주목 오브젝트를 주목 오브젝트로서 특정할 수 있다.
또한, 상기 실시 형태에서는, 특정부(114)는, 생성부(113)에 생성되는 화상 내에서 오브젝트가 묘화되는 위치가 이동하는 화상 내 속도 중, 오브젝트의 이동에 기인하지 않는 속도 성분이 최소인 오브젝트를 주목 오브젝트로 특정하는 예에 대하여 설명하였다. 이와 같이, 특정부(114)가 1개의 주목 오브젝트를 특정하는 경우, 상황에 따라서는 빈번히 주목 오브젝트가 교체될 가능성이 있다. 이와 같이 주목 오브젝트가 빈번히 교체되는 것을 방지하기 위해, 예를 들어 표시 장치(100)는, 주목 오브젝트를 특정하고 나서 소정 기간은, 다른 오브젝트를 주목 오브젝트로서 특정하지 않는 것으로 해도 된다.
또한, 상기 실시 형태에 있어서, 표시 장치(100)의 배향에 대하여, 요각의 변화를 검지하는 예에 대하여 설명하였다. 그러나, 표시 장치(100)의 배향의 변화는 이것에 한정되지 않고, 예를 들어 롤각이나 피치각의 변화를 검지해도 된다.
또한, 표시 장치(100)로서는, 상기 각 기능을, 각종 전기ㆍ전자 기기로 이루어지는 하드웨어에 의해 구성할 수 있다. 또한, 기존의 퍼스널 컴퓨터나 정보 단말 기기 등이 갖는 전기ㆍ전자 회로나 제어 장치 등에 의해, 상기 각 기능을 실현하고, 표시 장치(100)를 실현할 수도 있다.
또한, 표시 장치(100)의 디스플레이(104) 및 센서부(105)를, 헤드 마운트 디스플레이에 의해 실현하고, 표시 장치(100)의 제어부(101), ROM(102), RAM(103)을 갖는 표시 제어 장치를, 헤드 마운트 디스플레이에 접속된 퍼스널 컴퓨터나 정보 단말 기기 등에 의해 실현하는 것도 가능하다.
또한, 상기 실시 형태에서 예시한 표시 장치(100)에 의한 각 기능 구성을 실현시키기 위한 프로그램을, 기존의 퍼스널 컴퓨터나 정보 단말 기기를 제어하는 CPU 등이 실행할 수 있도록, 기존의 퍼스널 컴퓨터나 정보 단말 기기에 적용함으로써, 그 퍼스널 컴퓨터나 정보 단말 기기를 표시 장치(100)로서 기능시킬 수 있다. 여기서, CPU 등이 프로그램을 실행함으로써, 표시 장치(100)를 제어하는 표시 제어 방법을 실현할 수 있다.
또한, 이러한 프로그램은, 상기에 한정되지 않고, 임의의 방법으로 적용 가능하다. 프로그램을, 예를 들어 컴퓨터가 판독 가능한 기록 매체(CD-ROM(Compact Disc Read-Only Memory), DVD(Digital Versatile Disc), MO(Magneto Optical disc) 등)에 저장하여 적용할 수 있는 것 외에, 인터넷 등의 네트워크 상의 스토리지에 프로그램을 저장해 두고, 이것을 다운로드시킴으로써 적용할 수도 있다.
(정리)
이상 설명한 바와 같이, 본 발명의 일 실시 형태에 관한 표시 제어 장치는, 표시 장치를 제어하고,
복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 상기 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화부와,
상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성부와,
상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시부와,
상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정부
를 구비하고,
상기 변화부는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성부는, 상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성한다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 특정부는, 상기 복수의 오브젝트가 상기 화상 내에서 묘화되는 위치가 이동하는 화상 내 속도 중, 상기 가상 공간 내에 있어서의 당해 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은 오브젝트를, 상기 주목 오브젝트로 특정하도록 구성할 수 있다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 변화부는, 상기 특정부에 의해 복수의 주목 오브젝트가 특정된 경우, 상기 복수의 주목 오브젝트 중 상기 속도 성분이 최소인 오브젝트를 중심으로, 상기 관찰 위치를 변화시키도록 구성할 수 있다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 복수의 오브젝트의 각 오브젝트에 대하여,
상기 시선 방향이 변화되기 직전에 당해 각 오브젝트가 상기 가상 공간 내에 있어서 존재하고 있던 위치의 상기 시선 방향이 변화되기 직전에 생성된 상기 화상 내에 있어서의 직전 위치와,
상기 시선 방향이 변화된 직후에 생성되어야 할 상기 화상 내에 있어서의 직후 위치
를 구하고,
상기 직후 위치와 상기 직전 위치의 차를, 당해 각 오브젝트의 상기 속도 성분으로 해도 된다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 속도 성분이 최소인 오브젝트는, 상기 소정 기준으로 작아도 된다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 속도 성분이 소정 역치 이하인 오브젝트는, 상기 소정 기준으로 작아도 된다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 배향의 변화에 대한 상기 속도 성분의 비가, 소정 역치 미만인 오브젝트는, 상기 소정 기준으로 작아도 된다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 변화부는, 상기 시선 방향의 변화에 따라, 상기 관찰 위치를 변화시켜도 된다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 변화부는, 상기 시선 방향의 변화량에 비례하여, 상기 관찰 위치를 변화시켜도 된다.
또한, 본 발명의 일 실시 형태에 관한 표시 제어 장치에 있어서,
상기 복수의 오브젝트 중 상기 주목 오브젝트 이외의 오브젝트이며, 상기 가상 공간을 상기 시선 방향으로 관찰하면 상기 주목 오브젝트를 가리는 오브젝트의 투명도를 증가시키고 나서, 상기 화상을 생성해도 된다.
본 발명의 일 실시 형태에 관한 표시 제어 방법은, 표시 제어 장치가 표시 장치를 제어하고,
상기 표시 제어 장치가, 복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 상기 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화 스텝과,
상기 표시 제어 장치가, 상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성 스텝과,
상기 표시 제어 장치가, 상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시 스텝과,
상기 표시 제어 장치가, 상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정 스텝
을 포함하고,
상기 변화 스텝에서는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성 스텝에서는, 상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성한다.
본 발명의 일 실시 형태에 관한 프로그램은, 컴퓨터를,
복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화부,
상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성부,
상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시부,
상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정부
로서 기능시키고,
상기 변화부는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성부는, 상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하도록 기능시킨다.
본 발명의 일 실시 형태에 관한 컴퓨터 판독 가능한 비일시적인 정보 기록 매체는,
컴퓨터를,
복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화부,
상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성부,
상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시부,
상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정부
로서 기능시키는 프로그램을 기록하고,
상기 변화부는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성부는, 상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하도록 기능시킨다.
또한, 본 발명은, 본 발명의 광의의 정신과 범위를 일탈하지 않고, 여러 가지 실시 형태 및 변형이 가능하게 되는 것이다. 또한, 상술한 실시 형태는, 본 발명을 설명하기 위한 것이며, 본 발명의 범위를 한정하는 것은 아니다. 즉, 본 발명의 범위는, 실시 형태가 아니라, 특허청구범위에 의해 나타난다. 그리고, 특허청구범위 내 및 그것과 동등한 발명의 의의의 범위 내에서 실시되는 여러 가지 변형이, 본 발명의 범위 내라고 간주된다.
<산업상 이용가능성>
본 발명에 따르면, 가상 공간 등을 당해 가상 공간 등 내의 관찰 위치에서 관찰한 모습을 표시 장치에 표시시키는 표시 제어 장치에 있어서, 당해 표시 장치의 현실 공간에 있어서의 위치를 검출하지 않아도, 당해 가상 공간 등 내의 당해 관찰 위치를 적절하게 이동시키는 표시 제어 장치, 표시 제어 방법, 프로그램, 그리고 비일시적인 컴퓨터 판독 가능한 정보 기록 매체를 제공할 수 있다.
100(100a, 100b): 표시 장치
101: 제어부
102: ROM
103: RAM
104: 디스플레이
105: 센서부
106: 조작부
107: 버스
111: 검지부
112: 변화부
113: 생성부
114: 특정부
115: 표시부
201: 현실 공간
202(202a, 202b): 유저
203(203a, 203b): 표시 방향
204(204a, 204b): 표시 장치의 위치
211: 현실 공간의 방위
301: 가상 공간
302(302a, 302b): 관찰 위치
303(303a, 303b): 시선 방향
311: 가상 공간의 방위
401 내지 404(401a 내지 404a, 401b 내지 404b): 오브젝트
501a, 501b: 화상
101: 제어부
102: ROM
103: RAM
104: 디스플레이
105: 센서부
106: 조작부
107: 버스
111: 검지부
112: 변화부
113: 생성부
114: 특정부
115: 표시부
201: 현실 공간
202(202a, 202b): 유저
203(203a, 203b): 표시 방향
204(204a, 204b): 표시 장치의 위치
211: 현실 공간의 방위
301: 가상 공간
302(302a, 302b): 관찰 위치
303(303a, 303b): 시선 방향
311: 가상 공간의 방위
401 내지 404(401a 내지 404a, 401b 내지 404b): 오브젝트
501a, 501b: 화상
Claims (13)
- 표시 장치를 제어하는 표시 제어 장치이며,
복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 상기 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화부와,
상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성부와,
상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시부와,
상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정부
를 구비하고,
상기 변화부는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성부는, 상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하고,
상기 특정부는, 상기 복수의 오브젝트가 상기 화상 내에서 묘화되는 위치가 이동하는 화상 내 속도 중, 상기 가상 공간 내에 있어서의 당해 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은 오브젝트를, 상기 주목 오브젝트로 특정하는 것을 특징으로 하는 표시 제어 장치. - 제1항에 있어서,
상기 변화부는, 상기 특정부에 의해 복수의 주목 오브젝트가 특정된 경우, 상기 복수의 주목 오브젝트 중 상기 속도 성분이 최소인 오브젝트를 중심으로, 상기 관찰 위치를 변화시키는 것을 특징으로 하는 표시 제어 장치. - 제1항 또는 제2항에 있어서,
상기 복수의 오브젝트의 각 오브젝트에 대하여,
상기 시선 방향이 변화되기 직전에 당해 각 오브젝트가 상기 가상 공간 내에 있어서 존재하고 있던 위치의 상기 시선 방향이 변화되기 직전에 생성된 상기 화상 내에 있어서의 직전 위치와,
상기 시선 방향이 변화된 직후에 생성되어야 할 상기 화상 내에 있어서의 직후 위치
를 구하고,
상기 직후 위치와 상기 직전 위치의 차를, 당해 각 오브젝트의 상기 속도 성분으로 하는 것을 특징으로 하는 표시 제어 장치. - 제1항 또는 제2항에 있어서,
상기 속도 성분이 최소인 오브젝트는, 상기 소정 기준으로 작은 것을 특징으로 하는 표시 제어 장치. - 제1항 또는 제2항에 있어서,
상기 속도 성분이 소정 역치 이하인 오브젝트는, 상기 소정 기준으로 작은 것을 특징으로 하는 표시 제어 장치. - 제1항 또는 제2항에 있어서,
상기 배향의 변화에 대한 상기 속도 성분의 비가, 소정 역치 미만인 오브젝트는, 상기 소정 기준으로 작은 것을 특징으로 하는 표시 제어 장치. - 제1항 또는 제2항에 있어서,
상기 변화부는, 상기 시선 방향의 변화에 따라, 상기 관찰 위치를 변화시키는 것을 특징으로 하는 표시 제어 장치. - 제7항에 있어서,
상기 변화부는, 상기 시선 방향의 변화량에 비례하여, 상기 관찰 위치를 변화시키는 것을 특징으로 하는 표시 제어 장치. - 제1항 또는 제2항에 있어서,
상기 복수의 오브젝트 중 상기 주목 오브젝트 이외의 오브젝트이며, 상기 가상 공간을 상기 시선 방향으로 관찰하면 상기 주목 오브젝트를 가리는 오브젝트의 투명도를 증가시키고 나서, 상기 화상을 생성하는 것을 특징으로 하는 표시 제어 장치. - 표시 제어 장치가 표시 장치를 제어하는 표시 제어 방법이며,
상기 표시 제어 장치가, 복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 상기 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화 스텝과,
상기 표시 제어 장치가, 상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성 스텝과,
상기 표시 제어 장치가, 상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시 스텝과,
상기 표시 제어 장치가, 상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정 스텝
을 포함하고,
상기 변화 스텝에서는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성 스텝에서는, 상기 가상 공간을 상기 관찰 위치에서 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하고,
상기 특정 스텝에서는, 상기 복수의 오브젝트가 상기 화상 내에서 묘화되는 위치가 이동하는 화상 내 속도 중, 상기 가상 공간 내에 있어서의 당해 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은 오브젝트를, 상기 주목 오브젝트로 특정하는 것을 특징으로 하는 표시 제어 방법. - 컴퓨터를,
복수의 오브젝트가 정지 혹은 이동하는 가상 공간에 있어서의 시선 방향을, 표시 장치의 현실 공간에 있어서의 배향의 변화에 따라 변화시키는 변화부,
상기 가상 공간을 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하는 생성부,
상기 생성된 화상을, 상기 표시 장치가 갖는 디스플레이에 표시하는 표시부,
상기 복수의 오브젝트로부터, 주목 오브젝트를 특정하는 특정부로서 기능시키는 프로그램이며,
상기 변화부는, 상기 주목 오브젝트를 중심으로, 당해 시선 방향이 변화한 방향과 역방향으로 관찰 위치를 변화시키고,
상기 생성부는, 상기 가상 공간을 상기 관찰 위치로부터 상기 시선 방향으로 관찰한 모습을 나타내는 화상을 생성하고,
상기 특정부는, 상기 복수의 오브젝트가 상기 화상 내에서 묘화되는 위치가 이동하는 화상 내 속도 중, 상기 가상 공간 내에 있어서의 당해 오브젝트의 이동에 기인하지 않는 속도 성분이, 소정 기준으로 작은 오브젝트를, 상기 주목 오브젝트로 특정하는 것을 특징으로 하는 프로그램을 기록한, 비일시적 컴퓨터 판독 가능한 정보 기록 매체. - 삭제
- 삭제
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/016458 WO2020213088A1 (ja) | 2019-04-17 | 2019-04-17 | 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102149732B1 true KR102149732B1 (ko) | 2020-08-31 |
Family
ID=71103960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207013489A KR102149732B1 (ko) | 2019-04-17 | 2019-04-17 | 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11756259B2 (ko) |
EP (1) | EP3901919A4 (ko) |
JP (1) | JP6713591B1 (ko) |
KR (1) | KR102149732B1 (ko) |
TW (1) | TWI736214B (ko) |
WO (1) | WO2020213088A1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010114618A (ja) | 2008-11-06 | 2010-05-20 | Clarion Co Ltd | 車両周辺監視システム |
KR20180037299A (ko) * | 2015-09-18 | 2018-04-11 | 포브, 아이엔씨. | 영상 시스템 |
KR20190038296A (ko) * | 2017-09-29 | 2019-04-08 | 포브, 아이엔씨. | 화상 표시 시스템, 화상 표시 방법 및 화상 표시 프로그램 |
Family Cites Families (146)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5742264A (en) * | 1995-01-24 | 1998-04-21 | Matsushita Electric Industrial Co., Ltd. | Head-mounted display |
JP3141737B2 (ja) * | 1995-08-10 | 2001-03-05 | 株式会社セガ | 仮想画像生成装置及びその方法 |
JPH11155152A (ja) * | 1997-11-21 | 1999-06-08 | Canon Inc | 三次元形状情報入力方法及び装置及び画像入力装置 |
US6097927A (en) * | 1998-01-27 | 2000-08-01 | Symbix, Incorporated | Active symbolic self design method and apparatus |
US20040110565A1 (en) * | 2002-12-04 | 2004-06-10 | Louis Levesque | Mobile electronic video game |
US20080211771A1 (en) * | 2007-03-02 | 2008-09-04 | Naturalpoint, Inc. | Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment |
US7936319B2 (en) * | 2007-03-08 | 2011-05-03 | Lockheed Martin Corporation | Zero-lag image response to pilot head mounted display control |
JP5390093B2 (ja) * | 2007-12-21 | 2014-01-15 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
JP4384697B2 (ja) * | 2008-03-26 | 2009-12-16 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム処理方法、ならびに、プログラム |
CN102293001B (zh) * | 2009-01-21 | 2014-05-14 | 株式会社尼康 | 图像处理装置、图像处理方法及记录方法 |
US8395529B2 (en) * | 2009-04-02 | 2013-03-12 | GM Global Technology Operations LLC | Traffic infrastructure indicator on head-up display |
JP5182202B2 (ja) * | 2009-04-14 | 2013-04-17 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US20120224060A1 (en) * | 2011-02-10 | 2012-09-06 | Integrated Night Vision Systems Inc. | Reducing Driver Distraction Using a Heads-Up Display |
US20120215403A1 (en) * | 2011-02-20 | 2012-08-23 | General Motors Llc | Method of monitoring a vehicle driver |
AU2011204946C1 (en) * | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
JP5839220B2 (ja) * | 2011-07-28 | 2016-01-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9495795B2 (en) * | 2012-01-16 | 2016-11-15 | Panasonic Intellectual Property Management Co., Ltd. | Image recording device, three-dimensional image reproducing device, image recording method, and three-dimensional image reproducing method |
US9256961B2 (en) * | 2012-06-28 | 2016-02-09 | Here Global B.V. | Alternate viewpoint image enhancement |
KR102028720B1 (ko) * | 2012-07-10 | 2019-11-08 | 삼성전자주식회사 | 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법 |
JP6186689B2 (ja) * | 2012-09-26 | 2017-08-30 | セイコーエプソン株式会社 | 映像表示システム |
JP5873982B2 (ja) * | 2012-10-09 | 2016-03-01 | パナソニックIpマネジメント株式会社 | 3次元表示装置、3次元画像処理装置および3次元表示方法 |
US9137524B2 (en) * | 2012-11-27 | 2015-09-15 | Qualcomm Incorporated | System and method for generating 3-D plenoptic video images |
US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
US10129538B2 (en) * | 2013-02-19 | 2018-11-13 | Reald Inc. | Method and apparatus for displaying and varying binocular image content |
US20140236483A1 (en) * | 2013-02-19 | 2014-08-21 | Navteq B.V. | Method and apparatus for determining travel path geometry based on mapping information |
US20160054563A9 (en) * | 2013-03-14 | 2016-02-25 | Honda Motor Co., Ltd. | 3-dimensional (3-d) navigation |
US10215583B2 (en) * | 2013-03-15 | 2019-02-26 | Honda Motor Co., Ltd. | Multi-level navigation monitoring and control |
US20140362195A1 (en) * | 2013-03-15 | 2014-12-11 | Honda Motor, Co., Ltd. | Enhanced 3-dimensional (3-d) navigation |
JP2014235596A (ja) * | 2013-06-03 | 2014-12-15 | 任天堂株式会社 | 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法 |
US9736467B2 (en) * | 2013-08-05 | 2017-08-15 | Samsung Display Co., Ltd. | Apparatus and method for adjusting stereoscopic images in response to head roll |
JP6346614B2 (ja) * | 2013-09-13 | 2018-06-20 | マクセル株式会社 | 情報表示システム |
US10318100B2 (en) * | 2013-10-16 | 2019-06-11 | Atheer, Inc. | Method and apparatus for addressing obstruction in an interface |
US9613459B2 (en) * | 2013-12-19 | 2017-04-04 | Honda Motor Co., Ltd. | System and method for in-vehicle interaction |
GB2523555B (en) * | 2014-02-26 | 2020-03-25 | Sony Interactive Entertainment Europe Ltd | Image encoding and display |
GB2523740B (en) * | 2014-02-26 | 2020-10-14 | Sony Interactive Entertainment Inc | Image encoding and display |
JP6374676B2 (ja) * | 2014-03-10 | 2018-08-15 | 矢崎総業株式会社 | 車両用発光表示装置及び車両用表示システム |
DE102014009299A1 (de) * | 2014-06-26 | 2015-12-31 | Audi Ag | Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille |
KR102420313B1 (ko) * | 2014-06-30 | 2022-07-13 | 소니그룹주식회사 | 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 그리고 화상 처리 시스템 |
GB2532954A (en) * | 2014-12-02 | 2016-06-08 | Ibm | Display control system for an augmented reality display system |
EP3238133A4 (en) * | 2014-12-22 | 2018-09-05 | Novasight Ltd. | System and method for improved display |
US9753294B2 (en) * | 2015-02-09 | 2017-09-05 | Leslie C. Hardison | Eyewear system, apparatus and method for stereoscopically viewing motion pictures |
US9652035B2 (en) * | 2015-02-23 | 2017-05-16 | International Business Machines Corporation | Interfacing via heads-up display using eye contact |
JP6411244B2 (ja) * | 2015-03-05 | 2018-10-24 | 日本電信電話株式会社 | 映像提示方法及び映像提示装置 |
WO2016157523A1 (ja) * | 2015-04-03 | 2016-10-06 | 株式会社SR laboratories | 表示端末ならびに情報記録媒体 |
JP6110893B2 (ja) * | 2015-06-12 | 2017-04-05 | 株式会社コロプラ | 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 |
JP6486474B2 (ja) * | 2015-08-03 | 2019-03-20 | 三菱電機株式会社 | 表示制御装置、表示装置及び表示制御方法 |
JP5961736B1 (ja) * | 2015-08-17 | 2016-08-02 | 株式会社コロプラ | ヘッドマウントディスプレイシステムを制御する方法、および、プログラム |
US10717406B2 (en) * | 2015-10-26 | 2020-07-21 | Active Knowledge Ltd. | Autonomous vehicle having an external shock-absorbing energy dissipation padding |
US11332061B2 (en) * | 2015-10-26 | 2022-05-17 | Atnomity Ltd. | Unmanned carrier for carrying urban manned vehicles |
WO2017090298A1 (ja) * | 2015-11-26 | 2017-06-01 | 株式会社コロプラ | 仮想空間内オブジェクトへの動作指示方法、及びプログラム |
WO2017096509A1 (zh) * | 2015-12-07 | 2017-06-15 | 华为技术有限公司 | 一种显示、处理的方法及相关装置 |
US9924238B2 (en) * | 2016-03-21 | 2018-03-20 | Screenovate Technologies Ltd. | Method and a system for using a computerized source device within the virtual environment of a head mounted device |
US9726896B2 (en) * | 2016-04-21 | 2017-08-08 | Maximilian Ralph Peter von und zu Liechtenstein | Virtual monitor display technique for augmented reality environments |
US10539797B2 (en) * | 2016-05-06 | 2020-01-21 | Colopl, Inc. | Method of providing virtual space, program therefor, and recording medium |
WO2017213070A1 (ja) * | 2016-06-07 | 2017-12-14 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
US10366536B2 (en) * | 2016-06-28 | 2019-07-30 | Microsoft Technology Licensing, Llc | Infinite far-field depth perception for near-field objects in virtual environments |
CN109983755A (zh) * | 2016-06-30 | 2019-07-05 | 北方公司 | 基于眼睛跟踪自动聚焦的图像捕获系统、设备和方法 |
JP6714791B2 (ja) * | 2016-07-13 | 2020-07-01 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
US10248196B2 (en) * | 2016-08-23 | 2019-04-02 | Toyota Jidosha Kabushiki Kaisha | System for occlusion adjustment for in-vehicle augmented reality systems |
AU2017314940B2 (en) * | 2016-08-26 | 2021-09-23 | Magic Leap, Inc. | Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods |
US10976545B2 (en) * | 2016-09-01 | 2021-04-13 | Mitsubishi Electric Corporation | Display device and adjustment method |
JP6620079B2 (ja) * | 2016-09-08 | 2019-12-11 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理システム、画像処理方法およびコンピュータプログラム |
KR20180028796A (ko) * | 2016-09-09 | 2018-03-19 | 삼성전자주식회사 | 이미지 표시 방법, 저장 매체 및 전자 장치 |
JP6373920B2 (ja) * | 2016-09-14 | 2018-08-15 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
US11032535B2 (en) * | 2016-09-19 | 2021-06-08 | Verizon Patent And Licensing Inc. | Generating a three-dimensional preview of a three-dimensional video |
US11032536B2 (en) * | 2016-09-19 | 2021-06-08 | Verizon Patent And Licensing Inc. | Generating a three-dimensional preview from a two-dimensional selectable icon of a three-dimensional reality video |
US10681341B2 (en) * | 2016-09-19 | 2020-06-09 | Verizon Patent And Licensing Inc. | Using a sphere to reorient a location of a user in a three-dimensional virtual reality video |
GB2558193B (en) * | 2016-09-23 | 2022-07-20 | Displaylink Uk Ltd | Compositing an image for display |
US20180095542A1 (en) * | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Object Holder for Virtual Reality Interaction |
US20180096507A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180095636A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180095618A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US10757400B2 (en) * | 2016-11-10 | 2020-08-25 | Manor Financial, Inc. | Near eye wavefront emulating display |
US11249544B2 (en) * | 2016-11-21 | 2022-02-15 | TeleLingo | Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness |
US10107950B2 (en) * | 2016-12-06 | 2018-10-23 | Facebook Technologies, Llc | Flexible light combiner backlight used in a head mounted display |
ES2753131T3 (es) * | 2016-12-27 | 2020-04-07 | Volkswagen Ag | Sistema de asistencia al conductor, producto de programa informático, secuencia de señales, medio de transporte y procedimiento para la información de un usuario de un medio de transporte |
JP6606791B2 (ja) * | 2017-01-12 | 2019-11-20 | 株式会社コナミデジタルエンタテインメント | ゲーム装置及びプログラム |
CN114326128A (zh) * | 2017-02-21 | 2022-04-12 | 脸谱科技有限责任公司 | 聚焦调整多平面头戴式显示器 |
US10354153B2 (en) * | 2017-03-02 | 2019-07-16 | Ricoh Company, Ltd. | Display controller, display control method, and recording medium storing program |
JP2018151851A (ja) * | 2017-03-13 | 2018-09-27 | セイコーエプソン株式会社 | 透過型表示装置、表示制御方法、およびコンピュータープログラム |
IL251189A0 (en) * | 2017-03-15 | 2017-06-29 | Ophir Yoav | Gradual transition between two-dimensional and three-dimensional augmented reality simulations |
WO2018167966A1 (ja) * | 2017-03-17 | 2018-09-20 | マクセル株式会社 | Ar表示装置及びar表示方法 |
US10388077B2 (en) * | 2017-04-25 | 2019-08-20 | Microsoft Technology Licensing, Llc | Three-dimensional environment authoring and generation |
EP3404620A1 (en) * | 2017-05-15 | 2018-11-21 | Ecole Nationale de l'Aviation Civile | Selective display in an environment defined by a data set |
JPWO2018216355A1 (ja) * | 2017-05-24 | 2020-05-21 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6298561B1 (ja) * | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
US20180373325A1 (en) * | 2017-06-22 | 2018-12-27 | Immersion Corporation | Haptic dimensions in a variable gaze orientation virtual environment |
US10636193B1 (en) * | 2017-06-29 | 2020-04-28 | Facebook Technologies, Llc | Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display |
EP3422149B1 (en) * | 2017-06-30 | 2023-03-01 | Nokia Technologies Oy | Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality |
WO2019012817A1 (ja) * | 2017-07-14 | 2019-01-17 | ソニー株式会社 | 画像処理装置、画像処理装置の画像処理方法、プログラム |
US20210264679A1 (en) * | 2017-07-25 | 2021-08-26 | Facebook Technologies, Llc | Smart sensor |
JP6419916B1 (ja) * | 2017-09-04 | 2018-11-07 | 株式会社コロプラ | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 |
EP3454174B1 (en) * | 2017-09-08 | 2023-11-15 | Nokia Technologies Oy | Methods, apparatus, systems, computer programs for enabling mediated reality |
CN107554430B (zh) * | 2017-09-20 | 2020-01-17 | 京东方科技集团股份有限公司 | 车辆盲区可视化方法、装置、终端、系统及车辆 |
GB2566744B (en) * | 2017-09-26 | 2021-03-03 | Sony Interactive Entertainment Inc | Head-mountable display system |
US10506217B2 (en) * | 2017-10-09 | 2019-12-10 | Facebook Technologies, Llc | Head-mounted display tracking system |
WO2019084325A1 (en) * | 2017-10-27 | 2019-05-02 | Magic Leap, Inc. | VIRTUAL RETICLE FOR INCREASED REALITY SYSTEMS |
US10805530B2 (en) * | 2017-10-30 | 2020-10-13 | Rylo, Inc. | Image processing for 360-degree camera |
US10612912B1 (en) * | 2017-10-31 | 2020-04-07 | Facebook Technologies, Llc | Tileable structured light projection system |
JP6958630B2 (ja) * | 2017-11-17 | 2021-11-02 | 株式会社アイシン | 車両運転補助システム、車両運転補助方法、及び車両運転補助プログラム |
US11126848B2 (en) * | 2017-11-20 | 2021-09-21 | Rakuten Group, Inc. | Information processing device, information processing method, and information processing program |
EP3486749B1 (en) * | 2017-11-20 | 2022-05-11 | Nokia Technologies Oy | Provision of virtual reality content |
IL255955B (en) * | 2017-11-27 | 2019-06-30 | Elbit Systems Ltd | System and method for displaying synthetic information on a transparent device |
EP3724855A4 (en) * | 2017-12-14 | 2022-01-12 | Magic Leap, Inc. | CONTEXT-BASED REPRESENTATION OF VIRTUAL AVATARS |
GB2569574B (en) * | 2017-12-20 | 2021-10-06 | Sony Interactive Entertainment Inc | Head-mountable apparatus and methods |
EP3502839A1 (en) * | 2017-12-22 | 2019-06-26 | Nokia Technologies Oy | Methods, apparatus, systems, computer programs for enabling mediated reality |
US10696226B2 (en) * | 2017-12-27 | 2020-06-30 | Toyota Research Institute, Inc. | Vehicles and methods for displaying objects located beyond a headlight illumination line |
US10546426B2 (en) * | 2018-01-05 | 2020-01-28 | Microsoft Technology Licensing, Llc | Real-world portals for virtual reality displays |
US10412527B1 (en) * | 2018-01-09 | 2019-09-10 | Facebook Technologies, Llc | Head-related transfer function determination using base stations |
EP3740847B1 (en) * | 2018-01-17 | 2024-03-13 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
US10380801B1 (en) * | 2018-02-07 | 2019-08-13 | Rockwell Collins, Inc. | Head wearable device, system, and method for displaying teamed asset information |
WO2019155916A1 (ja) * | 2018-02-09 | 2019-08-15 | 国立大学法人 福井大学 | 網膜走査型表示部を用いた画像表示装置およびその方法 |
WO2019163031A1 (ja) * | 2018-02-21 | 2019-08-29 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
GB2571956B (en) * | 2018-03-14 | 2022-04-27 | Sony Interactive Entertainment Inc | Head-mountable apparatus and methods |
US10878620B2 (en) * | 2018-03-14 | 2020-12-29 | Magic Leap, Inc. | Display systems and methods for clipping content to increase viewing comfort |
US11186289B2 (en) * | 2018-03-30 | 2021-11-30 | Toyota Jidosha Kabushiki Kaisha | Concealment system for improved safe driving |
US11010646B2 (en) * | 2018-04-10 | 2021-05-18 | Facebook Technologies, Llc | Object tracking assisted with hand or eye tracking |
CN108499105B (zh) * | 2018-04-16 | 2022-02-25 | 腾讯科技(深圳)有限公司 | 在虚拟环境中进行视角调整的方法、装置及存储介质 |
US20190335166A1 (en) * | 2018-04-25 | 2019-10-31 | Imeve Inc. | Deriving 3d volumetric level of interest data for 3d scenes from viewer consumption data |
JP6878350B2 (ja) * | 2018-05-01 | 2021-05-26 | グリー株式会社 | ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置 |
US11595637B2 (en) * | 2018-05-14 | 2023-02-28 | Dell Products, L.P. | Systems and methods for using peripheral vision in virtual, augmented, and mixed reality (xR) applications |
US10901215B1 (en) * | 2018-05-16 | 2021-01-26 | Facebook Technologies, Llc | Systems and methods for providing a mobile artificial reality user with environmental awareness |
US10509467B1 (en) * | 2018-06-01 | 2019-12-17 | Facebook Technologies, Llc | Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display |
US11394949B2 (en) * | 2018-06-12 | 2022-07-19 | Disney Enterprises, Inc. | See-through operator awareness tool using synthesized viewpoints |
US10915162B2 (en) * | 2018-06-15 | 2021-02-09 | Facebook Technologies, Llc | Flexure based guidance system for varifocal head-mounted displays |
US10535199B1 (en) * | 2018-06-18 | 2020-01-14 | Facebook Technologies, Llc | Systems and methods for determining a safety boundary for a mobile artificial reality user |
EP3591503B1 (en) * | 2018-07-04 | 2021-04-28 | Nokia Technologies Oy | Rendering of mediated reality content |
US20200018976A1 (en) * | 2018-07-10 | 2020-01-16 | Ford Global Technologies, Llc | Passenger heads-up displays for vehicles |
US10746987B2 (en) * | 2018-07-12 | 2020-08-18 | Toyota Research Institute, Inc. | Vehicle systems and methods for redirecting a driver's gaze towards an object of interest |
US10469769B1 (en) * | 2018-07-30 | 2019-11-05 | International Business Machines Corporation | Augmented reality based driver assistance |
US10878781B2 (en) * | 2018-08-09 | 2020-12-29 | Chun-Ding HUANG | Image processing method and head-mounted display system |
US10970899B2 (en) * | 2018-10-23 | 2021-04-06 | International Business Machines Corporation | Augmented reality display for a vehicle |
US11244483B2 (en) * | 2018-10-31 | 2022-02-08 | Facebook Technologies, Llc | Systems and methods for modifying a safety boundary for virtual reality systems |
JP6557843B1 (ja) * | 2018-12-05 | 2019-08-14 | パナソニックIpマネジメント株式会社 | 車両の制御装置、制御システム、及び制御プログラム |
US11461942B2 (en) * | 2018-12-21 | 2022-10-04 | Koninklijke Kpn N.V. | Generating and signaling transition between panoramic images |
US10798292B1 (en) * | 2019-05-31 | 2020-10-06 | Microsoft Technology Licensing, Llc | Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction |
KR102454167B1 (ko) * | 2019-06-27 | 2022-10-14 | 한국전자통신연구원 | 가상 시점 영상 생성 방법 및 장치 |
JP2022549853A (ja) * | 2019-09-27 | 2022-11-29 | マジック リープ, インコーポレイテッド | 共有空間内の個々の視認 |
US11826103B2 (en) * | 2019-10-11 | 2023-11-28 | Microsoft Technology Licensing, Llc | Multi-laser eye tracking system |
US20210122388A1 (en) * | 2019-10-23 | 2021-04-29 | Ford Global Technologies, Llc | Vehicle display enhancement |
WO2021152906A1 (ja) * | 2020-01-28 | 2021-08-05 | 任天堂株式会社 | 画像処理システム、画像処理プログラム、および画像処理方法 |
GB2596541B (en) * | 2020-06-30 | 2023-09-13 | Sony Interactive Entertainment Inc | Video processing |
US20220065651A1 (en) * | 2020-08-28 | 2022-03-03 | Here Global B.V. | Method, apparatus, and system for generating virtual markers for journey activities |
US11630509B2 (en) * | 2020-12-11 | 2023-04-18 | Microsoft Technology Licensing, Llc | Determining user intent based on attention values |
US11954242B2 (en) * | 2021-01-04 | 2024-04-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
-
2019
- 2019-04-17 WO PCT/JP2019/016458 patent/WO2020213088A1/ja unknown
- 2019-04-17 US US17/041,039 patent/US11756259B2/en active Active
- 2019-04-17 JP JP2020506854A patent/JP6713591B1/ja active Active
- 2019-04-17 EP EP19909619.9A patent/EP3901919A4/en active Pending
- 2019-04-17 KR KR1020207013489A patent/KR102149732B1/ko active IP Right Grant
-
2020
- 2020-04-09 TW TW109111962A patent/TWI736214B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010114618A (ja) | 2008-11-06 | 2010-05-20 | Clarion Co Ltd | 車両周辺監視システム |
KR20180037299A (ko) * | 2015-09-18 | 2018-04-11 | 포브, 아이엔씨. | 영상 시스템 |
KR20190038296A (ko) * | 2017-09-29 | 2019-04-08 | 포브, 아이엔씨. | 화상 표시 시스템, 화상 표시 방법 및 화상 표시 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
EP3901919A1 (en) | 2021-10-27 |
TWI736214B (zh) | 2021-08-11 |
US11756259B2 (en) | 2023-09-12 |
EP3901919A4 (en) | 2022-06-08 |
JP6713591B1 (ja) | 2020-06-24 |
US20210248809A1 (en) | 2021-08-12 |
TW202042048A (zh) | 2020-11-16 |
WO2020213088A1 (ja) | 2020-10-22 |
JPWO2020213088A1 (ja) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10665206B2 (en) | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance | |
JP7052845B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN108307190B (zh) | 用于测试显示器的方法、装置和计算机可读介质 | |
TW201350912A (zh) | 資訊處理裝置,資訊處理系統及資訊處理方法 | |
WO2017169081A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6318470B2 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
EP3349095B1 (en) | Method, device, and terminal for displaying panoramic visual content | |
WO2016163183A1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
KR20170013737A (ko) | 헤드 마운트 디스플레이 장치 및 그 동작방법 | |
US10969579B2 (en) | Augmented reality glasses, method for determining a pose of augmented reality glasses, and transportation vehicle suitable for using the augmented reality glasses or the method | |
EP3333808A1 (en) | Information processing device | |
CN112384843A (zh) | 动态面板掩膜 | |
KR20150001425A (ko) | 헤드 마운트 디스플레이 장치 및 그 동작방법 | |
JP6348191B2 (ja) | 電子機器 | |
US9906710B2 (en) | Camera pan-tilt-zoom (PTZ) control apparatus | |
US10771707B2 (en) | Information processing device and information processing method | |
JP2021135776A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR102149732B1 (ko) | 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 | |
CN106293065A (zh) | 应用程序的控制方法及控制系统 | |
EP3718708A1 (en) | Operation guiding system | |
KR20190129982A (ko) | 전자기기 및 그 제어 방법 | |
JP2016076853A (ja) | 画像処理装置、画像処理方法、撮像装置 | |
KR20180055637A (ko) | 전자 장치 및 그의 제어 방법 | |
WO2019186622A1 (ja) | 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 | |
CN108140357B (zh) | 信息处理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |