KR20190096976A - 정보 처리 장치, 정보 처리 방법, 및 프로그램 - Google Patents

정보 처리 장치, 정보 처리 방법, 및 프로그램 Download PDF

Info

Publication number
KR20190096976A
KR20190096976A KR1020197014845A KR20197014845A KR20190096976A KR 20190096976 A KR20190096976 A KR 20190096976A KR 1020197014845 A KR1020197014845 A KR 1020197014845A KR 20197014845 A KR20197014845 A KR 20197014845A KR 20190096976 A KR20190096976 A KR 20190096976A
Authority
KR
South Korea
Prior art keywords
display
stereoscopic image
display surface
user
plane
Prior art date
Application number
KR1020197014845A
Other languages
English (en)
Other versions
KR102402381B1 (ko
Inventor
가즈키 요코야마
고지 아오야마
도모야 야노
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20190096976A publication Critical patent/KR20190096976A/ko
Application granted granted Critical
Publication of KR102402381B1 publication Critical patent/KR102402381B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/22
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

입체 화상을 관찰하는 유저의 부담을 억제하기 위한 정보 처리 장치, 정보 처리 방법, 및 프로그램을 제공한다. 그를 위해, 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록 상기 입체 화상을 표시시키는 표시 제어를 행한다.

Description

정보 처리 장치, 정보 처리 방법, 및 프로그램
본 개시는, 정보 처리 장치, 정보 처리 방법, 및 프로그램에 관한 것이다.
근년, 콘텐츠를 입체적으로 표시하는 것이 가능한 입체 화상 표시 장치가 점차 보급되고 있다. 입체 화상 표시 장치에서는, 예를 들어 디스플레이상에 우안용 화상 및 좌안용 화상을 수평 방향으로 어긋나게 하여 표시하고, 그 어긋남의 정도로 시차량을 조정하고, 이에 의해, 깊이 방향의 임의의 거리에 콘텐츠를 표시하는 것이 가능하다.
콘텐츠를 입체적으로 표시하는 방법으로서는, 전용 안경을 사용한 방식이 제안되어 왔지만, 근년에는, 전용 안경을 사용하지 않고 입체 화상을 보여주는 것이 가능한 나안 입체 화상 표시 장치가 제안되어 있다(예를 들어 하기 특허문헌 1 등).
일본 특허공개 제2015-012560호 공보
상기와 같은 나안 입체 화상 표시 장치에 있어서, 예를 들어 표시되는 콘텐츠가 유저(관찰자)와 동일한 공간에 존재하는 것처럼 느끼게 하기 위해서는, 시차량을 크게 하는 것이 바람직하다. 그러나, 큰 시차량으로 콘텐츠를 표시하면, 융상(融像)되기 어려워져서, 예를 들어 피로나 어지러움이 발생하기 쉬워지기 때문에, 유저에게 있어서 부담이 커질 우려가 있었다.
그래서, 본 개시에서는, 입체 화상을 관찰하는 유저의 부담을 억제하는 것이 가능한, 신규이면서도 개량된 정보 처리 장치, 정보 처리 방법, 및 프로그램을 제안한다.
본 개시에 의하면, 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록 상기 입체 화상을 표시시키는 표시 제어부를 구비하는 정보 처리 장치가 제공된다.
또한, 본 개시에 의하면, 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록, 프로세서가 상기 입체 화상을 표시시키는 것을 포함하는 정보 처리 방법이 제공된다.
또한, 본 개시에 의하면, 컴퓨터에, 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록, 상기 입체 화상을 표시시키는 기능을 실현시키기 위한, 프로그램이 제공된다.
이상 설명한 바와 같이 본 개시에 의하면, 입체 화상을 관찰하는 유저의 부담을 억제하는 것이 가능하다.
또한, 상기 효과는 반드시 한정적인 것은 아니며, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서에 개시된 어느 효과, 또는 본 명세서로부터 파악될 수 있는 다른 효과가 발휘되어도 된다.
도 1은, 입체 디스플레이에 의한 입체 표시의 일례를 나타내는 설명도이다.
도 2는, 입체 디스플레이에 의한 입체 표시의 다른 예를 나타내는 설명도이다.
도 3은, 입체 디스플레이에 의한 입체 표시의 다른 예를 나타내는 설명도이다.
도 4는, 본 개시의 일 실시 형태의 개요를 설명하기 위한 설명도이다.
도 5는, 상기 실시 형태에 따른 정보 처리 장치의 구성예를 나타내는 블록도이다.
도 6은, 상기 실시 형태에 따른 표시부(10)의 설치예를 나타내는 설명도이다.
도 7은, 상기 실시 형태에 따른 표시 제어부(58)가 표시시키는 입체 화상에 의해, 유저가 지각하는 입체감에 대하여 설명하기 위한 설명도이다.
도 8은, 상기 실시 형태에 따른 동작예를 나타내는 흐름도이다.
도 9는, 상기 실시 형태에 따른 표시 제어부(58)에 의한 표시 제어 처리를 설명하기 위한 설명도이다.
도 10은, 상기 실시 형태에 따른 표시 제어부(58)에 의한 표시 제어 처리를 설명하기 위한 설명도이다.
도 11은, 상기 실시 형태에 따른 변형예를 설명하기 위한 설명도이다.
도 12는, 상기 실시 형태에 따른 변형예를 설명하기 위한 설명도이다.
도 13은, 상기 실시 형태에 따른 변형예를 설명하기 위한 설명도이다.
도 14는, 상기 실시 형태에 따른 변형예를 설명하기 위한 설명도이다.
도 15는, 하드웨어 구성예를 나타내는 설명도이다.
이하에 첨부 도면을 참조하면서, 본 개시의 적합한 실시 형태에 대하여 상세히 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 번호를 부여함으로써 중복 설명을 생략한다.
또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를, 동일한 부호의 뒤에 서로 다른 알파벳을 붙여 구별하는 경우도 있다. 단, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소의 각각을 특별히 구별할 필요가 없는 경우, 동일 부호만을 붙인다.
또한, 설명은 이하의 순서로 행하기로 한다.
<<1. 개요>>
<<2. 구성>>
<<3. 동작>>
<<4. 변형예>>
<4-1. 변형예 1>
<4-2. 변형예 2>
<4-3. 변형예 3>
<<5. 하드웨어 구성예>>
<<6. 결론>>
<<1. 개요>>
근년, 전용 안경을 사용하지 않고 콘텐츠를 입체적으로 표시하는 것이 가능한 나안 입체 화상 표시 장치(이하, '나안 입체 디스플레이' 또는 단순히 '입체 디스플레이'라고도 칭함)가 제안되고 있다. 이와 같은 나안 입체 디스플레이는, 시인 각도마다 수평 방향으로 어긋나게 한 화상을 표시하는 것이 가능하며, 유저가 좌안과 우안으로 서로 다른 화상을 봄으로써, 콘텐츠가 입체적으로 관찰될 수 있다.
이와 같은 입체 표시에 있어서, 유저가 느끼는 입체감이나, 콘텐츠가 동일 공간에 존재하는 듯한 감각(이하, '공존감'이라고도 칭함)을 높이기 위해서는, 예를 들어 우안용 화상 및 좌안용 화상의 수평 방향의 어긋남에 의해 발생하는 시차량을 크게 하는 것이 바람직하다.
도 1 내지 도 3은, 입체 디스플레이에 의한 입체 표시의 일례를 나타내는 설명도이다. 도 1에 도시한 예에서는, 입체 디스플레이의 표시면(92)의 근방에 입체적인 오브젝트 O11(콘텐츠의 일례)이 표시되어 있다.
도 1에 도시한 예에서는, 유저는 비교적 자유로운 시점 위치로부터 관찰 가능하며, 예를 들어 유저가 시점 V11에서 관찰한 경우에는 시야 F11에 오브젝트 O11이 포함되고, 유저가 시점 V12에서 관찰한 경우에는 시야 F12에 오브젝트 O11이 포함된다. 그러나, 유저는 표시면(92)을 기준으로 오브젝트 O11의 깊이를 지각하기 때문에, 오브젝트 O11이 표시면(92)의 근방에 표시되는 도 1의 예에서는 충분한 입체감을 얻는 것이 곤란하다. 또한, 도 1에 도시한 예에서는, 오브젝트 O11의 전체가 표시면(92)의 근방에 존재하기 때문에, 입체 디스플레이로 표시되고 있다는 감각이 강하여, 충분한 공존감을 얻는 것도 곤란하다.
입체감이나 공존감을 높이기 위해서는, 예를 들어 표시면(92)의 바로 앞쪽이나 안쪽에 지각되도록 오브젝트를 배치하는 것이 생각된다. 도 2에 도시한 예에서는, 입체 디스플레이의 표시면(92)의 바로 앞쪽에 오브젝트 O21이 배치되고, 도 3에 도시한 예에서는, 입체 디스플레이의 표시면(92)의 안쪽에 오브젝트 O31이 배치되어 있다.
그러나, 도 2에 도시한 바와 같이 표시면(92)의 바로 앞쪽에 오브젝트를 배치하면, 도 1에 도시한 예에서 오브젝트가 크게 표시되기 때문에, 유저가 오브젝트 O21을 입체적으로 관찰 가능한 시점 위치가 도 1에 도시한 예보다도 제한되는 경우가 있다. 도 2에 도시한 예에서는, 유저가 시점 V21에서 관찰한 경우에는 시야 F21에 오브젝트 O21이 모두 포함되지만, 유저가 시점 V22에서 관찰한 경우에는 시야 F22에 오브젝트 O21의 일부가 포함되지 않는다. 그 때문에, 유저가 시점 V22에서 관찰한 경우, 소위 스티킹(sticking) 효과(프레임 효과)가 발생하여, 오브젝트 O21을 입체적으로 관찰하는 것이 곤란해질 우려가 있다.
또한, 도 2에 도시한 바와 같이 표시면(92)의 바로 앞쪽에 오브젝트를 배치하는 경우, 도 1에 도시한 예보다도 유저가 지각하는 시차량(양안 시차량)이 커지게 된다. 큰 시차량으로 콘텐츠를 관찰하면, 융상되기 어려워져서, 피로나 어지러움이 발생하기 쉬워지기 때문에, 유저에게 있어서 부담이 커질 우려가 있었다.
또한, 도 3에 도시한 바와 같이 표시면(92)의 안쪽에 오브젝트를 배치하면, 유저는 표시면(92)의 안쪽에 존재하는 상자 안에 오브젝트 O31이 존재하는 것처럼 지각한다. 그 때문에, 유저의 시야가 제한되고(좁아지고), 유저가 오브젝트 O31을 입체적으로 관찰 가능한 시점 위치가 도 1에 도시한 예보다도 제한되는 경우가 있다. 도 3에 도시한 예에서는, 유저가 시점 V31에서 관찰한 경우에는 시야 F31에 오브젝트 O31이 모두 포함되지만, 유저가 시점 V32에서 관찰한 경우에는 시야 F32에 오브젝트 O31의 일부가 포함되지 않는다. 여기서, 유저의 시야는 시야 F32와 시야 F33을 맞춘 범위인데도 불구하고, 표시면(92)의 안쪽에 오브젝트 O31이 표시됨으로써, 유저가 콘텐츠를 관찰하기 위한 시야가 시야 F32로 제한되어 있다.
또한, 도 3에 도시한 바와 같이 표시면(92)의 안쪽에 오브젝트를 배치한 경우에도, 도 2에 도시한 예와 마찬가지로 유저가 지각하는 시차량이 커지기 때문에, 유저에게 있어서 부담이 커질 우려가 있었다.
그래서, 상기 사정을 일 착안점으로 하여 본 개시의 일 실시 형태를 만들어내기에 이르렀다. 본 실시 형태에 따르면, 입체 화상을 관찰하는 유저의 부담을 억제하면서, 보다 넓은 범위에서 유저가 입체적으로 관찰하는 것이 가능하다. 도 4는, 본 실시 형태의 개요를 설명하기 위한 설명도이다.
도 1 내지 도 3에 도시한 예에서는, 입체 디스플레이의 표시면(92)이 실공간에 있어서의 수평면에 대해서 수직이 되도록 입체 디스플레이가 설치되어 있다. 한편, 도 4에 도시한 예에서는, 입체 디스플레이의 표시면(12)이 실공간에 있어서의 수평면에 대해서, 비스듬히(비수직이) 되도록 입체 디스플레이가 설치된다. 또한, 도 4에 도시한 예에서는, 오브젝트 O1(입체 오브젝트)이, 수평면에 대해서 바로 서면서, 표시면(12)과 교차하도록 배치된다.
이러한 구성에 의해, 유저에게 표시면을 느끼게 하지 않고, 오브젝트 O1이 유저와 동일한 공간에 존재하는 듯한 공존감을 부여하는 것이 가능하다. 또한, 도 2, 도 3에 도시한 예보다도 시차량을 억제하면서도, 후술하는 바와 같이, 바닥면이나 벽면을 배치함으로써, 충분한 입체감을 부여하는 것이 가능하며, 유저에게 지우는 부담을 억제하는 것이 가능하다. 또한, 도 4에 도시한 바와 같이, 유저가 시점 V1에서 관찰한 경우에는 시야 F1에 오브젝트 O1이 포함되고, 유저가 시점 V2에서 관찰한 경우에는 시야 F2에 오브젝트 O1이 포함되기 때문에, 유저는 보다 넓은 시점 위치로부터 관찰 가능하다.
이하, 이와 같은 효과를 갖는 본 실시 형태에 따른 구성, 및 동작에 대하여 순차적으로 상세히 설명한다.
<<2. 구성>>
이상, 본 개시의 일 실시 형태의 개요에 대하여 설명하였다. 계속해서, 본 실시 형태에 따른 구성에 대하여 설명한다. 도 5는, 본 실시 형태에 따른 정보 처리 장치(1)의 구성예를 나타내는 블록도이다.
도 5에 도시한 바와 같이 본 실시 형태에 따른 정보 처리 장치(1)는, 표시부(10), 표시면 검출부(20), 유저 검출부(30), 기억부(40), 및 제어부(50)를 구비한다.
표시부(10)는, 후술하는 제어부(50)의 제어에 따라서, 입체 화상을 표시하는 디스플레이이다. 예를 들어, 표시부(10)는 나안 입체 디스플레이(나안 입체 화상 표시 장치)여도 된다. 표시부(10)에 있어서, 입체 화상이 표시되는 면이 표시면(12)이다.
도 4를 참조하여 설명한 바와 같이, 본 실시 형태에 따른 표시부(10)는 표시면(12)이 실공간에 있어서의 수평면에 대해서 비스듬히(비수직이) 되도록 설치될 수 있다. 도 6은, 본 실시 형태에 따른 표시부(10)의 설치예를 나타내는 설명도이다. 또한, 도 6에는 도시되지 않았지만, 표시부(10)는 표시면(12)을 지지하는 기구(하우징)를 가져도 된다.
도 6에 도시한 바와 같이, 표시면(12)의 하단(122)부터 표시면(12)의 상단(124)까지의 거리를 L1이라 한다. 또한, 표시면(12)의 하단(122)과, 표시면(12)의 상단(124)을 각각 대각변으로 하는 공간이, 후술하는 제어부(50)에 의해 묘화 공간 B10으로서 설정된다. 여기서, 묘화 공간 B10의 저면 B12는 실공간에 대해서 수평한 면(실공간에 있어서의 수평면)이다. 또한, 저면 B12는, 표시부(10)의 설치면과 대략 동일한 면인 것이 바람직하다.
도 6에 도시한 바와 같이, 표시부(10)는, 실공간의 수평면(저면 B12)과 표시면(12)이 0°보다 크고, 90°보다 작은 각도 θ1을 갖도록 배치된다. 배치의 방법은 특별히 한정되지 않고, 표시부(10)의 형상에 의해 이러한 배치가 실현되어도 되고, 표시부(10)와는 다른 기구(스탠드 등)에 의해 표시부(10)가 지지됨으로써, 이러한 배치가 실현되어도 된다.
도 5에 도시한 표시면 검출부(20)는, 표시면(12)의 자세를 검출하여, 제어부(50)에 제공한다. 여기서, 표시면 검출부(20)가 검출하는 표시면(12)의 자세는, 예를 들어 실공간에 있어서의 수평면과 표시면(12)이 이루는 각도(도 6에 도시한 각도 θ1)여도 된다.
표시면 검출부(20)는, 예를 들어 표시면(12)과 소정의 관계에 있는 가속도 센서, 자이로 센서, 자기 센서 중 어느 것, 또는 상기 조합에 의해 실현되어도 된다.
유저 검출부(30)는, 입체 화상을 관찰하는 유저에 관한 정보를 검출하여, 제어부(50)에 제공한다. 유저 검출부(30)는, 유저의 위치 및 자세를 검출해도 되고, 유저의 위치 및 자세는, 예를 들어 표시면(12)에 대한 상대적인 위치 및 자세여도 된다. 또한, 유저의 위치는, 유저의 눈의 위치여도 되고, 유저의 좌안의 위치 및 유저의 우안의 위치여도 된다. 또한, 유저의 자세는 유저의 얼굴의 방향이어도 되고, 유저의 좌안 및 우안의 시선 방향이어도 된다.
유저 검출부(30)는, 예를 들어 카메라, 뎁스 카메라, 인체 감지 센서 중 어느 것, 또는 상기 조합에 의해 실현되어도 된다.
기억부(40)는, 정보 처리 장치(1)의 각 구성이 기능하기 위한 프로그램이나 파라미터를 기억한다. 또한, 기억부(40)는, 콘텐츠의 데이터를 기억하고 있어도 된다. 기억부(40)가 기억하는 콘텐츠의 데이터는, 예를 들어 입체 오브젝트(3D 화상)나, 평면 오브젝트(2D 화상), 음성 등의 데이터를 포함해도 된다. 또한, 기억부(40)는, 표시면에 관한 정보를 포함해도 되며, 표시면에 관한 정보는, 예를 들어 표시면의 하단으로부터 상단까지의 거리(도 6에 도시한 거리 L1)의 정보를 포함해도 된다.
제어부(50)는, 정보 처리 장치(1)의 각 구성을 제어한다. 또한, 제어부(50)는, 도 5에 도시한 바와 같이 표시면 정보 취득부(52), 유저 정보 취득부(54), 콘텐츠 취득부(56), 및 표시 제어부(58)로서도 기능한다.
표시면 정보 취득부(52)는, 표시면(12)에 관한 표시면 정보를 취득한다. 예를 들어 표시면 정보 취득부(52)는, 표시면 정보로서, 실공간에 있어서의 수평면과 표시면(12)이 이루는 각도(표시면(12)의 자세)의 정보를 표시면 검출부(20)로부터 취득해도 된다. 또한, 표시면 정보 취득부(52)는, 표시면 정보로서, 표시면의 하단으로부터 상단까지의 거리의 정보를 기억부(40)로부터 취득해도 된다. 표시면 정보 취득부(52)는, 취득한 표시면 정보를 표시 제어부(58)로 제공한다.
유저 정보 취득부(54)는, 유저에 관한 유저 정보를 취득한다. 예를 들어, 유저 정보 취득부(54)는, 유저 정보로서, 유저의 위치(유저의 좌안의 위치, 및 유저의 우안의 위치), 및 자세의 정보를 유저 검출부(30)로부터 취득한다.
또한, 유저 정보 취득부(54)는, 유저 검출부(30)로부터 유저의 위치 및 자세의 정보를 직접적으로 취득해도 되고, 간접적으로 취득해도 된다. 예를 들어, 유저 검출부(30)가 표시면(12)의 관찰 방향을 향한 카메라인 경우, 유저 정보 취득부(54)는, 유저 검출부(30)로부터 제공되는 화상에 기초하여 유저 정보를 특정하고, 간접적으로 취득해도 된다. 유저 정보 취득부(54)는, 취득한 유저 정보를 표시 제어부(58)로 제공한다.
콘텐츠 취득부(56)는, 표시에 관한 콘텐츠의 데이터를 취득한다. 예를 들어, 콘텐츠 취득부(56)는, 기억부(40)에 기억된 콘텐츠의 데이터를 판독하여 취득한다. 콘텐츠 취득부(56)는, 취득한 콘텐츠의 데이터를 표시 제어부(58)로 제공한다.
표시 제어부(58)는, 표시면 정보 취득부(52)로부터 제공되는 표시면 정보, 유저 정보 취득부(54)로부터 제공되는 유저 정보, 및 콘텐츠 취득부(56)로부터 제공되는 콘텐츠의 데이터에 기초하여, 표시부(10)의 표시를 제어한다.
표시 제어부(58)는, 도 6을 참조하여 설명한 묘화 공간을 유저의 위치(좌안, 및 우안의 위치)에 따라서 렌더링하고, 유저의 위치에 따라서 정사영을 행함으로써 입체 화상(좌안용 화상, 및 우안용 화상)을 생성하고, 표시부(10)의 표시면(12)에 표시시켜도 된다. 이러한 구성에 의해, 표시 제어부(58)는, 표시부(10)가 표시 가능한 모든 시점(시인 각도)의 화상을 생성하지 않아도 되며, 2시점분의 화상만을 생성하면 되기 때문에, 처리량이 억제될 수 있다. 또한, 이러한 유저의 위치에 따른 입체 화상의 생성의 상세에 대해서는, 도 10을 참조하여 후술한다.
예를 들어, 표시 제어부(58)는, 표시면(12)의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 표시면(12)이 이루는 각도에 따른 영역에, 수평면과 평행한 바닥면(제1 평면)이 관찰되도록, 입체 화상을 표시부(10)의 표시면(12)에 표시시켜도 된다.
또한, 표시 제어부(58)는, 표시면의 상단과 접하고, 상기 바닥면에 수직(즉 수평면에 수직)인 뒷벽면(제2 평면)이 관찰되도록 입체 화상을 표시부(10)의 표시면(12)에 표시시켜도 된다.
또한, 표시 제어부(58)는, 바닥면 상에 배치되는 입체 오브젝트가 관찰되도록 입체 화상을 표시부(10)의 표시면(12)에 표시시켜도 된다.
도 7은, 표시 제어부(58)가 표시시키는 입체 화상에 의해, 유저가 지각하는 입체감에 대하여 설명하기 위한 설명도이다.
도 7에 도시한 바와 같이, 수평면과 평행한 바닥면 P1이 관찰된다. 도 7에 도시한 바와 같이, 바닥면 P1은, 표시면(12)의 하단과 접하도록 배치되는 것이 바람직하다. 또한, 도 7에 도시한 바와 같이, 바닥면 P1에 수직인 뒷벽면 P2는, 표시면(12)의 상단에 접하도록 배치되는 것이 바람직하다. 이러한 구성에 의해, 표시면(12)의 하단, 및 상단에 표시되는 화상의 양안 시차와 운동 시차가 작아지도록(예를 들어 0이 되도록) 묘화하는 것이 가능해진다. 상술한 바와 같이, 표시 제어부(58)는 유저의 위치에 따라서 입체 화상을 생성하기 때문에, 유저의 위치의 검출 오차나 레이턴시(지연)가 발생할 우려가 있다. 그러나, 표시면(12)의 하단, 및 상단에 있어서 양안 시차와 운동 시차가 작아지도록 묘화함으로써, 검출 오차나 레이턴시가 발생한 경우라도, 표시면(12)의 하단, 및 상단의 근방에서 변동이 발생하기 어려워져서, 유저는 콘텐츠 전체의 위치가 움직이는(어긋나는) 것처럼 느끼기 어려워진다.
또한, 상기와 같이 바닥면 P1 및 뒷벽면 P2가 배치되는 경우, 바닥면 P1의 깊이 방향의 길이 L11, 및 뒷벽면 P2의 높이 L12는, 도 6에 도시한 거리 L1, 및 각도 θ1을 사용하여, 다음 식 (1), (2)로 표시할 수 있다.
Figure pct00001
이러한 구성에 의해, 바닥면 P1 및 뒷벽면 P2가 관찰되는 영역은, 표시면(12)의 실제의 물리적인 길이와 배치에 따른 영역으로 되기 때문에, 유저는 바닥면, 및 뒷벽면으로서 인식(융상)되기 쉬워진다. 그 결과, 유저는 묘화되는 공간(묘화 공간)을 용이하게 인식하는 것이 가능하게 되어, 입체적인 관찰에 관한 부담이 억제된다.
또한, 도 7에 도시한 바와 같이 바닥면 P1 위에 배치되는 입체 오브젝트 O2는, 표시면(12)과 교차하도록 배치되는 것이 바람직하다. 이러한 구성에 의해, 유저는, 도 7에 도시한 바와 같은 깊이 방향(끌려들어가는 방향)의 거리 D1, 및 튀어나오는 방향(앞쪽 방향)의 거리 D2에 따른 시차를 지각하고, 깊이 방향과 튀어나오는 방향의 양쪽의 입체감을 얻는 것이 가능해진다. 그 결과, 도 2, 도 3에 도시한 예와 비교하여, 보다 작은 시차량으로 충분한 입체감을 얻는 것이 가능해진다.
또한, 유저는, 상술한 바와 같이 하여 인식한 바닥면 P1과 뒷벽면 P2를 기준으로 하여 입체 오브젝트 O2의 위치나 형상을 지각하는 것이 가능하게 되어, 보다 높은 공존감을 얻는 것이 가능해진다.
표시 제어부(58)가 표시시키는 콘텐츠는 상기 예에 한정되지는 않는다. 예를 들어, 표시 제어부(58)는, 표시면의 좌단, 또는 우단과 접하고, 바닥면에 수직(즉 수평면에 수직)인 측벽면(제3 평면)이 관찰되도록 입체 화상을 표시부(10)의 표시면(12)에 표시시켜도 된다. 이러한 구성에 의해, 표시면(12)의 좌단, 및 우단에 표시되는 화상의 양안 시차와 운동 시차가 작아지도록(예를 들어 0이 되도록) 묘화하는 것이 가능해진다.
<<3. 동작>>
이상, 본 실시 형태의 구성예에 대하여 설명하였다. 계속해서, 도 8 내지 도 10을 참조하여 본 실시 형태의 동작예에 대하여 설명한다. 도 8은, 본 실시 형태의 동작예를 나타내는 흐름도이다. 또한, 도 9, 도 10은, 본 실시 형태의 표시 제어부(58)에 의한 표시 제어 처리를 설명하기 위한 설명도이다.
도 8에 도시한 바와 같이, 우선 표시면 정보 취득부(52)가, 표시면(12)에 관한 표시면 정보(실공간에 있어서의 수평면과 표시면(12)이 이루는 각도, 및 표시면의 하단으로부터 상단까지의 거리)를 취득한다(S102).
계속해서, 표시 제어부(58)가, 표시면 정보에 기초하여, 묘화 공간을 설정한다(S104). 예를 들어, 표시 제어부(58)는, 도 9에 도시한 바와 같이, 표시면(12)의 상단과 하단을 대각변으로 하는 묘화 공간 B10을 설정해도 된다.
계속해서, 표시 제어부(58)는, 바닥면, 벽면(뒷벽면, 측벽면), 및 입체 오브젝트를 묘화 공간에 배치한다(S106). 예를 들어, 표시 제어부(58)는, 도 9에 도시한 바와 같이, 묘화 공간 중, 표시면(12)의 안쪽에, 바닥면 P1, 뒷벽면 P2, 측벽면 P3(P3a, P3b), 및 입체 오브젝트 O3을 배치한다.
계속해서, 유저 정보 취득부(54)가, 유저 정보로서, 유저의 좌안과 우안의 위치, 및 유저의 자세를 취득한다(S108).
표시 제어부(58)는, 도 10에 도시한 바와 같이, 유저의 눈의 위치를 가상 시점으로서 가상 카메라 Vc를 가상적으로 설치하고, 도 9를 참조하여 설명한 묘화 공간의 렌더링을 행하여 당해 가상 시점에서의 시점 화상을 취득한다(S110). 표시 제어부(58)는, 유저의 자세(얼굴의 방향, 또는 시선 방향)에 기초하여 가상 카메라의 방향을 설정해도 되고, 가상 카메라가 표시면(12)을 향하도록 가상 카메라의 방향을 설정해도 된다.
계속해서, 표시 제어부(58)는, 가상 카메라 Vc와 동일한 위치, 방향으로 가상 프로젝터 Vpj를 가상적으로 배치하고, 가상 프로젝터 Vpj로부터, 표시면(12)에 가상적으로 설치한 가상 디스플레이면 Vd 상에, 스텝 S110에서 취득한 시점 화상을 투영한다(S112). 여기서, 가상 프로젝터 Vpj는, 가상 카메라 Vc와 동일한 파라미터(예를 들어 초점 거리 파라미터, 왜곡 파라미터 등)로 시점 화상을 투영해도 된다.
계속해서, 스텝 S112에서 가상 디스플레이면 Vd 상에 투영되어 생성된 화상을 정사영하여, 표시 화상 R1을 취득한다(S114). 표시 화상 R1은, 현재의 시점 위치(유저의 눈의 위치) 이외에서 보면 왜곡된 화상으로 되지만, 현재의 시점 위치에서 보면 정상적인 화상으로서 지각된다.
또한, 도 10에서는 1시점분의 처리밖에 나타내지 않았지만, 표시 제어부(58)는, 좌안, 및 우안의 2시점분의 시점에 있어서 상기 처리를 행하여, 좌안용 표시 화상, 및 우안용 표시 화상을 취득한다. 그리고, 표시 제어부(58)는, 좌안용 표시 화상, 및 우안용 표시 화상의 조합이, 입체 화상으로서 유저에게 지각되도록, 표시면(12)에 표시시킨다(S116).
상기 스텝 S108 내지 S116의 처리는, 도 8에 도시한 바와 같이 반복해서 행해져도 된다.
또한, 도 8에 도시한 흐름도는 일례로서, 본 실시 형태의 동작은 이러한 예에 한정되지는 않는다. 예를 들어, 스텝 S102 내지 S116의 처리 전체가 반복해서 행해져도 되며, 이러한 경우에는 수평면과 표시면(12)이 이루는 각도의 변화에 따라서, 표시 제어부(58)가 표시 제어를 행하는 것이 가능하다.
<<4. 변형예>>
이상, 본 개시의 일 실시 형태를 설명하였다. 이하에서는, 본 개시의 일 실시 형태의 몇 가지 변형예를 설명한다. 또한, 이하에 설명하는 각 변형예는, 단독으로 본 개시의 실시 형태에 적용되어도 되고, 조합으로 본 개시의 실시 형태에 적용되어도 된다. 또한, 각 변형예는, 본 개시의 실시 형태에서 설명한 구성 대신에 적용되어도 되고, 본 개시의 실시 형태에서 설명한 구성에 대해서 추가적으로 적용되어도 된다.
<4-1. 변형예 1>
상기 실시 형태에서 설명한 콘텐츠는 일례로서, 본 기술은 이러한 예에 한정되지는 않는다. 표시 제어부(58)는, 다양한 콘텐츠를 표시시켜도 된다.
예를 들어, 표시 제어부(58)는, 입체 오브젝트에 따른 그림자나 반사 등의 음영이 부가되도록 입체 화상을 표시시켜도 된다. 이러한 때, 표시 제어부(58)는, 실공간에 있어서의 광원에 관한 정보(광원의 위치, 자세, 강도, 색 등)에 기초하여, 음영이 부가된 입체 화상을 표시시켜도 된다. 광원에 관한 정보는, 예를 들어 유저 검출부(30)에 포함되는 카메라나, 광원을 취득하기 위해서 천장 방향을 향한 다른 카메라 등에 의해 취득되는 촬상 화상에 기초하여, 취득되어도 된다. 이러한 구성에 의해, 입체감이나 공존감을 보다 향상시키는 것이 가능하다.
또한, 예를 들어 표시 제어부(58)는, 표시면(12)의 상단에 접하여 바닥면에 수직인 제2 평면이 경면으로서 관찰되도록, 입체 화상을 표시시켜도 된다. 도 11은, 제2 평면이 경면으로서 관찰되도록 입체 화상이 표시된 경우의 유저가 시인하는 1시점분의 화상의 일례이다.
도 11에 도시한 바와 같이, 표시면(12)에는, 입체 오브젝트 O51의 거울상 O61, 바닥면 P51의 거울상 P61, 및 바닥면 P51에 부가된 입체 오브젝트 O51의 그림자 오브젝트 O52의 거울상 O62가 표시된다. 표시 제어부(58)가, 유저의 우안과 좌안의 위치, 및 자세에 기초하여, 유저의 시점에서 본 투영을 재현하여 경면(제2 평면)에 묘화함으로써, 상기 거울상 O61, 거울상 P61, 거울상 O62가, 거울상으로서 유저에게 인식된다. 이러한 구성에 의해, 공존감을 더 높이는 것이 가능하다.
또한, 표시 제어부(58)는, 표시면(12)의 관찰 방향(표시면(12)을 관찰하는 유저가 존재하는 측)을 향한 카메라(예를 들어 유저 검출부(30))에 의해 취득되는 촬상 화상 중 적어도 일부가, 경면에 포함되도록 입체 화상을 표시시켜도 된다. 예를 들어, 표시 제어부(58)는, 당해 촬상 화상이, 재현되는 투영의 안쪽에 관찰되도록 입체 화상을 표시시켜도 된다. 이러한 구성에 의해, 경면에 유저가 존재하는 실공간이나, 유저의 모습 등이 거울상으로서 지각되기 때문에, 콘텐츠의 일부가 유저 자신과 당해 거울상의 사이에 있다는 감각을 유저에게 부여하여, 공존감을 더 높이는 것이 가능하다.
<4-2. 변형예 2>
상기 실시 형태에서는, 표시 제어부(58)의 기능에 의해, 입체 화상을 관찰하는 유저의 부담을 억제하는 방식에 대하여 설명하였다. 표시부(10)가 입체 화상의 관찰에 있어서 입체 화상과의 비교 기준으로 되고, 실물체인 비교 기준부를 가짐으로써, 유저의 부담이 더 억제되어도 된다. 도 12 내지 도 14는, 입체 화상과의 비교 기준으로 되는 비교 기준부의 일례를 나타내는 설명도이다.
도 12에 도시한 표시부(10-2)가 갖는 비교 기준부(14)와 같이, 비교 기준부는 표시면(12)의 하단에 접하고, 묘화 공간 B10의 저면 B12와 연속하는 불투명한 판이어도 된다. 또한, 도 13에 도시한 표시부(10-3)가 갖는 비교 기준부(16a, 16b)와 같이, 비교 기준부는, 묘화 공간 B10의 좌우 면을 따른 프레임이어도 된다. 또한, 도 14에 도시한 표시부(10-4)가 갖는 비교 기준부(18)와 같이, 비교 기준부는, 묘화 공간 B10의 상면을 따른 투명한 판이어도 된다.
이러한 구성에 의해, 유저는, 비교 기준부를 입체 화상의 비교 기준으로서 관찰하는 것이 가능하며, 융상이 촉진되고, 또한 입체감이 향상된다. 또한, 입체 화상을 관찰할 때, 유저의 시야에 입체시의 실마리(비교 기준부)와 입체 화상이 동시에 포함되기 쉬워짐으로써, 어지러움의 저감으로 이어질 수 있다. 그 때문에, 입체 화상을 관찰하는 유저의 부담이 보다 억제될 수 있다. 또한, 상술한 바와 같이 비교 기준부가 묘화 공간 B10의 면과 연속되거나, 또는 묘화 공간 B10의 면을 따라 배치됨으로써, 도 7, 도 9를 참조하여 설명한 바닥면 P1이나 벽면 P2, P3 등과 실물체인 비교 기준부가 연속되는 것처럼 유저는 지각한다. 그 결과, 유저는 콘텐츠와 실공간의 연속성을 지각하는 것이 가능하여, 공존감이 보다 향상된다.
또한, 도 12 내지 도 14에 도시한 불투명한 판, 프레임, 및 투명한 판은, 비교 기준부의 일례이며, 도 12 내지 도 14를 참조하여 설명한 위치에 불투명한 판, 프레임, 및 투명한 판 중 어느 하나가 배치되어도 된다. 또한, 표시부(10)는, 도 12 내지 도 14를 참조하여 설명한 비교 기준부를 조합해서 가져도 된다.
또한, 상기에서는, 비교 기준부가 묘화 공간 B10의 면과 연속되거나, 또는 묘화 공간 B10의 면을 따라서 배치되는 예를 설명하였지만, 이러한 예에 한정되지 않고, 표시부(10)의 형상 등에 따라서, 근사적인 위치(근방)에 배치되어도 된다.
<4-3. 변형예 3>
상기 실시 형태에서는, 수평면과 평행한 제1 평면이, 표시면(12)의 하단과 접하는 바닥면인 예를 설명하였지만, 본 기술은 이러한 예에 한정되지는 않는다. 예를 들어, 제1 평면은 표시면(12)의 상단과 접하는 면(이하, '천장면'이라 칭하는 경우가 있음)이어도 된다.
또한, 제1 평면이 표시면(12)의 상단과 접하는 천장면인 경우, 표시 제어부(58)는, 표시면(12)의 하단과 접하고, 천장면에 수직인 뒷벽면(제2 평면)이 관찰되도록 입체 화상을 표시부(10)의 표시면(12)에 표시시켜도 된다.
상기와 같은 표시 제어는, 표시부(10)가 유저의 시점(유저의 눈의 위치)보다도 상부에 설치되는 경우에 행해지는 것이 바람직하다. 예를 들어, 본 기술이 차량 탑재기나 의료용 표시 장치 등에 적용된 경우에, 이러한 설치가 행해지는 것이 생각된다.
또한, 표시 제어부(58)는, 상단과 접하는 천장면 또는 하단과 접하는 바닥면 중, 어느 쪽을 제1 평면으로서 배치할지 판정을 행하고, 당해 판정의 결과에 따라서 제1 평면을 배치해도 된다. 예를 들어, 이러한 판정은, 표시면 정보 취득부(52)로부터 제공되는 표시면 정보와, 유저 정보 취득부(54)로부터 제공되는 유저 정보 중 어느 한쪽, 또는 양쪽에 기초하여 행해져도 된다.
이러한 구성에 의하면, 예를 들어 표시부(10)가 유저의 시점보다도 상부에 설치된 경우라도, 유저는 묘화되는 공간을 용이하게 인식하는 것이 가능하게 되어, 입체적인 관찰에 관한 부담이 억제된다.
<<5. 하드웨어 구성예>>
이상, 본 개시의 실시 형태를 설명하였다. 마지막으로, 도 15를 참조하여, 본 실시 형태에 따른 정보 처리 장치의 하드웨어 구성에 대하여 설명한다. 도 15는, 본 실시 형태에 따른 정보 처리 장치의 하드웨어 구성의 일례를 나타내는 블록도이다. 또한, 도 15에 도시한 정보 처리 장치(900)는, 예를 들어 도 5에 도시한 정보 처리 장치(1)를 실현할 수 있다. 본 실시 형태에 따른 정보 처리 장치(1)에 의한 정보 처리는, 소프트웨어와, 이하에 설명하는 하드웨어의 협동에 의해 실현된다.
도 15에 도시한 바와 같이, 정보 처리 장치(900)는, CPU(Central Processing Unit)(901), ROM(Read Only Memory)(902), RAM(Random Access Memory)(903) 및 호스트 버스(904a)를 구비한다. 또한, 정보 처리 장치(900)는, 브리지(904), 외부 버스(904b), 인터페이스(905), 입력 장치(906), 출력 장치(907), 스토리지 장치(908), 드라이브(909), 접속 포트(911), 통신 장치(913), 및 센서(915)를 구비한다. 정보 처리 장치(900)는, CPU(901)를 대신하여, 또는 이와 함께, DSP 혹은 ASIC 등의 처리 회로를 가져도 된다.
CPU(901)는, 연산 처리 장치 및 제어 장치로서 기능하고, 각종 프로그램에 따라서 정보 처리 장치(900) 내의 동작 전반을 제어한다. 또한, CPU(901)는, 마이크로프로세서여도 된다. ROM(902)은, CPU(901)가 사용하는 프로그램이나 연산 파라미터 등을 기억한다. RAM(903)은, CPU(901)의 실행에 있어서 사용하는 프로그램이나, 그 실행에 있어서 적절히 변화하는 파라미터 등을 일시 기억한다. CPU(901)는, 예를 들어 제어부(50)를 형성할 수 있다.
CPU(901), ROM(902) 및 RAM(903)은, CPU 버스 등을 포함하는 호스트 버스(904a)에 의해 서로 접속되어 있다. 호스트 버스(904a)는, 브리지(904)를 통해 PCI(Peripheral Component Interconnect/Interface) 버스 등의 외부 버스(904b)에 접속되어 있다. 또한, 반드시 호스트 버스(904a), 브리지(904) 및 외부 버스(904b)를 분리 구성할 필요는 없으며, 하나의 버스에 이들 기능을 실장해도 된다.
입력 장치(906)는, 예를 들어 마우스, 키보드, 터치 패널, 버튼, 마이크로폰, 스위치 및 레버 등, 유저에 의해 정보가 입력되는 장치에 의해 실현된다. 또한, 입력 장치(906)는, 예를 들어 적외선이나 그 밖의 전파를 이용한 리모트 컨트롤 장치여도 되고, 정보 처리 장치(900)의 조작에 대응한 휴대 전화나 PDA 등의 외부 접속 기기여도 된다. 또한, 입력 장치(906)는, 예를 들어 상기 입력 수단을 이용하여 유저에 의해 입력된 정보에 기초하여 입력 신호를 생성하고, CPU(901)로 출력하는 입력 제어 회로 등을 포함하고 있어도 된다. 정보 처리 장치(900)의 유저는, 이 입력 장치(906)를 조작함으로써, 정보 처리 장치(900)에 대해서 각종 데이터를 입력하거나 처리 동작을 지시하거나 할 수 있다.
출력 장치(907)는, 취득한 정보를 유저에 대해서 시각적 또는 청각적으로 통지하는 것이 가능한 장치로 형성된다. 이러한 장치로서, CRT 디스플레이 장치, 액정 디스플레이 장치, 플라즈마 디스플레이 장치, EL 디스플레이 장치 및 램프 등의 표시 장치나, 스피커 및 헤드폰 등의 음성 출력 장치나, 프린터 장치 등이 있다. 출력 장치(907)는, 예를 들어 정보 처리 장치(900)가 행한 각종 처리에 의해 얻어진 결과를 출력한다. 구체적으로는, 표시 장치는, 정보 처리 장치(900)가 행한 각종 처리에 의해 얻어진 결과를, 텍스트, 이미지, 표, 그래프 등, 다양한 형식으로 시각적으로 표시한다. 한편, 음성 출력 장치는, 재생된 음성 데이터나 음향 데이터 등을 포함하는 오디오 신호를 아날로그 신호로 변환하여 청각적으로 출력한다. 출력 장치(907)는, 예를 들어 표시부(10)를 형성할 수 있다.
스토리지 장치(908)는, 정보 처리 장치(900)의 기억부의 일례로서 형성된 데이터 저장용 장치이다. 스토리지 장치(908)는, 예를 들어 HDD 등의 자기 기억부 디바이스, 반도체 기억 디바이스, 광 기억 디바이스 또는 광자기 기억 디바이스 등에 의해 실현된다. 스토리지 장치(908)는, 기억 매체, 기억 매체에 데이터를 기록하는 기록 장치, 기억 매체로부터 데이터를 판독하는 판독 장치 및 기억 매체에 기록된 데이터를 삭제하는 삭제 장치 등을 포함해도 된다. 이 스토리지 장치(908)는, CPU(901)가 실행하는 프로그램이나 각종 데이터 및 외부로부터 취득한 각종 데이터 등을 저장한다. 상기 스토리지 장치(908)는, 예를 들어 기억부(40)를 형성할 수 있다.
드라이브(909)는, 기억 매체용 리더 라이터이며, 정보 처리 장치(900)에 내장, 혹은 외장된다. 드라이브(909)는, 장착되어 있는 자기디스크, 광디스크, 광자기디스크, 또는 반도체 메모리 등의 리무버블 기억 매체에 기록되어 있는 정보를 판독하여, RAM(903)으로 출력한다. 또한, 드라이브(909)는, 리무버블 기억 매체에 정보를 기입할 수도 있다.
접속 포트(911)는, 외부 기기와 접속되는 인터페이스로서, 예를 들어 USB(Universal Serial Bus) 등에 의해 데이터 전송 가능한 외부 기기와의 접속구이다.
통신 장치(913)는, 예를 들어 네트워크(920)에 접속하기 위한 통신 디바이스 등으로 형성된 통신 인터페이스이다. 통신 장치(913)는, 예를 들어 유선 혹은 무선 LAN(Local Area Network), LTE(Long Term Evolution), Bluetooth(등록상표) 또는 WUSB(Wireless USB)용 통신 카드 등이다. 또한, 통신 장치(913)는, 광통신용 라우터, ADSL(Asymmetric Digital Subscriber Line)용 라우터 또는 각종 통신용 모뎀 등이어도 된다. 이 통신 장치(913)는, 예를 들어 인터넷이나 다른 통신 기기와의 사이에서, 예를 들어 TCP/IP 등의 소정의 프로토콜에 의거하여 신호 등을 송수신할 수 있다.
센서(915)는, 예를 들어 가속도 센서, 자이로 센서, 지자기 센서, 광 센서, 소리 센서, 측거 센서, 힘 센서 등의 각종 센서이다. 센서(915)는, 정보 처리 장치(900)의 자세, 이동 속도 등, 정보 처리 장치(900) 자신의 상태에 관한 정보나, 정보 처리 장치(900)의 주변의 밝기나 소음 등, 정보 처리 장치(900)의 주변 환경에 관한 정보를 취득한다. 또한, 센서(915)는, GPS 신호를 수신하여 장치의 위도, 경도 및 고도를 측정하는 GPS 센서를 포함해도 된다. 센서(915)는, 예를 들어 표시면 검출부(20), 유저 검출부(30)를 형성할 수 있다.
또한, 네트워크(920)는, 네트워크(920)에 접속되어 있는 장치로부터 송신되는 정보의 유선, 또는 무선의 전송로이다. 예를 들어, 네트워크(920)는, 인터넷, 전화 회선망, 위성 통신망 등의 공중 회선망이나, Ethernet(등록상표)을 포함하는 각종 LAN(Local Area Network), WAN(Wide Area Network) 등을 포함해도 된다. 또한, 네트워크(920)는, IP-VPN(Internet Protocol-Virtual Private Network) 등의 전용 회선망을 포함해도 된다.
이상, 본 실시 형태에 따른 정보 처리 장치(900)의 기능을 실현 가능한 하드웨어 구성의 일례를 나타내었다. 상기 각 구성 요소는, 범용적인 부재를 사용해서 실현되고 있어도 되고, 각 구성 요소의 기능에 특화한 하드웨어에 의해 실현되고 있어도 된다. 따라서, 본 실시 형태를 실시할 때의 기술 레벨에 따라서, 적절히 이용하는 하드웨어 구성을 변경하는 것이 가능하다.
또한, 상술한 바와 같은 본 실시 형태에 따른 정보 처리 장치(900)의 각 기능을 실현하기 위한 컴퓨터 프로그램을 제작하고, PC 등에 실장하는 것이 가능하다. 또한, 이러한 컴퓨터 프로그램이 저장된, 컴퓨터로 판독 가능한 기록 매체도 제공할 수 있다. 기록 매체는, 예를 들어 자기디스크, 광디스크, 광자기디스크, 플래시 메모리 등이다. 또한, 상기 컴퓨터 프로그램은, 기록 매체를 사용하지 않고, 예를 들어 네트워크를 통해 배신되어도 된다.
<<6. 결론>>
이상 설명한 바와 같이, 본 개시의 실시 형태에 따르면, 입체 화상을 관찰하는 유저의 부담을 억제하면서, 보다 넓은 범위에서 유저가 입체적으로 관찰하는 것이 가능하다.
이상, 첨부 도면을 참조하면서 본 개시의 적합한 실시 형태에 대하여 상세히 설명하였지만, 본 개시의 기술적 범위는 이러한 예에 한정되지는 않는다. 본 개시의 기술 분야에 있어서의 통상의 지식을 갖는 사람이라면, 청구범위에 기재된 기술적 사상의 범주 내에서, 각종 변경예 또는 수정예에 상도할 수 있음은 명확하며, 이들에 대해서도, 당연히 본 개시의 기술적 범위에 속하는 것이라고 이해된다.
예를 들어, 상기 실시 형태에서는, 표시부(10)와 제어부(50)가 동일한 장치에 포함되는 예를 설명하였지만, 본 기술은 이러한 예에 한정되지는 않는다. 예를 들어, 표시부(10)와 제어부(50)와는 다른 장치에 포함되어도 된다. 또한, 제어부(50)의 일부의 기능이 각각의 다른 장치에 구비되어도 된다.
또한, 상기 실시 형태에서는, 콘텐츠의 데이터가 기억부(40)에 기억되는 예를 설명하였지만, 본 기술은 이러한 예에 한정되지는 않으며, 예를 들어 콘텐츠 취득부(56)는, 도시하지 않은 통신부를 통해 다른 장치로부터 콘텐츠의 데이터를 취득해도 된다.
또한, 상기 실시 형태에서는, 도 6 등에 도시한 바와 같이 표시면(12)이 직사각형의 평면인 예를 설명하였지만, 본 기술은 이러한 예에 한정되지는 않는다. 예를 들어, 표시면(12)은 만곡한 면이어도 되고, 원형 또는 타원형 등이어도 된다. 또한, 표시 제어부(58)는, 표시면(12)의 형상에 따라서 묘화 공간을 설정해도 되고, 예를 들어 표시면(12)이 원형인 경우, 설정되는 묘화 공간은 구형이어도 된다.
또한, 상기 실시 형태에서는, 표시 제어부(58)가 유저의 좌안, 및 우안의 위치에 따라서 입체 화상을 표시시키는 예에 대하여 도 10을 참조하여 설명하였지만, 본 기술은 이러한 예에 한정되지는 않는다. 예를 들어, 표시 제어부(58)는, 표시부(10)가 표시 가능한 모든 시점에 따른 화상을 생성함으로써, 입체 화상을 표시시켜도 된다. 이러한 경우, 정보 처리 장치(1)는, 유저 검출부(30), 및 유저 정보 취득부(54)의 기능을 갖고 있지 않아도 된다.
또한, 본 명세서에 기재된 효과는, 어디까지나 설명적 또는 예시적인 것이지 한정적이지는 않다. 즉, 본 개시에 따른 기술은, 상기 효과와 함께 또는 상기 효과 대신에, 본 명세서의 기재로부터 당업자에게는 명확한 다른 효과를 발휘할 수 있다.
또한, 이하와 같은 구성도 본 개시의 기술적 범위에 속한다.
(1)
표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록 상기 입체 화상을 표시시키는 표시 제어부를 구비하는 정보 처리 장치.
(2)
상기 제1 평면은, 상기 표시면의 상기 상단 또는 상기 하단과 접하는, 상기 (1)에 기재된 정보 처리 장치.
(3)
상기 제1 평면은, 상기 하단과 접하고,
상기 표시 제어부는, 상기 표시면의 상기 상단과 접하고, 상기 제1 평면에 수직인 제2 평면이 관찰되도록 상기 입체 화상을 표시시키는, 상기 (2)에 기재된 정보 처리 장치.
(4)
상기 제1 평면은, 상기 상단과 접하고,
상기 표시 제어부는, 상기 표시면의 상기 하단과 접하고, 상기 제1 평면에 수직인 제2 평면이 관찰되도록 상기 입체 화상을 표시시키는, 상기 (2)에 기재된 정보 처리 장치.
(5)
상기 표시 제어부는, 상기 제2 평면이 경면으로서 관찰되도록 상기 입체 화상을 표시시키는, 상기 (3) 또는 (4)에 기재된 정보 처리 장치.
(6)
상기 표시 제어부는, 상기 표시면의 관찰 방향을 향한 카메라에 의해 취득되는 촬상 화상 중 적어도 일부가 상기 경면에 포함되도록 상기 입체 화상을 표시시키는, 상기 (5)에 기재된 정보 처리 장치.
(7)
상기 표시 제어부는, 상기 표시면의 좌단 또는 우단과 접하고, 상기 제1 평면에 수직인 제3 평면이 관찰되도록 상기 입체 화상을 표시시키는, 상기 (1) 내지 (6) 중 어느 한 항에 기재된 정보 처리 장치.
(8)
상기 표시 제어부는, 상기 입체 화상을 관찰하는 유저의 위치에 기초하여, 상기 입체 화상을 표시시키는, 상기 (1) 내지 (7) 중 어느 한 항에 기재된 정보 처리 장치.
(9)
상기 표시 제어부는, 상기 제1 평면상에 배치되는 입체 오브젝트가 관찰되도록 상기 입체 화상을 표시시키는, 상기 (1) 내지 (8) 중 어느 한 항에 기재된 정보 처리 장치.
(10)
상기 표시 제어부는, 상기 표시면과 교차하는 입체 오브젝트가 관찰되도록 상기 입체 화상을 표시시키는, 상기 (1) 내지 (9) 중 어느 한 항에 기재된 정보 처리 장치.
(11)
상기 표시 제어부는, 상기 실공간에 있어서의 광원에 관한 정보에 기초하여 상기 입체 화상을 표시시키는, 상기 (1) 내지 (10) 중 어느 한 항에 기재된 정보 처리 장치.
(12)
상기 정보 처리 장치는, 상기 표시부를 구비하고,
상기 표시부는, 상기 입체 화상의 관찰에 있어서 상기 입체 화상과의 비교 기준으로 되는 비교 기준부를 갖는, 상기 (1) 내지 (11) 중 어느 한 항에 기재된 정보 처리 장치.
(13)
표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록, 프로세서가 상기 입체 화상을 표시시키는 것을 포함하는 정보 처리 방법.
(14)
컴퓨터에, 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록, 상기 입체 화상을 표시시키는 기능을 실현시키기 위한 프로그램.
1: 정보 처리 장치
10: 표시부
12: 표시면
20: 표시면 검출부
30: 유저 검출부
40: 기억부
50: 제어부
52: 표시면 정보 취득부
54: 유저 정보 취득부
56: 콘텐츠 취득부
58: 표시 제어부

Claims (14)

  1. 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록 상기 입체 화상을 표시시키는 표시 제어부를 구비하는 정보 처리 장치.
  2. 제1항에 있어서,
    상기 제1 평면은, 상기 표시면의 상기 상단 또는 상기 하단과 접하는 정보 처리 장치.
  3. 제2항에 있어서,
    상기 제1 평면은, 상기 하단과 접하고,
    상기 표시 제어부는, 상기 표시면의 상기 상단과 접하고, 상기 제1 평면에 수직인 제2 평면이 관찰되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  4. 제2항에 있어서,
    상기 제1 평면은, 상기 상단과 접하고,
    상기 표시 제어부는, 상기 표시면의 상기 하단과 접하고, 상기 제1 평면에 수직인 제2 평면이 관찰되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  5. 제3항에 있어서,
    상기 표시 제어부는, 상기 제2 평면이 경면으로서 관찰되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  6. 제5항에 있어서,
    상기 표시 제어부는, 상기 표시면의 관찰 방향을 향한 카메라에 의해 취득되는 촬상 화상 중 적어도 일부가 상기 경면에 포함되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  7. 제1항에 있어서,
    상기 표시 제어부는, 상기 표시면의 좌단 또는 우단과 접하고, 상기 제1 평면에 수직인 제3 평면이 관찰되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  8. 제1항에 있어서,
    상기 표시 제어부는, 상기 입체 화상을 관찰하는 유저의 위치에 기초하여, 상기 입체 화상을 표시시키는 정보 처리 장치.
  9. 제1항에 있어서,
    상기 표시 제어부는, 상기 제1 평면상에 배치되는 입체 오브젝트가 관찰되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  10. 제1항에 있어서,
    상기 표시 제어부는, 상기 표시면과 교차하는 입체 오브젝트가 관찰되도록 상기 입체 화상을 표시시키는 정보 처리 장치.
  11. 제1항에 있어서,
    상기 표시 제어부는, 상기 실공간에 있어서의 광원에 관한 정보에 기초하여 상기 입체 화상을 표시시키는 정보 처리 장치.
  12. 제1항에 있어서,
    상기 정보 처리 장치는, 상기 표시부를 구비하고,
    상기 표시부는, 상기 입체 화상의 관찰에 있어서 상기 입체 화상과의 비교 기준으로 되는 비교 기준부를 갖는 정보 처리 장치.
  13. 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록, 프로세서가 상기 입체 화상을 표시시키는 것을 포함하는 정보 처리 방법.
  14. 컴퓨터에, 표시부가 입체 화상을 표시하는 표시면의 하단으로부터 상단까지의 거리, 및 실공간에 있어서의 수평면과 상기 표시면이 이루는 각도에 따른 영역에, 상기 수평면과 평행한 제1 평면이 관찰되도록, 상기 입체 화상을 표시시키는 기능을 실현시키기 위한 프로그램.
KR1020197014845A 2016-12-19 2017-10-06 정보 처리 장치, 정보 처리 방법, 및 프로그램 KR102402381B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016245396 2016-12-19
JPJP-P-2016-245396 2016-12-19
PCT/JP2017/036485 WO2018116580A1 (ja) 2016-12-19 2017-10-06 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
KR20190096976A true KR20190096976A (ko) 2019-08-20
KR102402381B1 KR102402381B1 (ko) 2022-05-27

Family

ID=62626239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197014845A KR102402381B1 (ko) 2016-12-19 2017-10-06 정보 처리 장치, 정보 처리 방법, 및 프로그램

Country Status (6)

Country Link
US (2) US11106050B2 (ko)
EP (1) EP3550833A4 (ko)
JP (1) JP7099326B2 (ko)
KR (1) KR102402381B1 (ko)
CN (1) CN110073660B (ko)
WO (1) WO2018116580A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD1009879S1 (en) 2019-07-31 2024-01-02 Sony Corporation Combined display support and display with three dimensional graphical user interface
US20230007232A1 (en) 2019-12-18 2023-01-05 Sony Group Corporation Information processing device and information processing method
CN114746800A (zh) * 2019-12-27 2022-07-12 索尼集团公司 信息处理装置、信息处理系统和构件
JPWO2022230247A1 (ko) * 2021-04-27 2022-11-03
JPWO2022239297A1 (ko) * 2021-05-11 2022-11-17

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211453A (ja) * 2005-01-31 2006-08-10 Univ Waseda 立体映像呈示装置
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
JP2015012560A (ja) 2013-07-02 2015-01-19 ソニー株式会社 表示処理装置、表示装置および画像処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334145A (ja) * 2003-05-06 2004-11-25 Hideaki Miyashita 画面を立体に構成して空間を表示する方法
JP4033859B2 (ja) * 2004-12-28 2008-01-16 独立行政法人科学技術振興機構 立体画像表示方法
US8299980B2 (en) * 2007-08-22 2012-10-30 Pioneer Corporation Image display device
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP2012194756A (ja) * 2011-03-16 2012-10-11 Mitsubishi Electric Corp 表示装置及びナビゲーション装置
JP2013098840A (ja) * 2011-11-02 2013-05-20 Sony Corp 情報処理装置、表示制御方法およびプログラム
JP2013237320A (ja) 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp 違和感軽減表示装置およびその表示制御方法
US9753293B2 (en) * 2014-03-20 2017-09-05 Tronxyz Technology Co., Ltd. Three-dimensional (3D) display apparatus and system comprising a two-dimensional (2D) display terminal, light-splitting device, and transflective device
CN105049827B (zh) * 2015-08-13 2017-04-05 深圳市华星光电技术有限公司 裸眼3d成像方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211453A (ja) * 2005-01-31 2006-08-10 Univ Waseda 立体映像呈示装置
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
JP2015012560A (ja) 2013-07-02 2015-01-19 ソニー株式会社 表示処理装置、表示装置および画像処理方法

Also Published As

Publication number Publication date
WO2018116580A1 (ja) 2018-06-28
US20210364815A1 (en) 2021-11-25
EP3550833A1 (en) 2019-10-09
US11106050B2 (en) 2021-08-31
US20200073135A1 (en) 2020-03-05
EP3550833A4 (en) 2020-06-10
KR102402381B1 (ko) 2022-05-27
CN110073660A (zh) 2019-07-30
CN110073660B (zh) 2021-08-24
US11924402B2 (en) 2024-03-05
JPWO2018116580A1 (ja) 2019-11-07
JP7099326B2 (ja) 2022-07-12

Similar Documents

Publication Publication Date Title
KR102402381B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN107683497B (zh) 信息处理设备、信息处理方法及程序
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
TWI657431B (zh) 動態顯示系統
KR20140129010A (ko) 모바일 디스플레이 디바이스
CN111034190B (zh) 信息处理设备、信息处理方法和程序
JP2013098840A (ja) 情報処理装置、表示制御方法およびプログラム
JP2012142804A (ja) 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
CN102799378B (zh) 一种立体碰撞检测物体拾取方法及装置
US11589001B2 (en) Information processing apparatus, information processing method, and program
US11317082B2 (en) Information processing apparatus and information processing method
WO2019150668A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6467039B2 (ja) 情報処理装置
US10834382B2 (en) Information processing apparatus, information processing method, and program
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
KR101779423B1 (ko) 영상처리방법 및 영상처리장치
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP2017078890A (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant