JP5824537B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP5824537B2
JP5824537B2 JP2014006217A JP2014006217A JP5824537B2 JP 5824537 B2 JP5824537 B2 JP 5824537B2 JP 2014006217 A JP2014006217 A JP 2014006217A JP 2014006217 A JP2014006217 A JP 2014006217A JP 5824537 B2 JP5824537 B2 JP 5824537B2
Authority
JP
Japan
Prior art keywords
cross
section
angle range
instruction
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014006217A
Other languages
English (en)
Other versions
JP2015135573A (ja
Inventor
太郎 上松
太郎 上松
靖己 田中
靖己 田中
努 中原
努 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014006217A priority Critical patent/JP5824537B2/ja
Priority to US14/584,032 priority patent/US9607439B2/en
Priority to GB1500628.1A priority patent/GB2524144A/en
Priority to DE102015100540.9A priority patent/DE102015100540A1/de
Priority to CN201510023416.XA priority patent/CN104794757A/zh
Priority to KR1020150007732A priority patent/KR20150085797A/ko
Publication of JP2015135573A publication Critical patent/JP2015135573A/ja
Application granted granted Critical
Publication of JP5824537B2 publication Critical patent/JP5824537B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • G01B7/003Measuring arrangements characterised by the use of electric or magnetic techniques for measuring position, not involving coordinate determination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/58Wireless transmission of information between a sensor or probe and a control or evaluation unit
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想空間に配される三次元仮想物体に対する操作を支援する技術に関するものである。
従来、製造設計分野では、三次元CADシステムが用いられており、構成部品やその部品の断面を立体的に表示しながら設計を行うことが可能になっている。たとえば、断面を観察する際には、基準となる断面平面の位置と方向を設定(以下、断面操作と呼ぶ)し、CAD画面上の操作で、部品の断面の位置を変更し観察する技術が知られている。
また、頭部装着型表示装置(HMD:ヘッドマウントディスプレイ)を用い、仮想現実空間で三次元CADシステムを用いて設計を行なう仮想現実感(VR:Virtual Reality)システムも研究されている(特許文献1)。更に、HMDを用いて、現実空間と仮想空間とを結合する複合現実感(MR:Mixed Reality)システムの利用が提案されている(特許文献2)。そして、HMDを装着し、現実空間を歩き回りながら仮想物体を観察する環境下において、マウスやキーボードの代わりにゲームコントローラのように手等に把持して操作する操作装置も使用されている。
特開2012−53631号公報 特開2010−66898号公報
しかしながら、VRやMRで表示中の断面操作は、ゲームコントローラのあらかじめ決められたボタンで断面を操作しているため、観察者の視線方向が所定の方向と異なるとき、断面の操作方向が、見ている方向と逆になるため、直感的に操作できない場合がある。
たとえば、空間を規定する座標系の原点及び3軸(X軸、Y軸、Z軸)により定義される座標系で断面を操作する場合を考える。そして、ゲームコントローラの上ボタンをプラスY方向の移動、下ボタンをマイナスY方向の移動に対応付け、XZ平面と平行な断面平面をY軸方向に操作するよう構成されているとする。この場合、XY平面上に観察者に立って、プラスY方向に視線を向けているとき、断面平面は、上ボタンがプラスY方向で奥方向へ動き、下ボタンがマイナスY方向で手前方向へ動く。この場合は、観察者の操作方向と移動方向とが一致するため違和感なく操作できる。一方、マイナスY方向に視線を向けているとき、断面平面は、上ボタンがプラスY方向で手前方向へ動き、下ボタンがマイナスY方向で奥方向へ動く。つまり、観察者の操作方向と逆になるため、観察者にとっては違和感をあり直感的に操作できない場合があった。また、断面方向が、観察者の方に向いていないときに、断面を確認することができない場合があった。
本発明は上述の問題点に鑑みなされたものであり、仮想空間に配される三次元仮想物体に対して違和感のない断面操作を可能とする技術を提供することを目的としている。
上述の問題点を解決するため、本発明に係る情報処理装置は以下の構成を備える。すなわち、情報処理装置は、第1の断面を有する三次元仮想物体を観察する観察者の視点位置を取得する取得手段と、前記第1の断面の向きと、前記視点位置とに基づいて、前記第1の断面が前記観察者のほうを向いているか否かを判定する判定手段と、前記判定手段により、前記第1の断面が前記観察者のほうを向いていないと判定された場合に、前記第1の断面の向きが反転された向きの第2の断面を有する三次元仮想物体の画像を出力する出力手段と、前記第2の断面を移動させるための指示をユーザから受け付ける操作手段と、を備え、前記出力手段は、前記操作手段による操作に基づいて、前記第2の断面の法線ベクトルの方向に沿って前記第2の断面を所定の距離移動させた状態の三次元仮想物体を出力し、前記取得手段は、更に、前記観察者の視線方向を取得し、前記操作手段は、少なくとも第1の方向の指示と該第1の方向と逆方向の第2の方向の指示とをユーザから受け付け可能に構成されており、前記出力手段は、前記視線方向と直交する前記ユーザの視線上方方向と前記第2の断面の法線ベクトルとのなす角αが第1の角度範囲内であった場合と、前記角αが該第1の角度範囲と異なる第2の角度範囲内であった場合とで、前記操作手段における前記第1の方向の指示に基づく移動方向と前記第2の方向の指示に基づく移動方向とが逆となるように、前記第2の断面を移動させた状態の三次元仮想物体を出力する
本発明によれば、仮想空間に配される三次元仮想物体に対して違和感のない断面操作を可能とする技術を提供することができる。
第1実施形態に係るシステムの全体構成を示すブロック図である。 第1実施形態に係るシステムの外観図である。 仮想物体の断面の切り取り方向(以下、断面方向と呼ぶ)と視点との関係を説明する図である。 ステップS8030の動作を説明する図である。 ステップS8080で上方向断面の動作を説明する図である。 ステップS8080で下方向断面の動作を説明する図である。 ステップS8080で横方向断面の動作を説明する図である。 第1実施形態に係る情報処理装置1040が行う処理のフローチャートである。 他の形態の操作装置を示す図である。 第2実施形態に係るシステムの全体構成を示すブロック図である。 第2実施形態に係る頭部装着型表示装置(HMD)の外観図である。 第2実施形態に係る情報処理装置10040が行う処理のフローチャートである。 第3実施形態に係るシステムの全体構成を示すブロック図である。 第3実施形態に係るシステムの外観図である。 第3実施形態に係る情報処理装置13040が行う処理のフローチャートである。 第4実施形態に係るシステムの全体構成を示すブロック図である。 第4実施形態に係るシステムの外観図である。 第4実施形態に係る情報処理装置16040が行う処理のフローチャートである。 ステップS18040の動作を説明する図である。
以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
本発明に係る表示制御装置の第1実施形態として、頭部装着型表示装置(HMD)を含む情報処理システムを例に挙げて以下に説明する。
<装置構成>
図1は、第1実施形態に係るシステムの全体構成を示すブロック図である。また、図2は、第1実施形態に係る情報処理システムの外観図である。上述の通り、情報処理システムは、位置姿勢計測部及び表示部を有する頭部装着型表示装置(HMD)が用いられている。なお、現実空間中の所定の位置には、磁界を発生する磁界発生装置2050が設けられている。この磁界発生装置2050の動作制御はセンサコントローラ2070が行う。
頭部装着型表示装置としてのHMD1010には、磁気センサである頭部位置姿勢計測部1020と1つの表示部1030を備えている。頭部位置姿勢計測部1020は、頭部位置姿勢計測部1020自身の位置姿勢(位置及び方向)に応じた磁界の変化を計測し、その計測結果をセンサコントローラ2070に対して送出する。センサコントローラ2070は、入力された計測結果に基づいて、センサ座標系2060における頭部位置姿勢計測部1020の位置姿勢を示す信号値を生成し、情報処理装置1040に送出する。ここで、センサ座標系2060(所定の座標系)とは、磁界発生装置2050の位置を原点とし、この原点で互いに直交する3軸をそれぞれ、X軸、Y軸、Z軸とする座標系である。
情報処理装置1040が有する視点位置姿勢算出部1050は、表示部1030へ表示する仮想空間の画像の仮想空間座標系2080における視点の位置姿勢を算出し、仮想情報管理部1060を更新する。ここで、仮想空間座標系2080とは、三次元仮想物体を配置する仮想空間を規定する座標系の原点及び3軸をそれぞれ、X軸、Y軸、Z軸とする座標系である。
なお、ここでは、位置姿勢の計測方法として磁気センサを用いた計測方法を採用している。ただし、位置姿勢の計測方法に依存するものではないため、光学式センサや超音波式センサなど、磁気センサ以外のセンサを用いる位置姿勢計測方法を採用しても良い。また、HMD1010に撮像装置を取り付け、撮像装置による撮像画像から撮像装置の位置姿勢を推定する方法を採用しても良い。また、複数の位置姿勢計測方法を組み合わせて利用しても良い。
仮想情報管理部1060は、視点位置姿勢算出部1050で算出した視点位置姿勢を保持する。さらに仮想物体2090と断面平面2040の情報を仮想記憶部1065から読み出す。ここで、仮想物体2090及び断面平面2040の位置情報は、仮想空間座標系2080における座標値である。
HMD1010を頭部に装着する観察者(操作者)は、手等に把持して操作する指示具としての操作部1160(例えばゲームコントローラ)を介して、仮想空間内の仮想物体2090及び断面平面2040の位置を制御する。ここでは、操作部1160は、少なくとも二軸方向(ここでは上下及び左右)を指示可能な十字キーとして構成される方向入力部1150を備えている。操作部1160は、方向入力部1150における入力を判別し、判別結果を情報処理装置1040に送出する。
操作方向取得部1090は、方向入力部1150が送出した入力方向を取得する。断面位置方向取得部1070は、仮想情報管理部1060から断面平面2040を取得し、断面平面2040の法線2100を算出する。
図3は、仮想物体の断面の法線方向(以下、断面方向と呼ぶ)と視点との関係を説明する図である。図3(a)は、仮想空間内において、断面方向3020が視点3025の方を向いていない状態を示している。図3(b)は、仮想空間内において、断面方向3030が視点3025の方を向いている状態を示している。図3(c)は、仮想空間内において、断面方向3020が視点3025の方を向いていない他の状態を示している。
断面方向調整部1080は、図3(a)に示すように、断面方向3020が視点3025の方を向いていない場合に、断面方向3020を反転し、図3(b)の断面方向3030のように、断面方向3030が視点3025の方を向くように変更し、仮想情報管理部1060を更新する。
断面操作方向決定部1100は、視点位置姿勢算出部1050が算出した視点の位置姿勢と断面位置方向取得部1070が取得した断面平面2040と法線2100から断面操作方向を決定する。断面位置変更部1110は、操作方向取得部1090が取得した入力方向が、断面操作方向決定部1100で決定した断面操作方向に一致する場合、断面平面2040を移動し、仮想情報管理部1060を更新する。
仮想画像生成部1120は、視点位置姿勢算出部1050が求めた位置姿勢を有する視点から見える仮想空間の画像を生成する。画像出力部1140は、仮想画像生成部1120から受けた仮想空間の画像を、HMD1010が有する表示部1030に対して出力する。これにより、HMD1010を頭部に装着している観察者の眼前には、自身の視点の位置姿勢に応じた仮想空間の画像が提示されることになる。
図9は、他の形態の操作装置を示す図である。図9では、表示部1030を有する操作部1160を把持して、表示部に映し出された仮想物体2090と断面平面2040を見ながら、方向入力部1150を操作する形態の操作装置を示している。
<装置の動作>
図8は、第1実施形態に係る情報処理装置1040が行う処理のフローチャートである。
ステップS8010では、仮想情報管理部1060は、仮想物体2090と断面平面2040の情報を仮想記憶部1065から読み出す。
ステップS8030では、視点位置姿勢算出部1050は、センサ座標系2060における視点の位置姿勢(位置および視線方向)を算出する。なお、頭部位置姿勢計測部1020と視点となる観察者の目との相対位置姿勢は、HMD1010の形状により既知であるので容易に算出可能である。
図4は、ステップS8030の動作を説明する図である。仮想空間座標系2080とセンサ座標系2060との相対位置姿勢は既知であるので、センサ座標系2060における視点の位置姿勢を、仮想空間座標系における座標値に変換する。そして、図4に示すように、視点の位置4010と、この点で互いに直交する3軸をそれぞれ、視軸と水平方向に直行するCx軸4020、視軸と鉛直方向に直行するCy軸4030、視軸に沿ったCz軸4040を求める。
ステップS8040では、操作方向取得部1090は、方向入力部1150から入力があれば、ステップS8050へ進む。入力がなければ、ステップS8100へ進む。
ステップS8050では、断面位置方向取得部1070は、仮想情報管理部1060から現在設定されている断面平面の位置姿勢を取得し、断面平面の法線ベクトルを算出する。法線ベクトルは、断面平面の任意の連続した3頂点から2つのベクトルを算出し、当該2つのベクトルの外積を導出することにより求めることが出来る。また、仮想記憶部1065へ予め断面平面の法線ベクトルを保存しておいてもよい。
ステップS8060では、断面方向調整部1080は、図3(a)のように、断面上の任意の一点3015を始点とし、視点位置姿勢算出部1050で算出した視点3025を終点とするベクトルから視点方向単位ベクトル3010を求める。さらに、断面位置方向取得部1070で算出した断面平面の法線方向単位ベクトル3020を求める。そして、視点方向単位ベクトル3010と断面平面の法線方向単位ベクトル3020との内積を計算する。
内積が負である場合、仮想物体の断面の切り取り方向である断面方向3020は視点方向を向いていないことを示している。そのため、断面を視点位置から観察可能にすべく、断面方向3020を反転する。具体的には、図3(b)の断面方向3030のように、仮想物体の断面の切り取り方向が視点3025の方を向くように変更する。内積が0または正である場合、断面は視点方向を向いているため、なにもしない。
また、図3(c)に示すように、仮想物体の断面の切り取り方向が視点の方向を向いていない場合、断面方向3020を反転して視点3025に向けたとしても、視線方向が断面の切り取り方向を向いていない。そのため、仮想物体および仮想物体の断面はHMD1010に表示されない。ただし、HMD1010は頭部に装着しており、常に視点位置姿勢が変更される。そのため、視線方向が仮想物体および断面の方を向くような姿勢になる可能性が高いため、図3(c)に示すような場合でも予め断面の切り取り方向を反転しておくとよい。
ステップS8080では、断面操作方向決定部1100は、視線上方方向と断面法線方向とのなす角αを算出する。ここでは、図4に示すように、視点位置姿勢算出部1050で算出した視点位置姿勢から得た視線上方方向単位ベクトル4030と、断面位置方向取得部1070で算出した断面法線単位ベクトル2100との内積を求める。単位ベクトル同士の内積は、その二つのベクトルのなす角のコサイン値となるので、コサイン値からなす角αを求めることが出来る。
図5は、ステップS8080において上方向を向いている断面の動作を説明する図である。図5(a)、(b)に示すように、断面平面が視線上方方向を向いている場合、方向入力部1150における”上”の入力に対して断面法線単位ベクトル2100の方向を対応付ける。そして、方向入力部1150における”下”(つまり”上”と逆方向)の入力に対して断面法線単位ベクトル2100と逆の方向を対応付ける。ここでは、角αが予め定められた角度範囲内(例えば0°≦α≦45°)の場合に、断面平面が視線上方方向を向いていると判断する。
図6は、ステップS8080において下方向を向いている断面の動作を説明する図である。図6(a)、(b)に示すように、断面平面が視線下方を向いている場合、方向入力部1150における”下”の入力に対して断面法線単位ベクトル2100の方向を対応付ける。そして、方向入力部1150における”上”の入力に対して断面法線単位ベクトル2100と逆の方向を対応付ける。ここでは、角αが予め定められた角度範囲内(例えば135°≦α≦180°)の場合に、断面平面が視点下方を向いていると判断する。
図7は、ステップS8080において横方向を向いている断面の動作を説明する図である。図7(a)〜(d)に示すように、断面平面が視線に対し横方向を向いている場合、更に、視線方向単位ベクトル7010と断面法線単位ベクトル2100との内積からなす角βを求める。ここでは、角αが予め定められた角度範囲内(例えば45°<α<135°)の場合に、断面平面が視点に対し横方向を向いていると判断する。ここで、視線方向7010とは、視点位置姿勢算出部1050で算出した視点位置姿勢から得た図4の視点の視軸方向ベクトル4040と逆の方向である。
図7(a)に示すように、断面方向と視線方向とが同じ方向に向いている場合、方向入力部1150における”上”の入力に対して断面法線単位ベクトル2100の方向を対応付ける。そして、方向入力部1150における”下”の入力に対して断面法線単位ベクトル2100と逆の方向を対応付ける。ここでは、角βが予め定められた角度範囲内(例えば0°≦β<45°)の場合に、断面平面と視線方向とが同じ方向に向いていると判断する。
また、図7(b)に示すように、断面方向と視線方向とが反対方向に向いている場合(向かいあっている場合)、方向入力部1150における”下”の入力に対して断面法線単位ベクトル2100の方向を対応付ける。そして、方向入力部1150における”上”の入力に対して断面法線単位ベクトル2100と逆の方向を対応付ける。ここでは、角βが予め定められた角度範囲内(例えば135°<β≦180°)の場合に、断面平面と視線方向とが反対方向に向いていると判断する。
更に、図7(c)、(d)に示すように、視線方向に対し断面平面が観察者から見て左右どちらかの方向に向いている場合、更に、視線方向単位ベクトル7010のx、y成分と断面法線単位ベクトル2100のx、y成分との外積を計算する。ここでは、角βが予め定められた角度範囲内(例えば45°≦β≦135°)の場合に、視線方向に対し断面平面が観察者から見て左右どちらかの方向に向いていると判断する。外積の符号が負であれば、視線方向に対し断面は右方向に向いており、符号が正であれば視線方向に対し断面は左方向を向いていると判断できる。
そして、視線方向に対し断面は右方向に向いている場合、方向入力部1150における”右”の入力に対して断面法線単位ベクトル2100の方向を対応付ける。そして、方向入力部1150における”左”の入力に対して断面法線単位ベクトル2100と逆の方向を対応付ける。一方、視線方向に対し断面は左方向に向いている場合、方向入力部1150における”左”の入力に対して断面法線単位ベクトル2100の方向を対応付ける。そして、方向入力部1150における”右”の入力に対して断面法線単位ベクトル2100と逆の方向を対応付ける。
ステップS8090では、断面位置変更部1110は、操作方向取得部1090が取得した入力方向が、断面操作方向決定部1100で決定した断面操作方向に一致する場合、断面平面2040を移動し、仮想情報管理部1060で管理されている情報を更新する。
ステップS8100では、仮想画像生成部1120は、視点位置姿勢算出部1050が求めた視点位置姿勢から見える仮想空間の画像を生成する。そして、ステップS8110では、画像出力部1140は、仮想画像生成部1120から受けた仮想空間の画像を、HMD1010が有する表示部1030に対して出力する。
ステップS8120では、観察者からの終了要求があれば処理を終了し、なければステップS8030に戻って処理を繰り返す。
以上説明したとおり第1実施形態によれば、観察者(操作者)の視点位置と仮想物体の断面が向いている断面方向との関係に基づいて断面方向を制御する。併せて、観察者(操作者)の視線方向と仮想物体の断面が向いている断面方向との関係に基づいて、方向入力部による入力と操作方向との対応付けを変更するよう制御する。これにより、仮想空間に配される三次元仮想物体に対して違和感のない断面操作を実現することが可能となる。
(第2実施形態)
第2実施形態では頭部装着型表示装置が2つの表示部を有する形態について説明する。具体的には、HMD10010は、観察者に対し3次元(3D)表示を提供すべく、右眼用及び左眼用の2つの表示部10030を有している。
<装置構成>
図10は、第2実施形態に係るシステムの全体構成を示すブロック図である。図11は、第2実施形態に係る頭部装着型表示装置(HMD)の外観図である。図10、図11において、図1、図2と同じ構成要素には同じ参照番号を付しており、それらの説明は省略する。
図11(a)に示すように、頭部装着型表示装置としてのHMD10010は、頭部に装着した観察者の右眼、左眼のそれぞれに画像を提示するための表示部10030が設けられている。HMD10010を頭部に装着した観察者は左眼で左眼用の表示部10030(左側)を観察し、右眼で右眼用の表示部10030(右側)を観察することになる。この表示部10030には、情報処理装置10040から送出された仮想空間の画像が表示されることになる。これにより、HMD10010を頭部に装着している観察者の眼前には、自身の左右の視点の位置姿勢に応じた仮想空間の3次元画像が提示されることになる。なお、HMD10010に3つ以上の表示部を有する構成にし、それぞれの表示部の視点の位置姿勢に応じた仮想空間画像を提示する構成を採用しても良い。
情報処理装置10040が有する視点位置姿勢算出部10050は、例えば、仮想空間の画像の仮想空間座標系2080における右眼及び左眼それぞれの位置姿勢(位置及び視線方向)を算出する。なお、頭部位置姿勢計測部1020と視点となる観察者の目との相対位置姿勢は、HMD10010の形状により既知であるので容易に算出可能である。なお、2つの位置姿勢を代表する1つの位置姿勢を算出し、仮想情報管理部1060を更新するよう構成しても良い。
仮想画像生成部10020は、表示部10030の左右それぞれの視点の位置姿勢に応じた仮想空間の画像を生成する。画像出力部10140は、表示部10030の左右それぞれに対し対応する画像を出力する。
<装置の動作>
図12は、第2実施形態に係る情報処理装置10040が行う処理のフローチャートである。なお、図12に示したフローチャートは、図8と同じ処理の場合には同じ参照番号を付けており、その説明は省略する。
ステップS12030では、視点位置姿勢算出部10050は、視点の代表的な位置姿勢(位置および視線方向)を算出する。そして、ステップS8030と同様に、表示部10030の左側の視点の位置11021と、この点で互いに直交する3軸をそれぞれ、視軸と水平方向に直行するCx軸11031、視軸と鉛直方向に直行するCy軸11041、視軸に沿ったCz軸11051を求める。さらに、表示部10030の右側の視点の位置11022と、この点で互いに直交する3軸をそれぞれ、視軸と水平方向に直行するCx軸11032、視軸と鉛直方向に直行するCy軸11042、視軸に沿ったCz軸11052を求める。そして、左右それぞれの視点の位置姿勢から代表的な1つの位置姿勢を算出する。
ここでは、まず、位置11021と、位置11022を結ぶ直線の中点を求め、代表位置11020とする。さらに、Cy軸11041とCy軸11042のベクトルの和を算出し、単位ベクトルを求め、代表姿勢Cy軸11140とする。次に、Cz軸11051とCz軸11052のベクトルの和を算出し、単位ベクトルを求め、代表姿勢Cy軸11150とする。更に、Cy軸11140とCz軸11150の外積を算出し、Cy軸11140とCz軸11150にそれぞれ直交する代表姿勢Cx軸11130を求める。
なお、3つ以上の表示部を有するHMD10010の場合は、代表位置はそれぞれの表示部の視点の位置の重心とし、代表姿勢軸Cy、Czはそれぞれの軸ごとのベクトルの和を算出し、単位ベクトルを求めるとよい。
ステップS12100では、仮想画像生成部10020は、表示部10030の左右それぞれ視点の位置姿勢から見える仮想空間の画像を生成する。ステップS12110では、画像出力部10140は、仮想画像生成部10020から受けた表示部10030の左右それぞれの視点における仮想空間の画像を、HMD10010が有する表示部10030の左右それぞれに対して出力する。
以上説明したとおり第2実施形態によれば、観察者(操作者)に対し、仮想空間に配される三次元仮想物体を3次元(3D)表示により提供することが可能となる。また、第1実施形態と同様、仮想空間に配される三次元仮想物体に対して違和感のない断面操作を実現することが可能となる。
(第3実施形態)
第3実施形態では頭部装着型表示装置が右眼及び左眼の位置に配された2つの撮像部を更に有する形態について説明する。具体的には、HMD13010は、観察者に対し、仮想空間に配される三次元仮想物体の画像を現実空間の風景に重畳表示する複合現実感(MR)表示を提供すべく、撮像部13020を有している。
<装置構成>
図13は、第3実施形態に係るシステムの全体構成を示すブロック図である。図14は、第3実施形態に係るシステムの外観図である。図13、図14において、図2、図10、図11と同じ構成要素には同じ参照番号を付しており、その説明については省略する。
頭部装着型表示装置のHMD13010は、HMD10010に対して、更に2つの撮像部13020が追加されたものとなっている。撮像部13020は、現実空間の動画像を撮像するもので、撮像したそれぞれの画像(現実空間の画像)は順次、情報処理装置13040が有する撮像画像取得部13050に入力される。ここでは、撮像部13020は、HMD13010を頭部に装着する観察者の右眼用と左眼用の2つが配されている。右眼用の撮像部13020が撮像した現実空間の画像は右眼用の表示部10030に表示され、左眼用の撮像部13020が撮像した現実空間の画像は左眼用の表示部10030に表示される。
撮像画像取得部13050は、取得した現実空間の画像を画像合成部13030に送出する。画像合成部13030は、仮想画像生成部10020が生成した仮想空間の画像と、撮像画像取得部13050から取得した現実空間の画像を重畳し、合成画像を生成する。この合成画像は右眼用と左眼用の2つが作成される。そして画像合成部13030は、生成した合成画像を画像出力部10140に出力し、画像出力部10140は、この合成画像を表示部10030に対して出力する。
<装置の動作>
図15は、第3実施形態に係る情報処理装置13040が行う処理のフローチャートである。なお、図15に示したフローチャートは、図12と同じ処理の場合には同じ参照番号を付けており、その説明については省略する。
ステップS15010では、撮像画像取得部13050は、取得した現実空間の画像を画像合成部13030に送出する。ステップS15020では画像合成部13030は、仮想画像生成部10020が生成した仮想空間の画像と、撮像画像取得部13050から取得した現実空間の画像との合成画像を生成する。そして画像合成部13030は、生成した合成画像を画像出力部10140に出力するので、画像出力部10140は、この合成画像を表示部13020に対して出力することになる。
以上説明したとおり第3実施形態によれば、観察者(操作者)に対し、仮想空間に配される三次元仮想物体の画像を現実空間の風景に重畳表示する複合現実感(MR)表示を提供することが可能となる。また、第1実施形態と同様、仮想空間に配される三次元仮想物体に対して違和感のない断面操作を実現することが可能となる。
(第4実施形態)
第4実施形態では、自身の位置姿勢の変化に基づいて操作を行う操作部(指示具)を使用する形態について説明する。特に、操作部は、頭部位置姿勢計測部1020と同様の磁気センサが配されており、自身の位置姿勢を計測可能に構成されている。
<装置構成>
図16は、第4実施形態に係るシステムの全体構成を示すブロック図である。図17は、第4実施形態に係るシステムの外観図である。図16、図17において、図1、図2と同じ構成要素には同じ参照番号を付しており、その説明については省略する。
上述の通り、操作部16160には、頭部位置姿勢計測部1020と同様の磁気センサである操作部位置姿勢計測部16020が配されている。操作部位置姿勢計測部16020は、自身の位置姿勢に応じた磁界の変化を計測し、その計測結果をセンサコントローラ2070に対して送出する。センサコントローラ2070は、この計測結果から、センサ座標系における操作部位置姿勢計測部16020の位置姿勢を示す信号値を生成して情報処理装置16040に送出する。
また、操作部16160には、イベントを発生させるためにユーザが操作するイベント入力部16150が設けられている。例えば、イベント入力部16150は押下可能なボタンであり、ユーザはイベントを発生させたい場合にこのボタンを押下する。このボタンが押下されると、操作部16160はイベントを発生させ、情報処理装置16040に対して出力する。
<装置の動作>
図18は、第4実施形態に係る情報処理装置16040が行う処理のフローチャートである。なお、図18に示したフローチャートは、図8と同じ処理の場合には同じ参照番号を付しており、その説明については省略する。
ステップS18040では、操作方向取得部16090は、ステップS8030の視点位置姿勢算出部1050と同様に、仮想空間座標系の座標系2080における操作部16160の位置姿勢を算出する。
図19は、ステップS18040の動作を説明する図である。まず、図19(a)に示すように、操作部16160の位置19010と視点19020を結ぶ直線と、仮想空間の視点から見た仮想物体を投影する投影面19035と、が交わる点19030を算出する。
さらに、図19(b)に示すように、操作部16160の、前回の投影面上の位置19040を始点とし、現在の投影面上の位置19050を終点とする直線のベクトルを算出し、投影面上の上下左右を入力方向を判別する。ただし、前回の投影面上の位置と現在の投影面上の位置が全く同じ場合は、現在の投影面上の位置が異なる位置になるまで、計算を開始しないよう構成すると良い。なお、直線のベクトルが投影面上の2次元のベクトルであるため、上下左右の入力方向の判別は、ベクトルのXY成分の絶対値に基づき行うとよい。すなわち、絶対値が大きい方向を入力方向として判別する。
なお、操作方向取得部が操作方向を判別するための方法には、他にもさまざまなものが考えられる。たとえば、操作部16160の現在の指示方向を投影面19035に投影したベクトルを、直接、上下左右の入力方向として判別に用いても良い。
また、キーボードの特定のキーを上下左右に割り当てて、上下左右の入力方向の判別に用いても良い。マウスの移動方向とクリックイベントを、上下左右の入力方向の判別に用いても良い。また、音声入力を、上下左右の入力方向の判別に用いても良い。更に、手の動きを撮像し、連続した手の画像から判別されるジェスチャーを、上下左右の入力方向の判別に用いても良い。
以上説明したとおり第4実施形態によれば、観察者(操作者)は、自身の位置姿勢の変化に基づいて操作を行う操作部(指示具)を使用して仮想空間に配される三次元仮想物体の操作を行うことが可能となる。また、第1実施形態と同様、仮想空間に配される三次元仮想物体に対して違和感のない断面操作を実現することが可能となる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (17)

  1. 第1の断面を有する三次元仮想物体を観察する観察者の視点位置を取得する取得手段と、
    前記第1の断面の向きと、前記視点位置とに基づいて、前記第1の断面が前記観察者のほうを向いているか否かを判定する判定手段と、
    前記判定手段により、前記第1の断面が前記観察者のほうを向いていないと判定された場合に、前記第1の断面の向きが反転された向きの第2の断面を有する三次元仮想物体の画像を出力する出力手段と、
    前記第2の断面を移動させるための指示をユーザから受け付ける操作手段と、
    を備え、
    前記出力手段は、前記操作手段による操作に基づいて、前記第2の断面の法線ベクトルの方向に沿って前記第2の断面を所定の距離移動させた状態の三次元仮想物体を出力し、
    前記取得手段は、更に、前記観察者の視線方向を取得し、
    前記操作手段は、少なくとも第1の方向の指示と該第1の方向と逆方向の第2の方向の指示とをユーザから受け付け可能に構成されており、
    前記出力手段は、前記視線方向と直交する前記ユーザの視線上方方向と前記第2の断面の法線ベクトルとのなす角αが第1の角度範囲内であった場合と、前記角αが該第1の角度範囲と異なる第2の角度範囲内であった場合とで、前記操作手段における前記第1の方向の指示に基づく移動方向と前記第2の方向の指示に基づく移動方向とが逆となるように、前記第2の断面を移動させた状態の三次元仮想物体を出力する
    ことを特徴とする情報処理装置。
  2. 前記出力手段は、前記第1の断面と同じ位置に前記第2の断面を有する三次元仮想物体の画像を出力する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の断面の向きは該第1の断面の法線ベクトルの向きである
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記判定手段は、前記観察者の視点位置と前記第1の断面に属する所定の領域とを結んだベクトルと、前記第1の断面の法線ベクトルと、の内積に基づいて、前記第1の断面が前記観察者のほうを向いているか否かを判定することを特徴とする請求項1乃至3の何れか一項に記載の情報処理装置。
  5. 前記操作手段は、更に、前記第1の方向と直交する第3の方向の指示と該第3の方向と逆方向の第4の方向の指示とをユーザから受け付け可能に構成されており、
    前記出力手段は、
    前記視線方向と前記第2の断面の法線ベクトルとのなす角βが第3の角度範囲内であった場合と、該第3の角度範囲と異なる第4の角度範囲内であった場合とで、前記操作手段における前記第1の方向の指示に基づく移動方向と前記第2の方向の指示に基づく移動方向とが逆となるように前記第2の断面を移動させた状態の三次元仮想物体を出力し、
    前記角βが、前記第3の角度範囲及び前記第4の角度範囲と異なる第5の角度範囲であった場合、前記視線方向のベクトルと前記第2の断面の法線ベクトルとの外積の値の符号に応じて、前記操作手段における前記第3の方向の指示に基づく移動方向と前記第4の方向の指示に基づく移動方向とが逆となるように前記第2の断面を移動させた状態の三次元仮想物体を出力する
    ことを特徴とする請求項1乃至4の何れか一項に記載の情報処理装置。
  6. 前記第1の角度範囲は、0°≦α<(90−A)°であり(ただし、0<A<90)、
    前記第2の角度範囲は、(90+A)°<α≦180°である
    ことを特徴とする請求項1乃至5の何れか一項に記載の情報処理装置。
  7. 前記第3の角度範囲は、0°≦β<(90−B)°であり(ただし、0<B<90)、
    前記第4の角度範囲は、(90+B)°<β≦180°であり、
    前記第5の角度範囲は、(90−B)°≦β≦(90+B)°である
    ことを特徴とする請求項又は請求項に従属する場合の請求項に記載の情報処理装置。
  8. 前記操作手段は、二軸方向を指示可能な十字キーとして構成される
    ことを特徴とする請求項1乃至7の何れか一項に記載の情報処理装置。
  9. 前記出力手段は、頭部装着型表示装置(HMD)として構成される表示装置に前記三次元仮想物体の画像を出力する
    ことを特徴とする請求項1乃至の何れか一項に記載の情報処理装置。
  10. 前記頭部装着型表示装置(HMD)は、前記観察者の右眼、左眼のそれぞれに画像を提示するための2つの表示部を有し、
    前記出力手段は、前記2つの表示部のそれぞれに対応する2つの画像を出力することを特徴とする請求項に記載の情報処理装置。
  11. 前記頭部装着型表示装置(HMD)は、前記観察者の右眼、左眼のそれぞれの位置からの現実空間の風景を撮像する2つの撮像部を更に有し、
    前記出力手段は、前記2つの表示部のそれぞれに対応する2つの画像として、前記2つの撮像部により得られた2つの撮像画像それぞれに対し仮想空間内の三次元仮想物体を重畳表示した画像を出力する
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 仮想空間に配置され、断面を有する三次元仮想物体を観察する観察者の視点位置を取得する取得手段と、
    前記三次元仮想物体の第1の断面の法線ベクトルを取得する法線取得手段と、
    前記観察者の視点位置と前記第1の断面の法線ベクトルとに基づき、前記第1の断面と法線ベクトルが異なる第2の断面を有する三次元仮想物体を生成する画像生成手段と、
    前記画像生成手段によって生成された三次元仮想物体の画像を出力する出力手段と、
    前記第2の断面を移動させるための指示をユーザから受け付ける操作手段と、
    を備え、
    前記画像生成手段は、前記操作手段による操作に基づいて、前記第2の断面の法線ベクトルの方向に沿って前記第2の断面を所定の距離移動させた状態の三次元仮想物体を生成し、
    前記取得手段は、更に、前記観察者の視線方向を取得し、
    前記操作手段は、少なくとも第1の方向の指示と該第1の方向と逆方向の第2の方向の指示とをユーザから受け付け可能に構成されており、
    前記画像生成手段は、前記視線方向と直交する前記ユーザの視線上方方向と前記第2の断面の法線ベクトルとのなす角αが第1の角度範囲内であった場合と、前記角αが該第1の角度範囲と異なる第2の角度範囲内であった場合とで、前記操作手段における前記第1の方向の指示に基づく移動方向と前記第2の方向の指示に基づく移動方向とが逆となるように、前記第2の断面を移動させた状態の三次元仮想物体を生成する
    ことを特徴とする情報処理装置。
  13. 前記操作手段は、更に、前記第1の方向と直交する第3の方向の指示と該第3の方向と逆方向の第4の方向の指示とをユーザから受け付け可能に構成されており、
    前記出力手段は、
    前記視線方向と前記第2の断面の法線ベクトルとのなす角βが第3の角度範囲内であった場合と、該第3の角度範囲と異なる第4の角度範囲内であった場合とで、前記操作手段における前記第1の方向の指示に基づく移動方向と前記第2の方向の指示に基づく移動方向とが逆となるように出力し、
    前記角βが、前記第3の角度範囲及び前記第4の角度範囲と異なる第5の角度範囲であった場合、前記視線方向のベクトルと前記第2の断面の法線ベクトルとの外積の値の符号に応じて、前記操作手段における前記第3の方向の指示に基づく移動方向と前記第4の方向の指示に基づく移動方向とが逆となるように出力する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記第1の角度範囲は、0°≦α<(90−A)°であり(ただし、0<A<90)、
    前記第2の角度範囲は、(90+A)°<α≦180°である
    ことを特徴とする請求項12又は13に記載の情報処理装置。
  15. 前記第3の角度範囲は、0°≦β<(90−B)°であり(ただし、0<B<90)、
    前記第4の角度範囲は、(90+B)°<β≦180°であり、
    前記第5の角度範囲は、(90−B)°≦β≦(90+B)°である
    ことを特徴とする請求項13又は請求項13に従属する場合の請求項14に記載の情報処理装置。
  16. 画像処理装置が実行する情報処理方法であって、
    第1の断面を有する三次元仮想物体を観察する観察者の視点位置を取得する取得工程と、
    前記第1の断面の向きと、前記視点位置とに基づいて、前記第1の断面が前記観察者のほうを向いているか否かを判定する判定工程と、
    前記判定工程において、前記第1の断面が前記観察者のほうを向いていないと判定された場合に、前記第1の断面の向きが反転された向きの第2の断面を有する三次元仮想物体の画像を出力する出力工程と、
    前記第2の断面を移動させるための指示をユーザから受け付ける操作工程と、
    を含み、
    前記出力工程では、前記操作工程による操作に基づいて、前記第2の断面の法線ベクトルの方向に沿って前記第2の断面を所定の距離移動させた状態の三次元仮想物体を出力し、
    前記取得工程では、更に、前記観察者の視線方向を取得し、
    前記操作工程では、少なくとも第1の方向の指示と該第1の方向と逆方向の第2の方向の指示とをユーザから受け付け可能に構成されており、
    前記出力工程では、前記視線方向と直交する前記ユーザの視線上方方向と前記第2の断面の法線ベクトルとのなす角αが第1の角度範囲内であった場合と、前記角αが該第1の角度範囲と異なる第2の角度範囲内であった場合とで、前記操作工程における前記第1の方向の指示に基づく移動方向と前記第2の方向の指示に基づく移動方向とが逆となるように、前記第2の断面を移動させた状態の三次元仮想物体を出力する
    ことを特徴とする情報処理方法。
  17. コンピュータを、請求項1乃至15の何れか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2014006217A 2014-01-16 2014-01-16 情報処理装置および情報処理方法 Expired - Fee Related JP5824537B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014006217A JP5824537B2 (ja) 2014-01-16 2014-01-16 情報処理装置および情報処理方法
US14/584,032 US9607439B2 (en) 2014-01-16 2014-12-29 Information processing apparatus and information processing method
GB1500628.1A GB2524144A (en) 2014-01-16 2015-01-15 Information processing apparatus and information processing method
DE102015100540.9A DE102015100540A1 (de) 2014-01-16 2015-01-15 Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
CN201510023416.XA CN104794757A (zh) 2014-01-16 2015-01-16 信息处理设备和信息处理方法
KR1020150007732A KR20150085797A (ko) 2014-01-16 2015-01-16 정보처리장치 및 정보처리방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014006217A JP5824537B2 (ja) 2014-01-16 2014-01-16 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2015135573A JP2015135573A (ja) 2015-07-27
JP5824537B2 true JP5824537B2 (ja) 2015-11-25

Family

ID=53485137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014006217A Expired - Fee Related JP5824537B2 (ja) 2014-01-16 2014-01-16 情報処理装置および情報処理方法

Country Status (6)

Country Link
US (1) US9607439B2 (ja)
JP (1) JP5824537B2 (ja)
KR (1) KR20150085797A (ja)
CN (1) CN104794757A (ja)
DE (1) DE102015100540A1 (ja)
GB (1) GB2524144A (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6193195B2 (ja) * 2014-09-17 2017-09-06 株式会社東芝 移動支援装置、方法及びプログラム
US10217189B2 (en) * 2015-09-16 2019-02-26 Google Llc General spherical capture methods
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
WO2017169272A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3264286B1 (en) * 2016-06-28 2020-11-18 Dassault Systèmes Querying a database with morphology criterion
US10198855B2 (en) * 2016-07-20 2019-02-05 Colopl, Inc. Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods
EP3321817A1 (en) 2016-11-14 2018-05-16 Dassault Systèmes Querying a database based on a parametric view function
JP6275809B1 (ja) * 2016-12-09 2018-02-07 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
WO2018158896A1 (ja) * 2017-03-01 2018-09-07 三菱電機株式会社 情報処理システム
CN111108530B (zh) * 2017-09-25 2023-05-12 三菱电机株式会社 信息显示装置和方法以及记录介质
WO2019092685A1 (en) * 2017-11-13 2019-05-16 Arkio Ehf. Virtual/augmented reality modeling application for architecture
JP2019101513A (ja) * 2017-11-29 2019-06-24 株式会社カプコン 仮想空間表示装置、ゲームシステムおよび仮想空間における仮想オブジェクトの向き判定方法
US11281824B2 (en) 2017-12-13 2022-03-22 Dassault Systemes Simulia Corp. Authoring loading and boundary conditions for simulation scenarios
CN110554784B (zh) * 2018-05-31 2023-07-14 广东虚拟现实科技有限公司 输入方法、装置、显示设备及存储介质
US11320911B2 (en) * 2019-01-11 2022-05-03 Microsoft Technology Licensing, Llc Hand motion and orientation-aware buttons and grabbable objects in mixed reality
JP7413077B2 (ja) * 2020-02-27 2024-01-15 キヤノン株式会社 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム
CN112446952B (zh) * 2020-11-06 2024-01-26 杭州易现先进科技有限公司 三维点云法向量的生成方法、装置、电子设备及存储介质
CN113870403B (zh) * 2021-09-23 2023-01-10 埃洛克航空科技(北京)有限公司 用于图像渲染的信息处理方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3026716B2 (ja) * 1994-03-16 2000-03-27 株式会社日立製作所 立体型表示装置
JPH10334275A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP3647691B2 (ja) * 1999-09-30 2005-05-18 コナミ株式会社 ポリゴン画像表示方法、ポリゴン画像作成装置及び記録媒体
JP3792541B2 (ja) 2001-06-07 2006-07-05 富士通株式会社 3次元モデル表示プログラムおよび3次元モデル表示装置
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP4919887B2 (ja) * 2007-07-09 2012-04-18 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP5226360B2 (ja) 2008-04-08 2013-07-03 株式会社東芝 超音波診断装置
JP5438936B2 (ja) * 2008-08-29 2014-03-12 株式会社東芝 超音波診断装置、画像処理装置及び画像処理プログラム
JP5403974B2 (ja) 2008-09-09 2014-01-29 キヤノン株式会社 三次元cadシステム
US8745536B1 (en) 2008-11-25 2014-06-03 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls
JP5769392B2 (ja) 2010-08-26 2015-08-26 キヤノン株式会社 情報処理装置およびその方法
JP5709440B2 (ja) 2010-08-31 2015-04-30 キヤノン株式会社 情報処理装置、情報処理方法
JP5550496B2 (ja) * 2010-08-31 2014-07-16 富士フイルム株式会社 文書作成支援装置、文書作成支援方法、並びに文書作成支援プログラム
JP5736285B2 (ja) 2011-09-21 2015-06-17 Kddi株式会社 被写体の3次元形状を復元する装置、方法およびプログラム
JP5845211B2 (ja) 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
US20150199850A1 (en) 2015-07-16
GB2524144A (en) 2015-09-16
KR20150085797A (ko) 2015-07-24
JP2015135573A (ja) 2015-07-27
CN104794757A (zh) 2015-07-22
US9607439B2 (en) 2017-03-28
GB201500628D0 (en) 2015-03-04
DE102015100540A1 (de) 2015-07-16

Similar Documents

Publication Publication Date Title
JP5824537B2 (ja) 情報処理装置および情報処理方法
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP4262011B2 (ja) 画像提示方法及び装置
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP6290754B2 (ja) 仮想空間表示装置、仮想空間表示方法及びプログラム
JP4757115B2 (ja) 画像処理装置、画像処理方法
JP5167439B1 (ja) 立体画像表示装置及び立体画像表示方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
CN111033573A (zh) 信息处理装置、系统、图像处理方法、计算机程序及存储介质
JP4580678B2 (ja) 注視点位置表示装置
JP6618260B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2012048659A (ja) 画像処理装置、画像処理方法
JP2012048463A (ja) 情報処理装置およびその方法
JP6726016B2 (ja) 情報処理装置、情報処理方法
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
JP2006340017A (ja) 立体映像表示装置及び立体映像表示方法
US20200258193A1 (en) Information processing apparatus, information processing method, and storage medium
JP2021131490A (ja) 情報処理装置、情報処理方法、プログラム
WO2020036114A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2020035481A (ja) 情報処理装置、情報処理方法、プログラム
WO2023120217A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151009

LAPS Cancellation because of no payment of annual fees