JP7315362B2 - 映像出力システム及び映像出力方法 - Google Patents

映像出力システム及び映像出力方法 Download PDF

Info

Publication number
JP7315362B2
JP7315362B2 JP2019076227A JP2019076227A JP7315362B2 JP 7315362 B2 JP7315362 B2 JP 7315362B2 JP 2019076227 A JP2019076227 A JP 2019076227A JP 2019076227 A JP2019076227 A JP 2019076227A JP 7315362 B2 JP7315362 B2 JP 7315362B2
Authority
JP
Japan
Prior art keywords
video output
seat
output system
position information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019076227A
Other languages
English (en)
Other versions
JP2020173699A (ja
Inventor
乘 西山
裕史 井上
剛仁 寺口
雄宇 志小田
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019076227A priority Critical patent/JP7315362B2/ja
Publication of JP2020173699A publication Critical patent/JP2020173699A/ja
Priority to JP2023114957A priority patent/JP7528321B2/ja
Application granted granted Critical
Publication of JP7315362B2 publication Critical patent/JP7315362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Seats For Vehicles (AREA)
  • Chairs For Special Purposes, Such As Reclining Chairs (AREA)
  • User Interface Of Digital Computer (AREA)
  • Chair Legs, Seat Parts, And Backrests (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

本発明は、室内空間で利用される映像出力システム及び映像出力方法に関するものである。
車両に搭載される従来の映像出力システムでは、実在のオブジェクトを含む実空間の環境を画像データとして取得する。そして、この映像出力システムは、仮想のオブジェクトを実空間の実在のオブジェクトに対応させて出力した上で、AR(拡張現実)コンテンツとして、車両のディスプレイに投影する(特許文献1)。
特開2013-131222号公報
しかしながら、光学センサを用いて実在のオブジェクトを画像認識し、分析した上で、実在のオブジェクトに対応させた位置に仮想のオブジェクトを出力するためには、映像出力システムに過剰な演算負荷が発生する場合がある。そのため、仮想のオブジェクトを出力するための情報処理に時間がかかってしまうおそれがあった。
本発明が解決しようとする課題は、室内空間のオブジェクトに対して仮想のオブジェクトの位置合わせを行うとともに、仮想のオブジェクトの映像の出力にかかる時間を短縮することができる映像出力システム及び映像出力方法を提供することである。
本発明は、位置情報検出部によって検出された第1オブジェクトの位置情報及び記憶装置に格納されている形状情報に基づき、制御部が、仮想の第2オブジェクトの映像を第1オブジェクトに対応する位置に出力することによって上記課題を解決する。
本発明によれば、室内空間の第1オブジェクトに対して仮想の第2オブジェクトの位置合わせを行うとともに、第2オブジェクトの映像の出力にかかる時間を短縮することができるという効果を奏する。
本発明の実施の形態に係る映像出力システムにおいて、車両の室内の第1オブジェクトであるシートに仮想の第2オブジェクトであるアバターを出力する態様を示す図である。 本発明の実施の形態に係る映像出力システムの構成を示す模式図である。 図2に示す映像出力システムにおける第1オブジェクトとしてのシートの前後方向の位置の変化量を示す側面図である。 図2に示す映像出力システムにおける第1オブジェクトとしてのシートの高さ方向の位置の変化量を示す側面図である。 図2に示す映像出力システムにおける第1オブジェクトとしてのシートの背もたれ部のリクライニング位置の変化量を示す側面図である。 図2に示す映像出力システムの制御部が第1オブジェクトであるシートの三次元形状を出力する手順を示すフローチャートである。 図2に示す映像出力システムの制御部が、シートの背もたれ部の位置を前傾位置から基準位置に復元させる様子を示す側面図である。 図2に示す映像出力システムの制御部が第2オブジェクトとしてのアバターを出力する手順を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
図1に示すように、車両90の室内空間91には、互いに隣り合う運転席シート50及び助手席のシート10と、運転席シート50及び助手席のシート10の後ろに配置される3つの後部座席シート61,62,63が設けられる。運転席シート50には、ドライバーであるユーザ40が着座している。ユーザ40はARゴーグル30を装着している。ユーザ40には、ARゴーグル30を通して、実際には室内空間91に存在しない仮想のアバター20を視認することができる。アバター20は、人間を模した仮想のオブジェクトである。アバター20の映像は、室内空間91に重畳し、かつ、助手席のシート10に対応する位置に配置され、着座した姿で、ARゴーグル30に出力される。
なお、ARゴーグル30は、眼鏡型デバイスであり、ユーザ40が装着可能なウェアラブル装置である。ARゴーグル30は、映像出力部を構成する。また、シート10及び後部座席シート61,62,63は、各々、第1オブジェクトを構成する。また、アバター20は、第2オブジェクトを構成する。
図2を用いて、ARゴーグル30にアバター20の映像を出力する映像出力システム100の全体的な構成について説明する。
映像出力システム100は、映像出力部であるARゴーグル30と、ARゴーグル30に出力するアバター20の映像を生成する制御部1と、データの送受信を行う通信部2と、シート10の基準位置、姿勢情報及び形状情報を格納する記憶部3とを有する。また、シート10は、座部10bと、座部10bに回動可能に連結された背もたれ部10aとを有する。座部10bには、人の着座を検知する着座センサ11が設けられている。また、シート10にはシートベルト9と、シートベルト9の使用を検知するシートベルトセンサ19が設けられている。
なお、着座センサ11及びシートベルトセンサ19は、シート10への乗員の着座の有無を検出する着座検出部を構成する。
さらに、シート10には、スライド機構18と、シート10をスライド機構18に沿って前後方向に動かすスライドモータ12と、シート10を上下方向に動かすリフトモータ13と、シート10の背もたれ部10aの角度を調整するリクライニングモータ14とが取り付けられる。さらにまた、スライドモータ12には、シート10の前後方向の位置の変化量を検出する第1ポテンショメータ15が設けられる。リフトモータ13には、シート10の上下方向の位置の変化量を検出する第2ポテンショメータ16が設けられる。リクライニングモータ14には、シート10の背もたれ部10aの角度の変化量を検出する第3ポテンショメータ17が設けられる。着座センサ11、スライドモータ12、リフトモータ13、リクライニングモータ14、第1ポテンショメータ15、第2ポテンショメータ16、第3ポテンショメータ17及びシートベルトセンサ19は、各々、制御部1に電気的に接続される。
なお、第1ポテンショメータ15、第2ポテンショメータ16及び第3ポテンショメータ17は、既設の車内センサであり、シート10の位置情報を検出する位置情報検出部を構成する。また、リクライニングモータ14は、角度調整部を構成する。
図2に示すように、制御部1が出力するアバター20は、シート10の座部10bの上に腰かけ、背もたれ部10aに寄り掛かった姿勢で出力される。アバター20は、車両90の室内空間91から離れた遠隔地の空間70にいる第2ユーザ71によって操作される。アバター20の映像は、第2ユーザ71の実際の画像を少なくとも一部に含み、シート10の形状に沿って表示される。制御部1は、アバター20の大きさをシート10の大きさに合わせて、適宜調整する。また、アバター20の映像が室内空間91の設備に干渉しないように、アバター20の動作の一部は制限されている。さらに、制御部1は、アバター22の視点から見た室内空間91の映像を生成している。アバター22の視点から見た室内空間91の映像は、通信部2を介して、第2ユーザ71が装着するヘッドマウントディスプレイ72に出力される。
ここで、ヘッドマウントディスプレイ72は、第2映像出力部を構成する。
次に、シート10の現在位置の演算方法について、図3~5を用いて説明する。
図3に示すように、制御部1は、記憶部3から参照したシート10の前後方向の基準位置L0に、第1ポテンショメータ15が検出したシート10の前後方向の位置の変化量dLを加算する。これにより、制御部1は、シート10の前後方向の現在位置L1を演算する。
図4に示すように、制御部1は、記憶部3から参照したシート10の上下方向、すなわち鉛直方向の基準位置H0に、第2ポテンショメータ16が検出したシート10の上下方向の位置の変化量dHを加算する。これにより、制御部1は、シート10の上下方向の現在位置H1を演算する。
図5に示すように、制御部1は、記憶部3から参照したシート10の背もたれ部10aの基準位置A0に、第3ポテンショメータ17が検出した背もたれ部10aの位置の変化量dAを加算する。これにより、制御部1は、シート10の背もたれ部10aの現在位置A1を演算する。なお、基準位置A0にある背もたれ部10aの角度は、Θ0=90°である。また、現在位置A1にある背もたれ部10aの角度は、Θ1である。すなわち、背もたれ部10aの位置の変化量dAを角度変化量dΘで表すと、dΘ=Θ1-Θ0である。制御部1は、記憶部3から受信したシート10の形状情報と、背もたれ部10aの現在位置A1とに基づいて、シート10の現在の三次元形状を出力する。
なお、背もたれ部10aの角度とは、座部10bと背もたれ部10aとの間の角度をいう。
次に、図6を用いて、制御部1によるシート10の三次元形状の出力方法について説明する。
まず、制御部1は、シート10の着座センサ11又はシートベルトセンサ19からの信号を取得する(ステップS1)。そして、着座センサ11又はシートベルトセンサ19からの信号がOFFか否かを判断する(ステップS2)。信号がOFFではなくONの場合は、シート10には乗客が着座している。そこで、制御部1は、シート10への「着座不可」、すなわち、アバター20の映像をシート10に重畳させて表示することが不可能であるという判断を出力する(ステップS3)。この場合、シート10の三次元形状は出力されない。
信号がOFFの場合は、制御部1は第3ポテンショメータ17の信号を取得する(ステップS4)。そして、制御部1は、第3ポテンショメータ17の信号と、記憶部3から取得したシート10の形状情報とから、シート10の現在の三次元形状をシュミレーションする(ステップS5)。そして、制御部1は、シート10の現在の三次元形状が、アバター20が着座可能な形状か否かを判断する(ステップS6)。シュミレーションされたシート10の現在の三次元形状が、アバター20が着座可能な形状である場合、制御部1は、シート10の三次元形状を出力する(ステップS9)。具体的には、シート10の背もたれ部10aの角度が90°以上であり、かつ、シート10の座部10bがアバター20の着座を許容可能な形状である場合に、シート10の形状はアバター20が着座可能な形状であると判断される。
シュミレーションされたシート10の形状が、アバター20が着座可能な形状でない場合、制御部1は、アバター20が着座可能になるようにシート10を復元可能か否か判断する(ステップS7)。具体的には、図7に示す破線のように、シート10の背もたれ部10aの位置が前傾位置A2となっている場合、シート10の形状は、アバター20が着座可能な形状でないと判断される。そして、背もたれ部10aを基準位置A0まで回動させることによりアバター20がシート10に着座可能になると判断される時は、制御部1は、アバター20が着座可能になるようにシート10を復元可能であると判断する。そこで、制御部1は、リクライニングモータ14を駆動させ、基準位置A0まで背もたれ部10aを回動させて、シート10の形状を復元し(ステップS8)、その後、シート10の三次元形状を出力する(ステップS9)。
なお、基準位置A0に位置する背もたれ部10aの角度は、θ0=90°である。θ0は、閾値角度を構成する。すなわち、背もたれ部10aの角度がθ0=90°よりも小さい時、制御部1は、アバター20はシート10に着座可能ではないと判断する。
一方、アバター20が着座可能になるようにシート10を復元することができないと判断される時は、制御部1は、着座不可を出力する(ステップS3)。具体的には、シート10の座部10bが、アバター20の着席を許容することができる形状ではない場合、角度が90°以上になるように背もたれ部10aを回動させても、アバター20はシート10に着座可能ではないと判断される。この場合、シート10の三次元形状は出力されない。
次に、図8を用いて、ARゴーグル30へのアバター20の映像の出力方法について説明する。
まず、制御部1は、助手席のシート10の位置情報を取得する(ステップS11)。そして、図6のステップS1~S9の手順によって、シート10の三次元形状が出力されたか否かを判断する(ステップS12)。制御部1によってシート10の三次元形状が出力されている場合は、図2に示すように、シート10の上に重畳して映し出されるアバター20の映像を、ARゴーグル30に出力する(ステップS16)。
一方、助手席のシート10の三次元形状が出力されていない場合は、シート10は着座不可の状態となっている。そのため、制御部1は、後部座席シート61,62,63の各々の位置情報を、同様に、取得する(ステップS13)。そして、シート10と同様に、図6のステップS1~S9の手順に従い、各々のシートの三次元形状が出力されたか否かを判断する(ステップS14)。後部座席シート61,62,63のいずれかの三次元形状が出力された場合は、該当するシートが第1オブジェクトとして選択される。従って、制御部1は、選択された後部座席シートに対応する位置に着座するアバター20の映像を、ARゴーグル30に出力する(ステップS16)。
一方、後部座席シート61,62,63のうちいずれの三次元形状も出力されていない場合は、車両90の室内空間91のシートは全て着座不可の状態となっている。この場合、制御部1は、記憶部3からダッシュボード(図示せず)の位置情報及び形状情報を取得し(ステップS15)、アバター20のサイズを縮小して、ダッシュボードの上にアバター20が着座している映像をARゴーグル30に出力する(ステップS16)。
以上より、この実施の形態に係る映像出力システム100は、シート10の位置情報を検出する第1ポテンショメータ15、第2ポテンショメータ16及び第3ポテンショメータ17を備える。また、映像出力システム100の制御部1は、シート10の位置情報に基づいて、人物を模したアバター20がシート10に対応する位置に着座するように、アバター20の映像をARゴーグル30に出力する。これにより、光学センサを用いずに、シート10に取り付けられた位置情報センサによる検出のみで、アバター20の映像をシート10に対して位置合わせし、ARゴーグル30に出力することができる。従って、光学センサのみを用いて撮像した画像からシート10の位置及び形状を分析するよりも、映像出力システム100にかかる演算負荷は軽くなり、アバター20の出力にかかる時間が短縮される。また、既設の光学センサとシート10に取り付けた位置情報センサとを組み合わせて使用することにより、光学センサのみを用いる場合に比べて、アバター20をシート10に対してより正確に位置合わせすることができる。
また、シート10は、車両90の室内空間91に設けられた既設の設備であるため、記憶部3は予めシート10の基準位置、姿勢情報及び形状情報を、既知の設計情報として格納している。従って、制御部1は、記憶部3から取得したシート10の情報を用いて、アバター20をシート10に対して位置合わせすることができる。そのため、アバター20の出力処理にかかる演算負荷をより軽くすることができる。
また、映像出力システム100の位置情報検出部として用いられる第1ポテンショメータ15、第2ポテンショメータ16及び第3ポテンショメータ17は、車両90に設けられた既設の車内センサである。従って、新たなセンサを車両90に取り付ける必要がないため、映像出力システム100の構築にかかるコストが低減される。
また、制御部1は、シート10の大きさに応じて、アバター20の大きさを調整する。これにより、制御部1は、より適切にシート10に対応した態様でアバター20を出力することができる。
また、制御部1は、アバター20の映像が室内空間91の設備に干渉しないように、アバター20の動きの少なくとも一部を制限する。これにより、ユーザ40がアバター20に感じる違和感を低減させることができる。
また、図7に示すように、リクライニングモータ14は、背もたれ部10aの角度が、閾値角度θ0よりも小さい場合、背もたれ部10aを動かし、背もたれ部10aの角度を閾値角度θ0以上になるように調整する。これにより、アバター20の映像が、シート10に干渉してしまうことを防止することができる。
また、着座センサ11及びシートベルトセンサ19が反応し、シート10への着座が検出された場合、制御部1は、助手席のシート10以外の後部座席シート61,62,63のいずれかを第1オブジェクトとして選択する。これにより、車両90に複数の乗員が乗っている場合でも、制御部1は、室内空間91に重畳するアバター20を違和感なく出力することができる。
また、映像出力システム100は、アバター20の視点から見た室内空間91の映像が出力される第2映像出力部としてのヘッドマウントディスプレイ72を備える。これにより、車両90に同乗していない第2ユーザ71も、ヘッドマウントディスプレイ72を装着することによって、アバター20の視点を通して、ドライブを楽しむ、ユーザ40とコミュニケーションを取る、又は、ユーザ40の運転を補助する等の体験をすることができる。
また、アバター20の映像は、第2ユーザ71の実際の画像を少なくとも一部に含んでいる。これにより、ユーザ40は、アバター20を介して、第2ユーザ71と実際にコミュニケーションを取っているという感覚が強めることができ、ユーザ40のAR体験の没入感をより高めることができる。
なお、この実施の形態において、アバター20は、人物を模したオブジェクトであるが、これに限定されず、動物等のキャラクターであってもよい。また、アバター20の映像は、第2ユーザ71の実際の画像を少なくとも一部に含むものに限定されず、全体がCGにより作成されたキャラクターであってもよい。また、アバター20は、第2ユーザ71によって操作されるものに限定されず、AIによって行動を制御されるものであってもよい。
また、映像出力部は、ARゴーグル30のような眼鏡型デバイスに限定されず、ヘッドマウントディスプレイ又はスマートコンタクトレンズ等の他のウェアラブル装置であってもよい。さらに、映像出力部は、ウェアラブル装置に限定されず、室内空間91に設けられた3Dプロジェクターであってもよい。
また、この実施の形態において、映像出力システム100は、車両90の室内空間91におけるAR体験に使用されるものだが、これに限定されず、車両以外の室内環境において使用されてもよい。
また、この実施の形態において、第1オブジェクトであるシート10は、回動可能な背もたれ部10aを有しているが、これに限定されず、背もたれ部10aが動かないもの、又は、背もたれ部がないものであってもよい。シート10の背もたれ部10aが動かない、又は、シート10が背もたれ部を有していない場合は、第1ポテンショメータ15及び第2ポテンショメータ16を位置情報検出部として利用する。
また、この実施の形態において、図2に示すように、アバター20はシート10の背もたれ部10aに背中を付けた状態で出力されるが、これに限定されない。すなわち、アバター20の着座の姿勢及び位置がシート10の位置に自然に対応して見えるものであれば、アバター20の背中がシート10の背もたれ部10aから離れていてもよい。
また、この実施の形態において、シート10の背もたれ部10aの閾値角度は、θ0=90°であるが、これに限定されない。すなわち、シート10の背もたれ部10aの角度が閾値角度以上の時に、アバター20がシート10に干渉せずに、自然な姿勢で着座することが可能であればよい。
また、図7に示すように、背もたれ部10aが前傾位置A2にある時は、リクライニングモータ14は、背もたれ部10aを回動させて、背もたれ部10aの位置を基準位置A0に復元しているが、これに限定されず、背もたれ部10aを、基準位置A0を超えて回動させてもよい。
上記のシート10及び後部座席シート61,62,63は、本発明に係る第1オブジェクトに相当する。上記の着座センサ11及びシートベルトセンサ19は、着座検出部に相当する。上記のリクライニングモータ14は、角度調整部に相当する。上記の第1ポテンショメータ15、第2ポテンショメータ16及び第3ポテンショメータ17は、本発明に係る位置情報検出部に相当する。上記のアバター20は、第2オブジェクトに相当する。上記のARゴーグル30は、映像出力部に相当する。上記のヘッドマウントディスプレイ72は、第2映像出力部に相当する。
100…映像出力システム
1…制御部
10…シート(第1オブジェクト)
10a…背もたれ部
11…着座センサ(着座検出部)
14…リクライニングモータ(角度調整部)
15…第1ポテンショメータ(位置情報検出部)
16…第2ポテンショメータ(位置情報検出部)
17…第3ポテンショメータ(位置情報検出部)
19…シートベルトセンサ(着座検出部)
20…アバター(第2オブジェクト)
30…ARゴーグル(映像出力部)
40…ユーザ
61,62,63…後部座席シート(第1オブジェクト)
71…第2ユーザ
72…ヘッドマウントディスプレイ(第2映像出力部)

Claims (15)

  1. 室内空間に設けられる所定の第1オブジェクトに取り付けられ、前記第1オブジェクトの位置情報を検出する位置情報検出部と、
    前記第1オブジェクトの形状情報を格納する記憶部と、
    前記室内空間に重畳する仮想の第2オブジェクトの映像が出力される映像出力部と、
    前記第1オブジェクトの前記位置情報及び前記形状情報に基づき、仮想の第2オブジェクトが前記第1オブジェクトに対応する位置に配置されるように、前記第2オブジェクトの映像を前記映像出力部に出力する制御部とを備える、映像出力システム。
  2. 前記第1オブジェクトは、車両の室内空間に設けられる、請求項1に記載の映像出力システム。
  3. 前記位置情報検出部は、前記車両に設けられた既設の車内センサである、請求項2に記載の映像出力システム。
  4. 前記第2オブジェクトは、人物を模したオブジェクトである、請求項1~3のいずれか一項に記載の映像出力システム。
  5. 前記制御部は、前記第1オブジェクトの大きさに応じて、前記第2オブジェクトの大きさを調整する、請求項1~4のいずれか一項に記載の映像出力システム。
  6. 前記制御部は、前記第2オブジェクトの映像が前記室内空間の設備に干渉しないように、前記第2オブジェクトの動きの少なくとも一部を制限する、請求項1~5のいずれか一項に記載の映像出力システム。
  7. 前記映像出力部は、ユーザが装着可能なウェアラブル装置である、請求項1~6のいずれか一項に記載の映像出力システム。
  8. 前記映像出力部は、眼鏡型デバイス、ヘッドマウントディスプレイ又はスマートコンタクトレンズである、請求項7に記載の映像出力システム。
  9. 前記映像出力部は、前記室内空間に設けられた3Dプロジェクターである、請求項1~6のいずれか一項に記載の映像出力システム。
  10. 前記第1オブジェクトは、背もたれ部と、前記背もたれ部の角度を調整する角度調整部とを有するシートであり、
    前記位置情報検出部は、前記背もたれ部の角度を含む位置情報を検出し、
    前記制御部は、前記背もたれ部の角度が所定の閾値角度以上である場合に、前記シートの上に重畳する前記第2オブジェクトの映像を前記映像出力部に出力し、
    前記角度調整部は、前記背もたれ部の角度が、前記閾値角度よりも小さい場合、前記背もたれ部を動かし、前記背もたれ部の角度を前記閾値角度以上になるように調整する、請求項1~9のいずれか一項に記載の映像出力システム。
  11. 前記シートについて着座の有無を検出する着座検出部を備え、
    前記着座検出部によって前記シートへの着座が検出された場合、前記制御部は、前記シート以外の他のシートを前記第1オブジェクトとして選択する、請求項10に記載の映像出力システム。
  12. 前記第2オブジェクトの視点から見た前記室内空間の映像が出力される第2映像出力部をさらに備え、
    前記第2映像出力部は、前記室内空間以外の場所に設けられる、請求項1~11のいずれか一項に記載の映像出力システム。
  13. 前記第2オブジェクトは、前記室内空間以外の場所にいる第2ユーザによって操作され、前記第2オブジェクトの映像は、前記第2ユーザの実際の画像を少なくとも一部に含む、請求項12に記載の映像出力システム。
  14. 前記制御部は、
    前記第1オブジェクトの前記位置情報及び前記形状情報に基づき前記第2オブジェクトを前記第1オブジェクトに配置可能か否かを判定し、
    前記第2オブジェクトを前記第1オブジェクトに配置可能である場合は、前記位置情報及び前記形状情報に基づき前記第1オブジェクトの三次元形状を出力し、前記第2オブジェクトが前記第1オブジェクトに対応する位置に配置されるように、前記第2オブジェクトの映像を前記映像出力部に出力する、請求項1~13のいずれか一項に記載の映像出力システム。
  15. 室内空間に設けられる所定の第1オブジェクトに取り付けられる位置情報検出部によって、前記第1オブジェクトの位置情報を検出するステップと、
    前記第1オブジェクトの前記位置情報及び記憶部に格納されている前記第1オブジェクトの形状情報に基づき、前記室内空間に重畳する仮想の第2オブジェクトが前記第1オブジェクトに対応する位置に配置されるように、前記第2オブジェクトの映像を出力するステップとを備える、映像出力方法。
JP2019076227A 2019-04-12 2019-04-12 映像出力システム及び映像出力方法 Active JP7315362B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019076227A JP7315362B2 (ja) 2019-04-12 2019-04-12 映像出力システム及び映像出力方法
JP2023114957A JP7528321B2 (ja) 2019-04-12 2023-07-13 映像出力システム及び映像出力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019076227A JP7315362B2 (ja) 2019-04-12 2019-04-12 映像出力システム及び映像出力方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023114957A Division JP7528321B2 (ja) 2019-04-12 2023-07-13 映像出力システム及び映像出力方法

Publications (2)

Publication Number Publication Date
JP2020173699A JP2020173699A (ja) 2020-10-22
JP7315362B2 true JP7315362B2 (ja) 2023-07-26

Family

ID=72831383

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019076227A Active JP7315362B2 (ja) 2019-04-12 2019-04-12 映像出力システム及び映像出力方法
JP2023114957A Active JP7528321B2 (ja) 2019-04-12 2023-07-13 映像出力システム及び映像出力方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023114957A Active JP7528321B2 (ja) 2019-04-12 2023-07-13 映像出力システム及び映像出力方法

Country Status (1)

Country Link
JP (2) JP7315362B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009195707A (ja) 2008-02-21 2009-09-03 Palo Alto Research Center Inc 位置認識混合現実感ゲームプラットフォーム
JP2014515130A (ja) 2011-03-10 2014-06-26 マイクロソフト コーポレーション 写実的に表されたビューのテーマベースの拡張
WO2014119098A1 (ja) 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
JP2019028618A (ja) 2017-07-27 2019-02-21 富士ゼロックス株式会社 情報処理システム、情報処理装置及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4934577B2 (ja) 2007-12-07 2012-05-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP6780642B2 (ja) 2015-06-15 2020-11-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018166846A (ja) * 2017-03-30 2018-11-01 リンテック株式会社 油脂除去シート、油脂除去方法及びキット
JPWO2018230563A1 (ja) 2017-06-16 2020-02-27 本田技研工業株式会社 車両の画像提供システム、サーバーシステムおよび車両の画像提供方法
JP2020040425A (ja) 2018-09-06 2020-03-19 トヨタ紡織株式会社 空間提供システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009195707A (ja) 2008-02-21 2009-09-03 Palo Alto Research Center Inc 位置認識混合現実感ゲームプラットフォーム
JP2014515130A (ja) 2011-03-10 2014-06-26 マイクロソフト コーポレーション 写実的に表されたビューのテーマベースの拡張
WO2014119098A1 (ja) 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
JP2019028618A (ja) 2017-07-27 2019-02-21 富士ゼロックス株式会社 情報処理システム、情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP2023153811A (ja) 2023-10-18
JP7528321B2 (ja) 2024-08-05
JP2020173699A (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
CN111182940B (zh) 在车辆中无晕动症地观看数字式内容
CN112092704B (zh) 用于自动驾驶车辆的娱乐装置
JP6913765B2 (ja) 移動体内で使用可能な頭部装着型の視覚的出力デバイスのためのモバイルセンサ装置を有する表示システムおよびそれを動作させるための方法
CN111201474B (zh) 运行可佩戴在头部的电子显示装置的方法以及显示虚拟内容的显示系统
CN115631484A (zh) 用于驾驶员姿势监控的方法和系统
CN110383142A (zh) 用于机动车的娱乐系统和用于运行娱乐系统的方法
CN108369344B (zh) 用于运行虚拟现实系统的方法和虚拟现实系统
JP7315362B2 (ja) 映像出力システム及び映像出力方法
US11417050B2 (en) Image adjustment device, virtual reality image display system, and image adjustment method
US20210096361A1 (en) Information processing apparatus, information processing method, and program
JP2004356731A (ja) 車載情報提供装置
US11440407B2 (en) Non-contact operating apparatus for vehicle and vehicle
JP4501518B2 (ja) 車載情報提供装置および車載情報提供装置の制御方法
CN111133367B (zh) 用于至少在第一人员和第二人员之间进行虚拟会晤的方法和系统
KR101750064B1 (ko) 가상체험 시뮬레이션 장치 및 방법
JP7322692B2 (ja) 画像調整装置、バーチャル・リアリティ画像表示システム、及び画像調整方法
JP7443750B2 (ja) バーチャル・リアリティ画像表示システム及びバーチャル・リアリティ画像表示システムの制御方法
JP7443749B2 (ja) 画像調整装置、バーチャル・リアリティ画像表示システム、及び画像調整方法
JP7363454B2 (ja) 画像調整装置、バーチャル・リアリティ画像表示システム、及び画像調整方法
JP7380177B2 (ja) バーチャル・リアリティ画像表示システム及びバーチャル・リアリティ画像表示システムの制御方法
JP7443751B2 (ja) バーチャル・リアリティ画像表示システム及びバーチャル・リアリティ画像表示システムの制御方法
JP7290972B2 (ja) 車両の同乗者コミュニケーション装置
JP2023046339A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2024054988A (ja) 映像表示システム、および映像表示システムを備える車両
JP2004356732A (ja) 車載情報提供装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230713

R150 Certificate of patent or registration of utility model

Ref document number: 7315362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150