JP2013189055A - 設計支援装置、その制御方法及びプログラム - Google Patents

設計支援装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP2013189055A
JP2013189055A JP2012055898A JP2012055898A JP2013189055A JP 2013189055 A JP2013189055 A JP 2013189055A JP 2012055898 A JP2012055898 A JP 2012055898A JP 2012055898 A JP2012055898 A JP 2012055898A JP 2013189055 A JP2013189055 A JP 2013189055A
Authority
JP
Japan
Prior art keywords
image signal
cockpit
image
interior part
design support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012055898A
Other languages
English (en)
Inventor
Hideki Shirai
英樹 白井
Akira Yoshizawa
顕 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2012055898A priority Critical patent/JP2013189055A/ja
Publication of JP2013189055A publication Critical patent/JP2013189055A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automobile Manufacture Line, Endless Track Vehicle, Trailer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】運転席近辺のコックピットの設計において、実際に運転手が乗車した状態でのコックピットのデザイン、使用感の評価は極めて重要である。そのため、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる設計支援装置が、望まれる。
【解決手段】設計支援装置は、表示装置に対し、画像信号の出力が可能な設計支援装置であって、表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置に応じて、内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成部と、を備える。
【選択図】図1

Description

本発明は、設計支援装置、その制御方法及びプログラムに関する。特に、車両のコックピットに関する設計を支援する設計支援装置、その制御方法及びプログラムに関する。
自動車内、とりわけ運転席近辺のコックピットは、運転者が日常的に接する領域であるため、運転席近辺のコックピットのデザインは極めて重要視される。即ち、コックピットのデザイン評価は、実車(試作車)に評価者が乗車し、運転者が実際に乗車する状態を作り出すことが望ましい。しかし、開発期間やコストを考慮すれば、些細なデザイン変更の度に、試作車でコックピットの評価を行うことは現実的ではない。
そこで、特許文献1が開示するように、スクリーンに乗物の操作部を投影して、操作部のレイアウト、操作性を評価する装置の開発が進められている。
また、特許文献2において、乗員装置に装備された操縦機構を介して、操縦者は実際に運転しているかのような体感を得ることができる装置が開示されている。さらに、特許文献3において、原寸大のステアリングを用意し、ゲーム装置を用いて模擬運転を行う装置が開示されている。
特開2005−014903号公報 特開2005−315999号公報 特開2005−173317号公報
なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
上述のとおり、コックピットの設計において、実際に運転手(評価者)が乗車した状態でのデザイン及び使用感の評価は極めて重要である。
そのため、モックアップや試作車を用意し、評価者はステアリングを把持しながら、コックピットのデザインを評価するのが理想的である。しかし、モックアップや試作車の製作の回数は、コストや開発期間の観点から制約を受ける。従って、頻繁にモックアップや試作車を製作できず、全ての評価をモックアップや試作車で行うことはできない。
そこで、ディスプレイ、ステアリング、運転席を組み合わせ、コックピットだけを実車と同等に再現し、コックピットのデザインを評価する方法が考えられる。しかし、このような装置は、大規模な装置となる。装置が大がかりなものであるため、設置場所も広い面積が必要になり、広い面積が確保できない場合には、コックピットと座席の相対位置が実車とは異なったものとならざるを得ない。その結果、実車に運転者が座った時に得られる使用感と、評価装置に座った時に得られる使用感に差が生じ、コックピットの評価の信頼度が低下してしまう(評価する意義が薄くなる)。さらに、デザイン変更のたびに、このような装置を製作する必要があることに変わりない。
また、モックアップや試作車を何度も製作することはできないため、自動車をモデル化したデータをコンピュータ上で再現し、コックピットのデザイン評価が行われる。特許文献1では、このような評価に類する装置を開示している。
しかし、実車を模擬した仮想的な映像によるコックピットの評価では、評価映像の生成の際に、評価映像を映す表示装置と評価者との間の距離や、表示装置を見る際の角度(評価者の姿勢)といった外部要因を考慮しないので、同じ評価映像であっても、評価者が異なれば、違う評価結果となりかねない。即ち、仮想的な映像によるコックピットの評価では、コックピットの概略を評価することはできても、試作車を用いたような、評価者によって違いが顕在化するコックピットの使用感といった細部の評価は行えない。
そのため、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる設計支援装置、その制御方法及びプログラムが、望まれる。
本発明の第1の視点によれば、表示装置に対し、画像信号の出力が可能な設計支援装置であって、前記表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置に応じて、前記内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成部と、を備える設計支援装置が提供される。
本発明の第2の視点によれば、表示装置に対し、画像信号の出力が可能な設計支援装置の制御方法であって、前記表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置を検出する物体位置検出工程と、前記内装部品の位置に応じて、前記内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成工程と、を含む設計支援装置の制御方法が提供される。
本発明の第3の視点によれば、表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置を検出する物体位置検出処理と、前記内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成処理と、前記表示装置に対し、前記画像信号を出力する処理と、をコンピュータに実行させることで、前記コンピュータを設計支援装置として動作させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non−transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
本発明の各視点によれば、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる設計支援装置、その制御方法及びプログラムが、提供される。
一実施形態を説明するための図である。 第1の実施形態に係る設計支援装置1を含むシステム構成の一例を示す図である。 コックピットの映像の一例を示す図である。 第1の実施形態に係る設計支援装置1の内部構成の一例を示す図である。 設計支援装置1の動作の一例を示すフローチャートである。 図2に示すシステムの上面から立体視画像の表示を模擬した一例を示す図である。 図2に示すシステムの側面から立体視画像の表示を模擬した一例を示す図である。 図2に示すシステムの側面から立体視画像の表示を模擬した一例を示す図である。 第2の実施形態に係る設計支援装置1aの内部構成の一例を示す図である。 第3の実施形態に係る設計支援装置1bを含むシステム構成の一例を示す図である。 第3の実施形態に係る設計支援装置1bの内部構成の一例を示す図である。 設計支援装置1bの動作の一例を示すフローチャートである。 図10に示すシステムの上面から立体視画像の表示を模擬した一例を示す図である。 図10に示すシステムの側面から立体視画像の表示を模擬した一例を示す図である。 第4の実施形態に係る設計支援装置1cの内部構成の一例を示す図である。 第5の実施形態に係る設計支援装置1dの内部構成の一例を示す図である。
初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。
上述のように、車両のコックピットの評価の際には、評価者が実車に座った時に得られる使用感を忠実に再現できることが求められる。モックアップや試作車であれば、このような評価を行うことができる。しかし、試作車の製作には多大なコストが必要であるため、何度も試作を繰り返すことはできない。そのため、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる設計支援装置が、望まれる。
そこで、一例として、図1に示す設計支援装置200を提供する。設計支援装置200は、表示装置202に対し、画像信号の出力が可能な設計支援装置200であって、表示装置202と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置に応じて、内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成部201と、を備える。
設計支援装置200は、車両のコックピットに含まれる内装部品を実際に用意することを求める。つまり、ユーザは、表示装置202から映し出されるコックピットに含まれる部品の1つを現実の部品として用意する必要がある。この際、実際に用意する内装部品の一例として、ステアリングが考えられる。設計支援装置200は、この内装部品の位置に応じて、表示装置202から映し出される映像を作り出す。より具体的には、表示装置202から本来映し出されるはずのコックピットの内装部品(仮想的な内装部品)の位置と、現実に存在する内装部品の位置と、が3次元座標系において一致するように画像信号を生成する。例えば、ユーザが実際に把持しているステアリングと、立体視表示されユーザからはディスプレイ前方に飛び出して見えるコックピットモデルと、が3次元座標系において本来あるべき相対位置関係を正しく再現されて見えるようにコックピットを再現する。その際、ユーザと現実の内装部品の相対関係が実車での状況と同じであれば、表示装置202から映し出されるコックピットの映像も実車での状況に極めて近いものとなる。上述のように、内装部品がステアリングであれば、ユーザが実車のステアリングを握った時の感覚で、現実に存在するステアリング(内装部品)を把持すれば、そのユーザの姿勢及び視線にあった映像が提供される。即ち、設計支援装置200は、内装部品の位置に適応させて、実車におけるコックピットを忠実に再現した映像をユーザに提示することができる。従って、モックアップや試作車を何度も製作せずに、コックピットのデザインの評価ができる。また、車両の内装部品のうちの1つの部品の位置が定まればよいため、大規模な装置を用いずに、コックピットのデザインの評価を行うことができる。
本発明において下記の形態が可能である。
[形態1]上記第1の視点に係る設計支援装置のとおりである。
[形態2]前記表示装置は、前記コックピットモデル化データから得られる映像を立体視表示可能であり、前記画像信号生成部は、前記内装部品の位置と、前記内装部品の存在を仮定すれば、前記内装部品に相当する映像が表示されるべき位置と、を一致させる方向に前記コックピットモデル化データから得られる映像を変更することが好ましい。
[形態3]前記画像信号生成部は、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像を含む画像信号を生成し、前記内装部品の位置と、前記内装部品に相当する映像の前記3次元座標系における位置と、が所定の関係にある場合に、前記画像信号生成部に対して、前記コックピットモデル化データから得られる映像を適応的に変更させる操作開始判定部を備えることが好ましい。
[形態4]前記設計支援装置は、さらに、前記3次元座標系における前記内装部品の位置を検出する物体位置検出部を備えることが好ましい。
[形態5]前記物体位置検出部は、前記3次元座標系におけるユーザの両手の位置を前記内装部品の位置として検出することが好ましい。
[形態6]前記設計支援装置は、さらに、車両内のディスプレイが表示する映像を模擬した画像情報を外部から受け付け、前記画像信号生成部に前記画像情報を供給する画像情報取込部を備え、前記画像信号生成部は、前記画像情報に基づいて、前記表示装置に供給する画像信号を生成することが好ましい。
[形態7]前記画像情報には、車内から外部を視覚する際の走行画像が含まれることが好ましい。
[形態8]前記物体位置検出部はユーザの頭部位置を検出可能であり、前記画像信号生成部は、前記頭部位置に基づいて、前記コックピットモデル化データから得られる映像を変更することが好ましい。
[形態9]前記コックピットは、ユーザが運転席に座した際に視認できる部品を含んで構成されることが好ましい。
[形態10]前記内装部品には、ステアリング、シフトレバー、ナビゲーションを表示するディスプレイの少なくともいずれかを含むことが好ましい。
[形態11]上記第2の視点に係る設計支援装置の制御方法のとおりである。
[形態12]前記画像信号生成工程は、前記内装部品の位置と、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像の前記3次元座標系における位置と、を一致させる方向に変更することが好ましい。
[形態13]前記画像信号生成工程は、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像を含む画像信号を生成し、前記画像信号生成工程は、前記内装部品の位置と、前記内装部品に相当する映像の前記3次元座標系における位置と、が所定の関係にある場合に、前記コックピットモデル化データから得られる映像の変更を開始することが好ましい。
[形態14]前記物体位置検出工程は、前記3次元座標系におけるユーザの両手の位置に基づいて、前記内装部品の位置を検出する工程を含むことが好ましい。
[形態15]前記設計支援装置の制御方法は、さらに、車両内のディスプレイが表示する映像を模擬した画像情報を外部から受け付ける工程と、前記画像情報に基づいて、前記表示装置に供給する画像信号を生成する工程と、を含むことが好ましい。
[形態16]前記設計支援装置は、さらに、前記物体位置検出工程がユーザの頭部位置を検出し、前記画像信号生成工程が、前記頭部位置に基づいて、前記コックピットモデル化データから得られる映像を変更することが好ましい。
[形態17]上記第3の視点に係るプログラムのとおりである。
[形態18]前記画像信号生成処理は、前記内装部品の位置と、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像の前記3次元座標系における位置と、を一致させる方向に変更することが好ましい。
[形態19]前記画像信号生成処理は、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像を含む画像信号を生成し、前記画像信号生成処理は、前記内装部品の位置と、前記内装部品に相当する映像の前記3次元座標系における位置と、が所定の関係にある場合に、前記コックピットモデル化データから得られる映像の変更を開始することが好ましい。
[形態20]前記物体位置検出処理は、前記3次元座標系におけるユーザの両手の位置に基づいて、前記内装部品の位置を検出することが好ましい。
[形態21]前記プログラムは、さらに、車両内のディスプレイが表示する映像を模擬した画像情報を外部から受け付ける処理と、前記画像情報に基づいて、前記表示装置に供給する画像信号を生成する処理と、を実行することが好ましい。
[形態22]前記プログラムは、さらに、前記物体位置検出処理がユーザの頭部位置を検出し、前記画像信号生成処理が、前記頭部位置に基づいて、前記コックピットモデル化データから得られる映像を変更することが好ましい。
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
図2は、本実施形態に係る設計支援装置1を含むシステムの構成の一例を示す図である。
図2において、設計支援装置1は、3D対応表示装置2(上述の表示装置202に相当)と接続されている。そして、ユーザは、ステアリング3(上述の内装部品に相当)を把持している。その場合に、設計支援装置1は、ユーザが把持するステアリング3の位置に基づいて、コックピットの立体視画像4(上述のコックピットモデル化データから得られる映像に相当)を生成し、3D対応表示装置2に出力する。3D対応表示装置2は、設計支援装置1が出力する画像信号を受け付け、ユーザが立体視可能なコックピットの立体視画像4を映し出す。なお、本書及び特許請求の範囲におけるコックピットとは、ユーザが運転席に座した際に視認できる部品を含んで構成される車両内部の部品の総称とする。
ここで、ステアリング3の位置を算出するために、3D対応表示装置2の位置を原点とした座標系(以下、3次元座標系と呼ぶ)を定義することが好ましい。さらに、3次元座標系は、3D対応表示装置2の位置と相対するユーザとを含んで形成される座標系であることが好ましい。この場合、3次元座標系は、3D対応表示装置2からユーザに向かう方向をZ軸、3D対応表示装置2からユーザの方向に対して水平方向をX軸、垂直方向をY軸と定義される座標系とすることが好ましい。
ユーザは、ステアリング3を把持しながら、コックピットの立体視画像4を視聴することで、ステアリング3を含めたコックピットのデザインを評価する。その際、設計支援装置1は、ユーザが把持するステアリング3の位置を検出し、検出した位置に基づいて立体視画像4の表示態様を適応的に変更する。その結果、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる。
図3は、コックピットの映像の一例を示す図である。ユーザは、図3に示すような画像が立体視表示された画像を視聴する。
ステアリング3は、ステアリング部分のみから構成される形状であってもよい。あるいは、ステアリング3に軸部が接続され、軸部を介して地面に固定できる形状であってもよい。なお、ステアリング3が、軸部を介して地面に固定できる場合には、ステアリング部分の位置が可変であることが好ましい。ステアリング3の形状及び構造には、多様な形状及び構造が考えられるが、その形状及び構造は問わない。以下の説明では、ステアリング3とは、ユーザが把持できる円環状の装置とする。
さらに、図2において、3D対応表示装置2としてテレビジョンを図示しているが、他の表示装置であってもよい。例えば、3D対応の液晶プロジェクタ等であってもよい。また、図2では、図示していないが、3D対応表示装置2において立体視画像を視聴するために、専用の眼鏡が必要であれば、ユーザは3D対応眼鏡を使用する。
図4は、設計支援装置1の内部構成の一例を示す図である。なお、図4には簡単のため、本実施形態に係る設計支援装置1に関係するモジュールのみを記載する。
設計支援装置1は、立体画像信号生成部10と、モデルデータ読み込み部20と、物体位置検出部30と、表示パラメータ読み込み部40と、から構成されている。
立体画像信号生成部10は、コックピットを模擬した画像信号を生成し、3D対応表示装置2に出力する。この際、立体画像信号生成部10は、3種類のデータを必要とする。なお、立体画像信号生成部10は、上述の画像信号生成部201に相当する。
第1に、評価対象のコックピットをモデル化したモデルデータである。モデルデータは、設計対象となっている車両のコックピットをポリゴンでモデル化する3Dデータである。その際、ポリゴンでモデル化する内装部品は、インパネだけではなく、バックミラー、Aピラー等を含む。即ち、モデルデータには、運転者が座席に座った際におよそ視覚できる全ての構成要素が含まれる。このモデルデータは、設計支援装置1に接続された3Dモデルデータベース5に格納される。モデルデータは、3D対応のCAD(Computer Aided Design)や3DCG(Computer Graphics)対応のアプリケーションにより生成する。
第2に、モデルデータを3D対応表示装置2に出力する際に必要な表示パラメータである。モデルデータは、コックピットの形状をモデル化したデータ(各ポリゴンのXYZ座標に相当)によって構成されているので、ポリゴンにどのようなテキスチャマッピングを施すか、といった内容は含まれていない。そこで、モデルデータが取り得るパラメータをモデルデータとは別に用意する必要がある。それが、表示パラメータである。なお、3Dモデルデータベース5には、複数の車種に対応したモデルデータが格納されているため、表示パラメータも各モデルデータに対応させて用意する必要がある。
表示パラメータには、XYZからなる3D座標系における各軸の表示スケールや、モデルデータをどのような角度でユーザに提供するかを定める回転角度や、各ポリゴンによって構成され、ユーザが視聴する面の質感等を定める反射特性等が、含まれる。
表示パラメータには、立体視表示に関するパラメータが含まれる。例えば、3D対応表示装置2の仕様(サイドバイサイド方式やプログレッシブ方式への対応可否等)や、左右画像の視差量に関する情報を、表示パラメータに含ませることが可能である。表示パラメータは、設計支援装置1に接続された表示パラメータデータベース6に格納される。なお、設計支援装置1と各データベース(3Dモデルデータベース5及び表示パラメータデータベース6)は図4のように直接接続されていてもよいし、ネットワーク及びサーバを介して接続されていてもよい。
第3に、コックピットのモデル化データから得られる映像の3次元座標系における位置に関するデータである。設計支援装置1は、ユーザが把持するステアリング3の位置に基づいて、コックピットのモデルの表示位置を決定する。そのため、設計支援装置1によるステアリング3の位置検出を可能とするため、ステアリング3が距離センサを備えていることが好ましい。なお、距離センサには、赤外線センサ、超音波センサなどがあるが、距離の測定方式は問わない。例えば、赤外線センサの場合には、ステアリング3が赤外線発光部を有し、3D対応表示装置2が赤外線受光部を備える構成としてもよい。
また、例えば、ステアリング3が赤外線発光部を有し、3D対応表示装置2が赤外線受光部を備える場合には、赤外線受光部の位置を3次元座標系の原点として算出することが好ましい。その場合、3次元座標系は、赤外線受光部から赤外線発光部に向けた方向をZ軸、赤外線受光部から赤外線発光部の方向に対して水平方向をX軸、垂直方向をY軸として定義される座標系としてもよい。
以上のように、立体画像信号生成部10は3種類のデータを使用し、3D対応表示装置2に供給する画像信号を生成する。その際、立体画像信号生成部10がモデルデータを使用する際には、モデルデータ読み込み部20が3Dモデルデータベース5にアクセスする。同様に、表示パラメータを使用する際には、表示パラメータ読み込み部40が表示パラメータデータベース6にアクセスする。なお、図4において、3Dモデルデータベース5及び表示パラメータデータベース6は、それぞれ異なるデータベースとして図示しているが、モデルデータ及び表示パラメータは同一のデータベースに格納されていてもよい。さらには、モデルデータ及び表示パラメータは、設計支援装置1が内蔵する記憶装置(図4において図示せず)に格納されていてもよい。
物体位置検出部30は、ステアリング3が備える距離センサの出力に基づいて、ステアリング3の位置を算出する。さらに、ステアリング3が所定の範囲の位置にあるか否か、を物体位置検出部30は判断する。
物体位置検出部30が、ステアリング3は所定の範囲の位置にあると判断した場合、立体画像信号生成部10は、ステアリング3の位置に対応するように、コックピットの立体視画像4の画像信号を生成する。
さらに、立体画像信号生成部10は、ステアリング3の位置(姿勢)の変化に適応して、コックピットの立体視画像4の画像信号を再生成してもよい。具体的には、ステアリング3の位置と、ステアリング3の存在を仮定すれば、ステアリング3に相当する映像が表示されるべき位置と、を一致させる方向にコックピットの立体視画像4を変更する。なお、ステアリング3の姿勢を計測するには、ステアリング3が、3軸の加速度センサ、角度センサ、角速度センサ等のセンサを備えることが好ましい。ステアリング3の姿勢を計測するための方式は各種存在するが、その方式は問わない。
上述のように、立体画像信号生成部10は、モデルデータ等を使用して、ユーザが3D対応表示装置2を介して視聴する画像を生成する。立体画像信号生成部10が画像信号を生成する際に使用するAPI(Application Programming Interface)には、OpenGL(登録商標)等が考えられる。
次に、設計支援装置1の動作について説明する。
図5は、設計支援装置1の動作の一例を示すフローチャートである。
ステップS01において、立体画像信号生成部10が、コックピットの立体視画像4の画像信号を生成する。その後、ステップS02に遷移する。
ステップS02において、物体位置検出部30が、ステアリング3を検出したか否かを判断する。
ステップS03において、物体位置検出部30は、ステアリング3の位置が所定範囲内に存在するか否かを判断する。
ステップS04において、立体画像信号生成部10は、ステアリング3の位置に対応するように、コックピットの立体視画像4の画像信号を生成する。その後、ステップS05に遷移する。
図6は、図2に示すシステムの上面からコックピットの立体視画像4の表示を模擬した一例を示す図である。まず、ユーザは図6の(a)図に示すように、ステアリング3を3D対応表示装置2に向けて把持する。そして、物体位置検出部30が、ステアリング3の位置を測定する。ステアリング3が所定範囲内に存在する場合には、図6の(b)図に示す位置に、立体画像信号生成部10は、コックピットの立体視画像4の画像信号を生成する。
ステップS05において、物体位置検出部30は、ステアリングの位置が変更されたか否かを判断する。
ステップS06において、立体画像信号生成部10は、ステアリング3の位置の変化に適応して、コックピットの立体視画像4の表示位置を更新する。その後、ステップS05に遷移し、処理を継続する。
図7は、図2に示すシステムの側面からコックピットの立体視画像4の表示を模擬した一例を示す図である。まず、ユーザが図7の(a)図に示す位置でステアリングを把持しているとする。その場合、立体画像信号生成部10は、図7の(a)図に示す位置にコックピットが存在していると認識される(ユーザが認識する)ように立体視画像4の画像信号を生成する。その後、図7の(b)図のように、ユーザがステアリング3を移動したとする。その場合、図7の(b)図のように、立体画像信号生成部10は、コックピットの立体視画像4の表示位置を変更する。
ステップS07において、立体画像信号生成部10は、終了指示があったか否かを判断する。
終了指示の一例として、ユーザが、コックピットの評価終了を立体画像信号生成部10に通知してもよい。あるいは、終了指示として、物体位置検出部30から、ステアリング3の検出不能を立体画像信号生成部10に通知してもよい。
なお、本実施形態に係る設計支援装置1は、3D対応表示装置2に立体視画像の画像信号を出力するものとして説明したが、平面画像の画像信号を外部の表示装置に出力することもできる。その場合には、ユーザはコックピットを立体視することはできないが、ステアリング3の位置、姿勢の変化に適応させて、コックピットのモデルの画像の位置、大きさ、回転角度を変更できる。従って、ユーザは、ステアリング3を用いて、コックピットのデザインの評価を行える。
[変形例1]
第1の実施形態に係る設計支援装置1の変形例1として、ユーザが握るシフトレバーを上述の内装部品(現実に存在する内装部品)としてもよい。つまり、立体画像信号生成部10は、シフトレバーの位置に基づき、コックピットの立体視画像4の画像信号を生成する。そして、立体画像信号生成部10は、シフトレバーの位置に応じて、コックピットの立体視画像4の表示位置を変更する。ここで、シフトレバーは、実車での設置位置を想定した位置に存在することが好ましい。
[変形例2]
第1の実施形態に係る設計支援装置1の変形例2として、ナビゲーションを表示するディスプレイ(以下、ナビゲーション用画面と呼ぶ)を現実に存在する内装部品としてもよい。つまり、ナビゲーション用画面を模擬した平面上の板等を設計支援装置1の前方に用意し、立体画像信号生成部10は、ナビゲーション用画面の位置に基づき、コックピットの立体視画像4の画像信号を生成してもよい。さらに加えて、立体画像信号生成部10は、設計支援装置1の前方に用意した板等の位置に合わせてナビゲーション用画面の画像信号を生成してもよい。この場合には、コックピットにおけるナビゲーション画面の位置や表示内容等の評価を含めて行うことができる。板にタッチパネル機能を持たせ、ユーザが自らナビゲーションを操作しながら評価を行うことも可能である。
[変形例3]
本実施形態に係る設計支援装置1において、コックピットの評価を行う車両は、右ハンドル又は左ハンドルのいずれであってもよい。また、設計支援装置1が、ステアリング3を検出した際の初期位置に基づいて、右ハンドルの車両を評価対象とするか、左ハンドルの車両を評価対象とするかを決定しても良い。より具体的には、ユーザが、3D対応表示装置2に向かって右側に座した場合には、右ハンドルの車両を評価し、左側に座した場合には、左ハンドルの車両を評価することが考えられる。あるいは、ユーザが、右ハンドル、又は、左ハンドルを直接指定してもよい。評価の対象となる車両が決定した後は、既に説明したように、ステアリング3の位置に応じて、コックピットの立体視画像4を適応的に変更する。
なお、本実施形態に係る設計支援装置1の各機能は、プログラムを組み込んだ、LSI(Large Scale Integration)等のハードウェア部品である回路部品を実装することにより、その動作をハードウェア的に実現することは勿論として、その機能を提供するプログラムを、記憶装置に格納し、そのプログラムを主記憶部にロードしてCPU(Central Processing Unit)で実行することにより、ソフトウェア的に実現することも可能である。即ち、コンピュータを設計支援装置として機能させることも可能である。
以上のように、本実施形態に係る設計支援装置1では、ユーザがステアリング、シフトレバー、ナビゲーション用画面などの車両の内装部品の位置に応じて、適応的にコックピットの立体視画像を提示することができる。従って、本実施形態に係る設計支援装置1では、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる。そのため、何度も試作を繰り返すことなく、車両の設計コストを低減できる。また、コックピットモデル化データを変更するだけで、評価対象のコックピットのデザインを変更することができる。そのため、デザイン変更のたびに、評価装置を製作する必要がない。
さらに、設計支援装置1では、車両の内装部品の位置に応じて、ユーザに提示するコックピットの映像の位置を変更するため、各評価者に適したコックピットの映像が提示できる。そのため、設計支援装置1では、評価者ごとに異なる要因まで反映したコックピットの評価が行える。
ここで、特許文献1で開示された技術では、実際に乗車した状態でのコックピットのデザインを評価することはできない。また、特許文献2で開示された技術では、装置が大型となり、広い設置場所を必要とする。さらに、特許文献3で開示された技術では、運転装置の操作を評価できるのみで、コックピットのデザイン、使用感を評価できない。対して、本実施形態に係る設計支援装置1では、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる。その結果、試作を繰り返す必要がなくなり、設計コストの低減できる。
[第2の実施形態]
続いて、第2の実施形態について図面を用いて詳細に説明する。
本実施形態では、コックピットの立体視画像4の位置に基づいて、ユーザがステアリング3の位置を移動させる形態について説明する。なお、本実施形態における説明では、第1の実施形態と重複する説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。
第1の実施形態に係る設計支援装置1では、立体画像信号生成部10は、ステアリング3の位置に対応するように、コックピットの立体視画像4の画像信号を生成する。しかし、立体画像信号生成部10では、ユーザが立体視画像4に接した際に、違和感なく立体視画像を視聴できる範囲にステアリング3が存在することを要求している。即ち、ユーザが、3D対応表示装置2からあまりにも離れて座っている場合に、ユーザが違和感なく視聴できる立体視画像を供給することができないためである。言い換えれば、ステアリング3の位置によっては、立体画像信号生成部10は、ステアリング3の位置に対応するように、コックピットの立体視画像4の画像信号を生成できない可能性がある。そこで、本実施形態に係る設計支援装置1aでは、ガイドとなる表示を行い、このガイド表示に従って、ユーザがステアリング3の位置を移動させる。
図8は、図2に示すシステムの側面からコックピットの立体視画像4の表示を模擬した一例を示す図である。第1の実施形態に係る設計支援装置1は、図8の(a)図に示すように、ステアリング3の位置に対応するように、コックピットの立体視画像4の画像信号を生成する。これに対し、本実施形態に係る設計支援装置1aでは、コックピットの立体視画像4に含まれるガイド表示に対応するように、ユーザがステアリング3の位置を調整する。つまり、図8の(b)図に示すように、ユーザは、表示されるコックピットの立体視画像4に含まれるガイド表示に対応するように、ステアリング3を移動する。なお、ガイド表示は、ユーザが把持するステアリング3を誘導するものであれば、どのようなものであってもよいが、ユーザがステアリングを把持しているのであれば、ガイド表示もステアリングを模した表示であることが望ましい。つまり、ユーザは、設計支援装置1aが表示する仮想的なステアリング(ガイド表示)に合わせるように、自らが把持するステアリングを移動するインターフェイスを実現する。
図9は、本実施形態に係る設計支援装置1aの内部構成の一例を示す図である。図4と図9の相違点は、操作開始判定部50を備える点である。
本実施形態に係る立体画像信号生成部10aは、コックピットの立体視画像4の画像信号を生成する。そして、立体画像信号生成部10aは、ステアリング目標位置にステアリングの画像信号を生成する。ステアリング目標位置とは、ユーザが把持しているステアリング3の配置を望む位置である。
そして、操作開始判定部50は、ステアリング3の位置と、ステアリングの画像の位置と、が所定の関係にあるか否かを判定する。具体的には、立体画像信号生成部10aは、ステアリング目標位置を把握しているため、操作開始判定部50は、ステアリングの画像(ガイド表示)の表示位置に対して、ステアリング3の位置が所定の範囲内であるか否かを判定できる。あるいは、ユーザがステアリング3を目標位置に移動した後に、ユーザがボタンを押下するなどして、操作開始判定部50に対して、ステアリング3が目標位置に到達したことを通知してもよい。
そして、操作開始判定部50が、ステアリング3の位置と、ステアリングの画像(ガイド表示)の位置と、が所定の関係にあると判定したとする。その後は、立体画像信号生成部10aは、ステアリング3の位置(姿勢)に適応して、コックピットの立体視画像4の画像信号を再生成する。なお、操作開始判定部50がステアリング3の位置と、ステアリングの画像の位置と、が所定の関係にあると判定した場合には、立体画像信号生成部10aは、ステアリング目標位置の表示を非表示としてもよい。ステアリング目標位置の表示を非表示にすることで、ユーザがステアリング目標位置を示す画像と、ユーザが把持するステアリング3との混同することを防ぐことができる。
以上のように、本実施形態に係る設計支援装置1aでは、表示されるコックピットの立体視画像4に基づいて、ユーザがステアリング3を移動する。設計支援装置1aは、ステアリング目標位置をユーザに提示するため、よりユーザにとって使いやすい設計支援装置が提供できる。
[第3の実施形態]
続いて、第3の実施形態について図面を参照して詳細に説明する。
本実施形態では、ユーザがステアリング3を把持せず、ユーザの姿勢に基づいて、設計支援装置がステアリングの立体視画像を提示する形態について説明する。なお、本実施形態における説明では、第1の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。
第1の実施形態に係る物体位置検出部30は、ステアリング3が備える距離センサの出力に基づいて、ステアリング3の位置を検出した。さらに、本実施形態に係る物体位置検出部30bは、人体の部位の位置(以下、スケルトン情報と呼ぶ)を検出する機能を備える。物体位置検出部30bは、スケルトン情報を生成した後に、ユーザの両手の位置をステアリングの位置として検出する。スケルトン情報とは、人物の頭部位置、左右の腕部、左右の脚部、胴体などの人体の部位の位置情報である。
ここで、物体位置検出部30bは、距離画像に基づいて、スケルトン情報を生成することが好ましい。距離画像とは、物体までの距離情報が画素値として表現される画像情報である。さらに、距離画像を取得するためには、空間を撮像して距離画像を出力する距離画像センサを利用することが好ましい。ここで、距離画像を得る方式は、TOF(Time Of Flight)方式などがあるが、その方式は問わない。以下、本実施形態では、距離画像を出力する装置を距離測定装置8とする。
図10は、本実施形態に係る設計支援装置1bを含むシステムの構成の一例を示す図である。
図10において、設計支援装置1bは、3D対応表示装置2、距離測定装置8と接続されている。なお、図10では、設計支援装置1b、距離測定装置8をそれぞれ異なる構成要素として記載しているが、距離測定装置8は、設計支援装置1bに含まれていてもよい。また、距離測定装置8は、距離画像センサを含んで構成される装置であることが好ましい。
また、本実施形態において、距離測定装置8の位置を3次元座標系の原点として算出することが好ましい。以下の説明では、3次元座標系は、距離測定装置8からユーザに向かう方向をZ軸、距離測定装置8からユーザの方向に向かって水平方向をX軸、垂直方向をY軸として定義される座標系とする。
図11は、本実施形態に係る設計支援装置1bの内部構成の一例を示す図である。図4と図11の相違点は、物体位置検出部30bにおいて、距離測定装置8の出力を取得する点である。
上述のとおり、物体位置検出部30bは、距離測定装置8によって得られる距離画像に基づいて、ユーザのスケルトン情報を生成する。例えば、人体の各部位の相対位置関係を利用した姿勢推定アルゴリズムに基づき、スケルトン情報を算出してもよい。なお、姿勢推定アルゴリズムは、各種存在するが、その詳細は問わない。
そして、スケルトン情報に基づいて、立体画像信号生成部10bは、ステアリングの立体視画像7の画像信号を生成する。ここで、ユーザがステアリングを把持する姿勢に適合するように、立体画像信号生成部10bはステアリングの立体視画像7の画像信号を生成することが好ましい。より具体的には、ステアリングの立体視画像7を左右の腕の先端(即ち、両手)の位置に基づいて、立体画像信号生成部10bがステアリングの立体視画像7の画像信号を生成することが考えられる。その場合には、ユーザの両手の位置と重なる位置に、立体画像信号生成部10bはステアリングの立体視画像7の画像信号を生成する。
あるいは、物体位置検出部30bによって、ユーザのステアリングを把持する姿勢が検出された後、立体画像信号生成部10bはステアリングの立体視画像7の画像信号を生成してもよい。
また、物体位置検出部30bによって、ユーザがステアリングを把持する姿勢であることが検出されるまで、立体画像信号生成部10bは、予め定めた初期位置に映像が表示されるように、ステアリングの立体視画像7の画像信号を生成してもよい。その場合には、物体位置検出部30bによって、ユーザのステアリングを把持する姿勢が検出された後、物体位置検出部30bは立体画像信号生成部10bにユーザの姿勢への適応開始を通知する。その後、ユーザがステアリングを把持することを模擬する位置に映像を表示できるように、立体画像信号生成部10bはステアリングの立体視画像7の画像信号を再生成する。
あるいは、設計支援装置1bが、ユーザにステアリングを把持する姿勢をとるように指示してもよい。若しくは、所定の待ち時間が経過した場合は、自動的に立体画像信号生成部10bがステアリングの立体視画像7の画像信号を生成してもよい。
さらに、ユーザの姿勢への適応を開始するタイミングを、ユーザから設計支援装置1bに対して通知してもよい。例えば、ユーザが所定のジェスチャ(親指を立てるなど)をして、ユーザの姿勢への適応を開始するタイミングを設計支援装置1bに通知してもよい。
ユーザの姿勢への適応開始後には、立体画像信号生成部10bは、ステアリングの立体視画像7の表示位置に対応する位置に、コックピットの立体視画像4の画像信号を生成する。
次に、設計支援装置1bの動作について説明する。
図12は、設計支援装置1bの動作の一例を示すフローチャートである。
ステップS11において、物体位置検出部30bが、ユーザのスケルトン情報を検出したか否かを判断する。
ステップS12において、立体画像信号生成部10bが、ユーザの姿勢への適応開始の通知を受けたか否かを判断する。
ステップS13において、立体画像信号生成部10bは、ステアリングの立体視画像7の画像信号を生成する。例えば、ユーザの両手の位置と重なる位置にステアリングの立体視画像7の画像信号を生成してもよい。その後、ステップS14に遷移する。
図13は、図10に示すシステムの上面からステアリングの立体視画像7の表示及びコックピットの立体視画像4の表示を模擬した一例を示す図である。なお、図13では、ユーザがステアリングを把持する姿勢をとった場合に、ユーザの姿勢への適応を開始するとする。つまり、ユーザは図13の(a)図に示すように、ステアリングを把持する姿勢をとる。距離測定装置8が、ユーザの人体部位の位置を測定する。そして、物体位置検出部30bが、ユーザのスケルトン情報を検出する。そして、ユーザのステアリングを把持する姿勢が検出された場合、図13の(b)図に示す位置に、立体画像信号生成部10bは、ステアリングの立体視画像7及びコックピットの立体視画像4の画像信号を生成する。
ステップS14において、立体画像信号生成部10bは、ステアリングの立体視画像7の位置に対応するように、コックピットの立体視画像4の画像信号を生成する。その後、ステップS15に遷移する。
図14は、図10に示すシステムの側面からステアリングの立体視画像7の表示及びコックピットの立体視画像4の表示を模擬した一例を示す図である。まず、ユーザの姿勢は、図14の(a)図に示す姿勢とする。この場合には、立体画像信号生成部10bは、図14の(a)図に示す位置に、ステアリングの立体視画像7及びコックピットの立体視画像4の画像信号を生成する。その後、図14の(b)図のように、ユーザが腕を動かしたとする。その場合には、図14の(b)図に示すように、立体画像信号生成部10bは、ステアリングの立体視画像7及びコックピットの立体視画像4の表示位置を変更する。
ステップS15において、物体位置検出部30bは、ユーザのステアリングを把持する姿勢を検出する否かを判断する。
ステップS16において、物体位置検出部30bは、ユーザの姿勢の変更を検出するか否かを判断する。
ステップS17において、立体画像信号生成部10bは、ユーザの姿勢に適応させて、立体視画像4及び7の位置や回転角度を変更する。
[変形例1]
第1の実施形態に係る設計支援装置1の変形例1と同様に、立体画像信号生成部10bは、ユーザがシフトレバーを握る姿勢に基づき、コックピットの立体視画像4の画像信号を生成してもよい。そして、ユーザの手の位置に応じて、立体画像信号生成部10bは、コックピットの立体視画像4の表示位置を変更してもよい。
[変形例2]
第1の実施形態に係る設計支援装置1の変形例2と同様に、立体画像信号生成部10bは、ナビゲーション用画面などの車両の内装部品のディスプレイ用の画像信号を生成してもよい。さらに、立体画像信号生成部10bは、ユーザの指の動きに応じて、ディスプレイの表示内容を変更してもよい。
以上のように、本実施形態に係る設計支援装置1bは、ユーザの姿勢に基づいて、コックピットの立体視画像4、ステアリングの立体視画像7又はナビゲーション用画面などの車両の内装部品の立体視画像を生成する。このように、第3の実施形態に係る設計支援装置1bでは、ユーザがステアリングなどを把持する必要はない。そのため、より一層、コックピットの使用感を容易に評価できる。
[第4の実施形態]
続いて、第4の実施形態について図面を参照して詳細に説明する。
本実施形態では、ユーザの頭部の位置に適応させて、コックピットの立体視画像4の画像信号を生成する形態について説明する。なお、本実施形態における説明では、第1の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。
図15は、本実施形態に係る設計支援装置1cの内部構成の一例を示す図である。
本実施形態に係る物体位置検出部30cは、距離測定装置8によって得られる距離画像に基づいて、スケルトン情報を生成してユーザの頭部の位置を検出することが好ましい。さらに、物体位置検出部30cは、ステアリング3が備える距離センサの出力に基づいて、ステアリング3の位置を検出することが好ましい。
あるいは、物体位置検出部30cは、距離測定装置8によって得られる距離画像に基づいて、3D対応表示装置2の前方に座っているユーザの頭部の位置を検出してもよい。具体的には、物体位置検出部30cは、カメラを用いて、ユーザの顔を含む画像を取得する。その後、物体位置検出部30cは、取得した画像に基づいて、ユーザの顔の位置を検出する画像処理を行う。
または、ユーザの眼の位置に基づいて、立体画像信号生成部10cは、立体視画像を生成してもよい。具体的には、物体位置検出部30cは、ユーザの眼を含む顔画像を取得し、取得した顔画像から眼球が存在する領域を特定する画像処理を行ってもよい。
物体位置検出部30cが頭部の位置を検出した後に、立体画像信号生成部10cは、頭部の位置に応じて、ユーザに提示する立体視画像を最適な表示位置に変更する。その結果、ステアリング3の位置を固定した状態でユーザが頭を動かした場合でも、立体画像信号生成部10cは、違和感のない立体視画像の画像信号を生成できる。
以上のように、本実施形態に係る設計支援装置1cでは、ユーザの頭部の位置を検出し、立体視画像の生成に反映する。そのため、より一層、実車におけるコックピットの使用感を忠実に再現し、その評価を容易に行うことができる。
[第5の実施形態]
続いて、第5の実施形態について説明する。
本実施形態では、走行シミュレータ装置と連携し、ユーザに運転操作を体験させる形態について説明する。なお、本実施形態における説明では、第1の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。
図16は、本実施形態に係る設計支援装置1dの内部構成の一例を示す図である。図4と図16の相違点は、走行シミュレータ装置9、及び画像情報取込部60を備える点である。
走行シミュレータ装置9は、画像情報取込部60に対して、車内から外部を視覚する際の走行時の画像情報(以下、走行画像と呼ぶ)を出力する。あるいは、コックピットのモデル化データに、車両内に搭載されるディスプレイを追加し、走行シミュレータ装置9が、走行状況に即したディスプレイの画像情報を画像情報取込部60に供給してもよい。
そして、立体画像信号生成部10dは、画像情報取込部60から走行画像を取得する。また、走行シミュレータ装置9は、ステアリング3の回転角度に応じて、走行画像等を変更する。なお、走行シミュレータ装置9は、図16のように直接接続されていてもよいし、ネットワーク及びサーバを介して接続されていてもよい
さらに、アクセル、ブレーキなどを用意してもよい。例えば、ユーザがアクセルを踏む操作を行えば、走行シミュレータ装置9は、画像情報取込部60に対して車両が加速した際の画像を提供する。また、ブレーキを踏む操作を行えば、走行シミュレータ装置9は、画像情報取込部60に対して、車両が停止する際の画像を提供する。そして、立体画像信号生成部10dは、画像情報取込部60から、画像を取得する。
あるいは、ユーザの足の動きを検出して、アクセル又はブレーキの動作を模擬してもよい。例えば、右足を強く踏み込めば加速した映像を提供し、右足の踏み込みを緩めれば減速した映像を提供してもよい。
また、第3の実施形態と同様に、立体画像信号生成部10dは、ユーザの姿勢に基づいて、ステアリングの立体視画像7の画像信号を生成してもよい。
以上のように、本実施形態に係る設計支援装置1dでは、走行シミュレータ装置9と連携し、走行画像等を提供する。その結果、より一層、実車に乗車する場合に近い感覚で、コックピットの使用感を評価できる。
上述の各実施形態では、1つの部品の位置に基づき、ユーザに提示するコックピットの画像信号を生成及び変更する形態について説明した。しかし、複数の部品の位置に基づき、ユーザに提示する画像信号を生成及び変更して、コックピットの使用感を評価することも可能であることは勿論である。
なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。
1、1a、1b、1c、1d、200 設計支援装置
2 3D対応表示装置
3 ステアリング
4 コックピットの立体視画像
5 3Dモデルデータベース
6 表示パラメータデータベース
7 ステアリングの立体視画像
8 距離測定装置
9 走行シミュレータ装置
10、10a、10b、10c、10d 立体画像信号生成部
20 モデルデータ読み込み部
30、30a、30b、30c、30d 物体位置検出部
40 表示パラメータ読み込み部
50 操作開始判定部
60 画像情報取込部
201 画像信号生成部
202 表示装置

Claims (22)

  1. 表示装置に対し、画像信号の出力が可能な設計支援装置であって、
    前記表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置に応じて、前記内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成部と、
    を備えることを特徴とする設計支援装置。
  2. 前記表示装置は、前記コックピットモデル化データから得られる映像を立体視表示可能であり、
    前記画像信号生成部は、前記内装部品の位置と、前記内装部品の存在を仮定すれば、前記内装部品に相当する映像が表示されるべき位置と、を一致させる方向に前記コックピットモデル化データから得られる映像を変更する請求項1に記載の設計支援装置。
  3. 前記画像信号生成部は、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像を含む画像信号を生成し、
    前記内装部品の位置と、前記内装部品に相当する映像の前記3次元座標系における位置と、が所定の関係にある場合に、前記画像信号生成部に対して、前記コックピットモデル化データから得られる映像を適応的に変更させる操作開始判定部を備える請求項1又は2に記載の設計支援装置。
  4. さらに、前記3次元座標系における前記内装部品の位置を検出する物体位置検出部を備える請求項1乃至3のいずれか一に記載の設計支援装置。
  5. 前記物体位置検出部は、前記3次元座標系におけるユーザの両手の位置を前記内装部品の位置として検出する請求項4に記載の設計支援装置。
  6. さらに、車両内のディスプレイが表示する映像を模擬した画像情報を外部から受け付け、前記画像信号生成部に前記画像情報を供給する画像情報取込部を備え、
    前記画像信号生成部は、前記画像情報に基づいて、前記表示装置に供給する画像信号を生成する請求項1乃至5のいずれか一に記載の設計支援装置。
  7. 前記画像情報には、車内から外部を視覚する際の走行画像が含まれる請求項6に記載の設計支援装置。
  8. 前記物体位置検出部はユーザの頭部位置を検出可能であり、
    前記画像信号生成部は、前記頭部位置に基づいて、前記コックピットモデル化データから得られる映像を変更する請求項4乃至7のいずれか一に記載の設計支援装置。
  9. 前記コックピットは、ユーザが運転席に座した際に視認できる部品を含んで構成される請求項1乃至8のいずれか一に記載の設計支援装置。
  10. 前記内装部品には、ステアリング、シフトレバー、ナビゲーションを表示するディスプレイの少なくともいずれかを含む請求項1乃至9のいずれか一に記載の設計支援装置。
  11. 表示装置に対し、画像信号の出力が可能な設計支援装置の制御方法であって、
    前記表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置を検出する物体位置検出工程と、
    前記内装部品の位置に応じて、前記内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成工程と、
    を含むことを特徴とする設計支援装置の制御方法。
  12. 前記画像信号生成工程は、前記内装部品の位置と、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像の前記3次元座標系における位置と、を一致させる方向に変更する請求項11に記載の設計支援装置の制御方法。
  13. 前記画像信号生成工程は、
    前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像を含む画像信号を生成し、
    前記画像信号生成工程は、前記内装部品の位置と、前記内装部品に相当する映像の前記3次元座標系における位置と、が所定の関係にある場合に、前記コックピットモデル化データから得られる映像の変更を開始する請求項11又は12に記載の設計支援装置の制御方法。
  14. 前記物体位置検出工程は、前記3次元座標系におけるユーザの両手の位置を前記内装部品の位置として検出する工程を含む請求項11乃至13のいずれか一に記載の設計支援装置の制御方法。
  15. さらに、車両内のディスプレイが表示する映像を模擬した画像情報を外部から受け付ける工程と、
    前記画像情報に基づいて、前記表示装置に供給する画像信号を生成する工程と、
    を含む請求項11乃至14のいずれか一に記載の設計支援装置の制御方法。
  16. 前記物体位置検出工程はユーザの頭部位置を検出し、
    前記画像信号生成工程は、前記頭部位置に基づいて、前記コックピットモデル化データから得られる映像を変更する請求項11乃至15のいずれか一に記載の設計支援装置の制御方法。
  17. 表示装置と相対するユーザとを含んで形成される3次元座標系に存在する車両の内装部品の位置を検出する物体位置検出処理と、
    前記内装部品を構成要素の一部とするコックピットをモデル化したコックピットモデル化データから得られる映像を適応的に変更した画像信号を生成する画像信号生成処理と、
    前記表示装置に対し、前記画像信号を出力する処理と、
    をコンピュータに実行させることで、前記コンピュータを設計支援装置として動作させるプログラム。
  18. 前記画像信号生成処理は、前記内装部品の位置と、前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像の前記3次元座標系における位置と、を一致させる方向に変更する請求項17に記載のプログラム。
  19. 前記画像信号生成処理は、
    前記コックピットモデル化データから得られる映像であって、前記内装部品に相当する映像を含む画像信号を生成し、
    前記画像信号生成処理は、前記内装部品の位置と、前記内装部品に相当する映像の前記3次元座標系における位置と、が所定の関係にある場合に、前記コックピットモデル化データから得られる映像の変更を開始する請求項17又は18に記載のプログラム。
  20. 前記物体位置検出処理は、前記3次元座標系におけるユーザの両手の位置を前記内装部品の位置として検出する請求項17乃至19のいずれか一に記載のプログラム。
  21. さらに、車両内のディスプレイが表示する映像を模擬した画像情報を外部から受け付ける処理と、
    前記画像情報に基づいて、前記表示装置に供給する画像信号を生成する処理と、
    を実行する請求項17乃至20のいずれか一に記載のプログラム。
  22. 前記物体位置検出処理はユーザの頭部位置を検出し、
    前記画像信号生成処理は、前記頭部位置に基づいて、前記コックピットモデル化データから得られる映像を変更する請求項17乃至21のいずれか一に記載のプログラム。
JP2012055898A 2012-03-13 2012-03-13 設計支援装置、その制御方法及びプログラム Pending JP2013189055A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012055898A JP2013189055A (ja) 2012-03-13 2012-03-13 設計支援装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055898A JP2013189055A (ja) 2012-03-13 2012-03-13 設計支援装置、その制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2013189055A true JP2013189055A (ja) 2013-09-26

Family

ID=49389814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055898A Pending JP2013189055A (ja) 2012-03-13 2012-03-13 設計支援装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2013189055A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042734A (ja) * 2018-09-13 2020-03-19 スズキ株式会社 視認性評価システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06507736A (ja) * 1991-03-21 1994-09-01 アタリ ゲームズ コーポレーション ヘリコプタのフライト・シミュレータ
JPH07271289A (ja) * 1994-03-30 1995-10-20 Mazda Motor Corp シミュレーション装置
JPH0887232A (ja) * 1994-09-14 1996-04-02 Ishikawajima Harima Heavy Ind Co Ltd 操船シミュレータの模擬視界表示装置
JP2004164334A (ja) * 2002-11-13 2004-06-10 Mazda Motor Corp 企画支援プログラム、方法、装置並びに記憶媒体
JP2004302674A (ja) * 2003-03-28 2004-10-28 Mazda Motor Corp 企画支援システム、方法、プログラム、装置並びに記録媒体
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP2006277368A (ja) * 2005-03-29 2006-10-12 Mazda Motor Corp 車両企画支援システム
JP2007219869A (ja) * 2006-02-17 2007-08-30 Nagoya Institute Of Technology 仮想現実感呈示装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06507736A (ja) * 1991-03-21 1994-09-01 アタリ ゲームズ コーポレーション ヘリコプタのフライト・シミュレータ
JPH07271289A (ja) * 1994-03-30 1995-10-20 Mazda Motor Corp シミュレーション装置
JPH0887232A (ja) * 1994-09-14 1996-04-02 Ishikawajima Harima Heavy Ind Co Ltd 操船シミュレータの模擬視界表示装置
JP2004164334A (ja) * 2002-11-13 2004-06-10 Mazda Motor Corp 企画支援プログラム、方法、装置並びに記憶媒体
JP2004302674A (ja) * 2003-03-28 2004-10-28 Mazda Motor Corp 企画支援システム、方法、プログラム、装置並びに記録媒体
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP2006277368A (ja) * 2005-03-29 2006-10-12 Mazda Motor Corp 車両企画支援システム
JP2007219869A (ja) * 2006-02-17 2007-08-30 Nagoya Institute Of Technology 仮想現実感呈示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大島登志一外2名: "実体触知機能を重視した複合現実感システム−自動車インテリア・デザイン検証への応用−", 日本バーチャルリアリティ学会論文誌, vol. 9, no. 1, JPN6014020832, 31 March 2004 (2004-03-31), pages 79 - 87, ISSN: 0002815669 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042734A (ja) * 2018-09-13 2020-03-19 スズキ株式会社 視認性評価システム
JP7120572B2 (ja) 2018-09-13 2022-08-17 スズキ株式会社 視認性評価システム

Similar Documents

Publication Publication Date Title
CN108475120B (zh) 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统
US11900832B2 (en) Tactile responsive surface for virtual reality training device
US9041622B2 (en) Controlling a virtual object with a real controller device
JP6027747B2 (ja) 空間相関したマルチディスプレイヒューマンマシンインターフェース
JP2009276996A (ja) 情報処理装置、情報処理方法
CN110476142A (zh) 虚拟对象用户界面显示
CN103744518B (zh) 立体交互方法及其显示装置和系统
US20190240573A1 (en) Method for controlling characters in virtual space
JP2009069918A (ja) 情報処理装置、情報処理方法
JP2011521318A (ja) インタラクティブな仮想現実画像生成システム
KR101518727B1 (ko) 입체 인터랙션 시스템 및 입체 인터랙션 방법
WO2014034550A1 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
KR101710000B1 (ko) 모션 추적 기반 3차원 인터페이스 장치 및 그 방법
Williams et al. Torso versus gaze direction to navigate a ve by walking in place
US10895950B2 (en) Method and system for generating a holographic image having simulated physical properties
JP5816032B2 (ja) 入力装置、入力処理プログラム、入力処理方法、入力処理システム
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2015018074A (ja) 乗り物の運転シミュレーション装置
JP2013189055A (ja) 設計支援装置、その制御方法及びプログラム
Papa et al. A new interactive railway virtual simulator for testing preventive safety
JP2006259363A (ja) 運転模擬試験装置
JP2013130928A (ja) 設計支援装置、設計支援方法及びプログラム
KR20120065186A (ko) 혼합현실 기반 자동차 디자인 검증 장치 및 방법
FR3023626A3 (fr) Dispositif de navigation en realite virtuelle comportant une interface haptique
KR100951166B1 (ko) 근골격계 인체모델을 이용한 자동차 내장설계 시스템 및방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141202