JP2004280156A - 画像処理方法、シミュレーション装置、プログラム及び記録媒体 - Google Patents
画像処理方法、シミュレーション装置、プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP2004280156A JP2004280156A JP2003066761A JP2003066761A JP2004280156A JP 2004280156 A JP2004280156 A JP 2004280156A JP 2003066761 A JP2003066761 A JP 2003066761A JP 2003066761 A JP2003066761 A JP 2003066761A JP 2004280156 A JP2004280156 A JP 2004280156A
- Authority
- JP
- Japan
- Prior art keywords
- image
- driver
- vehicle
- camera
- visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】第1カメラ102で撮影した動画から、フレーム毎に第2カメラで撮影された画像領域と対応する領域の部分画像を抽出する。撮影された全フレームに対して、部分画像の抽出処理を繰返すことにより視認性評価用の背景映像を生成する。視認性評価用の背景映像(実写動画)と企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、企画車両の運転者から見えると推定される視認性評価用の動画を生成する。そして、その動画を用いて企画車両の視認性を評価する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、車両の企画立案を支援する方法に関する。
【0002】
【従来の技術】
従来から、企画した車両の車内からの視認性評価を行う場合には、試作車や、インテリアをかたどったクレーモデルを作成していた。
【0003】
【発明が解決しようとする課題】
従って、従来の企画立案作業においては、試作車やクレーモデルの作成に多大な労力を費やしており、大幅な時間及びコストがかかるという問題があった。
【0004】
一方、企画車両を仮想的に表現するコンピュータグラフィックス画像を生成し、そのコンピュータグラフィックス画像を用いて視認性評価を行う試みが実現しつつある。しかし、企画車両の運転者から見える風景画像をコンピュータグラフィックス画像で表現すると、現実感が薄くなりすぎて視認性の正確な評価が困難になるという問題がある。
【0005】
また、企画車両の運転者から見える風景画像をコンピュータグラフィックス画像で表現する場合には、そのコンピュータグラフィックス画像の生成に、非常に長い時間と大きな手間がかかってしまう。このため、様々な風景画像を簡易に生成することができず、画一的な視認性評価しかできなくなる。更に、再生する際にコンピュータの処理が過大となる。
【0006】
本発明は、このような従来技術の課題を解決するためになされたもので、その目的とするところは、企画車両の視認性を評価するのに適した画像を迅速かつ手軽に生成することのできる画像処理方法、そのような画像を用いて企画車両の視認性を評価するシミュレーション装置、プログラム並びに記録媒体を提供することである。
【0007】
【課題を解決するための手段】
上記目的を達成するため、本発明に係る方法は、企画車両における運転時の視認性を評価するための画像を生成する画像処理方法であって、走行中の既存車両の周辺画像を撮影する撮影工程と、前記既存車両に乗車している運転者の視界領域を取得する取得工程と、前記撮像工程で撮影した画像から、前記取得工程によって取得した視界領域の部分画像を抽出する工程と、を有することを特徴とする。
【0008】
前記抽出工程で抽出した前記部分画像と、前記企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示する表示工程を更に有することを特徴とする。
【0009】
前記撮影工程は、前記既存車両の外部表面に取付けられた第1カメラによって前記企画車両の周辺画像を撮影する工程であって、前記生成工程は、前記撮影工程で撮影された周辺画像を、前記第1カメラと前記運転者の視点との位置の違いに応じて補正する工程を含むことを特徴とする。前記取得工程は、前記運転者の頭部に取付けた第2カメラによって前記運転者の視線方向を撮影する工程であることを特徴とする。前記取得工程は、第3カメラによって前記運転者の頭部を撮影する工程を含み、前記運転者の頭部の動きから前記運転者の視界領域を検出することを特徴とする。
【0010】
上記目的を達成するため、本発明に係る装置は、企画車両における運転時の視認性を評価するためのシミュレーション装置であって、既存車両に取付けられたカメラによって撮影された周辺画像を入力する入力手段と、前記既存車両に乗車している運転者の視界領域を取得する取得手段と、前記入力手段で入力した周辺画像から、前記取得手段によって取得した視界領域の部分画像を抽出する抽出手段と、前記抽出手段で抽出した前記部分画像と、前記企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示する表示手段と、を有することを特徴とする。
【0011】
更に、前記入力手段で入力した前記周辺画像を、前記カメラと前記運転者の視点との位置の違いに応じて補正する手段を有することを特徴とする。
【0012】
上記目的を達成するため、本発明に係るプログラムは、コンピュータを、企画車両における運転時の視認性を評価するシミュレーション装置として機能させるためのプログラムであって、前記コンピュータに、既存車両に取付けられたカメラによって撮影された走行中の周辺画像を入力する入力手段と、前記既存車両に乗車している運転者の視界領域を取得する取得手段と、前記入力手段で入力した周辺画像から、前記取得手段によって取得した視界領域の部分画像を抽出する抽出手段と、前記抽出手段で抽出した前記部分画像と、前記企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示する表示手段としての機能を実現させることを特徴とする。
【0013】
上記目的を達成するため、本発明に係る記憶媒体は、上記プログラムを格納したことを特徴とする。
【0014】
【発明の効果】
本発明によれば、企画車両の運転手から見えると推定される風景を実写画像で表すことができる。これにより、企画車両の視認性の評価をより正確に行うことができる。様々な走行環境で企画車両を走行させたと仮定した場合の風景画像を簡易に生成することができる。
【0015】
更に、そのように生成した実写風景画像と企画車両のインテリアを表すコンピュータグラフィックス画像を重畳して視認性評価用画像を生成し、視認性の評価を行えば、試作車やインテリアのクレーモデルを作成する場合に比べ、車両の企画立案に必要な時間及びコストを大幅に削減することができる。
【0016】
また、既存車両の外部表面に取付けられたカメラによって撮影した画像から運転者の視界領域の部分画像を抽出して、カメラ位置と運転者の視点位置の違いに応じて部分画像を補正すれば、より正確な視認性評価用画像を得ることができる。これにより、高い精度で視認性の評価を行うことができる。
【0017】
また、運転者の頭部に取付けたカメラで撮影すれば、運転者の視界領域を容易かつ正確に求めることができ、より正確な視認性評価用画像を得ることができる。これにより、高い精度で視認性の評価を行うことができる。
【0018】
また、運転者の頭部の動きをカメラで撮影すれば、運転中の運転者の視界領域の変化などを正確に検出することができ、より正確な視認性評価用画像を得ることができる。これにより、高い精度で視認性の評価を行うことができる。
【0019】
また、本発明に係る装置、プログラム、記憶媒体によれば、既存車両に取付けられたカメラによって撮影された周辺画像から、既存車両に乗車している運転者の視界領域の部分画像を抽出し、抽出した部分画像と、企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示することが可能となる。これにより、企画車両の視認性の評価をより正確に行うことができ、様々な走行環境で企画車両を走行させたと仮定した場合の風景画像を簡易に生成することができる。更に、試作車やインテリアのクレーモデルを作成する場合に比べ、車両の企画立案に必要な時間及びコストを大幅に削減することができる。
【0020】
【発明の実施の形態】
以下に、本発明の実施の形態について、添付図面を参照して詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明は、その趣旨を逸脱しない範囲で下記実施形態を修正又は変形したものに適用可能である。
【0021】
(第1実施形態)
まず、本発明の第1実施形態として、企画車両における運転時の視認性を評価するための画像を生成する画像処理方法について説明する。
【0022】
<撮影機材>
図1は、視認性評価用の画像を取得する撮影用車両について示す図である。図1において、101が撮影用車両であり、一般に市販されている既存の車両を利用可能である。撮影用車両101には、第1カメラ102と第2カメラ103とが取付けられている。第1カメラ102及び第2カメラ103は、それぞれビデオカメラである。図のように、第1カメラ102は、撮影用車両101の外部表面(例えばボンネット上)に取付けられており、第2カメラ103は撮影用車両101の運転席部分に取付けられている。第2カメラ103は、実際に撮影用車両を運転する運転者の頭部に取付けられ、運転者の視線方向を撮影することが好ましい。そのようにすれば、運転者の視界領域を容易かつ正確に求めることができ、より正確な視認性評価用画像を得ることができ、高い精度で視認性の評価を行うことができる。
【0023】
そして、撮影用車両101を走行させながら第1カメラ102を駆動することにより、撮影用車両101の周辺画像を撮影し、同時に第2カメラ103を駆動することにより、撮影用車両101に乗車している運転者の視界領域を取得する。
【0024】
具体的には、第1カメラ102は広角撮影を行い、撮影用車両101に乗車している運転者が通常の運転中に視覚しうる画像を広範囲に取得する。そして、第2カメラ103は、人間の視界とほぼ同じ画角で撮影を行い、その撮影画像は、第1カメラ102での撮影画像から切取るべき領域を特定するために用いられる。なお、車両の周辺画像を撮影する第1カメラとして複数台のカメラを設けても良い。
【0025】
<画像処理システム>
次に、第1カメラ102で撮影された画像及び第2カメラ103で撮影された画像から視認性評価用の画像を生成するためのシステムについて説明する。
【0026】
図2は、視認性評価用の画像を生成するためのシステムを示すブロック図である。このシステムは、汎用のパーソナルコンピュータシステム1に対して、オペレーションシステム及び所定の画像処理ソフトウェアをインストールすることによって構成される。
【0027】
図2において、コンピュータシステム1は、CPU11、ROM(Read Only Memory)13、RAM(Random Access Memory)14、外部記憶部15、入力部16、表示部17、画像処理部18を備え、そのそれぞれは、システムバス12によって接続されている。
【0028】
このうち、CPU11は、ROM13やRAM14に格納されたプログラムを実行することにより各種の演算処理を実行する。
【0029】
ROM13には少なくともコンピュータシステムを起動させるためのブートプログラムが格納されている。RAM14は、コンピュータシステム上で走るプログラムを一時的に格納するためのプログラム領域や、データの書き込みや読み出しを行うためのデータ領域を有する。また、外部記憶部15には、評価用画像を生成するための画像処理プログラムが格納されている。この外部記憶部15としては、例えば、ハードディスクドライブ、フレキシブルディスクドライブ、光磁気ディスクドライブ、CD−ROMドライブ、CD−Rドライブ、CD−RWドライブ、DVD(DVD−ROM,DVD−R)ドライブなどのデバイスが適用可能である。つまり、各ドライブから取り外し可能なCD−ROMなどの記憶媒体に企画支援プログラムが格納され、コンピュータ1が記憶媒体に格納されたプログラムを読み出して、以下に説明する処理を実行することができる。その場合には、記憶媒体そのものが本発明の範疇に含まれる。
【0030】
入力部16は、命令やデータなどを外部から入力するキーボードやマウスなどのデバイスであり、表示部17は、CPU11からの制御指令に基づき画像処理部18で演算処理された文字や画像データを出力する液晶ディスプレイやCRTなどのデバイスである。画像処理部18は、この表示部17により出力させるための画像データを演算処理するデバイスである。通信部19は、第1カメラ102、第2カメラ103から画像データを取込むためのデバイスである。
【0031】
<画像処理の流れ>
次に、画像処理プログラムによって行われる画像処理について図3及び図4を用いて説明する。図3は、CPU11が外部記憶部15に格納された画像処理プログラムを読出してRAM14のプログラム実行領域に展開し実行することによって行われる各処理を示す図である。図4は、ユーザが画像処理プログラムを用いて評価用画像を生成する際に、表示部17に表示される画面例を示す図である。
【0032】
まず、ステップS301において、第1カメラ102で撮影した動画の一フレーム401を表示する。次に、ステップS302において、第2カメラ103で撮影した動画の同じタイミングでの一フレーム402を、ステップS301で表示した画像の隣に表示する。つまり、この時点で表示部17には、第1カメラ102と第2カメラ103で撮影した2つの静止画像401,402が並んで表示される。そして、この2つの静止画像は、同じタイミングで撮影されたものである。ただし、第1カメラ102は第2カメラ103に比べて画角が広いため、同じ縮尺で表示した場合、図のように第1カメラ102で撮像した画像401の方が大きく表示される。また、第2カメラ103は、撮影用車両101の車内に置かれていたため、第2カメラ103で撮像した画像402には、撮影用車両101のピラーやハンドルや天井などのインテリアが映り込んでいる。
【0033】
次に、ステップS303において、第1カメラで撮影した画像の中で、第2カメラの画像領域と対応する領域を選択する。ここでは、図に示すように、ユーザがマウスなどを用いて、画像401中に枠403を描画することにより領域の選択を行うものとする。
【0034】
すなわち、画像処理プログラムは、マウスなどの入力部16を介して、画像401中の枠403の大きさ及び位置を入力する。そして、「次へ」ボタン404の選択(クリック)に応じて、枠403の大きさ及び位置を確定する。
【0035】
これを受けて、画像処理プログラムは、ステップS304において、第1カメラ102で撮影した画像から、枠403で囲まれた部分画像を抽出して、視認性評価用の背景画像とする。
【0036】
すなわち、第1カメラで撮影した画像から、第2カメラによって取得した視界領域の部分画像を抽出して、評価用の背景画像の1フレームを生成する。
【0037】
次に、ステップS305に進み、次のフレームが存在するか否かを判定し、存在する場合にはステップS301に戻って、ステップS301〜S304までの処理を再度行う。このように、撮影された全フレームに対して、上記ステップS301〜S305の処理を繰返すことにより視認性評価用の背景映像を生成する。
【0038】
視認性評価用の背景映像を生成すると、次に、その実写動画と企画車両のインテリアを表すコンピュータグラフィックス画像(以下CG画像と称する)とを重畳して、企画車両の運転者から見えると推定される視認性評価用の動画を生成する。もちろん、重畳されるインテリア画像は、運転者の視界に応じて変化するものである。すなわち、ステップS303で決定した部分画像の位置に応じて生成される。
【0039】
ここでインテリア画像として、2次元の画像データを重畳しても良いが、3次元空間に仮想インテリアモデルを生成して仮想運転者から見える投影画像データを重畳すれば、より正確な視認性評価を行うことができ、好ましい。具体的には、企画したい仮想車両のインテリア形状を表す3次元データを予め生成しておき、部分画像の位置に応じて、仮想運転者の視界を決定し、3次元データをその視界に投影してインテリア画像データを生成すればよい。
【0040】
なお、上記ステップS301では、単純に第1カメラ102で撮影した画像を入力し表示することとしたが、本発明はこれに限定されるものではない。第1カメラ102で撮影した周辺画像を、第1カメラ102の位置と運転者の視点位置との違いに応じて補正すれば、より正確な視認性評価用画像を得ることができる。
【0041】
また、上記ステップS303において、画像処理プログラムは、ユーザから、マウスなどの入力部16を介して、画像401中の枠403の大きさ及び位置を入力したが、本発明はこれに限定されるものではなく、枠の大きさは予め規定され、枠の中心のみを入力する構成でも良い。
【0042】
ユーザが目で見ることにより、第1カメラで撮影した画像から、第2カメラによって取得した視界領域の部分画像を選択することとしたが、本発明はこれに限定されるものではない。画像処理プログラムの部分画像抽出モジュールが、自動的に、第1カメラで撮影した画像から、第2カメラによって取得した視界領域の部分画像を抽出しても良い。その場合、例えば、パターンマッチング技術を利用することが考えられる。更に、上記ステップS304において、切取られる画像位置に応じて、部分画像を補正することも好適である。
【0043】
<評価システム>
以上のように、図3に示すフローチャートの処理によって生成された画像は、例えば、図5に示す評価システムにおいて表示され、複数の評価者が企画車両の視認性を評価するために用いられる。
【0044】
図5(a)に示す評価システムは、複数の評価用端末4001をネットワークで結び、それぞれの端末4001で入力されたマークやコメント及び対象となる静止画像などをオペレータ用の端末に集約する。
【0045】
また、図5(b)に示す評価システムでは、プロジェクタ4003を用いてスクリーン4004にシミュレーション画像を表示し複数の評価者がその画像を同時に見ながら、評価用パッド4005にてコメントを入力する。そして入力されたコメントをその入力タイミングの情報と共にオペレータ用端末4002に集約する。
【0046】
<モデル生成方法>
次に、視認性評価用の背景映像に重畳する3次元インテリア画像の生成方法について簡単に説明する。
【0047】
企画車両のインテリア部分のみを単独で3次元データ化し、運転者の視点を設定して、その視点からの視界を2次元画像に投影して背景映像に重畳することももちろん可能であるが、ここでは、企画車両全体を3次元データ化する場合について説明する。インテリアに含まれるピラーや天井の位置は、企画車両全体のデザインや大きさによって大きく変るものであり、車両の企画においては、車両全体の大きさや形状が決定してからインテリアの企画に移ることが一般的だからである。
【0048】
企画車両全体の3次元データを生成する場合、上記図2で説明したシステムと同様のシステムを用いて、以下の方法を実行すればよい。
【0049】
まず、スポーツ、セダン、トラックといった車両タイプ毎にベースとなる3次元外形モデルをデータベースに用意しておく。そして、ユーザ(企画者)の選択に応じて、いずれかの外形モデルをデータベースから読出す。
【0050】
次に、ユーザに対し、図6のような入力画面を表示して、シート数、シート位置、全長、全高、全幅などの基本的な寸法値の入力を促す。図6において(a)は、寸法値の入力テーブルであり、(b),(c)は、入力テーブルで入力する寸法値の対応部位を示すための、車両前方視画像及び側面視画像である。この図で入力可能な寸法値は、ホイールベース1101、全幅1102、全高1103、フロントオーバハング1105、リアオーバハング1106、カウルポイントCWの水平位置1107、カウルポイントCWの垂直位置1108、フロントガラス傾斜1109である。なお、入力する寸法値はこれに限定されるものではなく、他の様々な寸法値を入力するため、図6に類似する複数の画面が用意されている。
【0051】
寸法値が入力されると、データベースから読出した3次元外形モデルを、全長、全高、全幅などの寸法値に合わせて変形する。逆にいうと、それらの寸法値に応じて自動変形可能な3次元外形モデルをデータベースに用意しておく。具体的には、3次元外形モデルは、入力される寸法値によってその位置が定義される定義点と、車両の形状が不自然なものとならないようにそのような定義点に追従して移動する追従点とを有する。
【0052】
そして、寸法値によって大まかに形状が決められた3次元外形モデルを図7のように画像表示し、その画像上に表示された3次元外形モデルの追従点をポインティングデバイスを用いて自由に移動可能として企画車両の外形形状を微調整する。図7において、星で示された点が定義点であり、白丸で示された点が移動可能な追従点である。また符号が付された線は、その形状を保ったまま平行移動することができる。
【0053】
一方、入力された寸法値を用いて、シートのレイアウトを表すシートモデルを外形モデルとは独立して生成する。
【0054】
更に、外形モデル及びシートモデルによって決定されたシート位置やボンネット高さ、天井高さ等に適合するインテリアモデルを生成する。インテリアモデルには、ハンドルや、メータフードや、ピラーや、天井の表面カバーなどが含まれ、シートモデルや外形モデルに干渉しない範囲で、自由にそれらのデザインを変えることができる。具体的には、いくつかのタイプのハンドルやメートフードなどを予めデータベースに用意しておき、企画車両のコンセプトにあったパーツを読出して組合わせ、不自然の無いようにハンドル位置やピラー太さやピラー構造などを調整することによってインテリアモデルが生成される。
【0055】
そして、このように別個に生成された外形モデル、シートモデル、インテリアモデルを組合わせて、図8に示すような3次元の企画車両モデルが生成される。この企画車両モデルでは、運転席のシート位置から運転者の視点位置が大まかに定義されているが、その視点位置や視線方向を自由に設定することが可能である。そして、設定された運転者の視点位置や視線方向に応じて、運転者の視界を仮想的に表す視界画像を容易に生成することができる。この視界画像にはピラーやハンドルやメータフードやボンネットや運転者の腕などが含まれ、車両の外の風景画像は含まれない。
【0056】
したがって上述した2次元の実写風景画像を、3次元企画車両モデルから生成した視界画像に重畳して、図9に示すような視認性評価用の画像を生成する。ここで視認性に問題があれば、インテリアモデルに含まれるピラーの太さや構造、またはその色や模様などを変更して視認性を改善する。
【0057】
<本実施形態の効果>
以上に説明したように、本実施の形態によれば、企画車両の運転手から見えると推定される風景を実写画像で表すことができ、企画車両のインテリアを表すCG画像と組合わせることで、車内から見える風景画像をもCG画像とした場合に比べて、企画車両の視認性の評価をより正確に行うことができる。
【0058】
また、道路や街並を表すフルCGの3次元空間を生成して、その中で企画車両モデルを走行させる場合に比べると、企画車両のみを3次元モデル化すればよいので、視認性評価用画像を比較的低いコストで、かつ、容易に生成することができる。
【0059】
また、画像の取得には撮影用車両を走らせるだけでよいので、フルCGの3次元空間を生成する場合に比べると、様々な走行環境での風景画像を非常に簡易に生成することができる。
【0060】
そのように生成した実写風景画像と企画車両のインテリアを表すCG画像を重畳して視認性評価用画像を生成し、視認性の評価を行うので、従来のように試作車やインテリアのクレーモデルを作成する場合に比べ、車両の企画立案に必要な時間及びコストを大幅に削減することができる。
【0061】
(第2実施形態)
次に本発明の第2実施形態について図6を用いて説明する。上記第1実施形態においては、第2カメラで運転者から見える画像を撮影したが、本実施形態では、運転者自身を第2カメラで撮影し、運転者自身を映した映像によってその視界を判定する点で異なる。その他の構成及び処理は、第1実施形態と同様であるためその説明は省略する。
【0062】
図6において、撮影用車両101と第1カメラ102は第1実施形態と同じであるためここでは説明を省略する。ただし、第2カメラ601は、撮影用車両101に固定されており、運転者の頭部を撮影している。一方、運転者の額部分(例えば運転者の装着したヘルメット)には頭部の向きの変化を示す基準となるマーカ602が付されている。そして、第2カメラ601で撮影した画像中のマーカの動きを解析することによって、第1カメラ102で撮影した画像から、どの位置の部分画像を抽出すればよいかを判定する。つまり、本実施形態では、運転者の頭部の動きから運転者の視界領域を検出する。
【0063】
これによって、上記第1実施形態における図3のステップS302及びステップS303の処理を置きかえることができる。すなわち、ステップS302として、マーカの位置を画面に表示し、ステップS303として、そのマーカの位置を見ながら、第1カメラ102で撮影した画像から、部分画像を抽出する位置を選択する。
【0064】
このようにすれば、上記第1実施形態と同様の効果を得ることが可能となる。
(その他の実施形態)
なお、上記第1、第2実施形態で説明した構成に加え、更に、撮影用車両101にGPS(Global Positioning System)を搭載して、第1カメラ及び第2カメラでの撮影と同時に、車両の位置情報を取得しても良い。
【0065】
また、上記第1、第2実施形態では、運転者の視点または視界領域を取得するデバイスとして、カメラを用いたが、本発明はこれに限定されるものではなく、他のデバイスでもよい。例えば、運転者の眼球の動きを検知するセンサなどを用いれば、より正確に運転者の視界領域を判定することができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る撮影システムについて説明する図である。
【図2】本発明の第1実施形態に係る画像処理システムの構成を示す図である。
【図3】本発明の第1実施形態に係る画像処理の流れを示すフローチャートである。
【図4】本発明の第1実施形態に係る表示画面例を示す図である。
【図5】本発明の第1実施形態に係る視認性評価システムの概要を示す図である。
【図6】車両寸法の入力画面を例示する図である。
【図7】外形形状の微調整について説明するための図である。
【図8】3次元企画車両モデルの例を示す図である。
【図9】視認性評価用の画像例を示す図である。
【図10】本発明の第2実施形態に係る撮影システムについて説明する図である。
Claims (9)
- 企画車両における運転時の視認性を評価するための画像を生成する画像処理方法であって、
走行中の既存車両の周辺画像を撮影する撮影工程と、
前記既存車両に乗車している運転者の視界領域を取得する取得工程と、
前記撮像工程で撮影した画像から、前記取得工程によって取得した視界領域の部分画像を抽出する工程と、
を有することを特徴とする画像処理方法。 - 前記抽出工程で抽出した前記部分画像と、前記企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示する表示工程を更に有することを特徴とする請求項1に記載の画像処理方法。
- 前記撮影工程は、前記既存車両の外部表面に取付けられた第1カメラによって前記企画車両の周辺画像を撮影する工程であって、
前記生成工程は、前記撮影工程で撮影された周辺画像を、前記第1カメラと前記運転者の視点との位置の違いに応じて補正する工程を含むことを特徴とする請求項1に記載の画像処理方法。 - 前記取得工程は、前記運転者の頭部に取付けた第2カメラによって前記運転者の視線方向を撮影する工程であることを特徴とする請求項1に記載の画像処理方法。
- 前記取得工程は、第3カメラによって前記運転者の頭部を撮影する工程を含み、前記運転者の頭部の動きから前記運転者の視界領域を検出することを特徴とする請求項1に記載の画像処理方法。
- 企画車両における運転時の視認性を評価するためのシミュレーション装置であって、
既存車両に取付けられたカメラによって撮影された周辺画像を入力する入力手段と、
前記既存車両に乗車している運転者の視界領域を取得する取得手段と、
前記入力手段で入力した周辺画像から、前記取得手段によって取得した視界領域の部分画像を抽出する抽出手段と、
前記抽出手段で抽出した前記部分画像と、前記企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示する表示手段と、
を有することを特徴とするシミュレーション装置。 - 更に、前記入力手段で入力した前記周辺画像を、前記カメラと前記運転者の視点との位置の違いに応じて補正する手段を有することを特徴とする請求項6に記載のシミュレーション装置。
- コンピュータを、企画車両における運転時の視認性を評価するシミュレーション装置として機能させるためのプログラムであって、
前記コンピュータに、
既存車両に取付けられたカメラによって撮影された走行中の周辺画像を入力する入力手段と、
前記既存車両に乗車している運転者の視界領域を取得する取得手段と、
前記入力手段で入力した周辺画像から、前記取得手段によって取得した視界領域の部分画像を抽出する抽出手段と、
前記抽出手段で抽出した前記部分画像と、前記企画車両のインテリアを表すコンピュータグラフィックス画像とを重畳して、前記企画車両における運転者から見えると推定される視認性評価用の画像を生成し表示する表示手段と、
しての機能を実現させることを特徴とするプログラム。 - 請求項8に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003066761A JP4366709B2 (ja) | 2003-03-12 | 2003-03-12 | 画像処理方法、シミュレーション装置、プログラム及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003066761A JP4366709B2 (ja) | 2003-03-12 | 2003-03-12 | 画像処理方法、シミュレーション装置、プログラム及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004280156A true JP2004280156A (ja) | 2004-10-07 |
JP4366709B2 JP4366709B2 (ja) | 2009-11-18 |
Family
ID=33284571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003066761A Expired - Fee Related JP4366709B2 (ja) | 2003-03-12 | 2003-03-12 | 画像処理方法、シミュレーション装置、プログラム及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4366709B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007091047A (ja) * | 2005-09-29 | 2007-04-12 | Clarion Co Ltd | 車両駐車支援装置 |
JP2007091046A (ja) * | 2005-09-29 | 2007-04-12 | Clarion Co Ltd | 車両駐車支援装置 |
JP2007304718A (ja) * | 2006-05-09 | 2007-11-22 | Toyota Motor Corp | 外形点作図方法および装置 |
JP2008065416A (ja) * | 2006-09-05 | 2008-03-21 | Shimadzu Corp | ヘッドモーショントラッカ装置 |
JP2014506709A (ja) * | 2011-02-22 | 2014-03-17 | クアルコム,インコーポレイテッド | ユーザのモバイルプラットフォームに対する位置に基づく補正像の提供 |
JP2014153985A (ja) * | 2013-02-12 | 2014-08-25 | Mazda Motor Corp | 車両企画支援システム |
EP2918139A4 (en) * | 2012-11-12 | 2016-08-10 | Wilfred Ludick | MANAGEMENT OF A VEHICLE'S IN-MOBILE DEVICE |
JP7388623B1 (ja) * | 2022-10-20 | 2023-11-29 | Lineヤフー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
-
2003
- 2003-03-12 JP JP2003066761A patent/JP4366709B2/ja not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007091047A (ja) * | 2005-09-29 | 2007-04-12 | Clarion Co Ltd | 車両駐車支援装置 |
JP2007091046A (ja) * | 2005-09-29 | 2007-04-12 | Clarion Co Ltd | 車両駐車支援装置 |
JP2007304718A (ja) * | 2006-05-09 | 2007-11-22 | Toyota Motor Corp | 外形点作図方法および装置 |
JP4525632B2 (ja) * | 2006-05-09 | 2010-08-18 | トヨタ自動車株式会社 | 外形点作図方法および装置 |
JP2008065416A (ja) * | 2006-09-05 | 2008-03-21 | Shimadzu Corp | ヘッドモーショントラッカ装置 |
JP2014506709A (ja) * | 2011-02-22 | 2014-03-17 | クアルコム,インコーポレイテッド | ユーザのモバイルプラットフォームに対する位置に基づく補正像の提供 |
US9507416B2 (en) | 2011-02-22 | 2016-11-29 | Robert Howard Kimball | Providing a corrected view based on the position of a user with respect to a mobile platform |
EP2918139A4 (en) * | 2012-11-12 | 2016-08-10 | Wilfred Ludick | MANAGEMENT OF A VEHICLE'S IN-MOBILE DEVICE |
US9762721B2 (en) | 2012-11-12 | 2017-09-12 | Wilfred Ludick | Intra-vehicular mobile device management |
JP2014153985A (ja) * | 2013-02-12 | 2014-08-25 | Mazda Motor Corp | 車両企画支援システム |
JP7388623B1 (ja) * | 2022-10-20 | 2023-11-29 | Lineヤフー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4366709B2 (ja) | 2009-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10818099B2 (en) | Image processing method, display device, and inspection system | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
CN103140879B (zh) | 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序 | |
JP4473754B2 (ja) | 仮想試着装置 | |
JP4739002B2 (ja) | 画像処理方法、画像処理装置 | |
JP3786132B2 (ja) | ゲーム画像処理プログラム及び記憶媒体 | |
JP7042561B2 (ja) | 情報処理装置、情報処理方法 | |
CN102780873A (zh) | 图像处理装置和方法 | |
US11605182B2 (en) | Method for generating reproducible perspectives of photographs of an object, and mobile device with an integrated camera | |
US7711507B2 (en) | Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium | |
JP2006318095A (ja) | 画像処理方法、画像処理装置 | |
JP2007293453A (ja) | 画像からの色情報の取得方法 | |
JP4366709B2 (ja) | 画像処理方法、シミュレーション装置、プログラム及び記録媒体 | |
JP4835243B2 (ja) | 画像合成装置及び画像合成プログラム | |
JP2010525375A (ja) | 2次元スクリーン上に3次元画像を映写するためのシステム及びそれに対応する方法 | |
JP2002008041A (ja) | 動作検出装置、動作検出方法および情報記憶媒体 | |
US6236412B1 (en) | Method and system for synthesizing actual scene image and graphic image | |
WO2017155005A1 (en) | Image processing method, display device, and inspection system | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
JP2006018444A (ja) | 画像処理システム及び付加情報指示装置 | |
JP4926598B2 (ja) | 情報処理方法、情報処理装置 | |
JP4366165B2 (ja) | 画像表示装置及び方法並びに記憶媒体 | |
JP6481596B2 (ja) | 車両用ヘッドアップディスプレイの評価支援装置 | |
WO2024095356A1 (ja) | グラフィックス生成装置、グラフィックス生成方法及びプログラム | |
JP6729952B1 (ja) | 鉄道シミュレータ用システム、表示制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081006 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090123 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090507 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090803 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4366709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120904 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130904 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |