JP2022040819A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2022040819A JP2022040819A JP2020145715A JP2020145715A JP2022040819A JP 2022040819 A JP2022040819 A JP 2022040819A JP 2020145715 A JP2020145715 A JP 2020145715A JP 2020145715 A JP2020145715 A JP 2020145715A JP 2022040819 A JP2022040819 A JP 2022040819A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- displayed
- unclear
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 66
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 22
- 238000004891 communication Methods 0.000 description 19
- 210000003128 head Anatomy 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、撮像機器により撮像された撮像画像に基づいて、撮像機器から離れた遠隔地にある表示機器に表示するための表示画像を生成する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing device and an image processing method for generating a display image to be displayed on a display device at a remote location away from the image pickup device based on the captured image captured by the image pickup device.
従来では、仮想空間内を立体的に表示させる空間表示装置として、特許文献1が開示されている。特許文献1に開示された空間表示装置は、仮想空間内において、視認が良好な領域内にある部品の表示形態と、視認が良好でない領域内にある部品の表示形態とを異なる形態とすることで、現在の視野から見づらい部分についても適切に表示させるようにしていた。 Conventionally, Patent Document 1 has been disclosed as a space display device that three-dimensionally displays the inside of a virtual space. The spatial display device disclosed in Patent Document 1 has a different form in the virtual space between the display form of a part in an area where visibility is good and the display form of a part in an area where visibility is not good. So, I was trying to properly display the parts that are difficult to see from the current field of view.
しかしながら、上述した従来の空間表示装置は、視野の変化には対応しているものの、表示対象が静止したものであるので、移動や動きのあるものを遠隔地で表示する場合には、通信遅延等によって表示対象が不明瞭に表示される場合があった。そのため、従来の空間表示装置では、移動や動きのあるものを遠隔地で表示する場合に、ユーザに表示対象を明瞭に理解させることができないという問題点があった。 However, although the above-mentioned conventional spatial display device responds to changes in the visual field, the display target is stationary, so that communication delay occurs when a moving or moving object is displayed at a remote location. In some cases, the display target may be unclear due to factors such as. Therefore, the conventional spatial display device has a problem that it is not possible for the user to clearly understand the display target when displaying a moving or moving object at a remote location.
そこで、本発明は、上記課題に鑑みて成されたものであり、移動や動きのあるものを遠隔地で表示する場合であっても、ユーザに表示対象を明瞭に理解させることのできる画像処理装置及び画像処理方法を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and image processing that allows the user to clearly understand the display target even when a moving or moving object is displayed at a remote location. It is an object of the present invention to provide an apparatus and an image processing method.
本発明の一態様に係る画像処理装置及びその方法は、撮像機器で撮像された撮像画像を取得し、撮像画像上において表示機器のユーザが視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。特に、オブジェクトが不明瞭であるか否かの判定は、オブジェクトの大きさが所定の閾値以下である場合、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。 An image processing device and a method thereof according to an aspect of the present invention acquire an image captured by an image pickup device and detect an object on the captured image that the user of the display device needs to visually recognize. Then, it is determined whether or not the detected object is unclear, and if it is determined that the object is unclear, the display mode of the object is changed to generate a display image. In particular, whether or not an object is unclear is determined when the size of the object is less than or equal to a predetermined threshold value, when the time the object is displayed is less than or equal to a predetermined threshold value, or when the size of the object is changed. It is determined that the object is unclear if the rate is at least one of the cases where the rate is equal to or greater than a predetermined threshold.
本発明によれば、移動や動きのあるものを遠隔地で表示する場合であっても、ユーザに表示対象を明瞭に理解させることができる。 According to the present invention, even when a moving or moving object is displayed at a remote location, the user can clearly understand the display target.
以下、本発明の一実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are designated by the same reference numerals and the description thereof will be omitted.
[仮想空間表示システムの構成]
図1は、本実施形態に係る画像処理装置を備えた仮想空間表示システムの構成を示すブロック図である。図1に示すように、仮想空間表示システム1は、車両空間100の車室内や車両周辺の状況を撮像し、車両空間100から離れた遠隔地空間200にいるユーザ230に対して、仮想空間300の表示画像を提供する。表示画像には、仮想空間300において、車室内や車両周辺の状況が表示されている。
[Configuration of virtual space display system]
FIG. 1 is a block diagram showing a configuration of a virtual space display system including an image processing device according to the present embodiment. As shown in FIG. 1, the virtual space display system 1 captures the situation inside and around the vehicle of the
車両空間100は車室内外の実空間であり、車外カメラ110と、車内カメラ120と、コントローラ130と、通信装置140が設置されている。そして、車両空間100では、車両150の車室内に乗員160が乗車しており、乗員160は表示デバイス170を装着している。
The
車外カメラ110は、車両150に搭載され、車両150の周辺の状況を撮像する撮像機器である。車外カメラ110は、車両150の周辺の状況を撮像した撮像画像をコントローラ130に出力する。撮像画像には、車両前方の映像だけではなく、車両150の側方や後方も含む360度の映像が撮像されている。また、車外カメラ110にはマイクが搭載されており、映像とともに車両150の周辺の音声も録音されて撮像画像とともにコントローラ130に出力される。
The vehicle
車内カメラ120は、車両150に搭載され、車両150の車室内の状況を撮像する撮像機器である。車内カメラ120は、車両150の車室内の状況を撮像した撮像画像をコントローラ130に出力する。撮像画像には、運転席と助手席の映像だけではなく、後部座席の映像も含む車室内全体の映像が撮像されている。また、車内カメラ120にはマイクが搭載されており、映像とともに車両150の車室内の音声も録音されて撮像画像とともにコントローラ130に出力される。
The in-
コントローラ130は、車外カメラ110、車内カメラ120、通信装置140及び表示デバイス170と無線あるいは有線により通信することが可能である。コントローラ130は、車外カメラ110と車内カメラ120から撮像画像とその音声を取得して、通信装置140を介して遠隔地空間200へ送信する。また、コントローラ130は、CPU(Central Processing Unit)と、RAM(Random Access Memory)などにより構成されるメインメモリを含んでいる。そして、メインメモリを作業領域として用いてプログラムを実行し、AR(Augmented Reality)やVR(Virtual Reality)などの仮想空間の表示に関する情報処理を行う。コントローラ130は、プログラムを実行して演算処理を行うことが可能なものであればよく、PC(Personal Computer)、ゲーム機、サーバ装置、スマートフォンなどでもよい。尚、コントローラ130は、車両150に搭載されていてもよいし、表示デバイス170に組み込まれていてもよい。
The
通信装置140は、インターネットなどのネットワークに接続して遠隔地空間200との間でデータを送受信するインターフェースである。
The
表示デバイス170は、いわゆる頭部装着型のヘッドマウントディスプレイ(HMD)である。表示デバイス170は、乗員160の頭部に装着されることで、乗員160の眼前に、画像を表示するためのディスプレイを保持するように構成されている。また、表示デバイス170には、乗員160の視線の動きを検出するためのセンサも含まれている。尚、表示デバイス170は、ウェアラブル型ディスプレイであればよく、眼鏡型デバイスでもよい。
The
表示デバイス170に適用される頭部装着型のヘッドマウントディスプレイとしては、ARゴーグルのようなシースルー型HMDが適用される。
As the head-mounted display applied to the
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いた虚像光学系を乗員160の眼前に保持し、虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着した乗員160は、虚像光学系に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。尚、シースルー型HMDの具体的な一例として、眼鏡のレンズに相当する部分を虚像光学系として構成した眼鏡型デバイスが挙げられる。
In the see-through type HMD, for example, a virtual image optical system using a half mirror or a transparent light guide plate is held in front of the
また、表示デバイス170には、例えば、加速度センサ、ジャイロセンサが設けられ、表示デバイス170を装着した乗員160の頭部の動き(頭部の姿勢)を検出可能に構成されている。一例として、表示デバイス170は、乗員160の頭部の動きとして、ヨー方向、ピッチ方向、及びロール方向それぞれの成分を検出する。そして、表示デバイス170は、検出した乗員160の頭部の動きに基づき、乗員160の視線が示す方向の変化を認識し、認識した視線方向の変化に応じた画像を乗員160に提示する。このような構成に基づいて、例えば、乗員160の視線方向の変化に応じて仮想空間内の映像を乗員160に提示する。これにより、乗員160に対して、あたかも仮想空間内にいるような没入感を与えることが可能となる。
Further, the
また、表示デバイス170は、光学センサ(カメラ)を含んでいてもよい。表示デバイス170は、光学センサを用いて乗員160の視線をトラッキングすることができる。尚、表示デバイス170は、近接センサを含んでいてもよい。近接センサは、ゴーグル部分に設置され、乗員160の顔部との接触有無を判定するために用いられる。
Further, the
次に、遠隔地空間200は車両空間100から離れた遠隔地にある実空間であり、通信装置210と、画像処理装置220が設置されている。そして、遠隔地空間200では、ユーザ230が表示デバイス240を装着して、仮想空間300の画像を見ている。
Next, the
通信装置210は、インターネットなどのネットワークに接続して車両空間100との間でデータを送受信するインターフェースである。
The
画像処理装置220は、車外カメラ110及び車内カメラ120によって撮像された撮像画像に基づいて、遠隔地空間200にある表示デバイス240に表示するための表示画像を生成する。具体的に、画像処理装置220は、車外カメラ110及び車内カメラ120で撮像された撮像画像を取得し、取得した撮像画像上において、ユーザ230が視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。
The
また、画像処理装置220は、通信装置210及び表示デバイス240と無線あるいは有線により通信することが可能である。画像処理装置220はコントローラを備え、コントローラはCPU(Central Processing Unit)と、RAM(Random Access Memory)などにより構成されるメインメモリを含んでいる。そして、メインメモリを作業領域として用いてプログラムを実行し、AR(Augmented Reality)やVR(Virtual Reality)などの仮想空間の表示に関する情報処理を行う。画像処理装置220は、プログラムを実行して演算処理を行うことが可能なものであればよく、PC(Personal Computer)、ゲーム機、サーバ装置、スマートフォンなどでもよい。尚、画像処理装置220は、表示デバイス240に組み込まれていてもよい。
Further, the
次に、図2を参照して、本実施形態に係る画像処理装置220の構成を説明する。図2は、本実施形態に係る画像処理装置の構成を示すブロック図である。図2に示すように、画像処理装置220は、撮像画像取得部221と、オブジェクト検出部223と、表示判定部225と、表示画像生成部227と、音声生成部229とを備えている。
Next, the configuration of the
撮像画像取得部221は、車両空間100にある車外カメラ110及び車内カメラ120で撮像された撮像画像を、通信網を介して取得する。車両空間100に設置されている車外カメラ110及び車内カメラ120で撮像された撮像画像は、通信装置140によって車両空間100から送信され、遠隔地空間200の通信装置210で受信して撮像画像取得部221が取得する。
The captured
オブジェクト検出部223は、撮像画像取得部221で取得した撮像画像上において、ユーザ230が視認する必要のあるオブジェクトを検出する。検出されるオブジェクトは、車両の乗員が視認する必要のある注意対象物であり、例えば歩行者や自転車、バイク、車両、その他の障害物、さらに信号機や標識等である。また、乗員160やユーザ230のアバタをオブジェクトとして検出してもよい。オブジェクト検出部223は、撮像画像に対して画像解析を行うことによって、撮像画像の中からオブジェクトを検出する。
The
表示判定部225は、オブジェクト検出部223で検出されたオブジェクトが、撮像画像上において不明瞭であるか否かを判定する。撮像画像は、車両空間100で撮像されて遠隔地空間200に送信されているので、通信機器の性能や通信遅延等に起因して、撮像画像上において不明瞭に表示されている部分が存在する場合がある。そこで、表示判定部225は、検出されたオブジェクトが不明瞭であるか否かを判定する。
The
具体的に、表示判定部225は、撮像画像上において、オブジェクトの大きさが所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。例えば、先行車をオブジェクトとして検出した場合に、先行車を囲む矩形状のバウンディングボックスの一辺の画素数が所定の閾値以下である場合には、オブジェクトが小さすぎてユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。
Specifically, the
また、表示判定部225は、撮像画像上において、オブジェクトが表示されている時間が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。例えば、自転車をオブジェクトとして検出した場合に、撮像画像上において自転車が横方向に移動して所定の閾値以下の時間だけ表示された場合には、自転車が短時間しか表示されないので、通信遅延等によりユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。また。オブジェクトの移動速度が所定の閾値以上である場合に、オブジェクトが不明瞭であると判定してもよい。例えば、自転車をオブジェクトとして検出した場合に、撮像画像上において自転車が横方向に移動する速度が所定の閾値以上である場合には、自転車の移動が速すぎて通信遅延等によりユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。
Further, the
さらに、表示判定部225は、撮像画像上において、オブジェクトの大きさの変化率が所定の閾値以上である場合に、オブジェクトが不明瞭であると判定する。例えば、対向車をオブジェクトとして検出した場合に、撮像画像上において対向車が接近する速度が速くて、対向車の大きさの変化率が所定の閾値以上となる場合がある。そのような場合には、対向車の大きさの変化が速すぎて、通信遅延等によりユーザ230が視認することが困難になる。そこで、表示判定部225は、オブジェクトが不明瞭であると判定する。
Further, the
このように、表示判定部225は、オブジェクトの大きさが所定の閾値以下である場合、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。さらに、以下に示す場合にもオブジェクトが不明瞭であると判定してもよい。
As described above, in the
表示判定部225は、撮像画像上において、オブジェクトとその周囲との色の差が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。例えば、歩行者をオブジェクトとして検出した場合に、撮像画像上において歩行者の服の色と景色の色との差が所定の閾値以下である場合には、歩行者と背後の景色が区別できないので、ユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。
The
また、表示判定部225は、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合に、オブジェクトが不明瞭であると判定する。撮像画像には、車両の前方だけではなく、車両の側方や後方も撮像されている。しかし、ユーザ230に表示されている表示画像には、ユーザ230の視野の範囲内だけが表示されている。そのため、ユーザ230が前方を見ている場合には、車両の側方を走る自転車は、撮像画像上には撮像されていても、表示画像上には表示されていないので、ユーザ230は視認することが困難になる。そこで、表示判定部225は、撮像画像上に撮像されていても、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトが不明瞭であると判定する。
Further, the
さらに、表示判定部225は、撮像画像上において、オブジェクトの表示位置に誤差がある場合に、オブジェクトが不明瞭であると判定する。例えば、対向車をオブジェクトとして検出した場合に、通信遅延等によってオブジェクトの表示位置が遅れて表示される場合がある。そのような場合には、対向車の位置が正確に表示されていないので、ユーザ230はオブジェクトの位置を正確に視認することが困難になる。そこで、表示判定部225は、オブジェクトが不明瞭であると判定する。誤差の判定方法としては、通信の遅延時間と対向車の車速から対向車の推定位置を算出し、この推定位置と対向車の表示位置との間に差がある場合に、誤差があると判定する。
Further, the
このように、表示判定部225は、上述した場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。
As described above, the
表示画像生成部227は、車外カメラ110及び車内カメラ120によって撮像された撮像画像に基づいて、表示デバイス240に表示するための表示画像を生成する。車外カメラ110によって撮像された撮像画像には、車両150の前方だけではなく、側方や後方の画像も含まれている。また、車内カメラ120によって撮像された撮像画像には、運転席や助手席だけではなく、後部座席の画像も含まれている。そこで、表示画像生成部227は、表示デバイス240からユーザ230の頭部の向きや視線の方向を取得して、撮像画像の中からユーザ230が見ている方向の画像を抽出して表示画像を生成する。
The display
表示画像は、仮想空間300の映像であり、仮想空間300において車両150の車室内の状況と車両150の周辺の状況とが表示されている。また、表示画像には、車両150の周辺の音声と車室内の音声が記録されており、映像に合わせて再生される。
The display image is an image of the
そして、表示画像生成部227は、表示判定部225によってオブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。
Then, when the
具体的に、表示画像生成部227は、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を強調表示に変更して表示画像を生成する。例えば、図3に示すように、対向車をオブジェクトとして検出している場合には、対向車を囲む矩形状のバウンディングボックス30を点滅させて強調表示する表示態様に変更する。強調表示は、バウンディングボックスの点滅表示だけではなく、バウンディングボックスの輝度を高くしてもよい。
Specifically, when it is determined that the object is unclear, the display
また、表示画像生成部227は、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を、オブジェクトを示す画像の重畳表示に変更して表示画像を生成する。例えば、図4に示すように、対向車をオブジェクトとして検出している場合には、対向車を囲むバウンディングボックス40を表示する表示態様から、対向車を示すアイコン42の画像を重畳表示する表示態様に変更する。
Further, when it is determined that the object is unclear, the display
さらに、表示画像生成部227は、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して、表示画像を生成する。例えば、図5に示すように、撮像画像には50の位置に自転車が撮像されているが、表示画像の範囲外なので表示されていない。この場合に、自転車の方向を示す矢印の画像52を重畳表示する表示態様に変更して、表示画像を生成する。このとき、オブジェクトの種類を示す「自転車」という画像54を追加して重畳表示してもよい。
Further, when there is an object that is captured on the captured image and is not displayed on the displayed image, the display
また、表示画像生成部227は、オブジェクトの表示位置に誤差がある場合には、オブジェクトを示す画像を、誤差を修正した位置に重畳表示する表示態様に変更して、表示画像を生成する。例えば、図6に示すように、対向車をオブジェクトとして検出した場合に、対向車の現在の推定位置が60の位置であるにも関わらず、対向車が62の位置に表示されている。そこで、表示画像生成部227は、対向車を示すアイコンの画像64を、誤差を修正した位置に重畳表示する表示態様に変更して、表示画像を生成する。
Further, when there is an error in the display position of the object, the display
このとき、図6に示すように、推定位置60の位置が対向車の表示位置62よりも車両150側に近づいている場合には、表示画像生成部227は、対向車を示すアイコンの画像64の大きさを変更して表示する。具体的に、表示画像生成部227は、対向車を示すアイコンの画像64を拡大して表示し、このときの拡大比率は、対向車と車両150(または車外カメラ110)との間の距離(対向車の位置と車両150の位置との差)に基づいて設定する。つまり、推定位置60に対向車が位置したときの見え方に合わせて対向車を示すアイコンの画像64を拡大して表示する。また、対向車を示すアイコンの画像64の代わりに、対向車の画像を拡大して重畳してもよい。尚、対向車と車両150(または車外カメラ110)との間の距離は、対向車の推定位置が算出されているので、その推定位置と車両150の位置から求めることができる。
At this time, as shown in FIG. 6, when the position of the estimated
音声生成部229は、オブジェクト検出部223で検出されたオブジェクトをユーザ230に認知させるための音声を生成する。例えば、オブジェクトを強調表示するときに、ユーザ230に注意喚起する音声や警告音を生成する。生成された音声は表示デバイス240に出力されて、表示デバイス240からユーザ230に提供される。
The
表示デバイス240は、いわゆる頭部装着型のヘッドマウントディスプレイ(HMD)である。表示デバイス240は、ユーザ230の頭部に装着されることで、ユーザ230の眼前に、画像を表示するためのディスプレイを保持するように構成されている。また、表示デバイス240には、ユーザ230の視線の動きを検出するためのセンサも含まれている。なお、表示デバイス240は、ウェアラブル型ディスプレイであればよく、眼鏡型デバイスでもよい。
The
表示デバイス240に適用される頭部装着型のヘッドマウントディスプレイとしては、VRゴーグルのような没入型HMDが適用される。
As a head-mounted display applied to the
没入型HMDは、ユーザ230の頭部または顔部に装着された場合に、ユーザ230の眼を覆うように装着され、ユーザ230の眼前にディスプレイが保持される。そのため、没入型HMDを装着したユーザ230は、外部の風景(現実世界の風景)を直接視野に入れることが困難であり、ディスプレイに表示された映像のみが視界に入ることになる。このような構成により、没入型HMDは、画像を視聴しているユーザ230に対して没入感を与えることが可能となる。
When the immersive HMD is worn on the head or face of the
また、表示デバイス240には、例えば、加速度センサ、ジャイロセンサが設けられ、表示デバイス240を装着したユーザ230の頭部の動き(頭部の姿勢)を検出可能に構成されている。一例として、表示デバイス240は、ユーザ230の頭部の動きとして、ヨー方向、ピッチ方向、及びロール方向それぞれの成分を検出する。そして、表示デバイス240は、検出したユーザ230の頭部の動きに基づき、ユーザ230の視線が示す方向の変化を認識し、認識した視線方向の変化に応じた画像をユーザ230に提示する。このような構成に基づいて、例えば、ユーザ230の視線方向の変化に応じて仮想空間内の映像をユーザ230に提示する。これにより、ユーザ230に対して、あたかも仮想空間内にいるような没入感を与えることが可能となる。
Further, the
また、表示デバイス240は、光学センサ(カメラ)を含んでいてもよい。表示デバイス240は、光学センサを用いてユーザ230の視線をトラッキングすることができる。尚、表示デバイス240は、近接センサを含んでいてもよい。近接センサは、ゴーグル部分に設置され、ユーザ230の顔部との接触有無を判定するために用いられる。
Further, the
次に、仮想空間300について説明する。図1に示すように、仮想空間300は、車両150の周辺及び車室内を仮想的に示す空間であり、車内カメラ120によって撮像されたカメラ映像に乗員160のアバタ310と、ユーザ230のアバタ320が重畳して表示されている。アバタ310は仮想空間300における仮想的なオブジェクトであり、乗員160の動作が反映されて、乗員160と同様の動きを行う。アバタ320も仮想空間300における仮想的なオブジェクトであり、ユーザ230の動作が反映されて、ユーザ230と同様の動きを行う。
Next, the
乗員160は、ARゴーグルである表示デバイス170を装着しているので、実空間である車両150の周辺の風景や車室内の状況を実際に見ながら、虚像光学系を介してユーザ230のアバタ320が隣に座っている様子を仮想空間300上で見ている。
Since the
一方、ユーザ230は、VRゴーグルである表示デバイス240を装着しているので、車外カメラ110と車内カメラ120の撮像画像から生成された仮想空間300の表示画像を見ている。ユーザ230が見ている表示画像には、車外の風景にアイコンやバウンディングボックスが重畳表示されており、ユーザ230が頭部を横に動かすと、乗員160のアバタ310が隣に座っている様子が表示されている。
On the other hand, since the
[オブジェクトの表示態様変更処理]
次に、本実施形態に係る画像処理装置220によるオブジェクトの表示態様変更処理を説明する。図7は、本実施形態に係る画像処理装置220によるオブジェクトの表示態様変更処理の処理手順を示すフローチャートである。図7に示すオブジェクトの表示態様変更処理は、ユーザ230が仮想空間表示システム1の利用を開始すると、スタートする。
[Object display mode change process]
Next, the process of changing the display mode of the object by the
図7に示すように、ステップS10において、撮像画像取得部221が通信装置210から撮像画像を取得すると、オブジェクト検出部223は、取得した撮像画像上において、ユーザ230が視認する必要のあるオブジェクトが存在するか否かを判定する。オブジェクトが存在しない場合にはステップS50に進み、オブジェクトが存在する場合にはオブジェクトを検出してステップS20に進む。
As shown in FIG. 7, when the captured
ステップS20において、表示判定部225は、ステップS10で検出されたオブジェクトが不明瞭であるか否か、すなわち撮像画像上においてオブジェクトが不明瞭に表示されているか否かを判定する。具体的に、表示判定部225は、撮像画像上において、オブジェクトの大きさが所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。あるいは、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合に、オブジェクトが不明瞭であると判定する。
In step S20, the
さらに、表示判定部225は、撮像画像上において、オブジェクトとその周囲との色の差が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定してもよい。さらに、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合、オブジェクトの表示位置に誤差がある場合にも、オブジェクトが不明瞭であると判定してもよい。
Further, the
そして、表示判定部225は、オブジェクトが不明瞭ではない場合にはステップS50に進み、オブジェクトが不明瞭である場合にはステップS30に進む。
Then, the
ステップS30において、表示画像生成部227は、ステップS20でオブジェクトが不明瞭であると判定されると、オブジェクトの表示態様を変更して表示画像を生成する。具体的に、表示画像生成部227は、オブジェクトの表示態様を強調表示に変更して表示画像を生成する。また、表示画像生成部227は、オブジェクトの表示態様を、オブジェクトを示す画像の重畳表示に変更して表示画像を生成してもよい。
In step S30, when the display
さらに、表示画像生成部227は、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して表示画像を生成する。
Further, when there is an object that is captured on the captured image and is not displayed on the displayed image, the display
また、表示画像生成部227は、オブジェクトの表示位置に誤差がある場合には、オブジェクトを示す画像を、誤差を修正した位置に重畳表示する表示態様に変更して表示画像を生成する。
Further, when there is an error in the display position of the object, the display
尚、ステップS30においてオブジェクトの表示態様を変更する際に、音声生成部229は、検出されたオブジェクトをユーザ230に認知させるための音声を生成し、表示デバイス170、240から出力する。具体的に、音声生成部229は、オブジェクトを強調表示するときに、ユーザ230に注意喚起する音声や警告音を生成して、表示デバイス170、240から出力する。
When changing the display mode of the object in step S30, the
ステップS40において、表示画像生成部227は、表示態様の変更が不要になったか否かを判定する。具体的に、表示画像生成部227は、ユーザ230がオブジェクトに気づいた場合には、表示態様の変更が不要になったと判定する。オブジェクトに気づいたか否かの判定方法は、ユーザ230の頭部の向きや視線の方向を表示デバイス240から取得して、ユーザ230の視線がオブジェクトに向いているか否かで判定する。また、表示画像生成部227は、オブジェクトが表示画像の範囲内に存在しなくなった場合にも、表示態様の変更が不要になったと判定する。
In step S40, the display
そして、表示画像生成部227は、表示態様の変更が不要になっていない場合には継続して不要になっているか否かを判定し、表示態様の変更が不要になっている場合にはステップS50に進む。
Then, the display
ステップS50において、表示画像生成部227は、通常時の表示態様で表示画像を生成する。特に、ステップS40で表示態様の変更が不要になったと判定された場合には、表示態様の変更を終了し、通常時の表示態様に戻して表示画像を生成する。具体的に、表示画像生成部227は、強調表示やアイコンの重畳表示を消去して表示画像を生成する。
In step S50, the display
ステップS60において、表示画像生成部227は、ユーザ230が仮想空間表示システム1の利用を終了したか否かを判定し、終了していない場合にはステップS10に戻り、終了している場合には、本実施形態に係るオブジェクトの表示態様変更処理を終了する。
In step S60, the display
[ユーザの注意喚起処理]
次に、本実施形態に係る画像処理装置220によるユーザの注意喚起処理を説明する。図8は、本実施形態に係る画像処理装置220によるユーザの注意喚起処理の処理手順を示すフローチャートである。図8に示すユーザの注意喚起処理は、ユーザ230が仮想空間表示システム1の利用を開始すると、スタートする。
[User alert processing]
Next, the user's attention-calling process by the
図8に示すように、ステップS110において、音声生成部229は、仮想空間300において乗員160がユーザ230に話しかけているか否かを判定する。音声生成部229は、表示デバイス170のマイクで収集された乗員160の音声を取得し、乗員160がユーザ230に話しかけているか否かを判定する。そして、乗員160が話しかけている場合にはステップS120に進み、話しかけていない場合にはステップS160に進む。
As shown in FIG. 8, in step S110, the
ステップS120において、音声生成部229は、乗員160に話しかけられていることにユーザ230が気づいているか否かを判定する。音声生成部229は、表示デバイス240のマイクで収集されたユーザ230の音声を取得し、ユーザ230が返事をしているか否かを判定する。そして、ユーザ230が返事をしていない場合には気付いていないと判定してステップS130に進み、返事をしている場合には気付いていると判定してステップS160に進む。
In step S120, the
ステップS130において、音声生成部229と表示画像生成部227は、ユーザ230に対して注意喚起を行う。具体的に、音声生成部229は、話しかけている乗員160がいる方向から仮想の音声を上乗せして再生することで、ユーザ230に注意喚起を行う。さらに、表示判定部225は、ユーザ230が返事をしていない場合には話しかけられていることに気付いていないと判定し、つまり乗員160を示すアバタ310の画像が不明瞭であると判定する。そこで、表示画像生成部227は、乗員160を示すアバタ310の画像を表示画像上に表示して表示態様を強調表示に変更する。
In step S130, the
ステップS140において、音声生成部229は、注意喚起が不要になったか否かを判定する。音声生成部229は、表示デバイス240のマイクで収集されたユーザ230の音声を取得し、ユーザ230が返事をしている場合には注意喚起が不要になったと判定してステップS150に進む。一方、ユーザ230が返事をしていない場合には注意喚起は必要と判定してステップS130に戻る。また、音声生成部229は、表示デバイス170のマイクで収集された乗員160の音声を取得し、乗員160が話しかけるのをやめている場合には注意喚起が不要になったと判定してステップS150に進む。一方、乗員160が話しかけるのをやめていない場合には注意喚起は必要と判定してステップS130に戻る。
In step S140, the
ステップS150において、音声生成部229は、ステップS140で注意喚起が不要になったと判定されると、注意喚起を終了する。具体的に、音声生成部229は、注意喚起のために生成していた音声の出力を終了する。また、表示画像生成部227は、注意喚起のために表示していた乗員160のアバタ310の強調表示を消去して表示態様の変更を終了し、通常時の表示態様に戻して表示画像を生成する。
In step S150, the
ステップS160において、音声生成部229は、ユーザ230が仮想空間表示システム1の利用を終了したか否かを判定し、終了していない場合にはステップS110に戻り、終了している場合には、本実施形態に係るユーザの注意喚起処理を終了する。
In step S160, the
[実施形態の効果]
以上、詳細に説明したように、本実施形態に係る画像処理装置220では、撮像機器で撮像された撮像画像を取得し、取得した撮像画像上において表示機器のユーザが視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。特に、オブジェクトの大きさが所定の閾値以下である場合、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。これにより、移動や動きのあるものを遠隔地で表示する場合であっても、視認が困難なオブジェクトや移動のあるオブジェクトの表示態様を変更することができるので、ユーザにオブジェクトを明瞭に理解させることができる。
[Effect of embodiment]
As described in detail above, in the
また、本実施形態に係る画像処理装置220では、オブジェクトとその周囲との色の差が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。これにより、周囲と見分けにくい色のオブジェクトであっても、ユーザにオブジェクトを明瞭に理解させることができる。
Further, in the
さらに、本実施形態に係る画像処理装置220では、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を強調表示に変更して表示画像を生成する。これにより、不明瞭に表示されたオブジェクトであっても、強調表示によってユーザに明瞭に理解させることができる。
Further, in the
また、本実施形態に係る画像処理装置220では、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を、オブジェクトを示す画像の重畳表示に変更して表示画像を生成する。これにより、不明瞭に表示されたオブジェクトであっても、アイコン等の重畳表示によってユーザに明瞭に理解させることができる。
Further, in the
さらに、本実施形態に係る画像処理装置220では、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合に、オブジェクトが不明瞭であると判定する。これにより、表示画像上に表示されていないオブジェクトがあっても、ユーザにオブジェクトを明瞭に理解させることができる。
Further, in the
また、本実施形態に係る画像処理装置220では、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して表示画像を生成する。これにより、表示画像上に表示されていないオブジェクトがあっても、オブジェクトの方向を示す画像の重畳表示によってユーザに明瞭に理解させることができる。
Further, in the
さらに、本実施形態に係る画像処理装置220では、オブジェクトの表示位置に誤差がある場合に、オブジェクトが不明瞭であると判定する。これにより、表示位置に誤差のあるオブジェクトであっても、ユーザにオブジェクトを明瞭に理解させることができる。
Further, in the
また、本実施形態に係る画像処理装置220では、オブジェクトの表示位置に誤差がある場合には、オブジェクトを示す画像を、誤差を修正した位置に重畳表示する表示態様に変更して表示画像を生成する。これにより、表示位置に誤差のあるオブジェクトであっても、誤差を修正することによってユーザに明瞭に理解させることができる。
Further, in the
さらに、本実施形態に係る画像処理装置220では、オブジェクトと撮像機器との間の距離に基づいて、表示画像の大きさを変更する。これにより、オブジェクトと撮像機器との間の距離に合った大きさで表示画像を表示できるので、ユーザにオブジェクトを明瞭に理解させることができる。
Further, in the
さらに、本実施形態に係る画像処理装置220では、検出されたオブジェクトをユーザに認知させるための音声を生成し、ユーザが音声に返事をしていない場合には、オブジェクトが不明瞭であると判定し、オブジェクトの表示態様を変更して表示画像を生成する。これにより、表示だけではなく音声も利用して、ユーザにオブジェクトを明瞭に理解させることができる。
Further, the
また、本実施形態に係る画像処理装置220では、オブジェクトの表示態様を変更した後に、ユーザが音声に返事をしている場合には、表示態様の変更を終了する。これにより、表示態様の変更を不必要に継続させることを防止することができる。
Further, in the
尚、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。特に、本実施形態では、仮想空間の一例として車両の周辺や車室内を挙げたが、これに限定されない。例えば、電車、飛行機、コンサートホール、映画館、劇場などにも適用可能である。 The above embodiment is an example of the present invention. Therefore, the present invention is not limited to the above-described embodiment, and even if it is an embodiment other than this embodiment, as long as it does not deviate from the technical idea of the present invention, it depends on the design and the like. Of course, various changes are possible. In particular, in the present embodiment, the periphery of the vehicle and the interior of the vehicle are mentioned as examples of the virtual space, but the present invention is not limited to this. For example, it can be applied to trains, airplanes, concert halls, movie theaters, theaters, and the like.
1 仮想空間表示システム
100 車両空間
110 車外カメラ
120 車内カメラ
130 コントローラ
140、210 通信装置
150 車両
160 乗員
170、240 表示デバイス
200 遠隔地空間
220 画像処理装置
221 撮像画像取得部
223 オブジェクト検出部
225 表示判定部
227 表示画像生成部
229 音声生成部
230 ユーザ
300 仮想空間
310、320 アバタ
1 Virtual
Claims (12)
前記撮像機器で撮像された撮像画像を取得する撮像画像取得部と、
取得した前記撮像画像上において、前記表示機器のユーザが視認する必要のあるオブジェクトを検出するオブジェクト検出部と、
検出された前記オブジェクトが不明瞭であるか否かを判定する表示判定部と、
前記オブジェクトが不明瞭であると判定された場合には、前記オブジェクトの表示態様を変更して前記表示画像を生成する表示画像生成部とを備え、
前記表示判定部は、
前記オブジェクトの大きさが所定の閾値以下である場合、前記オブジェクトが表示されている時間が所定の閾値以下である場合、前記オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、前記オブジェクトが不明瞭であると判定することを特徴とする画像処理装置。 An image processing device that generates a display image to be displayed on a display device at a remote location away from the image pickup device based on the image captured by the image pickup device.
An image acquisition unit that acquires an image captured by the image pickup device, and an image acquisition unit.
An object detection unit that detects an object that the user of the display device needs to visually recognize on the acquired image.
A display determination unit that determines whether or not the detected object is unclear, and a display determination unit.
When it is determined that the object is unclear, a display image generation unit for changing the display mode of the object to generate the display image is provided.
The display determination unit
At least 1 when the size of the object is equal to or less than a predetermined threshold, the time during which the object is displayed is equal to or less than a predetermined threshold, and the rate of change in the size of the object is equal to or greater than a predetermined threshold. An image processing apparatus for determining that the object is unclear when the number of objects is one.
前記表示判定部は、前記ユーザが前記音声に返事をしていない場合には、前記オブジェクトが不明瞭であると判定し、
前記表示画像生成部は、前記オブジェクトの表示態様を変更して前記表示画像を生成することを特徴とする請求項1~9のいずれか1項に記載の画像処理装置。 Further, a voice generation unit for generating a voice for making the user recognize the object detected by the object detection unit is provided.
The display determination unit determines that the object is unclear when the user has not responded to the voice.
The image processing apparatus according to any one of claims 1 to 9, wherein the display image generation unit generates the display image by changing the display mode of the object.
前記撮像機器で撮像された撮像画像を取得し、
取得した前記撮像画像上において、前記表示機器のユーザが視認する必要のあるオブジェクトを検出し、
検出された前記オブジェクトが不明瞭であるか否かを判定し、
前記オブジェクトが不明瞭であると判定された場合には、前記オブジェクトの表示態様を変更して前記表示画像を生成し、
前記オブジェクトが不明瞭であるか否かの判定は、
前記オブジェクトの大きさが所定の閾値以下である場合、前記オブジェクトが表示されている時間が所定の閾値以下である場合、前記オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、前記オブジェクトが不明瞭であると判定することを特徴とする画像処理方法。 An image processing method for generating a display image to be displayed on a display device at a remote location away from the image pickup device based on the image captured by the image pickup device.
The captured image captured by the imaging device is acquired, and the image is captured.
An object that needs to be visually recognized by the user of the display device is detected on the acquired captured image, and the object is detected.
It is determined whether or not the detected object is ambiguous, and it is determined.
When it is determined that the object is unclear, the display mode of the object is changed to generate the display image.
The determination of whether or not the object is ambiguous is
At least 1 when the size of the object is equal to or less than a predetermined threshold, the time during which the object is displayed is equal to or less than a predetermined threshold, and the rate of change in the size of the object is equal to or greater than a predetermined threshold. An image processing method, characterized in that it is determined that the object is unclear when the number of objects is one.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145715A JP2022040819A (en) | 2020-08-31 | 2020-08-31 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145715A JP2022040819A (en) | 2020-08-31 | 2020-08-31 | Image processing device and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022040819A true JP2022040819A (en) | 2022-03-11 |
Family
ID=80499555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020145715A Pending JP2022040819A (en) | 2020-08-31 | 2020-08-31 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022040819A (en) |
-
2020
- 2020-08-31 JP JP2020145715A patent/JP2022040819A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112369051B (en) | Shared environment for vehicle occupants and remote users | |
US11484790B2 (en) | Reality vs virtual reality racing | |
CN110413105B (en) | Tangible visualization of virtual objects within a virtual environment | |
JP6747504B2 (en) | Information processing apparatus, information processing method, and program | |
CN104883554B (en) | The method and system of live video is shown by virtually having an X-rayed instrument cluster | |
US20230249618A1 (en) | Display system and display method | |
JP2005335410A (en) | Image display device | |
US20150317956A1 (en) | Head mounted display utilizing compressed imagery in the visual periphery | |
JP6693223B2 (en) | Information processing apparatus, information processing method, and program | |
US20210162925A1 (en) | Immersive display | |
CN108621922A (en) | The control method of the display system of vehicle and the display system of vehicle | |
CN111294586B (en) | Image display method and device, head-mounted display equipment and computer readable medium | |
US11794667B2 (en) | Image processing apparatus, image processing method, and image processing system | |
US11507184B2 (en) | Gaze tracking apparatus and systems | |
US20200082842A1 (en) | Image processing system and method | |
US20220001803A1 (en) | Image processing apparatus, image processing method, and image processing system | |
JP2019175133A (en) | Image processing device, image display system, and image processing method | |
KR20130024459A (en) | Apparatus and method for displaying arround image of vehicle | |
CN108885802B (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019047296A (en) | Display device, display method, control program, and electronic mirror system | |
TWI486054B (en) | A portrait processing device, a three-dimensional image display device, a method and a program | |
CN110796116A (en) | Multi-panel display system, vehicle with multi-panel display system and display method | |
JP2022040819A (en) | Image processing device and image processing method | |
JP6649063B2 (en) | Vehicle rear display device and display control device | |
CN115018942A (en) | Method and apparatus for image display of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240528 |