JP7612359B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7612359B2
JP7612359B2 JP2020145715A JP2020145715A JP7612359B2 JP 7612359 B2 JP7612359 B2 JP 7612359B2 JP 2020145715 A JP2020145715 A JP 2020145715A JP 2020145715 A JP2020145715 A JP 2020145715A JP 7612359 B2 JP7612359 B2 JP 7612359B2
Authority
JP
Japan
Prior art keywords
display
image
captured
user
unclear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020145715A
Other languages
English (en)
Other versions
JP2022040819A (ja
Inventor
剛仁 寺口
裕史 井上
雅己 岡本
雄宇 志小田
乘 西山
純 河西
翔太 大久保
放歌 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2020145715A priority Critical patent/JP7612359B2/ja
Publication of JP2022040819A publication Critical patent/JP2022040819A/ja
Application granted granted Critical
Publication of JP7612359B2 publication Critical patent/JP7612359B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、撮像機器により撮像された撮像画像に基づいて、撮像機器から離れた遠隔地にある表示機器に表示するための表示画像を生成する画像処理装置及び画像処理方法に関する。
従来では、仮想空間内を立体的に表示させる空間表示装置として、特許文献1が開示されている。特許文献1に開示された空間表示装置は、仮想空間内において、視認が良好な領域内にある部品の表示形態と、視認が良好でない領域内にある部品の表示形態とを異なる形態とすることで、現在の視野から見づらい部分についても適切に表示させるようにしていた。
特開2018-205974号公報
しかしながら、上述した従来の空間表示装置は、視野の変化には対応しているものの、表示対象が静止したものであるので、移動や動きのあるものを遠隔地で表示する場合には、通信遅延等によって表示対象が不明瞭に表示される場合があった。そのため、従来の空間表示装置では、移動や動きのあるものを遠隔地で表示する場合に、ユーザに表示対象を明瞭に理解させることができないという問題点があった。
そこで、本発明は、上記課題に鑑みて成されたものであり、移動や動きのあるものを遠隔地で表示する場合であっても、ユーザに表示対象を明瞭に理解させることのできる画像処理装置及び画像処理方法を提供することを目的とする。
本発明の一態様に係る画像処理装置及びその方法は、撮像機器で撮像された撮像画像を取得し、撮像画像上において表示機器のユーザが視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。検出されたオブジェクトをユーザに認知させるための音声を生成し、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合、及びユーザが音声に返事をしていない場合に、オブジェクトが不明瞭であると判定する。撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して表示画像を生成する。
本発明の他の一態様に係る画像処理装置及びその方法は、撮像機器で撮像された撮像画像を取得し、撮像画像上において表示機器のユーザが視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。検出されたオブジェクトをユーザに認知させるための音声を生成し、オブジェクトの表示位置に誤差がある場合、及びユーザが音声に返事をしていない場合に、オブジェクトが不明瞭であると判定する。
本発明によれば、移動や動きのあるものを遠隔地で表示する場合であっても、ユーザに表示対象を明瞭に理解させることができる。
図1は、本発明の一実施形態に係る画像処理装置を備えた仮想空間表示システムの構成を示すブロック図である。 図2は、本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。 図3は、本発明の一実施形態に係る画像処理装置によるオブジェクトの表示態様を強調表示に変更する場合の表示画面の一例を示す図である。 図4は、本発明の一実施形態に係る画像処理装置によるオブジェクトの表示態様をアイコンの重畳表示に変更する場合の表示画面の一例を示す図である。 図5は、本発明の一実施形態に係る画像処理装置によるオブジェクトの表示態様を、オブジェクトの方向を示す画像の重畳表示に変更する場合の表示画面の一例を示す図である。 図6は、本発明の一実施形態に係る画像処理装置によるオブジェクトの表示位置を修正する場合の表示画面の一例を示す図である。 図7は、本発明の一実施形態に係る画像処理装置によるオブジェクトの表示態様変更処理の処理手順を示すフローチャートである。 図8は、本発明の一実施形態に係る画像処理装置によるユーザの注意喚起処理の処理手順を示すフローチャートである。
以下、本発明の一実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
[仮想空間表示システムの構成]
図1は、本実施形態に係る画像処理装置を備えた仮想空間表示システムの構成を示すブロック図である。図1に示すように、仮想空間表示システム1は、車両空間100の車室内や車両周辺の状況を撮像し、車両空間100から離れた遠隔地空間200にいるユーザ230に対して、仮想空間300の表示画像を提供する。表示画像には、仮想空間300において、車室内や車両周辺の状況が表示されている。
車両空間100は車室内外の実空間であり、車外カメラ110と、車内カメラ120と、コントローラ130と、通信装置140が設置されている。そして、車両空間100では、車両150の車室内に乗員160が乗車しており、乗員160は表示デバイス170を装着している。
車外カメラ110は、車両150に搭載され、車両150の周辺の状況を撮像する撮像機器である。車外カメラ110は、車両150の周辺の状況を撮像した撮像画像をコントローラ130に出力する。撮像画像には、車両前方の映像だけではなく、車両150の側方や後方も含む360度の映像が撮像されている。また、車外カメラ110にはマイクが搭載されており、映像とともに車両150の周辺の音声も録音されて撮像画像とともにコントローラ130に出力される。
車内カメラ120は、車両150に搭載され、車両150の車室内の状況を撮像する撮像機器である。車内カメラ120は、車両150の車室内の状況を撮像した撮像画像をコントローラ130に出力する。撮像画像には、運転席と助手席の映像だけではなく、後部座席の映像も含む車室内全体の映像が撮像されている。また、車内カメラ120にはマイクが搭載されており、映像とともに車両150の車室内の音声も録音されて撮像画像とともにコントローラ130に出力される。
コントローラ130は、車外カメラ110、車内カメラ120、通信装置140及び表示デバイス170と無線あるいは有線により通信することが可能である。コントローラ130は、車外カメラ110と車内カメラ120から撮像画像とその音声を取得して、通信装置140を介して遠隔地空間200へ送信する。また、コントローラ130は、CPU(Central Processing Unit)と、RAM(Random Access Memory)などにより構成されるメインメモリを含んでいる。そして、メインメモリを作業領域として用いてプログラムを実行し、AR(Augmented Reality)やVR(Virtual Reality)などの仮想空間の表示に関する情報処理を行う。コントローラ130は、プログラムを実行して演算処理を行うことが可能なものであればよく、PC(Personal Computer)、ゲーム機、サーバ装置、スマートフォンなどでもよい。尚、コントローラ130は、車両150に搭載されていてもよいし、表示デバイス170に組み込まれていてもよい。
通信装置140は、インターネットなどのネットワークに接続して遠隔地空間200との間でデータを送受信するインターフェースである。
表示デバイス170は、いわゆる頭部装着型のヘッドマウントディスプレイ(HMD)である。表示デバイス170は、乗員160の頭部に装着されることで、乗員160の眼前に、画像を表示するためのディスプレイを保持するように構成されている。また、表示デバイス170には、乗員160の視線の動きを検出するためのセンサも含まれている。尚、表示デバイス170は、ウェアラブル型ディスプレイであればよく、眼鏡型デバイスでもよい。
表示デバイス170に適用される頭部装着型のヘッドマウントディスプレイとしては、ARゴーグルのようなシースルー型HMDが適用される。
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いた虚像光学系を乗員160の眼前に保持し、虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着した乗員160は、虚像光学系に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。尚、シースルー型HMDの具体的な一例として、眼鏡のレンズに相当する部分を虚像光学系として構成した眼鏡型デバイスが挙げられる。
また、表示デバイス170には、例えば、加速度センサ、ジャイロセンサが設けられ、表示デバイス170を装着した乗員160の頭部の動き(頭部の姿勢)を検出可能に構成されている。一例として、表示デバイス170は、乗員160の頭部の動きとして、ヨー方向、ピッチ方向、及びロール方向それぞれの成分を検出する。そして、表示デバイス170は、検出した乗員160の頭部の動きに基づき、乗員160の視線が示す方向の変化を認識し、認識した視線方向の変化に応じた画像を乗員160に提示する。このような構成に基づいて、例えば、乗員160の視線方向の変化に応じて仮想空間内の映像を乗員160に提示する。これにより、乗員160に対して、あたかも仮想空間内にいるような没入感を与えることが可能となる。
また、表示デバイス170は、光学センサ(カメラ)を含んでいてもよい。表示デバイス170は、光学センサを用いて乗員160の視線をトラッキングすることができる。尚、表示デバイス170は、近接センサを含んでいてもよい。近接センサは、ゴーグル部分に設置され、乗員160の顔部との接触有無を判定するために用いられる。
次に、遠隔地空間200は車両空間100から離れた遠隔地にある実空間であり、通信装置210と、画像処理装置220が設置されている。そして、遠隔地空間200では、ユーザ230が表示デバイス240を装着して、仮想空間300の画像を見ている。
通信装置210は、インターネットなどのネットワークに接続して車両空間100との間でデータを送受信するインターフェースである。
画像処理装置220は、車外カメラ110及び車内カメラ120によって撮像された撮像画像に基づいて、遠隔地空間200にある表示デバイス240に表示するための表示画像を生成する。具体的に、画像処理装置220は、車外カメラ110及び車内カメラ120で撮像された撮像画像を取得し、取得した撮像画像上において、ユーザ230が視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。
また、画像処理装置220は、通信装置210及び表示デバイス240と無線あるいは有線により通信することが可能である。画像処理装置220はコントローラを備え、コントローラはCPU(Central Processing Unit)と、RAM(Random Access Memory)などにより構成されるメインメモリを含んでいる。そして、メインメモリを作業領域として用いてプログラムを実行し、AR(Augmented Reality)やVR(Virtual Reality)などの仮想空間の表示に関する情報処理を行う。画像処理装置220は、プログラムを実行して演算処理を行うことが可能なものであればよく、PC(Personal Computer)、ゲーム機、サーバ装置、スマートフォンなどでもよい。尚、画像処理装置220は、表示デバイス240に組み込まれていてもよい。
次に、図2を参照して、本実施形態に係る画像処理装置220の構成を説明する。図2は、本実施形態に係る画像処理装置の構成を示すブロック図である。図2に示すように、画像処理装置220は、撮像画像取得部221と、オブジェクト検出部223と、表示判定部225と、表示画像生成部227と、音声生成部229とを備えている。
撮像画像取得部221は、車両空間100にある車外カメラ110及び車内カメラ120で撮像された撮像画像を、通信網を介して取得する。車両空間100に設置されている車外カメラ110及び車内カメラ120で撮像された撮像画像は、通信装置140によって車両空間100から送信され、遠隔地空間200の通信装置210で受信して撮像画像取得部221が取得する。
オブジェクト検出部223は、撮像画像取得部221で取得した撮像画像上において、ユーザ230が視認する必要のあるオブジェクトを検出する。検出されるオブジェクトは、車両の乗員が視認する必要のある注意対象物であり、例えば歩行者や自転車、バイク、車両、その他の障害物、さらに信号機や標識等である。また、乗員160やユーザ230のアバタをオブジェクトとして検出してもよい。オブジェクト検出部223は、撮像画像に対して画像解析を行うことによって、撮像画像の中からオブジェクトを検出する。
表示判定部225は、オブジェクト検出部223で検出されたオブジェクトが、撮像画像上において不明瞭であるか否かを判定する。撮像画像は、車両空間100で撮像されて遠隔地空間200に送信されているので、通信機器の性能や通信遅延等に起因して、撮像画像上において不明瞭に表示されている部分が存在する場合がある。そこで、表示判定部225は、検出されたオブジェクトが不明瞭であるか否かを判定する。
具体的に、表示判定部225は、撮像画像上において、オブジェクトの大きさが所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。例えば、先行車をオブジェクトとして検出した場合に、先行車を囲む矩形状のバウンディングボックスの一辺の画素数が所定の閾値以下である場合には、オブジェクトが小さすぎてユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。
また、表示判定部225は、撮像画像上において、オブジェクトが表示されている時間が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。例えば、自転車をオブジェクトとして検出した場合に、撮像画像上において自転車が横方向に移動して所定の閾値以下の時間だけ表示された場合には、自転車が短時間しか表示されないので、通信遅延等によりユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。また。オブジェクトの移動速度が所定の閾値以上である場合に、オブジェクトが不明瞭であると判定してもよい。例えば、自転車をオブジェクトとして検出した場合に、撮像画像上において自転車が横方向に移動する速度が所定の閾値以上である場合には、自転車の移動が速すぎて通信遅延等によりユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。
さらに、表示判定部225は、撮像画像上において、オブジェクトの大きさの変化率が所定の閾値以上である場合に、オブジェクトが不明瞭であると判定する。例えば、対向車をオブジェクトとして検出した場合に、撮像画像上において対向車が接近する速度が速くて、対向車の大きさの変化率が所定の閾値以上となる場合がある。そのような場合には、対向車の大きさの変化が速すぎて、通信遅延等によりユーザ230が視認することが困難になる。そこで、表示判定部225は、オブジェクトが不明瞭であると判定する。
このように、表示判定部225は、オブジェクトの大きさが所定の閾値以下である場合、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。さらに、以下に示す場合にもオブジェクトが不明瞭であると判定してもよい。
表示判定部225は、撮像画像上において、オブジェクトとその周囲との色の差が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。例えば、歩行者をオブジェクトとして検出した場合に、撮像画像上において歩行者の服の色と景色の色との差が所定の閾値以下である場合には、歩行者と背後の景色が区別できないので、ユーザ230が視認することが困難になる。そこで、表示判定部225はオブジェクトが不明瞭であると判定する。
また、表示判定部225は、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合に、オブジェクトが不明瞭であると判定する。撮像画像には、車両の前方だけではなく、車両の側方や後方も撮像されている。しかし、ユーザ230に表示されている表示画像には、ユーザ230の視野の範囲内だけが表示されている。そのため、ユーザ230が前方を見ている場合には、車両の側方を走る自転車は、撮像画像上には撮像されていても、表示画像上には表示されていないので、ユーザ230は視認することが困難になる。そこで、表示判定部225は、撮像画像上に撮像されていても、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトが不明瞭であると判定する。
さらに、表示判定部225は、撮像画像上において、オブジェクトの表示位置に誤差がある場合に、オブジェクトが不明瞭であると判定する。例えば、対向車をオブジェクトとして検出した場合に、通信遅延等によってオブジェクトの表示位置が遅れて表示される場合がある。そのような場合には、対向車の位置が正確に表示されていないので、ユーザ230はオブジェクトの位置を正確に視認することが困難になる。そこで、表示判定部225は、オブジェクトが不明瞭であると判定する。誤差の判定方法としては、通信の遅延時間と対向車の車速から対向車の推定位置を算出し、この推定位置と対向車の表示位置との間に差がある場合に、誤差があると判定する。
このように、表示判定部225は、上述した場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。
表示画像生成部227は、車外カメラ110及び車内カメラ120によって撮像された撮像画像に基づいて、表示デバイス240に表示するための表示画像を生成する。車外カメラ110によって撮像された撮像画像には、車両150の前方だけではなく、側方や後方の画像も含まれている。また、車内カメラ120によって撮像された撮像画像には、運転席や助手席だけではなく、後部座席の画像も含まれている。そこで、表示画像生成部227は、表示デバイス240からユーザ230の頭部の向きや視線の方向を取得して、撮像画像の中からユーザ230が見ている方向の画像を抽出して表示画像を生成する。
表示画像は、仮想空間300の映像であり、仮想空間300において車両150の車室内の状況と車両150の周辺の状況とが表示されている。また、表示画像には、車両150の周辺の音声と車室内の音声が記録されており、映像に合わせて再生される。
そして、表示画像生成部227は、表示判定部225によってオブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。
具体的に、表示画像生成部227は、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を強調表示に変更して表示画像を生成する。例えば、図3に示すように、対向車をオブジェクトとして検出している場合には、対向車を囲む矩形状のバウンディングボックス30を点滅させて強調表示する表示態様に変更する。強調表示は、バウンディングボックスの点滅表示だけではなく、バウンディングボックスの輝度を高くしてもよい。
また、表示画像生成部227は、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を、オブジェクトを示す画像の重畳表示に変更して表示画像を生成する。例えば、図4に示すように、対向車をオブジェクトとして検出している場合には、対向車を囲むバウンディングボックス40を表示する表示態様から、対向車を示すアイコン42の画像を重畳表示する表示態様に変更する。
さらに、表示画像生成部227は、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して、表示画像を生成する。例えば、図5に示すように、撮像画像には50の位置に自転車が撮像されているが、表示画像の範囲外なので表示されていない。この場合に、自転車の方向を示す矢印の画像52を重畳表示する表示態様に変更して、表示画像を生成する。このとき、オブジェクトの種類を示す「自転車」という画像54を追加して重畳表示してもよい。
また、表示画像生成部227は、オブジェクトの表示位置に誤差がある場合には、オブジェクトを示す画像を、誤差を修正した位置に重畳表示する表示態様に変更して、表示画像を生成する。例えば、図6に示すように、対向車をオブジェクトとして検出した場合に、対向車の現在の推定位置が60の位置であるにも関わらず、対向車が62の位置に表示されている。そこで、表示画像生成部227は、対向車を示すアイコンの画像64を、誤差を修正した位置に重畳表示する表示態様に変更して、表示画像を生成する。
このとき、図6に示すように、推定位置60の位置が対向車の表示位置62よりも車両150側に近づいている場合には、表示画像生成部227は、対向車を示すアイコンの画像64の大きさを変更して表示する。具体的に、表示画像生成部227は、対向車を示すアイコンの画像64を拡大して表示し、このときの拡大比率は、対向車と車両150(または車外カメラ110)との間の距離(対向車の位置と車両150の位置との差)に基づいて設定する。つまり、推定位置60に対向車が位置したときの見え方に合わせて対向車を示すアイコンの画像64を拡大して表示する。また、対向車を示すアイコンの画像64の代わりに、対向車の画像を拡大して重畳してもよい。尚、対向車と車両150(または車外カメラ110)との間の距離は、対向車の推定位置が算出されているので、その推定位置と車両150の位置から求めることができる。
音声生成部229は、オブジェクト検出部223で検出されたオブジェクトをユーザ230に認知させるための音声を生成する。例えば、オブジェクトを強調表示するときに、ユーザ230に注意喚起する音声や警告音を生成する。生成された音声は表示デバイス240に出力されて、表示デバイス240からユーザ230に提供される。
表示デバイス240は、いわゆる頭部装着型のヘッドマウントディスプレイ(HMD)である。表示デバイス240は、ユーザ230の頭部に装着されることで、ユーザ230の眼前に、画像を表示するためのディスプレイを保持するように構成されている。また、表示デバイス240には、ユーザ230の視線の動きを検出するためのセンサも含まれている。なお、表示デバイス240は、ウェアラブル型ディスプレイであればよく、眼鏡型デバイスでもよい。
表示デバイス240に適用される頭部装着型のヘッドマウントディスプレイとしては、VRゴーグルのような没入型HMDが適用される。
没入型HMDは、ユーザ230の頭部または顔部に装着された場合に、ユーザ230の眼を覆うように装着され、ユーザ230の眼前にディスプレイが保持される。そのため、没入型HMDを装着したユーザ230は、外部の風景(現実世界の風景)を直接視野に入れることが困難であり、ディスプレイに表示された映像のみが視界に入ることになる。このような構成により、没入型HMDは、画像を視聴しているユーザ230に対して没入感を与えることが可能となる。
また、表示デバイス240には、例えば、加速度センサ、ジャイロセンサが設けられ、表示デバイス240を装着したユーザ230の頭部の動き(頭部の姿勢)を検出可能に構成されている。一例として、表示デバイス240は、ユーザ230の頭部の動きとして、ヨー方向、ピッチ方向、及びロール方向それぞれの成分を検出する。そして、表示デバイス240は、検出したユーザ230の頭部の動きに基づき、ユーザ230の視線が示す方向の変化を認識し、認識した視線方向の変化に応じた画像をユーザ230に提示する。このような構成に基づいて、例えば、ユーザ230の視線方向の変化に応じて仮想空間内の映像をユーザ230に提示する。これにより、ユーザ230に対して、あたかも仮想空間内にいるような没入感を与えることが可能となる。
また、表示デバイス240は、光学センサ(カメラ)を含んでいてもよい。表示デバイス240は、光学センサを用いてユーザ230の視線をトラッキングすることができる。尚、表示デバイス240は、近接センサを含んでいてもよい。近接センサは、ゴーグル部分に設置され、ユーザ230の顔部との接触有無を判定するために用いられる。
次に、仮想空間300について説明する。図1に示すように、仮想空間300は、車両150の周辺及び車室内を仮想的に示す空間であり、車内カメラ120によって撮像されたカメラ映像に乗員160のアバタ310と、ユーザ230のアバタ320が重畳して表示されている。アバタ310は仮想空間300における仮想的なオブジェクトであり、乗員160の動作が反映されて、乗員160と同様の動きを行う。アバタ320も仮想空間300における仮想的なオブジェクトであり、ユーザ230の動作が反映されて、ユーザ230と同様の動きを行う。
乗員160は、ARゴーグルである表示デバイス170を装着しているので、実空間である車両150の周辺の風景や車室内の状況を実際に見ながら、虚像光学系を介してユーザ230のアバタ320が隣に座っている様子を仮想空間300上で見ている。
一方、ユーザ230は、VRゴーグルである表示デバイス240を装着しているので、車外カメラ110と車内カメラ120の撮像画像から生成された仮想空間300の表示画像を見ている。ユーザ230が見ている表示画像には、車外の風景にアイコンやバウンディングボックスが重畳表示されており、ユーザ230が頭部を横に動かすと、乗員160のアバタ310が隣に座っている様子が表示されている。
[オブジェクトの表示態様変更処理]
次に、本実施形態に係る画像処理装置220によるオブジェクトの表示態様変更処理を説明する。図7は、本実施形態に係る画像処理装置220によるオブジェクトの表示態様変更処理の処理手順を示すフローチャートである。図7に示すオブジェクトの表示態様変更処理は、ユーザ230が仮想空間表示システム1の利用を開始すると、スタートする。
図7に示すように、ステップS10において、撮像画像取得部221が通信装置210から撮像画像を取得すると、オブジェクト検出部223は、取得した撮像画像上において、ユーザ230が視認する必要のあるオブジェクトが存在するか否かを判定する。オブジェクトが存在しない場合にはステップS50に進み、オブジェクトが存在する場合にはオブジェクトを検出してステップS20に進む。
ステップS20において、表示判定部225は、ステップS10で検出されたオブジェクトが不明瞭であるか否か、すなわち撮像画像上においてオブジェクトが不明瞭に表示されているか否かを判定する。具体的に、表示判定部225は、撮像画像上において、オブジェクトの大きさが所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。あるいは、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合に、オブジェクトが不明瞭であると判定する。
さらに、表示判定部225は、撮像画像上において、オブジェクトとその周囲との色の差が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定してもよい。さらに、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合、オブジェクトの表示位置に誤差がある場合にも、オブジェクトが不明瞭であると判定してもよい。
そして、表示判定部225は、オブジェクトが不明瞭ではない場合にはステップS50に進み、オブジェクトが不明瞭である場合にはステップS30に進む。
ステップS30において、表示画像生成部227は、ステップS20でオブジェクトが不明瞭であると判定されると、オブジェクトの表示態様を変更して表示画像を生成する。具体的に、表示画像生成部227は、オブジェクトの表示態様を強調表示に変更して表示画像を生成する。また、表示画像生成部227は、オブジェクトの表示態様を、オブジェクトを示す画像の重畳表示に変更して表示画像を生成してもよい。
さらに、表示画像生成部227は、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して表示画像を生成する。
また、表示画像生成部227は、オブジェクトの表示位置に誤差がある場合には、オブジェクトを示す画像を、誤差を修正した位置に重畳表示する表示態様に変更して表示画像を生成する。
尚、ステップS30においてオブジェクトの表示態様を変更する際に、音声生成部229は、検出されたオブジェクトをユーザ230に認知させるための音声を生成し、表示デバイス170、240から出力する。具体的に、音声生成部229は、オブジェクトを強調表示するときに、ユーザ230に注意喚起する音声や警告音を生成して、表示デバイス170、240から出力する。
ステップS40において、表示画像生成部227は、表示態様の変更が不要になったか否かを判定する。具体的に、表示画像生成部227は、ユーザ230がオブジェクトに気づいた場合には、表示態様の変更が不要になったと判定する。オブジェクトに気づいたか否かの判定方法は、ユーザ230の頭部の向きや視線の方向を表示デバイス240から取得して、ユーザ230の視線がオブジェクトに向いているか否かで判定する。また、表示画像生成部227は、オブジェクトが表示画像の範囲内に存在しなくなった場合にも、表示態様の変更が不要になったと判定する。
そして、表示画像生成部227は、表示態様の変更が不要になっていない場合には継続して不要になっているか否かを判定し、表示態様の変更が不要になっている場合にはステップS50に進む。
ステップS50において、表示画像生成部227は、通常時の表示態様で表示画像を生成する。特に、ステップS40で表示態様の変更が不要になったと判定された場合には、表示態様の変更を終了し、通常時の表示態様に戻して表示画像を生成する。具体的に、表示画像生成部227は、強調表示やアイコンの重畳表示を消去して表示画像を生成する。
ステップS60において、表示画像生成部227は、ユーザ230が仮想空間表示システム1の利用を終了したか否かを判定し、終了していない場合にはステップS10に戻り、終了している場合には、本実施形態に係るオブジェクトの表示態様変更処理を終了する。
[ユーザの注意喚起処理]
次に、本実施形態に係る画像処理装置220によるユーザの注意喚起処理を説明する。図8は、本実施形態に係る画像処理装置220によるユーザの注意喚起処理の処理手順を示すフローチャートである。図8に示すユーザの注意喚起処理は、ユーザ230が仮想空間表示システム1の利用を開始すると、スタートする。
図8に示すように、ステップS110において、音声生成部229は、仮想空間300において乗員160がユーザ230に話しかけているか否かを判定する。音声生成部229は、表示デバイス170のマイクで収集された乗員160の音声を取得し、乗員160がユーザ230に話しかけているか否かを判定する。そして、乗員160が話しかけている場合にはステップS120に進み、話しかけていない場合にはステップS160に進む。
ステップS120において、音声生成部229は、乗員160に話しかけられていることにユーザ230が気づいているか否かを判定する。音声生成部229は、表示デバイス240のマイクで収集されたユーザ230の音声を取得し、ユーザ230が返事をしているか否かを判定する。そして、ユーザ230が返事をしていない場合には気付いていないと判定してステップS130に進み、返事をしている場合には気付いていると判定してステップS160に進む。
ステップS130において、音声生成部229と表示画像生成部227は、ユーザ230に対して注意喚起を行う。具体的に、音声生成部229は、話しかけている乗員160がいる方向から仮想の音声を上乗せして再生することで、ユーザ230に注意喚起を行う。さらに、表示判定部225は、ユーザ230が返事をしていない場合には話しかけられていることに気付いていないと判定し、つまり乗員160を示すアバタ310の画像が不明瞭であると判定する。そこで、表示画像生成部227は、乗員160を示すアバタ310の画像を表示画像上に表示して表示態様を強調表示に変更する。
ステップS140において、音声生成部229は、注意喚起が不要になったか否かを判定する。音声生成部229は、表示デバイス240のマイクで収集されたユーザ230の音声を取得し、ユーザ230が返事をしている場合には注意喚起が不要になったと判定してステップS150に進む。一方、ユーザ230が返事をしていない場合には注意喚起は必要と判定してステップS130に戻る。また、音声生成部229は、表示デバイス170のマイクで収集された乗員160の音声を取得し、乗員160が話しかけるのをやめている場合には注意喚起が不要になったと判定してステップS150に進む。一方、乗員160が話しかけるのをやめていない場合には注意喚起は必要と判定してステップS130に戻る。
ステップS150において、音声生成部229は、ステップS140で注意喚起が不要になったと判定されると、注意喚起を終了する。具体的に、音声生成部229は、注意喚起のために生成していた音声の出力を終了する。また、表示画像生成部227は、注意喚起のために表示していた乗員160のアバタ310の強調表示を消去して表示態様の変更を終了し、通常時の表示態様に戻して表示画像を生成する。
ステップS160において、音声生成部229は、ユーザ230が仮想空間表示システム1の利用を終了したか否かを判定し、終了していない場合にはステップS110に戻り、終了している場合には、本実施形態に係るユーザの注意喚起処理を終了する。
[実施形態の効果]
以上、詳細に説明したように、本実施形態に係る画像処理装置220では、撮像機器で撮像された撮像画像を取得し、取得した撮像画像上において表示機器のユーザが視認する必要のあるオブジェクトを検出する。そして、検出されたオブジェクトが不明瞭であるか否かを判定し、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を変更して表示画像を生成する。特に、オブジェクトの大きさが所定の閾値以下である場合、オブジェクトが表示されている時間が所定の閾値以下である場合、オブジェクトの大きさの変化率が所定の閾値以上である場合の少なくとも1つである場合に、オブジェクトが不明瞭であると判定する。これにより、移動や動きのあるものを遠隔地で表示する場合であっても、視認が困難なオブジェクトや移動のあるオブジェクトの表示態様を変更することができるので、ユーザにオブジェクトを明瞭に理解させることができる。
また、本実施形態に係る画像処理装置220では、オブジェクトとその周囲との色の差が所定の閾値以下である場合に、オブジェクトが不明瞭であると判定する。これにより、周囲と見分けにくい色のオブジェクトであっても、ユーザにオブジェクトを明瞭に理解させることができる。
さらに、本実施形態に係る画像処理装置220では、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を強調表示に変更して表示画像を生成する。これにより、不明瞭に表示されたオブジェクトであっても、強調表示によってユーザに明瞭に理解させることができる。
また、本実施形態に係る画像処理装置220では、オブジェクトが不明瞭であると判定された場合には、オブジェクトの表示態様を、オブジェクトを示す画像の重畳表示に変更して表示画像を生成する。これにより、不明瞭に表示されたオブジェクトであっても、アイコン等の重畳表示によってユーザに明瞭に理解させることができる。
さらに、本実施形態に係る画像処理装置220では、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合に、オブジェクトが不明瞭であると判定する。これにより、表示画像上に表示されていないオブジェクトがあっても、ユーザにオブジェクトを明瞭に理解させることができる。
また、本実施形態に係る画像処理装置220では、撮像画像上に撮像され、表示画像上には表示されていないオブジェクトがある場合には、オブジェクトの方向を示す画像を重畳表示する表示態様に変更して表示画像を生成する。これにより、表示画像上に表示されていないオブジェクトがあっても、オブジェクトの方向を示す画像の重畳表示によってユーザに明瞭に理解させることができる。
さらに、本実施形態に係る画像処理装置220では、オブジェクトの表示位置に誤差がある場合に、オブジェクトが不明瞭であると判定する。これにより、表示位置に誤差のあるオブジェクトであっても、ユーザにオブジェクトを明瞭に理解させることができる。
また、本実施形態に係る画像処理装置220では、オブジェクトの表示位置に誤差がある場合には、オブジェクトを示す画像を、誤差を修正した位置に重畳表示する表示態様に変更して表示画像を生成する。これにより、表示位置に誤差のあるオブジェクトであっても、誤差を修正することによってユーザに明瞭に理解させることができる。
さらに、本実施形態に係る画像処理装置220では、オブジェクトと撮像機器との間の距離に基づいて、表示画像の大きさを変更する。これにより、オブジェクトと撮像機器との間の距離に合った大きさで表示画像を表示できるので、ユーザにオブジェクトを明瞭に理解させることができる。
さらに、本実施形態に係る画像処理装置220では、検出されたオブジェクトをユーザに認知させるための音声を生成し、ユーザが音声に返事をしていない場合には、オブジェクトが不明瞭であると判定し、オブジェクトの表示態様を変更して表示画像を生成する。これにより、表示だけではなく音声も利用して、ユーザにオブジェクトを明瞭に理解させることができる。
また、本実施形態に係る画像処理装置220では、オブジェクトの表示態様を変更した後に、ユーザが音声に返事をしている場合には、表示態様の変更を終了する。これにより、表示態様の変更を不必要に継続させることを防止することができる。
尚、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。特に、本実施形態では、仮想空間の一例として車両の周辺や車室内を挙げたが、これに限定されない。例えば、電車、飛行機、コンサートホール、映画館、劇場などにも適用可能である。
1 仮想空間表示システム
100 車両空間
110 車外カメラ
120 車内カメラ
130 コントローラ
140、210 通信装置
150 車両
160 乗員
170、240 表示デバイス
200 遠隔地空間
220 画像処理装置
221 撮像画像取得部
223 オブジェクト検出部
225 表示判定部
227 表示画像生成部
229 音声生成部
230 ユーザ
300 仮想空間
310、320 アバタ

Claims (7)

  1. 撮像機器により撮像された撮像画像に基づいて、前記撮像機器から離れた遠隔地にある表示機器に表示するための表示画像を生成する画像処理装置であって、
    前記撮像機器で撮像された撮像画像を取得する撮像画像取得部と、
    取得した前記撮像画像上において、前記表示機器のユーザが視認する必要のあるオブジェクトを検出するオブジェクト検出部と、
    検出された前記オブジェクトが不明瞭であるか否かを判定する表示判定部と、
    前記オブジェクトが不明瞭であると判定された場合には、前記オブジェクトの表示態様を変更して前記表示画像を生成する表示画像生成部と
    前記オブジェクト検出部で検出された前記オブジェクトを前記ユーザに認知させるための音声を生成する音声生成部とを備え、
    前記表示判定部は、前記撮像画像上に撮像され、前記表示画像上には表示されていないオブジェクトがある場合、及び前記ユーザが前記音声に返事をしていない場合に、前記オブジェクトが不明瞭であると判定し、
    前記表示画像生成部は、前記撮像画像上に撮像され、前記表示画像上には表示されていないオブジェクトがある場合には、前記オブジェクトの方向を示す画像を重畳表示する表示態様に変更して前記表示画像を生成する、
    ことを特徴とする画像処理装置。
  2. 撮像機器により撮像された撮像画像に基づいて、前記撮像機器から離れた遠隔地にある表示機器に表示するための表示画像を生成する画像処理装置であって、
    前記撮像機器で撮像された撮像画像を取得する撮像画像取得部と、
    取得した前記撮像画像上において、前記表示機器のユーザが視認する必要のあるオブジェクトを検出するオブジェクト検出部と、
    検出された前記オブジェクトが不明瞭であるか否かを判定する表示判定部と、
    前記オブジェクトが不明瞭であると判定された場合には、前記オブジェクトの表示態様を変更して前記表示画像を生成する表示画像生成部と
    前記オブジェクト検出部で検出された前記オブジェクトを前記ユーザに認知させるための音声を生成する音声生成部とを備え、
    前記表示判定部は、前記オブジェクトの表示位置に誤差がある場合、及び前記ユーザが前記音声に返事をしていない場合に、前記オブジェクトが不明瞭であると判定する、
    ことを特徴とする画像処理装置。
  3. 前記表示画像生成部は、前記オブジェクトの表示位置に誤差がある場合には、前記オブジェクトを示す画像を、前記誤差を修正した位置に重畳表示する表示態様に変更して前記表示画像を生成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記表示画像生成部は、前記オブジェクトと前記撮像機器との間の距離に基づいて、前記表示画像の大きさを変更することを特徴とする請求項3に記載の画像処理装置。
  5. 前記表示画像生成部は、前記オブジェクトの表示態様を変更した後に、前記ユーザが前記音声に返事をしている場合には、前記表示態様の変更を終了することを特徴とする請求項1または2に記載の画像処理装置。
  6. 撮像機器により撮像された撮像画像に基づいて、前記撮像機器から離れた遠隔地にある表示機器に表示するための表示画像を生成する画像処理方法であって、
    前記撮像機器で撮像された撮像画像を取得し、
    取得した前記撮像画像上において、前記表示機器のユーザが視認する必要のあるオブジェクトを検出し、
    検出された前記オブジェクトが不明瞭であるか否かを判定し、
    前記オブジェクトが不明瞭であると判定された場合には、前記オブジェクトの表示態様を変更して前記表示画像を生成し、
    検出された前記オブジェクトを前記ユーザに認知させるための音声を生成し、
    前記撮像画像上に撮像され、前記表示画像上には表示されていないオブジェクトがある場合、及び前記ユーザが前記音声に返事をしていない場合に、前記オブジェクトが不明瞭であると判定し、
    前記撮像画像上に撮像され、前記表示画像上には表示されていないオブジェクトがある場合には、前記オブジェクトの方向を示す画像を重畳表示する表示態様に変更して前記表示画像を生成する、
    ことを特徴とする画像処理方法。
  7. 撮像機器により撮像された撮像画像に基づいて、前記撮像機器から離れた遠隔地にある表示機器に表示するための表示画像を生成する画像処理方法であって、
    前記撮像機器で撮像された撮像画像を取得し、
    取得した前記撮像画像上において、前記表示機器のユーザが視認する必要のあるオブジェクトを検出し、
    検出された前記オブジェクトが不明瞭であるか否かを判定し、
    前記オブジェクトが不明瞭であると判定された場合には、前記オブジェクトの表示態様を変更して前記表示画像を生成し、
    検出された前記オブジェクトを前記ユーザに認知させるための音声を生成し、
    前記オブジェクトの表示位置に誤差がある場合、及び前記ユーザが前記音声に返事をしていない場合に、前記オブジェクトが不明瞭であると判定する、
    ことを特徴とする画像処理方法。
JP2020145715A 2020-08-31 2020-08-31 画像処理装置及び画像処理方法 Active JP7612359B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020145715A JP7612359B2 (ja) 2020-08-31 2020-08-31 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020145715A JP7612359B2 (ja) 2020-08-31 2020-08-31 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2022040819A JP2022040819A (ja) 2022-03-11
JP7612359B2 true JP7612359B2 (ja) 2025-01-14

Family

ID=80499555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020145715A Active JP7612359B2 (ja) 2020-08-31 2020-08-31 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7612359B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7809034B2 (ja) * 2022-09-08 2026-01-30 本田技研工業株式会社 情報処理システム
JP7550823B2 (ja) * 2022-09-12 2024-09-13 本田技研工業株式会社 情報処理システム
JP7553521B2 (ja) 2022-09-12 2024-09-18 本田技研工業株式会社 情報処理システム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003306103A (ja) 2002-04-12 2003-10-28 Honda Motor Co Ltd 警報表示装置
WO2013161707A1 (ja) 2012-04-23 2013-10-31 マスプロ電工株式会社 監視装置
JP2013243640A (ja) 2012-04-23 2013-12-05 Maspro Denkoh Corp 監視装置
JP2015057659A (ja) 2014-10-24 2015-03-26 ソニー株式会社 表示装置、表示方法、プログラム
JP2016161734A (ja) 2015-03-02 2016-09-05 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
WO2017022047A1 (ja) 2015-08-03 2017-02-09 三菱電機株式会社 表示制御装置、表示装置及び表示制御方法
JP2018019263A (ja) 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 音声モニタリングシステム及び音声モニタリング方法
WO2018087879A1 (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 遠隔操作システム、交通システム、および遠隔操作方法
JP2018129833A (ja) 2018-03-15 2018-08-16 株式会社デンソー 画像処理装置
WO2019054092A1 (ja) 2017-09-12 2019-03-21 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
JP2019075599A (ja) 2017-10-12 2019-05-16 クラリオン株式会社 車載装置、サーバ、表示方法、送信方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4135123B2 (ja) * 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003306103A (ja) 2002-04-12 2003-10-28 Honda Motor Co Ltd 警報表示装置
WO2013161707A1 (ja) 2012-04-23 2013-10-31 マスプロ電工株式会社 監視装置
JP2013243640A (ja) 2012-04-23 2013-12-05 Maspro Denkoh Corp 監視装置
JP2015057659A (ja) 2014-10-24 2015-03-26 ソニー株式会社 表示装置、表示方法、プログラム
JP2016161734A (ja) 2015-03-02 2016-09-05 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
WO2017022047A1 (ja) 2015-08-03 2017-02-09 三菱電機株式会社 表示制御装置、表示装置及び表示制御方法
JP2018019263A (ja) 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 音声モニタリングシステム及び音声モニタリング方法
WO2018087879A1 (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 遠隔操作システム、交通システム、および遠隔操作方法
WO2019054092A1 (ja) 2017-09-12 2019-03-21 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法
JP2019075599A (ja) 2017-10-12 2019-05-16 クラリオン株式会社 車載装置、サーバ、表示方法、送信方法
JP2018129833A (ja) 2018-03-15 2018-08-16 株式会社デンソー 画像処理装置

Also Published As

Publication number Publication date
JP2022040819A (ja) 2022-03-11

Similar Documents

Publication Publication Date Title
US11484790B2 (en) Reality vs virtual reality racing
US12198399B2 (en) Display system and display method
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
US9756319B2 (en) Virtual see-through instrument cluster with live video
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5267660B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
JP6693223B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7612359B2 (ja) 画像処理装置及び画像処理方法
US11605396B2 (en) Image processing system and method
WO2019244670A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111294586B (zh) 图像显示方法、装置、头戴显示设备及计算机可读介质
JP2018203245A (ja) 表示システム、電子ミラーシステム及び移動体
JP2019133116A (ja) 表示システム、移動体、及び、設計方法
JP2019047296A (ja) 表示装置、表示方法、制御プログラム、および電子ミラーシステム
JP2022153361A (ja) 映像装置
JP6784289B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024154100A (ja) 表示制御装置、表示システム、及び表示制御方法
JP2020019369A (ja) 車両用表示装置、方法、及びコンピュータ・プログラム
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法
JP2007047735A (ja) 視覚情報呈示装置及び視覚情報呈示方法
JP7635559B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2024081406A (ja) 画像処理装置及び方法、プログラム、記憶媒体
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
CN121579110A (zh) 界面元素的调整方法、装置及电子设备
WO2023232299A1 (en) A vehicle, a system and a method for reducing motion sickness for a passenger of a moving vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241225

R150 Certificate of patent or registration of utility model

Ref document number: 7612359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150