JP2023116151A - 画像改善システム、画像改善方法、及び画像改善プログラム - Google Patents

画像改善システム、画像改善方法、及び画像改善プログラム Download PDF

Info

Publication number
JP2023116151A
JP2023116151A JP2022018783A JP2022018783A JP2023116151A JP 2023116151 A JP2023116151 A JP 2023116151A JP 2022018783 A JP2022018783 A JP 2022018783A JP 2022018783 A JP2022018783 A JP 2022018783A JP 2023116151 A JP2023116151 A JP 2023116151A
Authority
JP
Japan
Prior art keywords
image
visibility
improvement
processing
environmental condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022018783A
Other languages
English (en)
Inventor
敏暢 渡辺
Toshinobu Watanabe
孝紘 伊東
Takahiro Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woven by Toyota Inc
Original Assignee
Woven by Toyota Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woven by Toyota Inc filed Critical Woven by Toyota Inc
Priority to JP2022018783A priority Critical patent/JP2023116151A/ja
Publication of JP2023116151A publication Critical patent/JP2023116151A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】カメラによって撮像された画像の視認性を低下させる要因を自動的に考慮して、その画像の視認性を適切に改善することができる技術を提供する。【解決手段】画像改善システムは、カメラによって撮像された画像の視認性を改善する。画像改善システムは、カメラによって撮像された画像に基づいて、その画像が撮像されたときの環境条件を判別する。そして、画像改善システムは、環境条件に応じて視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、必要な視認性改善処理を所定の順番で画像に適用することによって、視認性が改善された改善画像を生成する。【選択図】図3

Description

本開示は、カメラによって撮像された画像の視認性を改善する技術に関する。
特許文献1は、画像全体の視認性を維持したまま、局所的に視認性の悪い領域の視認性を改善する技術を開示している。具体的には、撮像装置で撮像された画像の中の影領域が認識される。そして、影領域の特徴量(例:輝度)がその他の領域の特徴量と一致するように、影領域に属する各画素の画素値が変更される。
特許文献2は、画像処理装置を開示している。画像処理装置は、領域設定手段と、解析手段と、補正処理手段とを有する。領域設定手段は、表示された画像に対して補正対象の領域を設定する。解析手段は、領域設定手段により設定された領域の特徴量を解析して、補正対象の領域内の画像に対して実施すべき補正の種類及び補正パラメータを決定する。補正処理手段は、解析手段により決定された内容に従い、補正対象の領域内の画像に補正を行う。
非特許文献1は、ResNet(Deep Residual Net)を用いた画像認識技術を開示している。
非特許文献2は、Deep Residual Learningを用いることによって、画像から天気等のシーンを認識する技術を開示している。
非特許文献3は、Convolutional Neural Network (CNN)を用いて、霧等でかすんだ画像を改善する技術(dehazing, defogging)を開示している。
非特許文献4は、ディープラーニングを利用して、低照度画像を通常光画像へ変換する技術(EnlightenGAN)を開示している。これにより、例えば、夜間や逆光といったシーンにおいて撮像された画像を適度な明るさに補正することができる。
非特許文献5は、霧や雨等でかすんだ画像を改善する技術(dehazing, deraining)を開示している。
特開2007-272477号公報 特開2018-014635号公報
Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun, "Deep Residual Learning for Image Recognition", arXiv:1512.03385v1 [cs.CV], December 10, 2015 (https://arxiv.org/pdf/1512.03385.pdf) Mohamed R. Ibrahim, James Haworth, and Tao Cheng, "WeatherNet: Recognising weather and visual conditions from street-level images using deep residual learning", arXiv:1910.09910v1 [cs.CV], October 22, 2019 (https://arxiv.org/ftp/arxiv/papers/1910/1910.09910.pdf) Boyi Li, Xiulian Peng, Zhangyang Wang, Jizheng Xu, and Dan Feng, "AOD-Net: All-in-One Dehazing Network", ICCV, 2017 (https://openaccess.thecvf.com/content_ICCV_2017/papers/Li_AOD-Net_All-In-One_Dehazing_ICCV_2017_paper.pdf) Yifan Jiang, Xinyu Gong, Ding Liu, Yu Cheng, Chen Fang, Xiaohui Shen, Jianchao Yang, Pan Zhou, and Zhangyang Wang, "EnlightenGAN: Deep Light Enhancement without Paired Supervision", arXiv:1906.06972v1 [cs.CV], June 17, 2019 (https://arxiv.org/pdf/1906.06972.pdf) Dongdong Chen, Mingming He, Qingnan Fan, Jing Liao, Liheng Zhang, Dongdong Hou, Lu Yuan, and Gang Hua, "Gated Context Aggregation Network for Image Dehazing and Deraining", arXiv:1811.08747v2 [cs.CV], December 15, 2018 (https://arxiv.org/abs/1811.08747)
カメラによって撮像された画像の視認性が悪いと、その画像を利用した認識や処理の精度が低下する。例えば、ユーザが画像内の物体や事象を認識する必要がある場合に、その画像の視認性が悪いと認識精度が低下する。よって、カメラによって撮像された画像の視認性を改善してクリアな画像を取得することは有用である。但し、画像の視認性を改善するためにどのような処理をどのような順番で行うべきかをユーザが判断することは困難であり且つ煩わしい。
本開示の1つの目的は、カメラによって撮像された画像の視認性を低下させる要因を自動的に考慮して、その画像の視認性を適切に改善することができる技術を提供することにある。
第1の観点は、カメラによって撮像された画像の視認性を改善する画像改善システムに関連する。
画像改善システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
画像に基づいて、画像が撮像されたときの環境条件を判別する環境条件判別処理と、
環境条件に応じて視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、必要な視認性改善処理を所定の順番で画像に適用することによって、視認性が改善された改善画像を生成する視認性改善処理と
を実行するように構成される。
第2の観点は、カメラによって撮像された画像の視認性を改善する画像改善方法に関連する。
画像改善方法は、
画像に基づいて、画像が撮像されたときの環境条件を判別する環境条件判別処理と、
環境条件に応じて視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、必要な視認性改善処理を所定の順番で画像に適用することによって、視認性が改善された改善画像を生成する視認性改善処理と
を含む。
第3の観点は、コンピュータによって実行され、カメラによって撮像された画像の視認性を改善する画像改善プログラムに関連する。
画像改善プログラムは、
画像に基づいて、画像が撮像されたときの環境条件を判別する環境条件判別処理と、
環境条件に応じて視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、必要な視認性改善処理を所定の順番で画像に適用することによって、視認性が改善された改善画像を生成する視認性改善処理と
をコンピュータに実行させる。
本開示によれば、カメラによって撮像された画像に基づいて、その画像の撮像時の環境条件が判別される。更に、その環境条件に応じて必要な視認性改善処理が特定され、必要な視認性改善処理が所定の順番で画像に適用され、改善画像が生成される。視認性を低下させる要因に応じた適切な視認性改善処理が適切な順番で実行されるため、優れた視認性改善効果が得られる。また、ユーザによる個別判断は不要であるため、ユーザの負荷が軽減される。ユーザは、視認性が改善された改善画像を手軽に取得することができる。
本開示の実施の形態に係る画像改善システムの構成例を示すブロック図である。 本開示の実施の形態に係る画像改善システムの機能構成例を示すブロック図である。 本開示の実施の形態に係る画像改善システムによる処理を示すフローチャートである。 本開示の実施の形態に係る環境条件判別処理(ステップS20)を説明するための概念図である。 本開示の実施の形態に係る視認性改善処理(ステップS30)の一例を示すフローチャートである。 本開示の実施の形態に係る遠隔支援システムを示す概念図である。 本開示の実施の形態に係る遠隔オペレータ端末の構成例を示すブロック図である。 本開示の実施の形態に係る自動運転システムを示す概念図である。 本開示の実施の形態に係る地図管理システムを示す概念図である。 本開示の実施の形態に係る監視システムを示す概念図である。
添付図面を参照して、本開示の実施の形態を説明する。
1.画像改善システム
1-1.概要
図1は、本実施の形態に係る画像改善システム1の構成例を示すブロック図である。画像改善システム1は、カメラCによって撮像された画像IMGを取得し、その画像IMGを改善する。特に、画像改善システム1は、画像IMGの「視認性」を改善する。画像IMGの視認性を改善する処理を、以下、「視認性改善処理」と呼ぶ。また、視認性が改善された画像を、以下、「改善画像IMG_S」と呼ぶ。
画像改善システム1は、視認性改善処理を含む各種の情報処理を実行するコンピュータである。画像改善システム1は、単体の装置で構成されてもよいし、分散された複数の装置の組み合わせにより構成されてもよい。後者の場合、複数の装置が連携して必要な情報処理を行う。
より詳細には、画像改善システム1は、I/Oインタフェース2、1又は複数のプロセッサ3(以下、単にプロセッサ3と呼ぶ)、及び1又は複数の記憶装置4(以下、単に記憶装置4と呼ぶ)を含んでいる。I/Oインタフェース2は、カメラCによって撮像された画像IMGを入力し、また、改善画像IMG_Sを出力する。プロセッサ3は、各種の情報処理を実行する。例えば、プロセッサ3は、CPU(Central Processing Unit)を含んでいる。記憶装置4は、プロセッサ3による処理に必要な各種情報を格納する。記憶装置4としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。
画像改善プログラム5は、プロセッサ3によって実行されるコンピュータプログラムである。プロセッサ3が画像改善プログラム5を実行することにより、画像改善システム1の機能が実現される。画像改善プログラム5は、記憶装置4に格納される。画像改善プログラム5は、コンピュータ読み取り可能な記録媒体に記録されてもよい。画像改善プログラム5は、ネットワーク経由で提供されてもよい。
カメラCによって撮像される画像IMGの視認性を低下させる要因としては様々考えられる。本実施の形態では、特に、画像IMGが撮影されたときの「環境条件(シーン)」が視認性に与える影響について考える。環境条件(シーン)とは、天気、時間帯、逆光か否か、霧の有無、等を意味する。例えば、雨天時に撮像された画像IMGの視認性は低い。他の例として、夜間等の暗い状況で撮像された画像IMGの視認性は低い。更に他の例として、逆光条件下で撮像された画像IMGの視認性は低い。更に他の例として、霧が発生しているときに撮像された画像IMGの視認性は低い。このように、カメラCによって撮像される画像IMGの視認性を低下させる要因としては、雨、暗闇、逆光、霧、等が挙げられる。
このような環境条件を考慮して画像IMGの視認性を改善し、クリアな改善画像IMG_Sを取得することが望まれる。但し、画像IMGの視認性を改善するためにどのような処理をどのような順番で行うべきかをユーザが判断することは困難であり且つ煩わしい。そこで、本実施の形態に係る画像改善システム1は、カメラCによって撮像された画像IMGの視認性を低下させる要因を自動的に判別し、その要因に応じた適切な視認性改善処理を適切な順番で実行することができるように構成される。
以下、本実施の形態に係る画像改善システム1による処理について更に詳しく説明する。
1-2.機能構成例及び処理例
図2は、本実施の形態に係る画像改善システム1の機能構成例を示すブロック図である。画像改善システム1は、画像取得部10、環境条件判別部20、視認性改善処理部30、及び画像出力部40を含んでいる。これら機能ブロックは、画像改善プログラム5を実行するプロセッサ3と記憶装置4との協働により実現される。
図3は、本実施の形態に係る画像改善システム1による処理を示すフローチャートである。以下、図2及び図3を参照して、本実施の形態に係る画像改善システム1による処理例を説明する。
1-2-1.画像取得処理(ステップS10)
画像取得部10は、I/Oインタフェース2を介して、カメラCによって撮像された画像IMGを取得する。画像取得部10は、取得した画像IMGを環境条件判別部20と視認性改善処理部30に送る。
1-2-2.環境条件判別処理(ステップS20)
環境条件判別部20は、取得した画像IMGに基づいて、その画像IMGが撮像されたときの環境条件(シーン)を自動的に判別する。画像IMGに基づいて環境条件を判別するための技術としては、上述の非特許文献1や非特許文献2に記載されている技術が挙げられる。
図4は、環境条件判別処理(ステップS20)を説明するための概念図である。環境条件判別部20は、天気判別部21、時間帯判別部22、グレア判別部23、及び霧判別部24を含んでいる。
天気判別部21は、画像IMGに基づいて、その画像IMGが撮像されたときの天気を判別する。天気としては、晴れ(sunny)、曇り(cloudy)、雨(rainy)、及び雪(snowy)が挙げられる。天気判別部21は、該当する天気を出力する。
時間帯判別部22は、画像IMGに基づいて、その画像IMGが撮像されたときの時間帯を判別する。時間帯としては、昼間(day)、朝夕(dawn/dusk)、及び夜間(night)が挙げられる。「夜間」は「暗闇」に相当する。時間帯判別部22は、該当する時間帯を出力する。
グレア判別部23は、画像IMGに基づいて、その画像IMGが逆光条件下で撮像されたか否かを判別する。グレア判別部23は、逆光条件か否かを出力する。
霧判別部24は、画像IMGに基づいて、その画像IMGが撮像されたときの霧の有無を判別する。霧判別部24は、霧の有無を出力する。
画像IMGが撮像されたときの環境条件は、天気判別部21、時間帯判別部22、グレア判別部23、及び霧判別部24のそれぞれからの出力の組み合わせである。図4に示される例では、環境条件は、「雨&夜間(暗闇)&逆光無し&霧」である。環境条件判別部20は、得られた環境条件の情報を視認性改善処理部30に出力する。
1-2-3.視認性改善処理(ステップS30)
視認性改善処理部30は、画像IMGと、その画像IMGが撮像されたときの環境条件の情報を受け取る。そして、視認性改善処理部30は、環境条件に応じて、画像IMGの視認性を改善するために必要な視認性改善処理を特定する。
環境条件が「霧」を含んでいる場合に必要な視認性改善処理は、「霧除去処理(defogging)」である。霧除去処理は、画像IMG内の霧によるかすみを除去し、視認性を改善する。この霧除去処理は、例えば、上記の非特許文献3に記載されている技術により実現される。霧の度合いが閾値を超えたときに霧除去処理が行われてもよい。
環境条件が「暗闇」あるいは「逆光」を含んでいる場合に必要な視認性改善処理は、「明るさ補正処理」である。明るさ補正処理は、夜間や逆光といったシーンにおいて撮像された画像IMGを適度な明るさに補正し、視認性を改善する。この明るさ補正処理は、例えば、上記の非特許文献4に記載されている技術により実現される。
環境条件が「雨」を含んでいる場合に必要な視認性改善処理は、「雨除去処理(deraining)」である。雨除去処理は、画像IMG内の雨によるかすみを除去し、視認性を改善する。この雨除去処理は、例えば、上記の非特許文献5に記載されている技術により実現される。
このように、環境条件に関連する視認性改善処理の候補としては、霧除去処理、明るさ補正処理、及び雨除去処理の三種類が挙げられる。本願発明者は、これら複数種類の視認性改善処理をどのような順番で行えば視認性改善効果が最も高くなるかについて研究を行った。そして、本願発明者の研究努力の結果、「1.霧除去処理」、「2.明るさ補正処理」、「3.雨除去処理」の順番に行う場合に視認性改善効果が最も高くなることが判明した。本実施の形態では、この順番が採用される。すなわち、霧除去処理が明るさ補正処理よりも先に実行され、明るさ補正処理が雨除去処理よりも先に実行されるように、処理順が予め設定される。
視認性改善処理部30は、環境条件判別部20によって判別された環境条件に応じて、複数種類の処理候補(霧除去処理、明るさ補正処理、及び雨除去処理)の中から必要な視認性改善処理を特定する。複数の処理候補の処理順は予め決まっている。視認性改善処理部30は、特定した必要な視認性改善処理を所定の順番で画像IMGに適用することによって、視認性が改善された改善画像IMG_Sを生成する。つまり、視認性改善処理部30は、必要な視認性改善処理をやみくもに行うのではなく、所定の順番に従って行う。これにより、優れた視認性改善効果が得られ、可能な限りクリアな改善画像IMG_Sが得られる。
尚、環境条件に関連する複数種類の処理候補は、霧除去処理、明るさ補正処理、及び雨除去処理のうち2つであってもよい。その場合の前後関係も同じである。
視認性改善処理部30は、更に、環境条件とは関係ない視認性改善処理を行ってもよい。例えば、視認性改善処理部30は、周知のブレ改善やコントラスト調整(平均化)といった画像処理を行ってもよい。
以下、視認性改善処理部30による視認性改善処理の一例を説明する。図2に示されるように、視認性改善処理部30は、ブレ補正部31、霧除去処理部33、明るさ補正処理部35、雨除去処理部37、及びコントラスト調整部39を含んでいる。図5は、視認性改善処理(ステップS30)の一例を示すフローチャートである。
ステップS31において、ブレ補正部31は、画像IMGに対して周知のブレ補正処理を行う。ブレ補正部31は、ブレ補正処理後の画像IMGを霧除去処理部33に出力する。
続くステップS32において、霧除去処理部33は、環境条件判別部20によって判別された環境条件が「霧」を含むか否かを判定する。環境条件が「霧」を含む場合(ステップS32;Yes)、霧除去処理部33は、霧除去処理が必要であると判断し、霧除去処理を行う(ステップS33)。そして、霧除去処理部33は、霧除去処理後の画像IMGを明るさ補正処理部35に出力する。一方、環境条件が「霧」を含まない場合(ステップS32;No)、霧除去処理部33は、霧除去処理を行うことなく、画像IMGを明るさ補正処理部35に出力する。
続くステップS34において、明るさ補正処理部35は、環境条件判別部20によって判別された環境条件が「暗闇」あるいは「逆光」を含むか否かを判定する。環境条件が「暗闇」あるいは「逆光」を含む場合(ステップS34;Yes)、明るさ補正処理部35は、明るさ補正処理が必要であると判断し、明るさ補正処理を行う(ステップS35)。そして、明るさ補正処理部35は、明るさ補正処理後の画像IMGを雨除去処理部37に出力する。一方、環境条件が「暗闇」も「逆光」も含まない場合(ステップS34;No)、明るさ補正処理部35は、明るさ補正処理を行うことなく、画像IMGを雨除去処理部37に出力する。
続くステップS36において、雨除去処理部37は、環境条件判別部20によって判別された環境条件が「雨」を含むか否かを判定する。環境条件が「雨」を含む場合(ステップS36;Yes)、雨除去処理部37は、雨除去処理が必要であると判断し、雨除去処理を行う(ステップS37)。そして、雨除去処理部37は、雨除去処理後の画像IMGをコントラスト調整部39に出力する。一方、環境条件が「雨」を含まない場合(ステップS36;No)、雨除去処理部37は、雨除去処理を行うことなく、画像IMGをコントラスト調整部39に出力する。
続くステップS39において、コントラスト調整部39は、画像IMGに対して周知のコントラスト調整処理を行う。
このように視認性改善処理を段階的に経た後の画像IMGが、改善画像IMG_Sである。視認性改善処理部30は、このようにして生成した改善画像IMG_Sを画像出力部40に出力する。
1-2-4.画像出力処理(ステップS40)
画像出力部40は、I/Oインタフェース2を介して、改善画像IMG_Sを外部に出力する。改善画像IMG_Sは、様々な用途に使用される。
1-3.効果
以上に説明されたように、本実施の形態に係る画像改善システム1は、カメラCによって撮像された画像IMGに基づいて、その画像IMGの撮像時の環境条件を判別する。更に、画像改善システム1は、環境条件に応じて必要な視認性改善処理を特定し、必要な視認性改善処理を所定の順番で画像IMGに適用することによって改善画像IMG_Sを生成する。視認性を低下させる要因に応じた適切な視認性改善処理が適切な順番で実行されるため、優れた視認性改善効果が得られる。また、ユーザによる個別判断は不要であるため、ユーザの負荷が軽減される。ユーザは、視認性が改善された改善画像IMG_Sを手軽に取得することができる。
元の画像IMGの代わりに改善画像IMG_Sを用いることによって、画像IMGに基づく認識や処理の精度が向上する。例えば、ユーザが画像IMG内の物体や事象を認識する必要がある場合、視認性が改善された改善画像IMG_Sを用いることによって認識精度が向上する。他の例として、コンピュータが画像IMGから特定の物体を抽出する処理を行う場合、視認性が改善された改善画像IMG_Sを用いることによって抽出処理精度が向上する。
2.様々な適用例
以下、本実施の形態に係る画像改善システム1の様々な適用例について説明する。
2-1.遠隔支援システム
図6は、本実施の形態に係る遠隔支援システム100を示す概念図である。遠隔支援システム100は、遠隔オペレータOが移動体110を遠隔支援するためのシステムである。遠隔支援は、遠隔操作(遠隔運転)、遠隔指示、遠隔監視、等を含む。遠隔支援の対象である移動体110としては、車両、ロボット、飛翔体、等が例示される。車両は、自動運転車両であってもよいし、ドライバが運転する車両であってもよい。ロボットとしては、物流ロボット、作業ロボット、等が例示される。飛翔体としては、飛行機、ドローン、等が例示される。
遠隔支援システム100は、移動体110、管理装置120、及び遠隔オペレータ端末130を含んでいる。遠隔オペレータ端末130は、遠隔オペレータOが移動体110を遠隔支援する際に使用する端末装置である。管理装置120は、移動体110及び遠隔支援の管理を行う。管理装置120は、通信ネットワークを介して移動体110及び遠隔オペレータ端末130と通信可能である。典型的には、管理装置120は、クラウド上の管理サーバである。管理サーバは、分散処理を行う複数のサーバにより構成されていてもよい。
一例として、移動体110が車両である場合について考える。車両以外の場合も同様である。
車両110には、カメラCを含む各種センサが搭載されている。カメラCは、車両110の周囲の状況を撮像し、車両110の周囲の状況を示す画像IMGを取得する。車両110は、各種センサを用いて、画像IMGを含む車両情報VCLを取得する。車両110は、管理装置120と通信を行い、車両情報VCLを管理装置120に送信する。管理装置120は、受け取った車両情報VCLを遠隔オペレータ端末130に転送する。
遠隔オペレータ端末130は、車両情報VCLを受け取る。遠隔オペレータ端末130は、少なくとも画像IMGを含む車両情報VCLを遠隔オペレータOに提示する。具体的には、遠隔オペレータ端末130は、表示装置を備えており、画像IMGを表示装置に表示する。遠隔オペレータOは、表示装置に表示された画像IMGをみて、車両110の周囲の状況を認識し、車両110の遠隔支援を行う。遠隔オペレータ端末130は、遠隔オペレータOによる操作を示す操作情報OPEを管理装置120に送信する。管理装置120は、受け取った操作情報OPEを車両110に転送する。車両110は、受け取った操作情報OPEに従って車両走行制御を行う。
このような遠隔支援システム100において、画像IMGの視認性を改善する画像改善システム1は有用である。例えば、画像改善システム1は、管理装置120に組み込まれる。この場合、管理装置120は、車両110から受け取る画像IMGの視認性を改善して改善画像IMG_Sを生成し、改善画像IMG_Sを遠隔オペレータ端末130に送信する。他の例として、画像改善システム1は、遠隔オペレータ端末130に組み込まれてもよい。この場合、遠隔オペレータ端末130は、管理装置120を介して車両110から受け取る画像IMGの視認性を改善し、改善画像IMG_Sを生成する。いずれの場合であっても、遠隔オペレータ端末130は、視認性が改善された改善画像IMG_Sを遠隔オペレータOに提示することができる。
遠隔オペレータOは、改善画像IMG_Sに基づいて遠隔支援を行うことができる。車両110の置かれた環境条件によっては画像IMGの視認性が低下する場合もあるが、その場合であっても、環境条件の影響が軽減されたクリアな改善画像IMG_Sを用いることができる。その結果、遠隔オペレータOによる認識精度が向上し、それにより遠隔支援の精度も向上する。また、環境条件の影響が軽減されるため、運行設計領域(ODD: Operational Design Domain)を拡大することが可能となる。このことは、サービス向上の観点から好ましい。
図7は、遠隔オペレータ端末130の構成例を示すブロック図である。遠隔オペレータ端末130は、通信装置131、表示装置132、入力装置133、及び制御装置134を含んでいる。
通信装置131は、管理装置120と通信を行う。
表示装置132は、各種情報を表示することにより、各種情報を遠隔オペレータOに提示する。
入力装置133は、遠隔オペレータOからの入力を受け付ける。例えば、入力装置133は、遠隔オペレータOが車両110を遠隔運転する際に操作する遠隔運転部材を含む。遠隔運転部材は、ハンドル、アクセルペダル、ブレーキペダル、方向指示器、等を含んでいる。
制御装置134は、遠隔オペレータ端末130を制御する。制御装置134は、1又は複数のプロセッサ135(以下、単にプロセッサ135と呼ぶ)と1又は複数の記憶装置136(以下、単に記憶装置136と呼ぶ)を含んでいる。プロセッサ135は、各種処理を実行する。例えば、プロセッサ135は、CPUを含んでいる。記憶装置136は、プロセッサ135による処理に必要な各種情報を格納する。記憶装置136としては、揮発性メモリ、不揮発性メモリ、HDD、SSD、等が例示される。
遠隔支援プログラム137は、プロセッサ135によって実行されるコンピュータプログラムである。プロセッサ135が遠隔支援プログラム137を実行することにより、制御装置134の機能が実現される。遠隔支援プログラム137は、記憶装置136に格納される。あるいは、遠隔支援プログラム137は、コンピュータ読み取り可能な記録媒体に記録されてもよい。遠隔支援プログラム137は、ネットワーク経由で提供されてもよい。
制御装置134は、通信装置131を介して、管理装置120と通信を行う。制御装置134は、車両110から送信される車両情報VCLを管理装置120を介して受け取る。車両情報VCLは、記憶装置136に格納される。制御装置134は、車両情報VCLを表示装置132に表示することによって、車両情報VCLを遠隔オペレータOに提示する。遠隔オペレータOは、表示装置132に表示される車両情報VCLに基づいて、車両110やその周囲の状況を認識することができる。
遠隔オペレータOは、遠隔運転部材を操作してもよい。制御装置134は、遠隔オペレータOによる遠隔運転部材の操作量を取得する。制御装置134は、操作量を反映した操作情報OPEを生成し、その操作情報OPEを通信装置131を介して管理装置120に送信する。
遠隔オペレータ端末130の制御装置134は、本実施の形態に係る画像改善システム1の機能を備えていてもよい。その場合、制御装置134(プロセッサ135)は、車両情報VCLに含まれる画像IMGの視認性を改善して、改善画像IMG_Sを生成する。そして、制御装置134は、改善画像IMG_Sを表示装置132に表示することによって、改善画像IMG_Sを遠隔オペレータOに提示する。これにより、遠隔オペレータOによる認識精度が向上し、遠隔支援の精度が向上する。
入力装置133は、画像改善システム1の機能のON/OFFを切り替えるスイッチを含んでいてもよい。遠隔オペレータOは、スイッチをONすることによって、画像改善システム1を起動し、視認性改善機能を手軽に利用することができる。
2-2.自動運転システム
図8は、本実施の形態に係る自動運転システム200を示す概念図である。自動運転システム200は、車両210の自動運転を制御する。特に、自動運転システム200は、車両210の周囲の状況を撮像するカメラCを含んでおり、カメラCによって撮像された画像IMGに基づいて、車両210の周囲の状況を認識する。例えば、自動運転システム200は、画像IMGに基づいて、車両210の周囲の物体(歩行者、先行車両、等)を認識する。自動運転システム200は、その認識結果に基づいて車両210の自動運転を制御する。
自動運転システム200は、本実施の形態に係る画像改善システム1の機能を備えていてもよい。その場合、自動運転システム200は、カメラCによって撮像された画像IMGの視認性を改善して、改善画像IMG_Sを生成する。そして、自動運転システム200は、改善画像IMG_Sに基づいて、車両210の周囲の状況を認識し、車両210の自動運転を制御する。その結果、自動運転システム200による認識精度が向上し、自動運転の精度が向上する。また、環境条件の影響が軽減されるため、運行設計領域を拡大することが可能となる。
2-3.地図管理システム
図9は、本実施の形態に係る地図管理システム300を示す概念図である。地図管理システム300は、車両310と管理装置320を含んでいる。車両310は、カメラCを搭載している。車両310は、走行しながらカメラCを用いて画像IMGを収集する。車両310は、管理装置320と通信を行い、画像IMGを管理装置320に送信する。尚、画像IMGの送信は、リアルタイムに行われてもよいし、一定期間毎に行われてもよいし、走行完了後に行われてもよい。
管理装置320は、複数の車両310から画像IMGを収集する。そして、管理装置320は、収集した画像IMGを統合して地図情報を生成、更新する。管理装置320は、地図情報を配信してもよい。例えば、管理装置320は、車両310からの要求に応答して最新の地図情報を提供する。
管理装置320は、本実施の形態に係る画像改善システム1の機能を備えていてもよい。その場合、管理装置320は、車両310から受け取った画像IMGの視認性を改善して、改善画像IMG_Sを生成する。そして、管理装置320は、改善画像IMG_Sに基づいて地図情報を生成、更新する。環境条件の影響が軽減されたクリアな改善画像IMG_Sが用いられるため、地図情報の品質が向上する。また、環境条件によらず地図情報を更新することができるため、地図情報の更新頻度を高めることができる。
2-4.監視システム
図10は、本実施の形態に係る監視システム400を示す概念図である。監視システム400は、街や建物内の様子を監視する。監視システム400は、カメラ装置410と管理装置420を含んでいる。カメラ装置410は、カメラCと通信機能を備えており、カメラCによって撮像された画像IMGを管理装置420に送信する。管理装置420は、受信した画像IMGを記憶装置に記録する。管理装置420は、受信した画像IMGを表示装置に表示し、監視員に提示してもよい。
管理装置420は、本実施の形態に係る画像改善システム1の機能を備えていてもよい。その場合、管理装置420は、カメラ装置410から受け取った画像IMGの視認性を改善して、改善画像IMG_Sを生成する。そして、管理装置420は、改善画像IMG_Sを記憶装置に記録したり、表示装置に表示したりする。視認性が改善された改善画像IMG_Sを用いることにより、街や建物内の様子をより正確に把握することが可能となる。
1 画像改善システム
3 プロセッサ
4 記憶装置
5 画像改善プログラム
10 画像取得部
20 環境条件判別部
21 天気判別部
22 時間帯判別部
23 グレア判別部
24 霧判別部
30 視認性改善処理部
31 ブレ補正部
33 霧除去処理部
35 明るさ補正処理部
37 雨除去処理部
39 コントラスト調整部
40 画像出力部
100 遠隔支援システム
110 移動体、車両
120 管理装置
130 遠隔オペレータ端末
200 自動運転システム
300 地図管理システム
400 監視システム
C カメラ
IMG 画像
IMG_S 改善画像

Claims (9)

  1. カメラによって撮像された画像の視認性を改善する画像改善システムであって、
    1又は複数のプロセッサを備え、
    前記1又は複数のプロセッサは、
    前記画像に基づいて、前記画像が撮像されたときの環境条件を判別する環境条件判別処理と、
    前記環境条件に応じて前記視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、前記必要な視認性改善処理を所定の順番で前記画像に適用することによって、前記視認性が改善された改善画像を生成する視認性改善処理と
    を実行するように構成された
    画像改善システム。
  2. 請求項1に記載の画像改善システムであって、
    前記複数種類の処理候補は、
    前記環境条件が霧である場合の前記視認性改善処理である霧除去処理と、
    前記環境条件が暗闇あるいは逆光である場合の前記視認性改善処理である明るさ補正処理と
    を含み、
    前記所定の順番は、前記霧除去処理が前記明るさ補正処理よりも先に実行されるように設定される
    画像改善システム。
  3. 請求項2に記載の画像改善システムであって、
    前記複数種類の処理候補は、更に、前記環境条件が雨である場合の前記視認性改善処理である雨除去処理を含み、
    前記所定の順番は、前記明るさ補正処理が前記雨除去処理よりも先に実行されるように設定される
    画像改善システム。
  4. 請求項1に記載の画像改善システムであって、
    前記複数種類の処理候補は、
    前記環境条件が霧である場合の前記視認性改善処理である霧除去処理と、
    前記環境条件が雨である場合の前記視認性改善処理である雨除去処理と
    を含み、
    前記所定の順番は、前記霧除去処理が前記雨除去処理よりも先に実行されように設定される
    画像改善システム。
  5. 請求項1に記載の画像改善システムであって、
    前記複数種類の処理候補は、
    前記環境条件が暗闇あるいは逆光である場合の前記視認性改善処理である明るさ補正処理と、
    前記環境条件が雨である場合の前記視認性改善処理である雨除去処理と
    を含み、
    前記所定の順番は、前記明るさ補正処理が前記雨除去処理よりも先に実行されるように設定される
    画像改善システム。
  6. 請求項1乃至5のいずれか一項に記載の画像改善システムであって、
    前記カメラは、移動体に搭載されている
    画像改善システム。
  7. 請求項6に記載の画像改善システムであって、
    前記画像取得処理において、前記1又は複数のプロセッサは、前記移動体と通信を行うことによって前記移動体から前記画像を取得し、
    前記1又は複数のプロセッサは、更に、前記改善画像を、前記移動体を遠隔支援する遠隔オペレータに提示する
    画像改善システム。
  8. カメラによって撮像された画像の視認性を改善する画像改善方法であって、
    前記画像に基づいて、前記画像が撮像されたときの環境条件を判別する環境条件判別処理と、
    前記環境条件に応じて前記視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、前記必要な視認性改善処理を所定の順番で前記画像に適用することによって、前記視認性が改善された改善画像を生成する視認性改善処理と
    を含む
    画像改善方法。
  9. コンピュータによって実行され、カメラによって撮像された画像の視認性を改善する画像改善プログラムであって、
    前記画像に基づいて、前記画像が撮像されたときの環境条件を判別する環境条件判別処理と、
    前記環境条件に応じて前記視認性を改善するために必要な視認性改善処理を複数種類の処理候補の中から特定し、前記必要な視認性改善処理を所定の順番で前記画像に適用することによって、前記視認性が改善された改善画像を生成する視認性改善処理と
    を前記コンピュータに実行させる
    画像改善プログラム。
JP2022018783A 2022-02-09 2022-02-09 画像改善システム、画像改善方法、及び画像改善プログラム Pending JP2023116151A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022018783A JP2023116151A (ja) 2022-02-09 2022-02-09 画像改善システム、画像改善方法、及び画像改善プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022018783A JP2023116151A (ja) 2022-02-09 2022-02-09 画像改善システム、画像改善方法、及び画像改善プログラム

Publications (1)

Publication Number Publication Date
JP2023116151A true JP2023116151A (ja) 2023-08-22

Family

ID=87579503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022018783A Pending JP2023116151A (ja) 2022-02-09 2022-02-09 画像改善システム、画像改善方法、及び画像改善プログラム

Country Status (1)

Country Link
JP (1) JP2023116151A (ja)

Similar Documents

Publication Publication Date Title
CN108388834B (zh) 利用循环神经网络和级联特征映射的对象检测
CN108460734B (zh) 车辆驾驶员辅助模块进行图像呈现的系统和方法
CN112417943A (zh) 利用算法天际线检测的经改进高级驾驶员辅助系统(adas)操作
US10884271B2 (en) Lens masking system for a vehicle
JP4309926B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
US20150042805A1 (en) Detecting device, detection method, and computer program product
EP3839888B1 (en) Compute device and method for detection of occlusions on a camera
JP2018514011A (ja) 環境シーン状態検出
CN103186887B (zh) 图像除雾装置和图像除雾方法
JP2008310509A (ja) 画像処理装置,運転支援装置
CN112771858A (zh) 自动车辆的相机评估技术
Cheng et al. Visibility enhancement of single hazy images using hybrid dark channel prior
JP2014164426A (ja) 物体検出装置
US10354148B2 (en) Object detection apparatus, vehicle provided with object detection apparatus, and non-transitory recording medium
JP2023116151A (ja) 画像改善システム、画像改善方法、及び画像改善プログラム
CN113276772B (zh) 一种汽车电子外后视镜系统及控制方法
JP2022006180A (ja) 画像の手ぶれ補正方法、装置、電子機器、記憶媒体、コンピュータプログラム製品、路側機およびクラウド制御プラットフォーム
WO2018142916A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2023114882A (ja) 遠隔操作システム、情報提供方法、及び遠隔オペレータ端末
CN113507559A (zh) 应用于车辆的智能摄像方法、摄像系统、以及车辆
JP2023115753A (ja) 遠隔操作システム、遠隔操作制御方法、及び遠隔オペレータ端末
JP2004185537A (ja) 走行車両検知システム
JP2019026173A (ja) オートライト装置、点灯制御方法、及びプログラム
US20220400204A1 (en) Apparatus and method for controlling image sensor, storage medium, and movable object
JP7309817B2 (ja) 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム