JP7346436B2 - 周辺監視装置及び周辺監視方法 - Google Patents

周辺監視装置及び周辺監視方法 Download PDF

Info

Publication number
JP7346436B2
JP7346436B2 JP2020550232A JP2020550232A JP7346436B2 JP 7346436 B2 JP7346436 B2 JP 7346436B2 JP 2020550232 A JP2020550232 A JP 2020550232A JP 2020550232 A JP2020550232 A JP 2020550232A JP 7346436 B2 JP7346436 B2 JP 7346436B2
Authority
JP
Japan
Prior art keywords
target
information
monitoring device
camera
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020550232A
Other languages
English (en)
Other versions
JPWO2020075429A1 (ja
Inventor
浩二 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Publication of JPWO2020075429A1 publication Critical patent/JPWO2020075429A1/ja
Priority to JP2023071988A priority Critical patent/JP7492059B2/ja
Application granted granted Critical
Publication of JP7346436B2 publication Critical patent/JP7346436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、主として、カメラ映像を用いた周辺監視装置に関する。
特許文献1は、カメラ等の撮像装置を画像入力手段として用いた侵入物体監視システムを開示する。特許文献1には、洋上での侵入船検出を行う際に、洋上での光の反射等の誤検出を除去するマスク領域を自動的に設定することが開示されている。
特開2002-279429号公報
しかし、上記特許文献1の構成は、画素値の変化に基づいてマスク領域を作成しているため、洋上での光の反射と船とが紛らわしい場合にマスク領域を正しく設定できず、誤検出又は検出漏れが生じてしまう点で改善の余地があった。
本発明は以上の事情に鑑みてされたものであり、その目的は、高精度の物標検出が可能な周辺監視装置を実現することにある。
課題を解決するための手段及び効果
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
本発明の第1の観点によれば、以下の構成の周辺監視装置が提供される。即ち、周辺監視装置は、海図データ記憶部と、撮影映像入力部と、領域設定部と、物標 情報取得部と、合成映像生成部と、を備える。前記海図データ記憶部は、海図データを記憶する。前記撮影映像入力部は、カメラの撮影映像を入力する。前記領 域設定部は、前記海図データに基づいて検出対象領域を設定する。前記物標情報取得部は、前記検出対象領域において検出された物標の物標情報を取得する。前 記合成映像生成部は、前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する。
これにより、物標の検出対象領域を、海図データを用いて容易かつ適切に設定することができる。従って、有効な監視を行うことができる。
前記の周辺監視装置においては、前記検出対象領域は、複数の位置情報によって表される境界線によって区切られた領域であることが好ましい。
これにより、検出対象領域の形状を柔軟に定めることができる。
前記の周辺監視装置においては、前記検出対象領域は、前記海図データに含まれる水陸境界線又は等深線で区切られた領域であることが好ましい。
これにより、水上の物標等を適切に検出することができる。
前記の周辺監視装置においては、前記検出対象領域は、前記海図データに含まれる水陸境界線から所定距離水域側に離れた境界線で区切られた領域であることが好ましい。
これにより、水上の物標等を適切に検出することができる。
前記の周辺監視装置においては、前記物標情報取得部は、前記検出対象領域に対して画像認識することにより検出された物標の物標情報を取得することが好ましい。
これにより、不要な部分について画像認識を行わないことで、誤検出を防止できるとともに、処理の負荷を低減することができる。
前記の周辺監視装置においては、前記画像認識は、前記海図データに含まれる水深に応じてパラメータを異ならせながら行われることが好ましい。
これにより、例えば、航行できる船舶の大きさが水深に応じて異なることを考慮して、適切な監視を行うことができる。
前記の周辺監視装置においては、前記撮影映像入力部は、地上に設置されたカメラが撮像した撮影映像を入力することが好ましい。
これにより、カメラが固定的に設置されるので、必要になる海図データの大きさを限定することができる。
前記の周辺監視装置においては、前記物標情報取得部は、前記検出対象領域においてレーダ装置が検出した物標の物標情報を取得することが好ましい。
これにより、不要な部分についてレーダ装置による物標の検出を行わないことで、誤検出を防止できるとともに、処理の負荷を低減することができる。
前記の周辺監視装置においては、前記物標情報は、物標の位置、物標の速度、物標の大きさのうち少なくとも何れかを表現していることが好ましい。
これにより、ユーザが監視に役立つ情報を得ることができる。
前記の周辺監視装置においては、以下の構成とすることが好ましい。即ち、前記物標情報取得部は、AIS情報に基づいて前記物標情報を取得可能である。前記 合成映像生成部は、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、を同一の映像に合成可能である。
これにより、情報の統合された表示を実現できる。
前記の周辺監視装置においては、前記合成映像生成部は、同一の物標について、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、の両方が得られた場合に、前記AIS情報に基づく前記物標情報を優先して合成することが好ましい。
これにより、信頼性の高い情報を優先して表示することができる。
前記の映像生成装置においては、以下の構成とすることが好ましい。即ち、前記合成映像生成部は、前記撮影映像に対して、方位を示す方位目盛りを合成可能で ある。前記合成映像生成部は、前記方位目盛りが前記撮影映像に対して合成される上下方向の位置を自動的に変更可能である。
これにより、方位目盛りによって方向を容易に把握できるとともに、当該方位目盛りの表示が監視の邪魔になることを回避できる。
本発明の第2の観点によれば、以下の周辺監視方法が提供される。即ち、海図データを記憶する。撮影装置が撮影した撮影映像を入力する。前記海図データに基 づいて設定された検出対象領域を設定する。前記検出対象領域において検出された物標の物標情報を取得する。前記物標が検出された位置に対応する前記撮影映 像の位置に、前記物標情報を合成した合成映像を生成する。
これにより、物標の検出対象領域を、海図データを用いて容易かつ適切に設定することができる。従って、有効な監視を行うことができる。
本発明の一実施形態に係る周辺監視装置の全体的な構成を示すブロック図。 港湾監視施設に備えられる各種の機器を示す側面図。 カメラから入力される撮影映像の例を示す図。 3次元仮想空間に仮想現実オブジェクトを配置して構築される3次元シーンデータと、当該3次元仮想空間に配置される映写スクリーンと、を説明する概念図。 データ合成部が出力する合成映像を示す図。 3次元仮想空間に水陸境界線の仮想現実オブジェクトを配置する様子を示す概念図。 撮影映像に水陸境界線を合成した合成映像を示す図。 周辺監視装置において行われる処理を説明するフローチャート。
次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係る周辺監視装置1の全体的な構成を示すブロック図である。図2は、港湾監視施設4に備えられる各種の機器を示す側面図である。
図1に示す周辺監視装置1は、例えば図2に示すような港湾監視施設4に設置される。周辺監視装置1は、カメラ(撮影装置)3で撮影した映像をベースとし て、港湾の船舶(監視対象)の動静監視を支援する情報を重畳した映像を生成することができる。従って、周辺監視装置1は、映像生成装置として機能する。周 辺監視装置1が生成した映像は、ディスプレイ2に表示される。
ディスプレイ2は、例えば、港湾監視施設4でオペレータが 監視業務を行う監視デスクに配置されたディスプレイとして構成することができる。ただし、ディスプレイ2は上記に限定されず、例えば、港湾監視施設4から 周囲の状況を監視する監視補助者が携帯する携帯型コンピュータのディスプレイ等とすることが可能である。
周辺監視装置1は、港湾監視施設4に設置されたカメラ3によって撮影された周囲の映像と、当該周囲の付加表示情報(後に詳述)を仮想現実的に表現する図形と、を合成することにより、ディスプレイ2への出力映像である合成映像を生成する。
次に、主に図1を参照して、周辺監視装置1に電気的に接続されるカメラ3及び各種の機器について説明する。
カメラ3は、港湾監視施設4の周囲を撮影する可視光ビデオカメラとして構成されている。カメラ3は広角型のカメラとして構成されており、見通しの良い高い 場所にやや下向きで取り付けられている。このカメラ3はライブ出力機能を有しており、撮影結果としての動画データ(映像データ)をリアルタイムで生成して 周辺監視装置1に出力することができる。
カメラ3は、原則として定点撮影を行う。ただし、カメラ3は図略の回転機構を介して取り付けられており、パン/チルト動作を指示する信号が周辺監視装置1から入力されることにより、その撮影方向を変更することができる。
本実施形態の周辺監視装置1は、上記のカメラ3のほか、各種の機器としてのAIS受信機9、レーダ装置(物標検出部)12等と電気的に接続されている。
AIS受信機9は、船舶から送信されるAIS情報を受信する。AIS情報には、監視対象の港湾を航行している船舶の位置(緯度・経度)、当該船舶の長さ及び幅、当該船舶の種類及び識別情報、当該船舶の船速、針路及び目的地等の、様々な情報が含まれる。
レーダ装置12は、監視対象の港湾に存在する船舶等の物標を探知することができる。また、このレーダ装置12は物標を捕捉及び追尾することが可能な公知の 目標追尾機能(Target Tracking、TT)を有しており、当該物標の位置及び速度ベクトル(TT情報)を求めることができる。
周辺監視装置1は、ユーザが操作するキーボード36及びマウス37に接続されている。ユーザは、キーボード36及びマウス37を操作することで、映像の生成に関する各種の指示を行うことができる。この指示には、カメラ3のパン/チルト動作等が含まれる。
次に、周辺監視装置1の構成について、主に図1を参照して詳細に説明する。
図1に示すように、周辺監視装置1は、撮影映像入力部21と、付加表示情報取得部(物標情報取得部)17と、カメラ位置/向き設定部25と、レーダ位置/ 向き設定部26と、画像認識部(物標検出部)28と、画像認識領域設定部(領域設定部)31と、追尾対象領域設定部(領域設定部)32と、海図データ記憶 部33と、合成映像生成部20と、を備える。
具体的には、周辺監視装置1は公知のコンピュータとして構成され、図示しな いが、CPU、ROM、RAM、及びHDD等を備える。更に、周辺監視装置1は、後述の3次元画像処理を高速で行うためのGPUを備えている。そして、例 えばHDDには、本発明の周辺監視方法を実行させるためのソフトウェアが記憶されている。このハードウェアとソフトウェアの協働により、周辺監視装置1 を、撮影映像入力部21、付加表示情報取得部17、カメラ位置/向き設定部25、レーダ位置/向き設定部26、画像認識部28、画像認識領域設定部31、 追尾対象領域設定部32、海図データ記憶部33、及び合成映像生成部20等として機能させることができる。符号35はプロセッシングサーキットリーであ る。
撮影映像入力部21は、カメラ3が出力する映像データを、例えば30フレーム毎秒で入力することができる。撮影映像入力部21は、入力された映像データを、画像認識部28及び合成映像生成部20(後述のデータ合成部23)に出力する。
付加表示情報取得部17は、AIS受信機9及びレーダ装置12から周辺監視装置1に入力した情報と、画像認識部28が取得した情報と、に基づいて、カメラ 3で撮影した映像に対して付加的に表示する情報(付加表示情報、物標情報)を取得する。この付加表示情報としては様々なものが考えられるが、例えば、 AIS受信機9から得られる船舶の位置及び速度、レーダ装置12から得られる物標の位置及び速度、画像認識部28から得られる物標の位置及び速度等とする ことができる。付加表示情報取得部17は、取得した情報を合成映像生成部20に出力する。なお、付加表示情報の詳細は後述する。
カメラ位置/向き設定部25は、港湾監視施設4におけるカメラ3の位置(撮影位置)及び向きを設定することができる。カメラ3の位置の情報は、具体的に は、緯度、経度、及び高度を示す情報である。カメラ3の向きの情報は、具体的には、方位角及び俯角を示す情報である。これらの情報は、例えばカメラ3の設 置作業時に測定を行うこと等により得ることができる。カメラ3の向きは上述のとおり所定の角度範囲で変更可能であるが、カメラ3のパン/チルト操作がされ ると、それに応じて、最新の向きの情報がカメラ位置/向き設定部25に設定される。カメラ位置/向き設定部25は、設定されている情報を、合成映像生成部 20、付加表示情報取得部17及び画像認識領域設定部31に出力する。
レーダ位置/向き設定部26は、レーダ装置12の アンテナの位置及び向きを設定することができる。アンテナの位置の情報は、具体的には、緯度及び経度を示す情報である。アンテナの向きの情報は、具体的に は、方位を示す情報である。アンテナは通常は水平面内で回転するが、ここでいうアンテナの向きは、レーダ装置12の探知方向の基準となる方位(基準方位) を意味する。これらの情報は、当該アンテナの設置作業時に測定を行うこと等により得ることができる。
周辺監視装置1のレーダ位置/向き設定部26に設定されているアンテナの位置及び向きの情報は、レーダ装置12にも同様に設定されている。レーダ位置/向き設定部26は、設定されている情報を、付加表示情報取得部17及び追尾対象領域設定部32に出力する。
画像認識部28は、撮影映像入力部21から取得した画像のうち船舶等と考えられる部分を切り出して、予め登録されている物標画像データベースと照合するこ とにより、船舶、ダイバー、漂流物等の物標を認識する。具体的には、画像認識部28は、移動する物体をフレーム間差分法等により検出し、差異が生じた領域 を切り出して、画像データベースと照合する。照合の方法としては、テンプレートマッチング等、公知の適宜の方法を用いることができる。画像認識は、他の公 知の方法、例えばニューラルネットワークを用いて実現することもできる。画像認識部28は、認識された物標のそれぞれについて、画像上で認識された位置の 情報を付加表示情報取得部17に出力する。
画像認識領域設定部31は、画像認識部28に撮影映像入力部21から入力され る映像のうち、画像認識部28が画像認識を行う対象となる領域を設定する。本実施形態において画像認識部28は水面に浮かぶものを認識することを想定して いるので、画像認識領域設定部31としては通常、水面が現れている一部の領域だけを画像認識の対象領域とする。
画像認識の対象領域の内側と外側とを区切る境界は、例えば、閉じた折れ線図形で表すことができる。画像認識領域設定部31は、折れ線図形の複数の頂点の位置情報(緯度及び経度)を記憶する。
カメラ3は通常、水面を大きく写すように設置されるが、例えば図3の例に示すように、カメラ3の視野に水面と同時に陸上が入ることがある。この場合、画像 認識領域設定部31において陸上の部分を除外するように画像認識の対象領域を設定することで、例えば道路を走行する自動車等を画像認識部28が物標として 認識することを回避することができる。この結果、認識精度を高めることができ、また、処理の負荷を低減させることができる。
図1の追尾対象領域設定部32は、レーダ装置12が上述の目標追尾機能で物標を追尾する対象となる領域を設定する。レーダ装置12は水面に浮かぶものを探 知することを想定しているので、追尾対象領域設定部32においても画像認識領域設定部31と同様に、陸上の部分を除外するように物標追尾対象が設定され る。これにより、水面の物標だけを適切に探知することができる。
レーダ装置12による追尾の対象領域の内側と外側とを区切る境界は、画像認識の対象領域と同様に、閉じた折れ線図形で表すことができる。追尾対象領域設定部32は、折れ線図形の複数の頂点の位置情報(緯度及び経度)を記憶する。
海図データ記憶部33は、海図データを記憶する。この海図データとしては、例えば航海用電子海図が用いられている。海図データには、水面と陸地との境界線 (水陸境界線)のベクトルデータが含まれている。境界線の表現方法は任意であるが、例えば、陸域の輪郭を折れ線による閉じた図形で表現し、それぞれの頂点 の位置情報(緯度及び経度)を順に記述することが考えられる。
海図データ記憶部33は、水陸境界線を示すベクトルデータを、画像認識領域設定部31及び追尾対象領域設定部32に出力する。これにより、画像認識領域設定部31及び追尾対象領域設定部32に対する領域の設定が容易になる。
合成映像生成部20は、ディスプレイ2に映し出す合成映像を生成するものである。当該合成映像生成部20は、3次元シーン生成部(表示用データ生成部)22と、データ合成部(表示出力部)23と、を備える。
3次元シーン生成部22は、図4に示すように、3次元仮想空間40に、付加表示情報に対応する仮想現実オブジェクト41v,42v,・・・を配置すること により、仮想現実の3次元シーンを構築する。これにより、3次元シーンのデータである3次元シーンデータ(3次元表示用データ)48が生成される。なお、 3次元シーンの詳細は後述する。
データ合成部23は、3次元シーン生成部22が生成した3次元シーンデータ48を描画す ることで付加表示情報を3次元的に表現する図形を生成するとともに、図5に示す合成映像、即ち、当該図形41f,42f,・・・とカメラ3の撮影映像とを 合成した映像を出力する処理を行う。図5に示すように、この合成映像では、カメラ3で撮影された映像に、付加表示情報を示す図形41f,42f,・・・が 重ねられている。データ合成部23は、生成された合成映像をディスプレイ2に出力する。なお、図形の生成処理及びデータ合成処理の詳細は後述する。
次に、前述の付加表示情報取得部17で取得される付加表示情報について詳細に説明する。図3は、周辺監視装置1において表示の対象となる付加表示情報の例を説明する概念図である。
付加表示情報は、カメラ3で撮影した映像に対して付加的に表示する情報であり、周辺監視装置1に接続される機器の目的及び機能に応じて様々なものが考えら れる。例示すると、AIS受信機9に関しては、受信した上述のAIS情報(例えば、船舶の位置及び向き等)を付加表示情報とすることができる。レーダ装置 12に関しては、探知された物標の位置及び速度等を付加表示情報とすることができる。これらの情報は、それぞれの機器から周辺監視装置1にリアルタイムで 入力される。
また、本実施形態において、付加表示情報には、画像認識部28が画像認識を行うことにより識別された物標の位置及び速度等が含まれる。
レーダ装置12から得られた情報に含まれる物標の位置及び速度ベクトルは、レーダ装置12のアンテナの位置及び向きを基準とした相対的なものである。従っ て、付加表示情報取得部17は、レーダ装置12から得られた物標の位置及び速度ベクトルを、レーダ位置/向き設定部26から得られた情報に基づいて、地球 基準に変換する。
同様に、画像認識部28から得られた物標の位置及び速度ベクトルは、カメラ3の位置及び向きを基準とし た相対的なものである。従って、付加表示情報取得部17は、画像認識部28から得られた物標の位置及び速度ベクトルを、カメラ位置/向き設定部25から得 られた情報に基づいて、地球基準に変換する。
以下、付加表示情報の例を説明する。図3のカメラ映像で示す状況において、 港湾内で大きな船舶41rがカメラ映像の右側へ向かって航行中であることが、AIS受信機9が取得したAIS情報により検出されている。小さな船舶42r がカメラ映像の右側へ向かって高速で航行中であることが、レーダ装置12により検出されている。更に、小さな船舶43rが手前側に向かって高速で航行中で あることが、画像認識部28により検出されている。
それぞれの付加表示情報には、少なくとも、それが配置される海面(水面)における地点の位置(緯度及び経度)を示す情報が含まれている。例えば、船舶41r,42r,43rを示す付加表示情報には、当該船舶41r,42r,43rの位置を示す情報が含まれている。
次に、3次元シーン生成部22による3次元シーンの構築、及び、データ合成部23による映像の合成について、図4を参照して詳細に説明する。図4は、3次 元仮想空間40に仮想現実オブジェクト41v,42v,・・・を配置して生成される3次元シーンデータ48と、当該3次元仮想空間40に配置される映写ス クリーン51と、を説明する概念図である。
3次元シーン生成部22によって仮想現実オブジェクト41v,42v,・・・ が配置される3次元仮想空間40は、図4に示すように直交座標系で構成される。この直交座標系の原点は、カメラ3の設置位置の真下の高度ゼロの点に定めら れる。3次元仮想空間40において、原点を含む水平な面であるxz平面が海面(水面)を模擬するように設定される。図4の例では、座標軸は、+z方向が常 にカメラ3の方位角と一致し、+x方向が右方向、+y方向が上方向となるように定められる。この3次元仮想空間40内の各地点(座標)は、カメラ3の周囲 の現実の位置に対応するように設定される。
図4には、図3に示す港湾の状況に対応して、仮想現実オブジェクト 41v,42v,43vを3次元仮想空間40内に配置した例が示されている。本実施形態において、仮想現実オブジェクト41v,42v,・・・は、認識さ れた物標(即ち、船舶41r,42r,43r)の位置を示す下向きの円錐と、当該物標の速度ベクトルを示す矢印と、を含んでいる。円錐及び矢印は、何れも 3次元形状である。下向きの円錐は、その真下に物標が位置することを表現している。矢印の向きは物標の速度の向きを表現し、矢印の長さは速度の大きさを表 現している。
各仮想現実オブジェクト41v,42v,43vは、カメラ3の方位角を基準として、それが表す付加表示情報 のカメラ3に対する相対位置を反映させるように、xz平面又はそれより少し上に配置される。これらの仮想現実オブジェクト41v,42v,・・・が配置さ れる位置を決定するにあたっては、図1に示すカメラ位置/向き設定部25で設定されたカメラ3の位置及び向きを用いた計算が行われる。
3次元シーン生成部22は、上記のようにして、3次元シーンデータ48を生成する。図4の例では、仮想現実オブジェクト41v,42v,・・・がカメラ3 の真下を原点とした方位基準で配置されるので、図3の状態からカメラ3の方位角が変化すると、当該仮想現実オブジェクト41v,42v,・・・を再配置し た新しい3次元シーンが構築されて、3次元シーンデータ48が更新される。また、例えば図3の状態から船舶41r,42r,43rが移動する等して付加表 示情報の内容が変更されると、最新の付加表示情報を反映するように3次元シーンデータ48が更新される。
更に、データ合 成部23は、3次元仮想空間40に、カメラ3の撮影映像が映写される位置及び範囲を定める映写スクリーン51を配置する。この映写スクリーン51と仮想現 実オブジェクト41v,42v,・・・の両方が視野に含まれるように後述の視点カメラ55の位置及び向きを設定することで、映像の合成を実現することがで きる。
データ合成部23は、視点カメラ55を、現実空間におけるカメラ3の位置及び向きを3次元仮想空間40においてシ ミュレートするように配置する。また、データ合成部23は、映写スクリーン51を、当該視点カメラ55に正対するように配置する。カメラ3の位置のシミュ レートに関し、カメラ3の位置は、図1に示すカメラ位置/向き設定部25の設定値に基づいて得ることができる。
3次元仮 想空間40における視点カメラ55の方位角は、カメラ3のパン動作によって方位角が変化しても、変化することはない。その代わり、データ合成部23は、カ メラ3をパン動作させると、変化した方位角の分だけ、3次元仮想空間40における仮想現実オブジェクト41v,42v,・・・を、原点を中心に水平面内で 回転させるように再配置する。
視点カメラ55の俯角は、カメラ3の俯角と常に等しくなるように制御される。データ合成部 23は、カメラ3のチルト動作による俯角の変化(視点カメラ55の俯角の変化)に連動して、3次元仮想空間40に配置される映写スクリーン51の位置及び 向きを、視点カメラ55と正対する状態を常に保つように変化させる。
そして、データ合成部23は、3次元シーンデータ 48及び映写スクリーン51に対して公知のレンダリング処理を施すことにより、2次元の画像を生成する。より具体的には、データ合成部23は、3次元仮想 空間40に視点カメラ55を配置するとともに、レンダリング処理の対象となる範囲を定める視錐台56を、当該視点カメラ55を頂点とし、その視線方向が中 心軸となるように定義する。続いて、データ合成部23は、各オブジェクト(仮想現実オブジェクト41v,42v,・・・及び映写スクリーン51)を構成す るポリゴンのうち、当該視錐台56の内部に位置するポリゴンの頂点座標を、透視投影により、ディスプレイ2での合成映像の表示領域に相当する2次元の仮想 スクリーンの座標に変換する。そして、この仮想スクリーン上に配置された頂点に基づいて、所定の解像度でピクセルの生成・加工処理を行うことにより、2次 元の画像を生成する。
このようにして生成された2次元の画像には、3次元シーンデータ48の描画が行われることにより得 られた図形(言い換えれば、仮想現実オブジェクト41v,42v,・・・のレンダリング結果としての図形)が含まれる。また、2次元の画像の生成過程にお いて、映写スクリーン51に相当する位置には、カメラ3の撮影映像が貼り付けられるように配置される。これにより、データ合成部23による映像の合成が実 現される。
映写スクリーン51は、視点カメラ55を中心とする球殻に沿うように湾曲した形状となっているので、透視投影 による撮影映像の歪みを防止することができる。また、カメラ3は広角カメラであり、その撮影映像には図3に示すようにレンズ歪みが生じているが、当該レン ズ歪みは、映写スクリーン51に撮影映像が貼り付けられる時点で除去されている。レンズ歪みを除去する方法は任意であるが、例えば、補正前の画素の位置と 補正後の画素の位置を対応付けたルックアップテーブルを用いることが考えられる。これにより、図4に示す3次元仮想空間40と撮影映像を良好に整合させる ことができる。
次に、カメラ3で撮影した映像と合成映像との関係を、例を参照して説明する。
図5には、図3に示す撮影映像に対し、図4の3次元シーンデータ48のレンダリングによる上記の2次元の画像を合成した結果が示されている。ただし、図5 では、カメラ3による撮影映像が現れている部分が、それ以外の部分と区別し易くなるように便宜的に破線で示されている(これは、合成映像を表す他の図にお いても同様である)。図5の合成映像では、付加表示情報を表現する図形41f,42f,43fが、撮影映像に重なるように配置されている。
上記の図形41f,42f,・・・は、図4に示す3次元シーンデータ48を構成する仮想現実オブジェクト41v,42v,・・・の3次元形状を、カメラ3 と同じ位置及び向きの視点で描画した結果として生成される。従って、カメラ3による写実的な映像に対して図形41f,42f,・・・を重ねた場合でも、見 た目の違和感が殆ど生じないようにすることができる。
これにより、船舶を示すマーク及び速度を示す矢印があたかも水面上 の空中に浮かんでいるように見える、自然で現実感の高い拡張現実の映像を得ることができる。また、ユーザは、ディスプレイ2に映し出された海面を眺めるこ とで、仮想現実を表す図形41f,42f,・・・が網羅的に視界に入るので、取りこぼしなく必要な情報を得ることができる。
上述したように、カメラ3から入力された撮影映像は、3次元仮想空間40の映写スクリーン51に映写される時点でレンズ歪みが除去されている。しかしなが ら、データ合成部23は、レンダリング後の合成映像に対し、上述のルックアップテーブルを用いた逆変換により、レンズ歪みを再び付与する。これにより、図 5と図3とを比較すれば分かるように、合成前のカメラ映像との関係で違和感が生じにくい合成映像を得ることができる。ただし、レンズ歪みの付与は省略して も良い。
データ合成部23は、図5に示すように、合成映像において図形41f,42f,43fの近傍の位置に、監視のた めに有用な情報を記述した文字情報を更に合成している。文字情報の内容は任意であり、例えば、船舶を識別する情報、船舶の大きさを示す情報、どの装置から 取得したかを示す情報等、様々な内容を表示することができる。船舶を識別する情報は、例えばAIS情報から得ることができる。船舶の大きさを示す情報は、 AIS情報から得ることができるが、画像認識部28による画像認識時に検出された画像の大きさから、又は、レーダ装置12において得られた追尾エコーの大 きさから、計算により得ることもできる。これにより、情報が充実した監視画面を実現することができる。
図5に示すよう に、本実施形態では、AIS受信機9から得られたAIS情報に基づく付加表示情報を表す図形41fと、画像認識部28による画像認識結果に基づく付加表示 情報を表す図形42fと、レーダ装置12のレーダ追尾結果に基づく付加表示情報を表す図形43fと、が撮影映像に合成されている。これにより、統合された 表示を実現でき、ユーザは、多様な情報源から得られる情報を1つの合成映像で分かり易く監視することができる。この結果、監視負担を良好に軽減することが できる。
図5では、船舶41rについて、AIS受信機9から得られたAIS情報に基づく付加表示情報が表示されている。 同一の船舶41rを、画像認識部28が認識したり、レーダ装置12が追尾したりすることも考えられるが、この場合でも、合成映像生成部20は、船舶41r の部分には、AIS情報に基づく付加表示情報を優先して表示する。これにより、信頼度の高い情報を優先して表示することができる。
図5の合成映像には、方位目盛り46が表示されている。方位目盛り46は、画面の左端と右端とを繋ぐように円弧状に形成されている。方位目盛り46には、 映像に対応した方位を示す数値が記載されている。これにより、ユーザは、カメラ3が見ている方位を直感的に把握することができる。
例えばカメラ3がチルトして合成映像上で方位目盛り46が他の図形41f,42f,43fと重なったり、撮影映像の水面と重なってしまう場合には、データ 合成部23は、方位目盛り46が合成される位置を映像の上下方向に自動的に移動させる。これにより、方位目盛り46が他の表示の邪魔にならないようにする ことができる。
次に、海図データを用いた画像認識領域の設定について説明する。
上述のとおり、画像認識領域設定部31は、画像認識部28が画像認識を行う対象となる領域を設定する。ユーザは、カメラ3の撮影映像をディスプレイ2に表示させた状態で、画像認識の対象領域をマウス37等で指定することで、上述の領域を指定することができる。
画像認識の対象領域をユーザに指定させるとき、海図データ記憶部33は、記憶している海図データのうち、水陸境界線を表すベクトルデータを画像認識領域設定部31に出力する。画像認識領域設定部31は、この境界線ベクトルデータを合成映像生成部20に出力する。
合成映像生成部20の3次元シーン生成部22は、図6に示すように、水陸境界線を表す仮想現実オブジェクト49vをxz平面に配置した3次元シーンデータ 48を生成する。仮想現実オブジェクト49vが配置される位置は、カメラ3の方位角を基準として、水陸境界線のカメラ3に対する相対位置を反映させるよう に配置される。そして、データ合成部23は、上述と全く同様にレンダリング処理を行い、図7に示すような合成映像をディスプレイに出力する。
図7の合成映像において、仮想現実オブジェクト49vがレンダリングされた結果としての図形49fは、カメラ3による撮影映像の水面にあたかも置かれるか のように合成映像上に配置されている。境界線ベクトルデータは現実の境界線と一致しているはずなので、カメラ3に映る水面の形状と図形49fの形状は整合 している。
従って、ユーザは、図形49fを参考にして、画像認識領域を容易かつ適切に設定することができる。ユーザは、 例えば、図7に示される図形49fに囲まれた領域をそのまま画像認識領域として指定することができる。また、ユーザは、撮影映像とのズレを修正するように マウス操作等により領域を変形してから、画像認識領域として指定することもできる。
なお、海図データ記憶部33が記憶す る境界線ベクトルデータは、追尾対象領域設定部32において追尾対象領域を設定するのに用いることもできる。追尾対象領域は、レーダ位置/向き設定部26 に設定されているアンテナの位置/向きと、境界線ベクトルデータと、に基づいて、水域に限定するように計算して定めることができる。これにより、ユーザ は、追尾対象領域を容易にかつ正確に設定することができる。
画像認識の対象領域の境界、及び、レーダ追尾の対象領域の境 界は、水陸境界線を用いず、他の境界線を用いて定義することもできる。例えば、海図データに含まれるデータのうち、所定の深さに相当する等深線を、認識の 境界としても良い。また、水陸境界線から所定の距離だけ水域側にオフセットするようにして境界線を作り、当該境界線を認識の境界としても良い。これによ り、例えば大型船だけを監視する場合は所定の水深以上の領域となるように対象領域を限定する等、目的に応じた監視を実現し易くなる。
画像認識、或いは、レーダ追尾のパラメータを、海図データに含まれる情報に応じて変更しても良い。例えば、水深が浅い領域では大型船舶は航行できないの で、海図データに基づいて取得した水深が小さい場合には、画像認識部28が小型船舶の画像データベースとテンプレートマッチングしたり、レーダ装置12が 小さなレーダエコーだけを追尾対象としたりすること等が考えられる。これにより、適切な監視を実現することができる。
図8には、周辺監視装置1において行われる一連の処理がフローチャートによって示されている。
図8のフローがスタートすると、周辺監視装置1は、準備作業として、外部から入力された海図データを海図データ記憶部33に記憶する(ステップ S101)。次に、周辺監視装置1は、カメラ3が撮影した撮影映像を撮影映像入力部21から入力する(ステップS102)。周辺監視装置1の合成映像生成 部20は、この撮影映像と、海図データ記憶部33から取得した境界線ベクトルデータと、を合成した合成映像を生成してディスプレイ2に出力する(ステップ S103)。
ユーザは、ディスプレイ2の画面を見ながら、画像認識領域を適宜設定する(ステップS104)。ステップS103及びS104を省略して、画像認識領域の境界が境界線ベクトルデータと同一となるように周辺監視装置1側で自動的に設定しても良い。
その後、通常の運用が開始される。具体的に説明すると、周辺監視装置1は、カメラ3が撮影した撮影映像を撮影映像入力部21から入力する(ステップ S105)。続いて、周辺監視装置1の画像認識部28が、画像認識領域を対象とした画像認識を行い、これにより検出された物標の物標情報を取得する(ス テップS106)。次に、合成映像生成部20は、物標が検出された位置に対応する撮影映像の位置に、物標情報を合成した合成映像を生成してディスプレイ2 に出力する(ステップS107)。その後、処理はステップS105に戻り、ステップS105~S107の処理が反復される。
以上に説明したように、本実施形態の周辺監視装置1は、海図データ記憶部33と、撮影映像入力部21と、画像認識領域設定部31と、付加表示情報取得部 17と、合成映像生成部20と、を備える。海図データ記憶部33は、海図データを記憶する。撮影映像入力部21は、カメラ3の撮影映像を入力する。画像認 識領域設定部31は、海図データに基づいて検出対象領域を設定する。付加表示情報取得部17は、検出対象領域において検出された物標の物標情報を取得す る。合成映像生成部20は、物標が検出された位置に対応する撮影映像の位置に、物標情報を合成した合成映像を生成する。
これにより、画像認識を行う領域を、海図データの水陸境界線を用いて容易に設定することができる。
以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。
カメラ3において上記のパン/チルト機能を省略し、撮影方向を変更不能に構成してもよい。
3次元シーン生成部22が3次元シーンデータ48を生成するにあたって、上記の実施形態では、図4で説明したように、仮想現実オブジェクト 41v,42v,・・・がカメラ3の位置を原点としたカメラ方位基準で配置されている。しかしながら、仮想現実オブジェクト41v,42v,・・・を、カ メラ方位基準ではなく、+z方向が常に真北となる真北基準で配置してもよい。この場合、カメラ3のパン動作によって方位角が変化したときは、仮想現実オブ ジェクト41v,42v,・・・を再配置する代わりに、3次元仮想空間40においてカメラ3の位置及び向きの変化をシミュレートするように視点カメラ55 の方位角を変更してレンダリングを行うことで、上述のカメラ方位基準の場合と全く同じレンダリング結果を得ることができる。
また、3次元仮想空間40の座標系は、カメラ3の真下の位置を原点にすることに代えて、地球上に適宜定められた固定点を原点とし、例えば、+z方向が真北、+x方向が真東となるように定められてもよい。
周辺監視装置1に接続される機器(付加表示情報の情報源)は、図1で説明したものに限るものではなく、その他の機器が含まれていてもよい。そのような機器として、例えば、赤外線カメラ、音響センサ等を挙げることができる。
画像認識領域設定部31において設定される対象領域、及び、追尾対象領域設定部32において設定される対象領域は、折れ線図形に代えて、他の図形、例えば 滑らかな曲線で表すこともできる。また、ベクトルデータに代えてラスタデータ(マスク画像)の形で、対象領域を設定することもできる。
付加表示情報を表す図形は、図5に示すものに限られない。例えば、船舶41r,42r,43rが検出された位置に、船舶の3次元モデルをレンダリングした 図形を表示することもできる。これにより、より臨場感のある表示を実現することができる。図4の3次元仮想空間40において、船舶の3次元モデルは、 AIS情報等から得られる船舶の向きと一致する向きで配置される。3次元仮想空間40に配置される船舶の3次元モデルの大きさを、AIS情報等から得られ る船舶の大きさに応じて変化させても良い。
3次元シーン生成部22を省略して、付加表示情報の図形 41f,42f,43fについて拡張現実による表示を行わないように構成することもできる。例えば、3次元円錐形状をレンダリングした図形の代わりに、単 に下向きの平面的な三角形を表示することができる。3次元シーンを構築しなくても、撮影映像における各画素と、水面上の対応する場所と、の対応関係は、カ メラ3が設置されている位置と向きに基づいて計算により求めることができる。従って、上記の三角形を、水面上での検出位置に対応する映像上の位置に表示す ることができる。同様に、3次元シーンを構築しなくても、境界線の図形を合成した図7のような合成映像を実現することができる。
周辺監視装置1は、地上の施設に限定されず、船舶等の移動体に設けられても良い。
1 周辺監視装置
3 カメラ
17 付加表示情報取得部(物標情報取得部)
20 合成映像生成部
21 撮影映像入力部
28 画像認識部
31 画像認識領域設定部(領域設定部)
32 追尾対象領域設定部(領域設定部)
33 海図データ記憶部
用語
必ずしも全ての目的または効果・利点が、本明細書中に記載される任意の特定の実施形態に則って達成され得るわけではない。従って、例えば当業者であれば、特定の実施形態は、本明細書中で教示または示唆されるような他の目的または効果・利点を必ずしも達成することなく、本明細書中で教示されるような1つまたは複数の効果・利点を達成または最適化するように動作するように構成され得ることを想到するであろう。
本明細書中に記載される全ての処理は、1つまたは複数のコンピュータまたはプロセッサを含むコンピューティングシステムによって実行されるソフトウェアコードモジュールにより具現化され、完全に自動化され得る。コードモジュールは、任意のタイプの非一時的なコンピュータ可読媒体または他のコンピュータ記憶装置に記憶することができる。一部または全ての方法は、専用のコンピュータハードウェアで具現化され得る。
本明細書中に記載されるもの以外でも、多くの他の変形例があることは、本開示から明らかである。例えば、実施形態に応じて、本明細書中に記載されるアルゴリズムのいずれかの特定の動作、イベント、または機能は、異なるシーケンスで実行することができ、追加、併合、または完全に除外することができる (例えば、記述された全ての行為または事象がアルゴリズムの実行に必要というわけではない)。さらに、特定の実施形態では、動作またはイベントは、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサまたはプロセッサコアを介して、または他の並列アーキテクチャ上で、逐次ではなく、並列に実行することができる。さらに、異なるタスクまたはプロセスは、一緒に機能し得る異なるマシンおよび/またはコンピューティングシステムによっても実行され得る。
本明細書中に開示された実施形態に関連して説明された様々な例示的論理ブロックおよびモジュールは、プロセッサなどのマシンによって実施または実行することができる。プロセッサは、マイクロプロセッサであってもよいが、代替的に、プロセッサは、コントローラ、マイクロコントローラ、またはステートマシン、またはそれらの組み合わせなどであってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはコンピュータ実行可能命令を処理することなく論理演算を実行する他のプログラマブルデバイスを含む。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、デジタル信号プロセッサ(デジタル信号処理装置)とマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、または任意の他のそのような構成として実装することができる。本明細書中では、主にデジタル技術に関して説明するが、プロセッサは、主にアナログ素子を含むこともできる。例えば、本明細書中に記載される信号処理アルゴリズムの一部または全部は、アナログ回路またはアナログとデジタルの混合回路により実装することができる。コンピューティング環境は、マイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、ポータブルコンピューティングデバイス、デバイスコントローラ、または装置内の計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない任意のタイプのコンピュータシステムを含むことができる。
特に明記しない限り、「できる」「できた」「だろう」または「可能性がある」などの条件付き言語は、特定の実施形態が特定の特徴、要素および/またはステップを含むが、他の実施形態は含まないことを伝達するために一般に使用される文脈内での意味で理解される。従って、このような条件付き言語は、一般に、特徴、要素および/またはステップが1つ以上の実施形態に必要とされる任意の方法であること、または1つ以上の実施形態が、これらの特徴、要素および/またはステップが任意の特定の実施形態に含まれるか、または実行されるかどうかを決定するための論理を必然的に含むことを意味するという訳ではない。
語句「X、Y、Zの少なくとも1つ」のような選言的言語は、特に別段の記載がない限り、項目、用語等が X, Y, Z、のいずれか、又はそれらの任意の組み合わせであり得ることを示すために一般的に使用されている文脈で理解される(例: X、Y、Z)。従って、このような選言的言語は、一般的には、特定の実施形態がそれぞれ存在するXの少なくとも1つ、Yの少なくとも1つ、またはZの少なくとも1つ、の各々を必要とすることを意味するものではない。
本明細書中に記載されかつ/または添付の図面に示されたフロー図における任意のプロセス記述、要素またはブロックは、プロセスにおける特定の論理機能または要素を実装するための1つ以上の実行可能命令を含む、潜在的にモジュール、セグメント、またはコードの一部を表すものとして理解されるべきである。代替の実施形態は、本明細書中に記載された実施形態の範囲内に含まれ、ここでは、要素または機能は、当業者に理解されるように、関連する機能性に応じて、実質的に同時にまたは逆の順序で、図示または説明されたものから削除、順不同で実行され得る。
特に明示されていない限り、「一つ」のような数詞は、一般的に、1つ以上の記述された項目を含むと解釈されるべきである。従って、「~するように設定された一つのデバイス」などの語句は、1つ以上の列挙されたデバイスを含むことを意図している。このような1つまたは複数の列挙されたデバイスは、記載された引用を実行するように集合的に構成することもできる。例えば、「以下のA、BおよびCを実行するように構成されたプロセッサ」は、Aを実行するように構成された第1のプロセッサと、BおよびCを実行するように構成された第2のプロセッサとを含むことができる。加えて、導入された実施例の具体的な数の列挙が明示的に列挙されたとしても、当業者は、このような列挙が典型的には少なくとも列挙された数(例えば、他の修飾語を用いない「2つの列挙と」の単なる列挙は、通常、少なくとも2つの列挙、または2つ以上の列挙を意味する)を意味すると解釈されるべきである。
一般に、本明細書中で使用される用語は、一般に、「非限定」用語(例えば、「~を含む」という用語は「それだけでなく、少なくとも~を含む」と解釈すべきであり、「~を持つ」という用語は「少なくとも~を持っている」と解釈すべきであり、「含む」という用語は「以下を含むが、これらに限定されない。」などと解釈すべきである。) を意図していると、当業者には判断される。
説明の目的のために、本明細書中で使用される「水平」という用語は、その方向に関係なく、説明されるシステムが使用される領域の床の平面または表面に平行な平面、または説明される方法が実施される平面として定義される。「床」という用語は、「地面」または「水面」という用語と置き換えることができる。「垂直/鉛直」という用語は、定義された水平線に垂直/鉛直な方向を指します。「上側」「下側」「下」「上」「側面」「より高く」「より低く」「上の方に」「~を越えて」「下の」などの用語は水平面に対して定義されている。
本明細書中で使用される用語の「付着する」、「接続する」、「対になる」及び他の関連用語は、別段の注記がない限り、取り外し可能、移動可能、固定、調節可能、及び/または、取り外し可能な接続または連結を含むと解釈されるべきである。接続/連結は、直接接続及び/または説明した2つの構成要素間の中間構造を有する接続を含む。
特に明示されていない限り、本明細書中で使用される、「およそ」、「約」、および「実質的に」のような用語が先行する数は、列挙された数を含み、また、さらに所望の機能を実行するか、または所望の結果を達成する、記載された量に近い量を表す。例えば、「およそ」、「約」及び「実質的に」とは、特に明示されていない限り、記載された数値の10%未満の値をいう。本明細書中で使用されているように、「およそ」、「約」、および「実質的に」などの用語が先行して開示されている実施形態の特徴は、さらに所望の機能を実行するか、またはその特徴について所望の結果を達成するいくつかの可変性を有する特徴を表す。
上述した実施形態には、多くの変形例および修正例を加えることができ、それらの要素は、他の許容可能な例の中にあるものとして理解されるべきである。そのような全ての修正および変形は、本開示の範囲内に含まれることを意図し、以下の特許請求の範囲によって保護される。

Claims (12)

  1. 海図データを記憶する海図データ記憶部と、
    カメラの撮影映像を入力する撮影映像入力部と、
    前記海図データに基づいて検出対象領域を設定する領域設定部と、
    前記検出対象領域において検出された物標の物標情報を取得する物標情報取得部と、
    前記物標が検出された位置に対応する前記撮影映像の位置に、前記物標情報を合成した合成映像を生成する合成映像生成部と、
    を備え、
    前記合成映像生成部は、前記カメラと異なる視点カメラを設定し、
    前記視点カメラを基準にして、前記物標情報を前記撮影映像に投影することで前記合成映像を生成し、
    前記視点カメラは、前記撮影映像に合成する前記物標情報の座標の設定に用いる3次元仮想空間において、前記カメラの現実の位置および向きをシミュレートするように配置される、
    ことを特徴とする周辺監視装置。
  2. 請求項1に記載の周辺監視装置であって、
    前記検出対象領域は、複数の位置情報によって表される境界線によって区切られた領域であることを特徴とする周辺監視装置。
  3. 請求項2に記載の周辺監視装置であって、
    前記検出対象領域は、前記海図データに含まれる水陸境界線又は等深線で区切られた領域であることを特徴とする周辺監視装置。
  4. 請求項2に記載の周辺監視装置であって、
    前記検出対象領域は、前記海図データに含まれる水陸境界線から所定距離水域側に離れた境界線で区切られた領域であることを特徴とする周辺監視装置。
  5. 請求項1から4までの何れか一項に記載の周辺監視装置であって、
    前記物標情報取得部は、前記検出対象領域に対して画像認識することにより検出された物標の物標情報を取得することを特徴とする周辺監視装置。
  6. 請求項1から5までの何れか一項に記載の周辺監視装置であって、
    前記撮影映像入力部は、地上に設置されたカメラが撮像した撮影映像を入力することを特徴とする周辺監視装置。
  7. 請求項1から6までの何れか一項に記載の周辺監視装置であって、
    前記物標情報取得部は、前記検出対象領域においてレーダ装置が検出した物標の物標情報を取得することを特徴とする周辺監視装置。
  8. 請求項1から7までの何れか一項に記載の周辺監視装置であって、
    前記物標情報は、物標の位置、物標の速度、物標の大きさのうち少なくとも何れかを表現していることを特徴とする周辺監視装置。
  9. 請求項1から8までの何れか一項に記載の周辺監視装置であって、
    前記物標情報取得部は、AIS情報に基づいて前記物標情報を取得可能であり、
    前記合成映像生成部は、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、を同一の映像に合成可能であることを特徴とする周辺監視装置。
  10. 請求項9に記載の周辺監視装置であって、
    前記合成映像生成部は、同一の物標について、前記AIS情報に基づく前記物標情報と、前記AIS情報以外の情報に基づく前記物標情報と、の両方が得られた場合に、前記AIS情報に基づく前記物標情報を優先して合成することを特徴とする周辺監視装置。
  11. 請求項1から10までの何れか一項に記載の周辺監視装置であって、
    前記合成映像生成部は、前記撮影映像に対して、方位を示す方位目盛りを合成可能であり、
    前記合成映像生成部は、前記方位目盛りが前記撮影映像に対して合成される上下方向の位置を自動的に変更可能であることを特徴とする周辺監視装置。
  12. 海図データを記憶し、
    撮影装置が撮影した撮影映像を入力し、
    前記海図データに基づいて設定された検出対象領域を設定し、
    前記検出対象領域において検出された物標の物標情報を取得し、
    合成映像の基準を決める視点カメラを設定し、前記視点カメラを基準として、前記物標が検出された位置に対応する前記撮影映像の位置に前記物標情報を合成した前記合成映像を生成し、
    前記視点カメラは、前記撮影映像に合成する前記物標情報の座標の設定に用いる3次元仮想空間において、前記撮影装置の現実の位置および向きをシミュレートするように配置される、
    ことを特徴とする周辺監視方法。
JP2020550232A 2018-10-09 2019-09-09 周辺監視装置及び周辺監視方法 Active JP7346436B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023071988A JP7492059B2 (ja) 2018-10-09 2023-04-26 周辺監視装置及び周辺監視方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018191014 2018-10-09
JP2018191014 2018-10-09
PCT/JP2019/035308 WO2020075429A1 (ja) 2018-10-09 2019-09-09 周辺監視装置及び周辺監視方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023071988A Division JP7492059B2 (ja) 2018-10-09 2023-04-26 周辺監視装置及び周辺監視方法

Publications (2)

Publication Number Publication Date
JPWO2020075429A1 JPWO2020075429A1 (ja) 2021-09-02
JP7346436B2 true JP7346436B2 (ja) 2023-09-19

Family

ID=70163782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550232A Active JP7346436B2 (ja) 2018-10-09 2019-09-09 周辺監視装置及び周辺監視方法

Country Status (3)

Country Link
JP (1) JP7346436B2 (ja)
CN (1) CN112840641A (ja)
WO (1) WO2020075429A1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000152220A (ja) 1998-11-17 2000-05-30 Oki Electric Ind Co Ltd 監視用itvカメラの制御方法
JP2002176641A (ja) 2000-12-05 2002-06-21 Matsushita Electric Ind Co Ltd 周囲映像提示装置
JP2004227045A (ja) 2003-01-20 2004-08-12 Wham Net Service Co Ltd 漁場侵入者監視システムおよび漁場侵入者監視方法
JP2005208011A (ja) 2004-01-26 2005-08-04 Mitsubishi Heavy Ind Ltd 監視システム及び監視方法
JP2005289264A (ja) 2004-04-01 2005-10-20 Furuno Electric Co Ltd 船舶航行支援装置
JP2010041530A (ja) 2008-08-07 2010-02-18 Sanyo Electric Co Ltd 操縦支援装置
JP2014099055A (ja) 2012-11-14 2014-05-29 Canon Inc 検出装置、検出方法、及びプログラム
JP2014529322A (ja) 2011-07-21 2014-11-06 コリア インスティチュートオブ オーシャン サイエンス アンド テクノロジー 天井移動型透明ディスプレイを用いた船舶用増強現実システム及びその具現方法
JP2015088816A (ja) 2013-10-29 2015-05-07 セコム株式会社 画像監視システム
WO2017208422A1 (ja) 2016-06-02 2017-12-07 日本郵船株式会社 船舶航行支援装置
JP2018019359A (ja) 2016-07-29 2018-02-01 キヤノン株式会社 船舶監視装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3365182B2 (ja) * 1995-12-27 2003-01-08 三菱電機株式会社 映像監視装置
JP3777411B2 (ja) * 2003-08-08 2006-05-24 今津隼馬 船舶航行支援装置
KR101048508B1 (ko) * 2011-04-11 2011-07-11 (주)에디넷 스마트디바이스를 이용한 실시간 항만 영상 관제 시스템 및 그 방법
KR101880437B1 (ko) * 2016-10-28 2018-08-17 한국해양과학기술원 실제카메라 영상과 가상카메라 영상을 활용하여 넓은 시야각을 제공하는 무인선 관제시스템
CN107609564B (zh) * 2017-09-19 2020-01-10 浙江大学 基于联合分割和傅里叶描述子库的水下目标图像识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000152220A (ja) 1998-11-17 2000-05-30 Oki Electric Ind Co Ltd 監視用itvカメラの制御方法
JP2002176641A (ja) 2000-12-05 2002-06-21 Matsushita Electric Ind Co Ltd 周囲映像提示装置
JP2004227045A (ja) 2003-01-20 2004-08-12 Wham Net Service Co Ltd 漁場侵入者監視システムおよび漁場侵入者監視方法
JP2005208011A (ja) 2004-01-26 2005-08-04 Mitsubishi Heavy Ind Ltd 監視システム及び監視方法
JP2005289264A (ja) 2004-04-01 2005-10-20 Furuno Electric Co Ltd 船舶航行支援装置
JP2010041530A (ja) 2008-08-07 2010-02-18 Sanyo Electric Co Ltd 操縦支援装置
JP2014529322A (ja) 2011-07-21 2014-11-06 コリア インスティチュートオブ オーシャン サイエンス アンド テクノロジー 天井移動型透明ディスプレイを用いた船舶用増強現実システム及びその具現方法
JP2014099055A (ja) 2012-11-14 2014-05-29 Canon Inc 検出装置、検出方法、及びプログラム
JP2015088816A (ja) 2013-10-29 2015-05-07 セコム株式会社 画像監視システム
WO2017208422A1 (ja) 2016-06-02 2017-12-07 日本郵船株式会社 船舶航行支援装置
JP2018019359A (ja) 2016-07-29 2018-02-01 キヤノン株式会社 船舶監視装置

Also Published As

Publication number Publication date
CN112840641A (zh) 2021-05-25
WO2020075429A1 (ja) 2020-04-16
JPWO2020075429A1 (ja) 2021-09-02
JP2023106401A (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
US11270458B2 (en) Image generating device
JP7488925B2 (ja) 映像生成装置、および、映像生成方法
US11415991B2 (en) Image generating device and image generating method
JP6720409B2 (ja) 映像生成装置
US11548598B2 (en) Image generating device and method of generating image
JP7313811B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7346436B2 (ja) 周辺監視装置及び周辺監視方法
JP7365355B2 (ja) 映像生成装置及び映像生成方法
JP7492059B2 (ja) 周辺監視装置及び周辺監視方法
CN115019217A (zh) 基于增强现实的潮流显示装置
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150