JP6304519B2 - 海洋環境での人検出 - Google Patents

海洋環境での人検出 Download PDF

Info

Publication number
JP6304519B2
JP6304519B2 JP2017084037A JP2017084037A JP6304519B2 JP 6304519 B2 JP6304519 B2 JP 6304519B2 JP 2017084037 A JP2017084037 A JP 2017084037A JP 2017084037 A JP2017084037 A JP 2017084037A JP 6304519 B2 JP6304519 B2 JP 6304519B2
Authority
JP
Japan
Prior art keywords
image
ship
training
marine environment
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017084037A
Other languages
English (en)
Other versions
JP2017215947A (ja
Inventor
ジェー.コールマン トロイ
ジェー.コールマン トロイ
エム.ノヴィック ジョン
エム.ノヴィック ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brunswick Corp
Original Assignee
Brunswick Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brunswick Corp filed Critical Brunswick Corp
Publication of JP2017215947A publication Critical patent/JP2017215947A/ja
Application granted granted Critical
Publication of JP6304519B2 publication Critical patent/JP6304519B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B79/00Monitoring properties or operating parameters of vessels in operation
    • B63B79/10Monitoring properties or operating parameters of vessels in operation using sensors, e.g. pressure sensors, strain gauges or accelerometers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B79/00Monitoring properties or operating parameters of vessels in operation
    • B63B79/40Monitoring properties or operating parameters of vessels in operation for controlling the operation of vessels, e.g. monitoring their speed, routing or maintenance schedules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63JAUXILIARIES ON VESSELS
    • B63J99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本開示は、船舶用のコンピュータビジョンシステムに関し、より具体的には、物体を検出するようトレーニングされたコンピュータビジョンシステムに関する。
以下の米国特許および特許出願は、これにより、参照により本明細書に組み込まれる。
米国特許公報第2012/0113274号は、関連する格納されたビデオを好ましくはリアルタイムで取得、操作、および共有することにより、コンピュータで生成されたイメージを現実世界のイメージとポータブル電子デバイスにおいて自動的に組み合わせるためのシステム、方法、およびコンピュータプログラムプロダクトを開示している。ビデオが、ハンドヘルドデバイスにより撮像され格納される。カメラの物理的ロケーションおよび向きを含むメタデータが、ユーザ入力と共にデータストリームに付加される。サーバはデータストリームを分析し、さらにメタデータに注釈を付け、ビデオおよびメタデータの検索可能なライブラリを生成する。その後、カメラユーザが新たなデータストリームを生成した場合に、リンクされたサーバがそれを分析し、ライブラリからの関連するマテリアルを特定し、そのマテリアルおよびタグ付けされた情報を取得し、それを適切な向きに調節し、それをレンダリングし、現在のカメラ視野上に重ね、ユーザは拡張現実を見ることになる。
米国特許第8,952,869号は、乗り物を運転することにより起こる動きと関連付けられた、互いに関係のある動きを判断するための方法およびシステムの例を開示している。例において、コンピュータ実装方法は、互いに関係のある動きの閾値数のセットを特定すること含む。方法はさらに、互いに関係のある動きの閾値数のセットが、乗り物を運転することにより起こる動きと関連付けられていると判断することを含む。方法はまたさらに、ウェアラブルコンピューティングシステムに、そのウェアラブルコンピューティングシステム用の運転ユーザインタフェースを選択させることを含む。
米国特許第7,753,745号は、船舶推進システムと共に用いられるステータスインジケータを開示している。例示的なインジケータには、船舶の推進システムに操作可能に連結された光源が含まれ、ここで、光源の動作が、推進システムのスラスターシステムのステータスを示す。
米国特許第7,476,862号は、ボートのトランサムの互いに反対の側面に取り付けられ、ボートの後方の共通のロケーションに方向付けられた2つのセンサーユニットを開示している。2つのセンサーの視野はボートの船舶推進ユニットの後方で重なって、哺乳動物などの熱を放射する物体の存在を検出する。筐体構造は、赤外線感知要素、レンズ、および遮光材を含む。4つの赤外線感知要素からの信号は、コントローラにより受信され、それら4つのセンサーのうち少なくとも2つが、それらの個別の視野内に熱を放射する物体を検出した場合に、コントローラはアラーム信号で反応する。2つの最も船内側のセンサーのみが熱を放射する物体を検出した場合にはアラーム信号を提供しないことにより、誤ったトリガーを減らすことが出来る。
米国特許第6,382,122号は、船舶推進装置、計器、センサー、および他の構成要素間の様々な関連付けおよび関係が迅速かつ容易に判断される自動検出システムが船舶に関して提供されることを開示している。システムは、その船舶上の船舶推進装置の数を自動的に判断し、必要であれば、造船者または船舶用品商に、船舶上の特定の船舶推進装置のロケーションを参照し、それら船舶推進装置を特定するよう、および、計器などのある特定の他の構成要素の、特定の操舵ステーションにおけるロケーションと、それらの、特定の船舶推進装置との関連付けとの両方を参照し、それら他の構成要素を特定するよう、様々なコマンドを入力するよう促す方法を実行する。
米国特許第6,273,771号は、船舶に取り付けられ、シリアル通信バスおよびコントローラと信号通信するよう接続され得る船舶推進システムを組み込んだ船舶用の制御システムを開示する。複数の入力装置および出力装置もその通信バスと信号通信するよう接続され、CAN Kingdomネットワークなどのバスアクセスマネージャが、そのコントローラと信号通信するよう接続されて、そのバスと信号通信するそれら複数の装置への追加の装置の組み込みを調整する。これによりそのコントローラは、その通信バス上のそれら複数の装置のうちそれぞれと信号通信するよう接続される。入力および出力装置はそれぞれ、シリアル通信バスへ、他の装置により受信されることになるメッセージを送信し得る。
本概要は、詳細な説明において以下にさらに説明される概念の抜粋を紹介するよう提供されている。本概要は、特許請求されている主題の主な、または必須の特徴を特定することを意図されておらず、または、特許請求されている主題の範囲を限定する補助として用いられることも意図されていない。
一実施形態において、少なくとも1つの船舶駆動部を有する船舶用の物体検出システムは、前記船舶上に位置付けられ、前記船舶上の、またはその周りの海洋環境の画像を撮像するよう構成された少なくとも1つのイメージセンサーと、プロセッサとを含む。物体検出システムは、前記プロセッサ上で実行可能である、前記画像を入力として受信する画像スキャンモジュールをさらに含む。画像スキャンモジュールは、1または複数の事前定義された物体と関連付けられたパターンを前記海洋環境の前記画像内で検出するよう、および、前記海洋環境の前記画像内における前記1または複数の事前定義された物体の存在または不在についての検出情報を出力するようトレーニングされた人工ニューラルネットワークを有する。
船舶の海洋環境内における1または複数の物体の存在を検出する方法の一実施形態は、事前定義された物体と関連付けられたパターンを海洋環境の画像内で検出するよう人工ニューラルネットワークをトレーニングする工程を含む。前記船舶上に位置付けられた少なくとも1つのイメージセンサーにより画像が記録され、その画像は、人工ニューラルネットワークへの入力として提供される。人工ニューラルネットワークは、画像内における物体の存在または不在についての検出情報を出力する。
本願発明の様々な他の特徴、目的、および利点が、図面と共に検討される以下の説明から明らかとされるであろう。
本開示は、以下の図面を参照して説明される。
物体検出システムを有する船舶の一実施形態を表す概略図である。
物体検出システム内のコンピューティングシステムの一実施形態を概略的に描写する。
物体検出システムをトレーニングするためのトレーニング画像の様々な実施形態を描写する。 物体検出システムをトレーニングするためのトレーニング画像の様々な実施形態を描写する。 物体検出システムをトレーニングするためのトレーニング画像の様々な実施形態を描写する。
船舶に設置された物体検出システムのイメージセンサーの一実施形態を描写する。
船舶に設置された物体検出システムのイメージセンサーの他の実施形態を描写する。
船舶の環境に存在する物体を検出する方法の一実施形態である。
1または複数の事前定義された物体と関連付けられたパターンを検出するよう人工ニューラルネットワークをトレーニングする方法の一実施形態を描写するフローチャートである。
現在利用可能な、船舶上の安全システムはインテリジェントではなく、操舵機辺りに存在している運転者がいるか(運転者検出システム)、または、船舶周りの領域に泳者が存在しているか(泳者検出システム)などの、指定された占有ロケーションでの人の存在を検出出来ない。例えば、船舶用の多くの現在の運転者検出システムは、運転者、または操縦者に、彼らを操舵機に物理的につないでおく、ランヤードクリップまたは何らかの種類のストラップなどの装置を着用すること、または操舵機辺りでの運転者の存在を無線送信する、または示す無線装置を着用することを要求する。しかしながら、関連分野での研究および調査を通じて、本発明者らは、これら現在のシステムには、ランヤードクリップまたは無線ロケータ装置を着用するなど、これら運転者検出システムを用いるのは、操縦者のうち少ない割合のみであるので、課題があることを認識した。さらに、現在利用可能な視覚ベースの運転者検出システムは典型的には、動き検出および/または顔検出に基づき、それらのうちそれぞれが、船舶上の運転者を検出する状況において課題を有している。動き検出システムは、運転者を見失いやすく、運転者が操舵機辺りでかなり静止した状態である場合に、フォルスネガティブを生じさせやすい。顔検出に頼るシステムも、運転者が前方方向を見ていない場合に、および/または、サングラス、帽子、フェースマスク等などの保護用具を自分の顔または頭に着用している場合にフォースネガティブを生じさせやすい。
加えて、関連分野での彼らの研究および調査を通じて、本発明者らは、現在利用可能な泳者検出システムは、船舶周りの水中の人または他の物体を検出することにおいて性能が不十分であることを認識した。現在利用可能な泳者および物体検出システムは、可視光画像であろうと、赤外線画像であろうと、または他の手段により撮像された画像であろうと、人または物体の画像を水が部分的に、またはほぼ完全に判別出来なくしてしまう海洋環境で性能が不十分である。例えば、船舶周りの水中で水泳している人に関して、人の頭、または頭および肩のみが見えるということがよくある。したがって、人および/または物体検出方法のうち旧来の方法は、海洋環境で実装された場合に、性能が不十分であり、誤差が故に信頼性が低い。
したがって、船舶乗り物およびマリンスポーツでの応用に関して、海洋環境内で人、または流芥若しくは他の障害物などの他の予め定められた物体の存在を高い信頼性で検出するシステムおよび方法を求める、長く感じられてきた必要性がある。現在利用可能な泳者または運転者検出システム並びに方法に関するこれら並びに他の課題、および関連する産業での信頼性の高い物体検出を求める必要性の本発明者による認識を鑑み、本発明者らは、本明細書で開示される物体検出システムおよび方法を開発した。
図1は、船舶2上の物体検出システム1の例示的な実施形態を概略的に描写する。船舶2は、左舷4および右舷5と、船首3と、船尾6とを有する。船舶2は、船尾6に2つの船舶駆動部8aおよび8bが搭載されており、船舶駆動部8aは、船舶2の左舷4側に、船舶駆動部8bは、船舶2の右舷側に位置付けられている。各船舶駆動部8aおよび8bは、当業者には分かるように、それぞれの伝動機構コンピュータ22a、22bにより制御される。伝動機構コンピュータ22aおよび22bは、操舵機13辺りの装置の機能を制御し、船舶駆動部8a、8bの伝動機構コンピュータ22a、22bへの通信を処理および調整し得る、CANバス25を介した舵コンピュータ20との通信を行なっている。船舶2は、入力装置15を有する操舵機13を有する。入力装置15は、舵輪として示されているが、船舶2を制御するのにスロットルまたは操舵入力を提供するための、当技術分野において利用可能な操作レバー、トラックパッド、スロットルレバー、および/または任意の他のユーザ入力装置を追加的または代替的に含み得る。ディスプレイ19も操舵機13辺りに提供される。ディスプレイ19は、ボート速度、エンジン状況、燃料液面高さ、方向等などの船舶2に関する情報の視覚描写を提供する任意のデジタルディスプレイまたは他のディスプレイであり得る。例えば、舵コンピュータ20は、船舶2上の多数のサブシステムをトラッキングおよび/または制御し得、ディスプレイ19を制御して、船舶2および/またはそのサブシステムに関する情報を表示し得る。1つの例を提供すると、ディスプレイ19は、ウィスコンシン州Fond du Lac市のMercury Marine Corporationにより提供されるVesselViewディスプレイであり得る。さらに、操舵機13辺りで立っている人が聞き取れるものなどの可聴出力を提供するために、操舵機13辺りにスピーカ18も提供され得る。
次のことが理解されるべきである。当業者には明らかとなるように本開示で開示されている概念は、任意の数の船舶駆動部を有する、および船外機、船内駆動部、または船内/船外駆動部(またはスターン駆動部)などの任意のモータまたはエンジンにより駆動され得るスクリュー、インペラ、ポッド駆動部、および同様のものなどの任意の構成の推進装置を有する任意のタイプまたはサイズの船舶に適用可能である。加えて、船舶の(複数の)船舶駆動部に関する、および、(複数の)船舶駆動部の機能を有する補助装置とセンサーとの調整に関する多数の様々な制御配置が当技術分野において周知である。本明細書で開示されているシステムおよび方法を例示する目的のために、船舶、船舶駆動部、それらに関する制御配置の実施形態が、本明細書において示され説明されており、それらは限定しているものと見なされるべきではない。
船舶2はさらに、船舶2上の、またはその周りの海洋環境の画像を感知するいくつかのイメージセンサー28が搭載される。船舶2の前の領域の画像を撮像するよう前側イメージセンサー28aが位置付けられている。前側イメージセンサー28aは、船舶2の前の水面11の画像を撮像するよう船首3の端に位置付けられる、または船舶2の船体の前部のどこかのロケーションに位置付けられるなどである。船舶2を操作するよう操縦者が位置するであろう、操舵機13辺りの領域、すなわち舵エリアを撮像するよう、舵イメージセンサー28bが位置付けられている。例えば、舵イメージセンサー28bは、舵輪および/または操作レバーなどの入力装置15および椅子17の前の領域に位置付けられ得る。舵イメージセンサー28bは、例えば、椅子17に座っている、および/または入力装置15を操作している、および/またはディスプレイ19を見ている人が、舵イメージセンサー28bにより撮像される画像内に含まれるように位置付けられている。船舶2の後方の領域の画像を撮像するよう、2つの後側イメージセンサー28cおよび28dが提供される。描写されている実施形態において、後側イメージセンサー28cは船舶駆動部8a上に取り付けられ、後側イメージセンサー28dは船舶駆動部8b上に位置付けられている。例えば、後側イメージセンサー28c、28dは、船舶駆動部8a、8bの筐体の頂部または後部など、その筐体上に取り付けられ得る。他の実施形態において、1または複数の後側イメージセンサー28c、28dが船舶の船尾6上に取り付けられ、または他の場合には、船舶2の後方の領域の全てまたは一部を撮像するよう位置付けられ得る。さらに他の実施形態において、船舶2の左舷4または右舷5近くの水面11上の領域などの、船舶2の周りの他のどこかの(複数の)領域を撮像するよう、イメージセンサーが位置付けられ得る。
各イメージセンサー28a〜28dは、任意の手段により船舶2上の、および/またはその周りの海洋環境を感知し画像化するよう搭載され得る。イメージセンサー28a〜28dは、視覚イメージセンサー−例えば、可視光を感知して静止画像または動画を生成するカメラ−赤外線イメージセンサー、ソナーイメージセンサー、レーダーイメージセンサー等を含み得る。各イメージセンサー28a〜28dは視野42a〜42dをそれぞれ有する。それら視野42a〜42dは、それぞれのイメージセンサー28a〜28dにより撮像、または画像化される領域である。各イメージセンサー28a〜28dは、それぞれのイメージセンサー28a〜28dからの画像を処理するよう搭載されたコンピュータ38a〜30cに接続される。例示的な実施形態において、イメージセンサー28a〜28dのうちそれぞれからの画像は、それぞれのイメージセンサー28a〜28dと、それに関連付けられたコンピュータ30a〜30dとの間のデータ接続である画像バス26により、指定されたコンピュータ30a〜30cへと転送される。様々な実施形態において、各イメージセンサー28a〜28dは、それ自体の専用のコンピューティングシステムを有し得る。そのような配置は、図1の実施形態に例示されている。図中において、前側イメージセンサー28aには、そこからの画像を処理する画像コンピュータ30aが提供されており、舵イメージセンサー28bには、そこからの画像を処理する画像コンピュータ30bが提供されている。他の実施形態において、2つまたはそれより多くのイメージセンサーが、単一のコンピュータと関連付けられ得る。この配置も、図1の状況において例示されている。図中において、後側イメージセンサー28cおよび28dのうちそれぞれは、単一の画像コンピュータ30cに接続され、画像コンピュータ30cは、両方のセンサーにより撮像された画像を処理する。他の実施形態において、各後側イメージセンサー28cおよび28dには、それ自体の画像コンピュータが提供され得る。イメージセンサー28とコンピュータ30との間の多数の他の配置が可能である。例えば、船舶2上の全てのイメージセンサー28(例えば、28a〜28d)に関して単一の画像コンピュータ30が提供され、したがって、画像コンピュータ30が、それらからの撮像された画像の全てを処理する実施形態が考えられる。本明細書で開示されているように、そのような実施形態において、画像コンピュータ30は、関連付けられているイメージセンサー28a〜28dのうちそれぞれにより撮像された海洋環境に基づきトレーニングされ得、または、海洋環境での物体検出に関して一般的にトレーニングされ得る。画像コンピュータからの出力は、CANバス25上に提供され、それにより、出力は、伝動機構コンピュータ22a、22bと舵コンピュータ20とを含む、システム内の様々な装置により受信され得る。さらに他の実施形態において、イメージセンサー28a〜28dのうち1または複数に関する画像処理機能は、舵コンピュータ20上で生じ得る、または舵コンピュータ20内へと組み込まれ得る。
図2は、1または複数のイメージセンサー28a〜28dから画像を受信し処理するためのコンピュータ30の一実施形態を描写する。コンピュータ30は、ストレージシステム34に格納されたソフトウェア32を有する。ソフトウェア32は、1または複数のイメージセンサー28a〜28dから受信した画像54内で、1または複数の事前定義された物体と関連付けられたパターンを検出するようトレーニングされた人工ニューラルネットワークを含む画像スキャンモジュール10を含む。画像スキャンモジュール10は、実行可能ソフトウェア命令、またはコンピュータ可読コードと、ストレージシステム34に格納され、プロセッサ36上で実行された場合に、本明細書で説明されているように動作するようプロセッサに指示するトレーニングされたニューラルネットワークとを含む。
図2で描写されているコンピュータ30は1つの画像スキャンモジュール10を組み込んだ1つのソフトウェア202を含んでいるが、1または複数のモジュールを有する1または複数のソフトウェア要素が同じオペレーションを提供し得ることが理解されるべきである。類似して、本明細書で提供されている説明は、単一のプロセッサ36を有するコンピュータ30について言及しているが、そのようなシステムの実装は、通信接続され得る1または複数のプロセッサを用い実行され得、そのような実装が本説明の範囲内にあるものと見なされることが認識される。同じく、コンピュータ30およびプロセッサ36は、舵コンピュータ20、または(複数の)伝動機構コンピュータ22a、22bの機能を実行するコンピュータおよびプロセッサと同じものであり得る。
プロセッサ36は、ストレージシステム34からソフトウェア32を取得し実行するマイクロプロセッサおよび他の回路を備え得る。プロセッサ36は、単一の処理装置内で実装され得るが、プログラム命令の実行において協働する複数の処理装置またはサブシステムに跨って分散させられてもよい。プロセッサ36の例は、汎用中央処理装置、特定用途向けプロセッサ、およびロジックデバイスも、任意の他のタイプの処理装置、処理装置の組み合わせ、またはそれらの変形例も含む。
ストレージシステム34は、プロセッサ36により読み取り可能な、ソフトウェア32を格納可能な任意の記憶媒体または記憶媒体群を含み得る。ストレージシステム34は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報の格納に関する任意の方法または技術で実装される揮発性および不揮発性である、取り外し可能および取り外し不可能である媒体を含み得る。ストレージシステム34は、単一の記憶装置として実装され得るが、複数の記憶装置またはサブシステムに跨って実装されてもよい。ストレージシステム34はさらに、プロセッサ36と通信可能なコントローラなどの追加の要素を含み得る。
記憶媒体の例は、ランダムアクセスメモリ、読み取り専用メモリ、磁気ディスク、光ディスク、フラッシュメモリ、仮想メモリ、非仮想メモリ、磁気セット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、または所望される情報を格納するのに用いられ得、命令実行システムによりアクセスされ得る任意の他の媒体も、それらの任意の組み合わせまたは変形例、または任意の他のタイプの記憶媒体も含む。同じく、記憶媒体は、プロセッサ36と共にローカルに収納され得、または、クラウドコンピューティングアプリケーションおよびシステムにおいてなど、複数のロケーションにあり得、ネットワーク接続され得る1または複数のサーバに分散させられ得る。いくつかの実装例において、記憶媒体は、非一時的記憶媒体であり得る。いくつかの実装例において、記憶媒体の少なくとも一部は、一時的なものであり得る。
画像スキャンモジュール10の人工ニューラルネットワークは、画像54を受信し、画像内における1または複数の物体の存在についての検出情報56を出力する。例えば、検出情報56は、画像内における、人などの事前定義された物体の存在の確率値を示し得る。人工ニューラルネットワークを含む画像スキャンモジュール10は、コンピュータ30内のプロセッサ36上で実行される。
本開示を読む当業者には理解されるように、人工ニューラルネットワーク(ANN)とは、定義された誤差関数を最小化する種々の最適化方法によりトレーニングされ得る、多数の入力から生成され得る線形または非線形ユニットを有する層構造を指す。ANNは概して、互いにメッセージを交換する、相互接続された処理要素(「ニューロン」)のシステムとして表される。ニューロン間の接続は、ANNのタイプに応じて、システムへの入力に基づき、および/または、システムに対するフィードバックに基づき調整され得る数値重みを有し、それにより、ANNは入力に適合するものとなり、例から学習可能となる。例えば、画像スキャンモジュール10は、フィードフォワードANNを含み得る。フィードフォワードANNは、入力を出力と関連付ける複雑ではないネットワークである傾向がある。このタイプの編成は、一般的に「ボトムアップ」または「トップダウン」ANNとも呼ばれる。例えば、ANNは、3またはそれより多くのプロセッシングユニット群、またはプロセッシングユニット層から成り得る。「入力」ユニットの層が「隠れ」ユニットの層に接続され、さらにこの層が、「出力」ユニットの層に接続されている。
入力ユニットの活動は、ネットワークに供給される未加工の情報を表す。この例において、未加工の情報は、検出される物体を含む関連する海洋環境のポジティブトレーニング画像50aと、事前定義された物体を含まない関連する海洋環境の画像であるネガティブトレーニング画像50bとを含み得るトレーニング画像である。ANNは、提供されるトレーニング画像50a、50bに応じて任意のタイプの事前定義された物体を検出するようトレーニングされ得る。例示的な実施形態では、それぞれの事前定義された物体のトレーニング画像を提供することにより、事前定義されたサイズの範囲の人、事前定義された海洋動物、または流芥物体の存在を検出するようトレーニングされ得る。例えば、ANNは、グラウンドトルーストレーニングなどの教師あり学習アルゴリズムを用いトレーニングされ得る。教師あり学習アルゴリズムは、特定の入力に対して、その所望される応答がどのようなものであるべきかを各ユニットが知らされる外部の教師を組み込む。例えば、ポジティブトレーニング画像50aは、画像内における物体のポジティブ特定と共にANNへ入力される。類似して、ネガティブトレーニング画像50bは、物体が画像内にないこと、したがって、出力値が0であるべきことを示すものとともにANNへ入力される。言い換えると、トレーニングは、例として用いられる、事前定義された物体または複数の物体の存在または不在が正しく特定されている、関連する海洋環境の既存のセットのトレーニング画像に基づき行われる。それら例に基づいて、ANN内で、例えばANNの「隠れ」ユニット内で、パターンが定義される。
(図3A〜3C、および4A〜4Bにおいて人46として例示されている)事前定義された物体を含む関心対象領域48が各ポジティブトレーニング画像50aに関して特定され得る。例えば、関心対象領域48の特定は、ANNが検出するようトレーニングされている事前定義された物体の直ぐ周りの切り抜きであり得る。より具体的には、関心対象領域48の特定は、物体を範囲内に含む、画像内の画素のxおよびy座標を特定し得る。ANNはその領域を分析し、複数のポジティブおよびネガティブトレーニング画像50aおよび50bを受信するうちに、その海洋環境の任意の画像内で事前定義された物体を検出するのに用いられ得るパターン、またはパターンセットを学習するであろう。ANNは、追加のポジティブトレーニング画像50aおよびネガティブトレーニング画像50bを用いトレーニングされる。このことは、結果として生じるANNが、それが動作を行なっている海洋環境内における事前定義された画像の存在を高い信頼性で検出出来るよう、所望される出力と実際の出力との間の誤差が十分に小さくなるまで行われる。
一実施形態において、大きな物体を含む画像を、そのより大きな物体の一部をそれぞれが含む種々のサブ画像に細分することにより生成される画像などの、より大きな画像の一部のみを示すポジティブトレーニング画像50aが、ANNへ供給され得る。例えば、人の画像が、各脚領域の画像、各腕領域の画像、および人の頭および首の画像などの5枚または6枚の異なるサブ画像に分けられ得る。人の、特定の身体部位のこれら画像のうちそれぞれが、関連する関心対象領域が特定された状態でポジティブトレーニング画像50aとして、ANNへ提供される。類似して、複数の関心領域48が1枚のピクチャ内で特定され得、これら関心領域48のうちそれぞれを含むポジティブトレーニング画像50aが生成され得る。したがって、ANNは、入力画像内における、人の小さな部分のみの特定に基づき人の存在を検出するようトレーニングされ得る。このことは、海洋環境で、事前定義された物体の小さな部分のみが見えるということがよくある、水面より上で撮像された画像などに関して重要である。
図3A〜3Cは、この点について図示している例示的なトレーニング画像を提供する。図3Aは、人46の事前定義された物体を含まない舵エリア53のネガティブトレーニング画像50bである。トレーニング画像50a、50bは、例えば、写真、または、ビデオカメラにより撮像された単一のフレームであり得る。舵エリア53のネガティブトレーニング画像50bは、舵輪15aとスロットルレバー15bとを含む2つの入力装置を含む。図3Bおよび3Cは、舵エリア53のポジティブトレーニング画像50aを描写している。図3Bは、舵輪15a上の人46の手を含むものとして特定された関心対象領域48を有する。図3Cのポジティブトレーニング画像50aは、人46の上半身全体をその中に含むものとして特定された関心対象領域48を有する。他の実施形態において、図3Cの画像は、スロットルレバーである入力装置15b上の人46の手に重なる関心対象領域48を含む1つのトレーニング画像、および人46の頭および/または肩を含む関心対象領域48を含む他のポジティブトレーニング画像50aなどの複数のポジティブトレーニング画像50aに細分され得る。したがって、関連するANNは、手、頭、または肩などの1つの部分を単に特定することにより人46の存在(または、人46の、可能性の高い存在)を検出するようトレーニングされ得る。
上述のことに従って、本発明者らは、特定の海洋環境における物体認識の複雑さが故に、イメージセンサー28a〜28dにより撮像された、ある特定の海洋環境内で、事前定義された物体を認識するようANNをトレーニングすることは有益であることを認識した。したがって、トレーニング画像50a、50bは部分的または全体的に、イメージセンサーにより撮像された海洋環境と類似の、または同じ画像から成り得る。例えば、舵イメージセンサー28bからの画像を処理するよう構成された画像スキャンモジュール10のANNは、図3A〜3Cに例示されているものなどの、視野42b内のその舵構成の画像を部分的または全体的に用いてトレーニングされ得る。例えば、トレーニング画像59a、50bは、舵イメージセンサー28bの視野42b内に提供されるであろう、同じ船舶モデルの、および/または、同じ配置の同じ入力装置15a、15bを含む舵エリア53のものであり得る。したがって、ANNは、具体的に、舵イメージセンサー28bからの画像を処理するようトレーニングされ、特定の船舶2の操舵機13の部分を認識し、人46が操舵機13のこれらの部分とどのように接するかを学習し得、このことにより、より信頼性の高い物体検出に繋がり得る。
この特定の海洋環境に適合させられたトレーニングは、船舶2を囲む水面11上の信頼性の高い物体検出を可能なシステム1を生じさせることにおいて非常に重要であり得る。例えば、前側イメージセンサー28aと、後側イメージセンサー28cおよび28dとからの画像を処理するANNは、その特定のロケーションで危険を呈する可能性が高い事前定義された物体を検出するようトレーニングされ得、撮像された画像内にそれが現われる可能性が高い位置または形態の全てでその物体を描写する画像でトレーニングされ得る。例えば、それぞれの画像スキャンモジュール10のANNは、それぞれのイメージセンサー28a〜28dにより撮像されるであろう視野角および/または視野に近似するトレーニング画像を用いトレーニングされ得る。この概念は、船舶2の後方の領域の画像を撮像するようイメージセンサー28が取り付けられている図4Aおよび4Bに例示されている。描写されている実施形態のうちそれぞれにおいて、イメージセンサーは、平行軸45に対して視野角44を有している。事前定義された物体は、それぞれのイメージセンサー28の視野角44と視野42とに応じて、イメージセンサー28により撮像された画像内で異なるように現われるであろう。事前定義された物体、この場合では人46は、図4Bにおいてイメージセンサー28により撮像される画像と比較して、図4Aのイメージセンサー28により撮像される画像において異なる現われ方をするであろう。
図4Aにおいて、イメージセンサー28は、より小さい船舶2の船外船舶駆動部8の後方の角に取り付けられている。図4Bにおいて、イメージセンサー28は、大きなヨットの船尾6の頂部に取り付けられており、よって、平行軸45に対する視野角44は、図4Aの船舶2上のイメージセンサー28の視野角とは異なる。したがって、人46は、図4Aにおけるイメージセンサー28により撮像される海洋環境で、図4Bにおけるイメージセンサー28により撮像される海洋環境とは異なるように現われるであろう。例えば、図4Aにおいてイメージセンサー28により撮像される画像内の人46は、イメージセンサー28により近くなるであろうし、よって、より大きく現われるであろう。さらに、図4Aの視野角44は、より一層下方を見ている角度になるであろう図4Bの視野角44よりも、水平により近くなるであろう。したがって、図4Aにおいてイメージセンサー28により撮像される環境の画像は、例えば、図4Bにおいてイメージセンサー28により撮像される海洋環境における画像よりも、顔の特徴を含んでいる可能性がより高い。図4Bのイメージセンサー28により撮像される海洋環境の画像は、下方を見ている視野角44からはより多くのものが見えるであろうから、人46のより多くの身体部位を含んでいる可能性がより高い。同じく、水面11も、それぞれの海洋環境のうちそれぞれにおいて、異なるように現われるであろう。したがって、これらイメージセンサー28のうちそれぞれからの画像を処理するであろうそれぞれの画像スキャンモジュール10のANNには、適切な視野角44の画像が提供され得る。
これにより、それぞれのANNは、人46(または他の事前定義された物体)がその海洋環境でどのように見えるかを判断するよう、および、人46を、その環境の水面11上の特徴と分けて判別するようトレーニングされ得る。さらに、トレーニングは、水中での船舶2の動きにより起こり得る様々な視野角度44を説明し得、さらには、大きな波が存在し得る大洋環境に対して小さい湖の環境などの特定の船舶の応用に関してトレーニングされ得る。同じく、ANNは、それぞれの船舶2が用いられる可能性が高い、特定のタイプの船舶応用に関してトレーニングされ得る。例えば、図4Aに描写されているものなどの、スポーツ応用で用いられる可能性が高い小さい船舶2は、泳者、スキーヤー、チューバ―等を検出するようトレーニングされ得る。航海に適するヨットなどのより大きな船舶を対象として意図されたANNは、船舶2の前の領域にある小さい外輪船に含まれるものなどの、種々の環境における物体または人を特定するようトレーニングされるかもしれない。
他の実施形態において、画像スキャンモジュール10のANNは、より全般的に海洋環境におけるある特定の事前定義された(複数の)物体のうち1または複数を検出するようトレーニングされ得、多数の異なる視野角からの、および異なる海洋環境でのトレーニング画像50が提供され得る。
関連分野における彼らの実験および研究を通じて、本発明者らは、海洋環境全般に関する、および好ましくは特定の海洋環境に関するこのタイプのトレーニングが、信頼性の高い物体検出のために、特に、船舶を囲む画像を撮像するよう位置付けられたイメージセンサー28を用い水面11上の事前定義された物体検出するために必要であることを認識した。なぜならば、船舶2が、ロール、ピッチ、およびヨーを含む複数の軸に沿って水中で動いており、それぞれの軸が視野角に、よって、撮像された画像内の物体の現われ方に影響を与えるからである。したがって、海洋環境における物体検出は、視野角がより一貫しており、物体が比較的平坦な面上で検出される自動車環境などの他の環境とは異なる。さらに、自動車に関する応用においては、例えば、物体検出を支援するのに頼りにされる、道路脇の検出などの、利用可能なある特定の環境的印、またはキューがある。そのような空間的キューは海洋環境では利用可能ではなく、よって本発明者らは、ANNが海洋環境で高い信頼性で物体を検出するためのトレーニングに要求される事項は、自動者環境、セキュリティ環境等に関するものとは異なることを見出した。
イメージセンサー28は、環境を画像化するための様々なタイプのセンサーのうちいずれかであり得る。例えば、イメージセンサー28は、可視光カメラまたは赤外線カメラであり得る。2つの例のみを挙げると、各イメージセンサー28は、スイスのLogitech International S.A.が提供するLogitech C910 Cameraであり得、または、各イメージセンサー28は、スウェーデンのAxis Communications ABが提供するAxis F1035−E Sensor Unitであり得る。魚眼レンズを有する1または複数のAxis F1035−E Sensor Unitである(複数の)イメージセンサー28を組み込んだ実施形態において、ANNは、そのようなレンズにより撮像された画像を処理するようトレーニングされ得、または、画像は、魚眼画像を処理するようトレーニングされていないANNによる処理の前に、デジタル的にクロップされ歪みが補正され得る。その画像を処理する画像スキャンモジュール10のANNは、事前定義された物体と関連付けられたパターンを、それがイメージセンサー28により撮像されるタイプの画像で現われるときに検出するためにトレーニングされている。したがって、可視光カメラからの画像を処理するANNは、可視光のトレーニング画像50a、50bを用いてトレーニングされ、赤外線カメラからの画像を処理するANNは、赤外線のトレーニング画像50a、50bを用いトレーニングされるであろう。イメージセンサー28がソナーセンサーまたはレーダーセンサーであるさらに他の実施形態において、それぞれのANNは、ソナートレーニング画像またはレーダートレーニング画像にそれぞれ基づきトレーニングされる。
しかしながら、赤外線画像の画像検出についての実験および研究を通じて、本発明者らは、ある特定の環境では、水が物体の温度を歪め判別出来なくしてしまい、いくつかの環境では、海洋環境における特定の物体の温度パターンを区別するのが難しくなり得るので、赤外線を用いた物体検出が難しくなり得ることを認識した。本発明者らは、特定の(複数の)温度環境における物体検出に適切なANNが、これら課題のうちいくつかを緩和し得ることを認識した。しかしながら、ある特定の海洋環境に関して、可視光カメライメージセンサー28が好ましく、赤外線カメライメージセンサー28よりも優れた性能を提供し得る。
図5は、船舶2の環境に存在する1または複数の事前定義された物体を検出する方法80の一実施形態を描写する。工程90において、イメージセンサー28から画像が受信される。工程91において、その画像は、海洋環境で1または複数の事前定義された物体を検出するようトレーニングされたANNへ提供される。工程92において、事前定義された物体と関連付けられたパターンが、ANNにより画像内で検出される。工程93において、その検出情報が、ANNにより出力される。一例を提供すると、海洋環境で人46の存在を検出するようトレーニングされたANNが、イメージセンサー28により撮像されたフレーム、または画像内に人がいるパーセンテージまたは確率として検出情報56を出力し得る。
検出情報はそれから、船舶の操縦者に対して警告を発する、および/または、船舶2上の1または複数の船舶駆動部8a、8bを制御するのに、船舶2上のシステムまたは要素により用いられ得る。上記にて説明されているように、検出情報56は、CANバス25へと提供され、そのCANバス25に接続された様々なコンピュータまたは制御装置のうちいずれかで受信され得る。単に一例を提供すると、舵コンピュータ20は、危険な状況が存在するとCANバス25上に提供された検出情報56に基づき判断し、操舵機13辺りにあるディスプレイ19および/またはスピーカ18を制御して、ユーザに対し危険な状況に関する視覚的および/または聴覚的警告を発し得る。例えば、ディスプレイ19は、検出された特定の物体、および船舶に対するその位置に関してユーザに対し警告するよう制御され得る。
同じく、工程95において、1または複数の(複数の)船舶駆動部8a、8bを制御するのに検出情報56が用いられ得る。例えば、伝動機構コンピュータ22a、22bは、船舶駆動部を制御するためにある特定の検出情報56の受信に基づきある特定の動作をとるよう構成され得る。例えば、伝動機構コンピュータ22a、22bは、制御動作を検出情報56と関連付けるルックアップテーブルを有するなど、エンジン制御アルゴリズムへの制御入力として検出情報56を扱うよう構成され得る。例えば、船舶駆動部は、特定の視野内またはその視野内の関心領域に人がいる確率が95%であるなどの、船舶2の近くの水中に人がいることを示す検出情報56の受信に応答してすぐさまギアがニュートラルにされ得る。例えば、伝動機構コンピュータ22a、22bは、前側イメージセンサー28aにより撮像された画像内における、人46または他の事前定義された物体の高い確率の検出に反応して、すぐさま船舶駆動部8a、8bをニュートラルにする、またさらにはバックさせるよう構成され得る。
舵イメージセンサー28bと関連付けられた画像コンピュータ30bからの出力は、画像内における人検出の不在が、工程94において警告を発する、および/または船舶駆動部8a、8bにより制御動作を行う制御動作を引き起こす制御入力として扱われ得るという点で、異なるように扱われ得るかもしれない。例えば、舵イメージセンサー28bにより撮像された画像内に予め定められたフレーム数に亘って、または予め定められた時間の長さに亘って人46が検出されない場合、伝動機構コンピュータ22a、22bは、例えば、それぞれの船舶駆動部8a、8bのエンジン速度を遅くし得る、および/または、船舶駆動部8a、8bをニュートラルにギアシフトし得る。一実施形態において、伝動機構コンピュータ22a、22bは、舵センサー28bからの画像内に人46を検出し損ね続けることに応答して、人検出のないある数のフレーム、または人検出のないある期間の後、エンジンを停止することさえ含み得る追加の漸進的な動作をとるよう構成され得る。例えば、ある制御アルゴリズムは、ある特定の数の、特定の閾値に達する検出情報値の後、ある特定の制御出力が行われ、それから、それに続く検出情報値56に応答して他の動作がとられるようなフィルタメカニズムを適切に含み得る。フィルタリングメカニズムは、ある特定の応用および/またはある特定の船舶のために較正可能であり得る。
図6は、船舶2上の、またはその周りの海洋環境に存在する1または複数の物体を検出する方法の一実施形態を描写しており、具体的には海洋環境の画像内で、1または複数の事前定義された物体と関連付けられたパターンを検出するようANNをトレーニングするための工程に関する。工程81において、1または複数の人、または人の身体部位を含むポジティブトレーニング画像が、ANNに供給される。工程82において、ANNに入力を提供しているイメージセンサー28により撮像される海洋環境特有の更なるトレーニング画像が、ANNへ供給される。描写されている例において、ANNは、舵イメージセンサー28bからの画像を処理するようトレーニングされ、したがって、イメージセンサー28bにより撮像される、舵エリア特有のトレーニング画像が、工程82および83において提供されて、舵イメージセンサー28bからの画像を正確に処理するためにそのANNのトレーニングが適合させられる。工程82において、人46、または人46の何らかの部分を含む舵エリア53のポジティブトレーニング画像が、ANNに供給される。工程83において、舵エリア53のネガティブトレーニング画像、すなわち、人を含まない画像が供給される。更なるトレーニングが必要であるか判断すべく、人検出におけるANNの性能が、工程84〜86においてテストされる。工程84において、テスト画像がANNに提供され、結果として得られる出力、検出情報56が、工程85で評価される。工程86において、それぞれの海洋環境−すなわち、舵エリア−において信頼性の高い人検出を提供出来るよう誤差が十分に最小化されているかが判断される。誤差が大き過ぎる場合、工程81〜83において更なるトレーニングが提供され得る。誤差が十分に小さい場合、工程87において、トレーニングは完了したものとみなされる。前側イメージセンサー28aにより撮像された船舶2の前の領域、または1または複数の後側イメージセンサー28c、28dにより撮像された船舶2後方の領域にいる人または他の事前定義された物体の検出のためにトレーニングするなど、他の海洋環境に関して類似のトレーニング方法が提供され得る。そのような実施形態において、それぞれのイメージセンサー28a、28c、28dによる画像と同じ視野角および/または視野の画像などの、関連する海洋環境のポジティブおよびネガティブトレーニング画像が供給され得る。
本明細書は、最良の態様を含む本願発明を開示すべく、また、当業者が本願発明を作成し用いることが出来るようにすべく例を用いている。ある特定の用語が、簡潔さ、明確さ、および理解のために用いられている。そのような用語は単に説明を目的として用いられており、広く解釈されるよう意図されているので、従来技術の要求事項を超えてそこから不必要な限定が推測されるべきではない。本願発明の特許性のある範囲は、請求項により定義され、当業者が思いつく他の例を含み得る。そのような他の例が、請求項の文字通りの言葉と異ならない特徴または構造要素を有する場合、または、それら例が、請求項の文字通りの言葉との差が非本質的である同等の特徴または構造要素を含む場合、それら例は請求項の範囲に含まれることが意図されている。

Claims (17)

  1. 少なくとも1つの船舶駆動部を有する船舶用の物体検出システムであって、
    前記船舶上に位置付けられ、前記船舶上の、またはその周りの海洋環境の画像を撮像する少なくとも1つのイメージセンサーであって、少なくとも1つのイメージセンサーのうちの1つは前記船舶の後方の領域の画像を撮像するよう前記船舶上に位置付けられた可視光カメラである、少なくとも1つのイメージセンサーと
    プロセッサと、
    前記プロセッサ上で実行可能である、前記画像を入力として受信する画像スキャンモジュールであって、前記船舶の後方の前記領域に位置する人と関連付けられたパターンを前記海洋環境の前記画像内で検出するよう、および、前記海洋環境の前記画像内における、1または複数の事前定義された物体の存在または不在についての検出情報を出力するようトレーニングされた人工ニューラルネットワークを有する画像スキャンモジュールと
    を備え、
    前記画像スキャンモジュールの前記人工ニューラルネットワークは、前記イメージセンサーにより撮像される前記画像に近似する視野角および/または視野の範囲を有する水面上の物体の画像を用いてトレーニングされる
    体検出システム。
  2. 少なくとも1つの船舶駆動部を有する船舶用の物体検出システムであって、
    前記船舶上に位置付けられ、前記船舶上の、またはその周りの海洋環境の画像を撮像する少なくとも1つのイメージセンサーと、
    プロセッサと、
    前記プロセッサ上で実行可能である、前記画像を入力として受信する画像スキャンモジュールであって、1または複数の事前定義された物体と関連付けられたパターンを前記海洋環境の前記画像内で検出するよう、および、前記海洋環境の前記画像内における、前記1または複数の事前定義された物体の存在または不在についての検出情報を出力するようトレーニングされた人工ニューラルネットワークを有する画像スキャンモジュールと
    を備え、
    前記少なくとも1つのイメージセンサーのうちの1つは、前記船舶の舵エリアの画像を撮像するよう位置付けられた可視光カメラであり、
    前記画像スキャンモジュールの前記人工ニューラルネットワークは、前記舵エリアの前記画像内における人の前記存在または不在を検出するようトレーニングされる
    物体検出システム。
  3. 前記検出情報は、前記画像内における、前記1または複数の事前定義された物体の前記存在の確率値を示す、請求項1または2に記載の物体検出システム。
  4. 前記少なくとも1つのイメージセンサーのうちの他の1つは、前記船舶の舵エリアの画像を撮像するよう位置付けられた可視光カメラであり、前記画像スキャンモジュールの前記人工ニューラルネットワークは、前記舵エリアの前記画像内における人の前記存在または不在を検出するようトレーニングされる、請求項1から3のいずれか一項に記載の物体検出システム。
  5. 前記画像スキャンモジュールの前記人工ニューラルネットワークは、特定の舵エリアに関連するトレーニング画像を用いて前記特定の舵エリアに関してトレーニングされる、請求項2または4に記載の物体検出システム。
  6. 水面上の人の画像のポジティブトレーニング画像と、水面上の他の物体のネガティブトレーニング画像とを提供することにより、前記人間の前記存在を前記船舶の前記海洋環境内で検出するよう前記人工ニューラルネットワークをトレーニングする、請求項1から5のいずれか一項に記載の物体検出システム。
  7. 前記船舶上に位置付けられ、前記船舶上の、またはその周りの第2の海洋環境の第2の画像を撮像する第2のイメージセンサーであって、前記第2の海洋環境は、第1の前記海洋環境とは前記船舶に対して異なる位置にある、第2のイメージセンサーと、
    第2のプロセッサと、
    前記第2のプロセッサ上で実行可能な第2の画像スキャンモジュールであって、前記海洋環境の前記画像を入力として受信するよう、および、前記第2の画像内における、前記1または複数の事前定義された物体の前記存在または不在についての第2の検出情報を出力するようトレーニングされた第2の人工ニューラルネットワークを有する第2の画像スキャンモジュールと
    をさらに備える、請求項1から6のいずれか一項に記載の物体検出システム。
  8. 前記少なくとも1つのイメージセンサーのうちの他の1つは、前記船舶上の第1のロケーションに位置付けられた第1の可視光カメラであり、前記第2のイメージセンサーは、前記船舶上の第2のロケーションに位置付けられた第2の可視光カメラであり、前記画像スキャンモジュールの前記人工ニューラルネットワークは、前記第1の可視光カメラの視野角および/または視野に近似する、水中の前記1または複数の事前定義された物体のトレーニング画像を用いてトレーニングされ、前記第2の画像スキャンモジュールの前記第2の人工ニューラルネットワークは、前記第2の可視光カメラの視野角および/または視野に近似する、水中の物体の画像を用いてトレーニングされる、請項7に記載の物体検出システム。
  9. 記画像スキャンモジュールおよび前記第2の画像スキャンモジュールから前記検出情報を受信する、および、前記検出情報に基づき前記船舶駆動部に対する制御命令を生成する伝動機構制御ユニットをさらに備える、請項7まは8に記載の物体検出システム。
  10. 記少なくとも1つのイメージセンサーのうちの他の1つは、前記船舶の前の領域の画像を撮像するよう前記船舶上に位置付けられた可視光カメラであり、前記画像スキャンモジュールは、前記船舶の前記前の領域に位置する、事前定義されたサイズ範囲の人と、事前定義された海洋動物と、流芥物体とのうち少なくとも1つの前記存在についての前記検出情報を出力する、請求項1から9のいずれか一項に記載の物体検出システム。
  11. 船舶の海洋環境内における1または複数の物体の存在を検出する方法であって、
    事前定義された物体と関連付けられたパターンを海洋環境の画像内で検出するよう人工ニューラルネットワークをトレーニングする工程と、
    前記船舶上に位置付けられた少なくとも1つのイメージセンサーにより画像を記録する工程と、
    前記人工ニューラルネットワークへの入力として前記画像を提供する工程と、
    前記画像内における前記物体の存在または不在についての検出情報を出力する工程と
    を備え、
    前記トレーニングする工程は、前記事前定義された物体を含む前記海洋環境のポジティブトレーニング画像と、前記事前定義された物体を含まない、前記海洋環境のネガティブトレーニング画像とを提供することにより、前記事前定義された物体の前記存在を前記船舶の前記海洋環境内で検出するよう前記人工ニューラルネットワークをトレーニングする工程を有する
    法。
  12. 前記イメージセンサーは、前記船舶の舵エリアの画像を撮像するよう位置付けられ、前記トレーニングする工程は、人を含む、前記舵エリアのポジティブトレーニング画像と、人を含まない、前記舵エリアのネガティブトレーニング画像とを提供することにより、人の前記存在を前記舵エリア内で検出するよう前記人工ニューラルネットワークをトレーニングする工程を含む、請求項11に記載の方法。
  13. 前記イメージセンサーは、前記船舶の後方の領域または前記船舶の前の領域の画像を撮像するよう位置付けられ、前記トレーニングする工程は、人を含む、前記領域のポジティブトレーニング画像と、人を含まない、前記領域のネガティブトレーニング画像とを提供することにより、それぞれの前記領域内における人の前記存在を検出するよう前記人工ニューラルネットワークをトレーニングする工程を含む、請求項11まは12に記載の方法。
  14. 前記ポジティブトレーニング画像および前記ネガティブトレーニング画像は、前記船舶上に位置付けられた前記イメージセンサーの視野角および/または視野に近似する、請求項11から13のいずれか一項に記載の方法。
  15. 前記検出情報は、前記事前定義された物体の前記存在の確率を含む、請求項11から14のいずれか一項に記載の方法。
  16. CANバスを介して伝動機構制御ユニットへ前記検出情報を送信する工程と、
    前記検出情報に基づき前記伝動機構制御ユニットにより少なくとも1つの船舶駆動部を制御する工程と
    をさらに備える、請求項11から15のいずれか一項に記載の方法。
  17. 前記検出情報に基づき前記船舶上で警告を発する工程をさらに備える、請求項11から16のいずれか一項に記載の方法。
JP2017084037A 2016-05-05 2017-04-20 海洋環境での人検出 Active JP6304519B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/147,181 2016-05-05
US15/147,181 US10372976B2 (en) 2016-05-05 2016-05-05 Person detection in a marine environment

Publications (2)

Publication Number Publication Date
JP2017215947A JP2017215947A (ja) 2017-12-07
JP6304519B2 true JP6304519B2 (ja) 2018-04-04

Family

ID=58714872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017084037A Active JP6304519B2 (ja) 2016-05-05 2017-04-20 海洋環境での人検出

Country Status (3)

Country Link
US (1) US10372976B2 (ja)
EP (1) EP3242248B1 (ja)
JP (1) JP6304519B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11059549B2 (en) 2019-03-19 2021-07-13 Yamaha Hatsudoki Kabushiki Kaisha Marine vessel and marine vessel operation support device

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10902243B2 (en) * 2016-10-25 2021-01-26 Deep North, Inc. Vision based target tracking that distinguishes facial feature targets
US10579877B2 (en) 2017-01-09 2020-03-03 Allegro Artificial Intelligence Ltd System and method for selective image processing based on type of detected object
CN107886099A (zh) * 2017-11-09 2018-04-06 电子科技大学 协同神经网络及其构建方法和飞行器自主避障方法
GB2582484B (en) * 2017-12-01 2022-11-16 Onesubsea Ip Uk Ltd Systems and methods of pilot assist for subsea vehicles
US10108903B1 (en) 2017-12-08 2018-10-23 Cognitive Systems Corp. Motion detection based on machine learning of wireless signal properties
EP3805089B1 (en) * 2018-05-29 2023-04-19 Yamaha Hatsudoki Kabushiki Kaisha Ship docking assisting apparatus and ship docking assisting method
US11315015B2 (en) * 2018-06-08 2022-04-26 Technip France Continuous learning of simulation trained deep neural network model
US11681040B2 (en) 2018-08-21 2023-06-20 Siren Marine, Inc. Marine machine type communication device
US11432126B2 (en) * 2018-08-21 2022-08-30 Sirene Marine LLC Marine machine type communication device
US20200073393A1 (en) * 2018-08-29 2020-03-05 National Geographic Society Apparatus, system and method for a buoyancy-controlled lagrangian camera platform
KR102240839B1 (ko) * 2018-09-04 2021-04-16 씨드로닉스(주) 이미지 세그멘테이션을 이용한 자율 운항 방법
US11514668B2 (en) 2018-09-04 2022-11-29 Seadronix Corp. Method and device for situation awareness
WO2020050500A1 (ko) * 2018-09-04 2020-03-12 씨드로닉스㈜ 이동체의 이동 속성 획득 방법 및 이를 수행하는 장치
WO2020050498A1 (ko) 2018-09-04 2020-03-12 씨드로닉스㈜ 이미지 세그멘테이션을 이용한 주변 환경 감지 방법 및 장치
US11776250B2 (en) 2018-09-04 2023-10-03 Seadronix Corp. Method and device for situation awareness
EP3647994B1 (en) * 2018-10-30 2024-01-17 Airbus Defence and Space GmbH Automated generation of training images
EP3654233A1 (en) * 2018-11-15 2020-05-20 BSB Artificial Intelligence GmbH System and method for identifying an object in water
WO2020150904A1 (en) * 2019-01-22 2020-07-30 SZ DJI Technology Co., Ltd. Neural network based obstacle detection for mobile platforms, and associated systems and methods
CN109460754B (zh) * 2019-01-31 2019-05-14 深兰人工智能芯片研究院(江苏)有限公司 一种水面异物检测方法、装置、设备及存储介质
US11615039B2 (en) 2020-07-31 2023-03-28 Siren Marine, Inc. Data transmission system
CN112352724A (zh) * 2020-11-13 2021-02-12 湖北海洋工程装备研究院有限公司 一种渔场饲料投喂方法及系统
US11772560B2 (en) 2021-05-03 2023-10-03 Mastercraft Boat Company, Llc Trailer back-up system
DE102021210426A1 (de) 2021-09-20 2023-03-23 Zf Friedrichshafen Ag Verfahren und System zur Kollisionsverhinderung eines Wasserfahrzeugs
CN114022910B (zh) * 2022-01-10 2022-04-12 杭州巨岩欣成科技有限公司 泳池防溺水监管方法、装置、计算机设备及存储介质
SE2250688A1 (en) * 2022-06-08 2023-12-09 Cpac Systems Ab A marine surround sensing system

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6772057B2 (en) 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
JP2533942B2 (ja) * 1989-03-13 1996-09-11 株式会社日立製作所 知識抽出方法およびプロセス運転支援システム
US5282013A (en) * 1992-06-26 1994-01-25 Spar Aerospace Limited Passive ranging technique for infrared search and track (IRST) systems
US7630806B2 (en) 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
US5751344A (en) * 1995-07-05 1998-05-12 Schnee; Robert Alan Navigation system for a marine vessel in low light conditions
WO1997049279A1 (en) 1996-06-24 1997-12-31 Board Of Regents, The University Of Texas System Automated closed recirculating aquaculture filtration system
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
US6273771B1 (en) 2000-03-17 2001-08-14 Brunswick Corporation Control system for a marine vessel
US6418378B1 (en) * 2000-06-26 2002-07-09 Westerngeco, L.L.C. Neural net prediction of seismic streamer shape
US6354892B1 (en) 2001-03-14 2002-03-12 Brunswick Corporation Safety device for a marine vessel
US6450845B1 (en) 2001-03-16 2002-09-17 Brunswick Corporation Passive occupant sensing system for a watercraft
JP2002354458A (ja) 2001-05-25 2002-12-06 Toshiba Corp 遠隔監視システム
US6676460B1 (en) 2001-07-05 2004-01-13 Maruta Electric Boatworks Llc Electronic propeller guard
US6382122B1 (en) 2001-06-22 2002-05-07 Brunswick Corporation Method for initializing a marine vessel control system
US7335071B1 (en) 2001-07-05 2008-02-26 Maruta Electric Boatworks Llc Electronic shut off systems
JP2005031789A (ja) 2003-07-08 2005-02-03 Univ Nihon 画像情報を利用したrbfネットワークによる物体種別形状判別方法及びそのシステム
US7105800B1 (en) 2003-10-23 2006-09-12 Brunswick Corporation Detection system and method for a propeller driven marine vessel with a false triggering prevention capability
US20050199171A1 (en) * 2004-03-10 2005-09-15 Ecklund William G. Ship hull cleaning apparatus and method of use
US7036451B1 (en) * 2005-08-03 2006-05-02 Hutchinson Len K Apparatus for mounting underwater marine detection equipment on a waterborne vessel
US7599614B2 (en) * 2006-03-17 2009-10-06 Honda Motor Co., Ltd Camera apparatuses, systems and methods for use with marine propulsion mechanisms
US7335077B2 (en) 2006-04-25 2008-02-26 Anthony Chiappetta Man overboard detection and rescue system
WO2007133085A1 (en) * 2006-05-15 2007-11-22 Telefonaktiebolaget Lm Ericsson (Publ) A method and system for automatic classification of objects
EP2089269B1 (en) * 2006-11-30 2014-07-02 Ab Volvo Penta Safety system for marine vessels
US7476862B2 (en) 2007-01-22 2009-01-13 Brunswick Corporation Method for detecting a source of heat near a marine vessel
US7511276B2 (en) 2007-01-22 2009-03-31 Brunswick Corporation Heat source sensor for a marine vessel
US7753745B2 (en) 2007-08-08 2010-07-13 Brunswick Corporation Status indicators for use with a watercraft propulsion system
US8036425B2 (en) 2008-06-26 2011-10-11 Billy Hou Neural network-controlled automatic tracking and recognizing system and method
US9232211B2 (en) 2009-07-31 2016-01-05 The University Of Connecticut System and methods for three-dimensional imaging of objects in a scattering medium
US20110043360A1 (en) 2009-08-19 2011-02-24 Novatac, Inc. Portable collapsible ir detection system
US9286721B2 (en) 2010-11-08 2016-03-15 Sony Corporation Augmented reality system for product identification and promotion
US8811726B2 (en) * 2011-06-02 2014-08-19 Kriegman-Belhumeur Vision Technologies, Llc Method and system for localizing parts of an object in an image for computer vision applications
US8952869B1 (en) 2012-01-06 2015-02-10 Google Inc. Determining correlated movements associated with movements caused by driving a vehicle
US10649087B2 (en) * 2012-02-06 2020-05-12 The Boeing Company Object detection system for mobile platforms
US9536178B2 (en) * 2012-06-15 2017-01-03 Vufind, Inc. System and method for structuring a large scale object recognition engine to maximize recognition accuracy and emulate human visual cortex
ITMI20130817A1 (it) 2013-05-21 2014-11-22 Avila Sas Di Sala Marco Giancarlo Safe detention system (in breve "sds") e' un sistema a gestione eletronica che ha il compito di rilevare, attraverso uno o piu' sensori, la presenza di una o piu' persone nella corretta posizione nella quale tali soggetti dovrebbero necessariamente t
EP2866052A1 (en) 2013-10-23 2015-04-29 Ladar Limited A system for monitoring a maritime environment
US9729253B2 (en) * 2014-10-24 2017-08-08 Wahoo Technologies, LLC System and method for providing underwater video
US10043104B2 (en) * 2015-01-05 2018-08-07 Avigilon Fortress Corporation Automatic moving object verification
US9751607B1 (en) * 2015-09-18 2017-09-05 Brunswick Corporation Method and system for controlling rotatable device on marine vessel
EP3223103A1 (en) * 2016-03-23 2017-09-27 Sikorsky Aircraft Corporation Mission parameterization system
EP3239926A1 (en) * 2016-04-27 2017-11-01 GE Energy Power Conversion Technology Ltd Position measuring equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11059549B2 (en) 2019-03-19 2021-07-13 Yamaha Hatsudoki Kabushiki Kaisha Marine vessel and marine vessel operation support device

Also Published As

Publication number Publication date
US20170323154A1 (en) 2017-11-09
US10372976B2 (en) 2019-08-06
EP3242248A1 (en) 2017-11-08
JP2017215947A (ja) 2017-12-07
EP3242248B1 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP6304519B2 (ja) 海洋環境での人検出
KR102113955B1 (ko) 선박 및 항만 모니터링 장치 및 방법
KR102530691B1 (ko) 접안 모니터링 장치 및 방법
CN113168505A (zh) 用于自主驾驶机器的基于回归的线检测
CN112989913A (zh) 利用面部标志和相关联的置信度值的基于神经网络的面部分析
US11900668B2 (en) System and method for identifying an object in water
CN105719311B (zh) 用于检测目标的车辆系统及其操作方法
Bovcon et al. MODS—A USV-oriented object detection and obstacle segmentation benchmark
Wang et al. Cooperative USV–UAV marine search and rescue with visual navigation and reinforcement learning-based control
CN108303078A (zh) 一种基于立体视觉的全方向船舶防撞预警与导航系统
CN114630769B (zh) 自动调节用于车辆中使用的后视镜
CN115136148A (zh) 投影使用鱼眼镜头捕获的图像用于自主机器应用中的特征检测
US20230023434A1 (en) Deep learning-based marine object classification using 360-degree images
Aqthobilrobbany et al. HSV Based Robot Boat Navigation System
JP6895004B1 (ja) 工事用船舶の航行監視システムおよび航行監視方法
Wisernig et al. Augmented reality visualization for sailboats (ARVS)
WO2023164707A1 (en) Bird's eye view (bev) semantic mapping systems and methods using plurality of cameras
JP2023088849A (ja) 自律型システム及びアプリケーションにおける特徴ディスクリプタ・マッピングを使用した単一及びアクロス・センサ物体追跡
KR102295283B1 (ko) 스마트항해지원장치
CN114684062A (zh) 约束设备定位
CN105785990B (zh) 基于全景环视的船只停泊系统及障碍物识别方法
TW202414337A (zh) 船舶追蹤暨監控系統及其運作方法
US20240104943A1 (en) Method for detecting an interior condition of a vehicle, and system implementing the same
Oda et al. Falcon: Wide Angle Fovea Vision System for Marine Rescue Drone
Kalyan et al. A Novel Approach Towards Development of Automated Intelligent Lifesaving Buoy

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180220

R150 Certificate of patent or registration of utility model

Ref document number: 6304519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250