JP7287430B2 - 魚検出装置、魚検出方法及びプログラム - Google Patents

魚検出装置、魚検出方法及びプログラム Download PDF

Info

Publication number
JP7287430B2
JP7287430B2 JP2021156242A JP2021156242A JP7287430B2 JP 7287430 B2 JP7287430 B2 JP 7287430B2 JP 2021156242 A JP2021156242 A JP 2021156242A JP 2021156242 A JP2021156242 A JP 2021156242A JP 7287430 B2 JP7287430 B2 JP 7287430B2
Authority
JP
Japan
Prior art keywords
fish
feature points
counting
moving images
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021156242A
Other languages
English (en)
Other versions
JP2023047371A (ja
Inventor
栄輔 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2021156242A priority Critical patent/JP7287430B2/ja
Priority to PCT/JP2022/001964 priority patent/WO2023047613A1/ja
Priority to AU2022352047A priority patent/AU2022352047A1/en
Publication of JP2023047371A publication Critical patent/JP2023047371A/ja
Application granted granted Critical
Publication of JP7287430B2 publication Critical patent/JP7287430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K61/00Culture of aquatic animals
    • A01K61/90Sorting, grading, counting or marking live aquatic animals, e.g. sex determination
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K61/00Culture of aquatic animals
    • A01K61/90Sorting, grading, counting or marking live aquatic animals, e.g. sex determination
    • A01K61/95Sorting, grading, counting or marking live aquatic animals, e.g. sex determination specially adapted for fish
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Zoology (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Farming Of Fish And Shellfish (AREA)

Description

本開示は、魚を検出する技術に関する。
近年、海洋資源の持続的な利用のため、魚の養殖のための技術開発が盛んとなっている。養殖における魚の管理ためには、魚のサイズ及び数を正確に把握することが求められる。
特許文献1には、一対のステレオカメラによって撮像された右画像及び左画像において魚の検出及び追跡を行うシステムが記載されている。このシステムは、検出された魚のキーポイントに基づいて生成した魚の3次元モデルから、魚のサイズおよび形状の推定値を推定し、魚の予想重量を決定する。
特許文献2には、水中生物の撮影画像と撮影画像に映る水中生物の形状特徴を示す特徴点とに基づく機械学習によって得られた学習データに基づいて、撮影画像に映る水中生物の形状特徴を示す特徴点を特定する特徴推定装置が記載されている。
特表2021-510861号公報 国際公開第2019/198611号
特許文献1及び2の技術は、画像に映っている魚が検出される。従って、魚が、例えば他の魚などの遮蔽物によって遮蔽されると、遮蔽されている魚の位置の情報を得ることはできない。
本開示の目的の1つは、魚が遮蔽されうる環境であっても、魚の位置を把握し得る魚検出装置などを提供することである。
本開示の一態様に係る魚検出装置は、複数の動画像の各々から魚の特徴点を抽出する抽出手段と、前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する追跡手段と、前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定する推定手段と、を備え、前記追跡手段は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する。
本開示の一態様に係る魚検出方法は、複数の動画像の各々から魚の特徴点を抽出し、前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡し、前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定し、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する。
本開示の一態様に係るプログラムは、複数の動画像の各々から魚の特徴点を抽出する抽出処理と、前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する追跡処理と、前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定する推定処理と、をコンピュータに実行させ、前記追跡処理は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する。
本開示には、魚が遮蔽されうる環境であっても、魚の位置を把握し得るという効果がある。
図1は、本開示の第1の実施形態に係る魚検出装置の構成の例を表すブロック図である。 図2は、本開示の第1の実施形態に係る魚検出装置の動作の例を表すフローチャートである。 図3は、本開示の第2の実施形態に係る魚検出システム1の構成の例を表すブロック図である。 図4は、本開示の第2の実施形態に係る魚検出装置の動作の例を表すフローチャートである。 図5は、本開示の実施形態に係る魚検出装置の各々を実現することができる、コンピュータのハードウェア構成の一例を表す図である。
次に、本開示の実施形態について詳細に説明する。
<第1の実施形態>
まず、本開示の第1の実施形態について、図面を使用して詳細に説明する。
<構成>
図1は、本開示の第1の実施形態に係る魚検出装置の構成の例を表すブロック図である。図1に示す例では、魚検出装置10は、抽出部120と、追跡部130と、推定部140と、を含む。抽出部120は、複数の動画像の各々から魚の特徴点(以下、魚特徴点とも表記)を抽出する。追跡部130は、前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する。推定部140は、前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を推定する。具体的には、推定部140は、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて、検出されなかった特徴点を推定する。そして、追跡部130は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する。なお、動画像は、時間順の静止画像の集合とみなせる。上述のフレームは、動画像に含まれる静止画像を意味する。本開示の動画像のデータの形式は、時間順の静止画像の集合に変換可能な既存の様々な形式の動画像のデータのいずれかであってよい。
<動作>
図2は、本開示の第1の実施形態に係る魚検出装置の動作の例を表すフローチャートである。図2に示す例では、まず、抽出部120が、複数の動画像の各々から、魚の特徴点を抽出する(ステップS11)。抽出部120は、具体的には、複数の動画像の各々のフレームの各々から、魚の特徴点を抽出してよい。次に、追跡部130が、複数の動画像の各々において、抽出された特徴点に基づいて、魚の追跡を行う(ステップS12)。追跡部130は、動画像ごとに、抽出された魚の特徴点の座標を利用して、魚の追跡を行う。追跡部130は、追跡中の魚の未検出の特徴点の有無を判定する(ステップS13)。追跡部130は、いずれかの動画像のいずれかのフレームにおいて、直前のフレームまで追跡されていたが、検出できなくなった特徴点の有無を判定する。
未検出の特徴点が存在しない場合(ステップS15においてNO)、すなわち、いずれかの動画像のいずれかのフレームにおいて、直前のフレームまで追跡されていたが、検出できなくなった特徴点が存在しない場合、魚検出装置10は、図2に示す動作を終了する。未検出の特徴点が存在しない場合(ステップS15においてNO)、すなわち、いずれかの動画像のいずれかのフレームにおいて、直前のフレームまで追跡されていたが、検出できなくなった特徴点が存在する場合、魚検出装置10は、ステップS15の動作を行う。ステップS15において、推定部140は、検出された特徴点と、キャリブレーション情報とに基づいて、未検出の特徴点の位置を推定する(ステップS15)。未検出の特徴点の位置を推定する奉納については、後で詳細に説明する。
<効果>
本実施形態には、魚が遮蔽されうる環境であっても、魚の位置を把握し得るという効果がある。その理由は、推定部140が、複数の動画像の少なくともいずれかのフレームにおいて追跡中の魚の特徴点が検出されなかった場合、検出されなかった魚の特徴点を推定するからである。従って、追跡中の魚の特徴点が遮蔽されても、魚の位置を把握できる。
<第1の実施形態の詳細>
魚の特徴点は、例えば、口、第1背びれ、第2背びれ、胸びれ、尾などの位置を示す、画像における点である。この場合、特徴点の種類は、口、第1背びれ、第2背びれ、胸びれ、尾などである。抽出部120は、例えば、機械学習による学習によって得られた、魚の特徴点を検出する特徴点検出器を用いて、複数の動画像の各々のフレームの各々から、これらの魚の特徴点を検出してもよい。
魚の特徴点は、例えば、魚の領域(以下、魚領域とも表記)の外接矩形(以下、魚矩形領域とも表記)の頂点及び重心の少なくともいずれかであってもよい。この場合、特徴点の種類は、魚矩形領域における特徴点の位置(例えば、左上の頂点、右下の頂点等)である。抽出部120は、例えば、機械学習による学習によって得られた、魚の領域を検出する魚領域検出器を用いて、複数の動画像の各々のフレームの各々から、魚の領域を検出してもよい。そして、抽出部120は、検出された魚の領域の外接矩形から、魚の外接矩形の頂点及び重心のうちあらかじめ定められた少なくともいずれか点の位置を、魚の特徴点の位置として特定してもよい。
ある魚の特徴点、すなわち、その魚の領域によって定まる特徴点を、その魚を表す特徴点と表記する。
複数の動画像は、それぞれ、複数の撮像装置によって撮像される。複数の撮像装置は、魚が泳いでいる領域を撮像可能であるように設置される。また、複数の撮像装置の各々は、少なくとも1つの他の撮像装置が撮像できる範囲の少なくとも一部を撮像できるように設置される。魚が泳いでいる領域は、例えば、2つの生簀をつなぐ、魚の通路の一部であってよい。魚の通路は、例えば、養殖されている魚が内部を通過可能であるが外部に逃げられないように、筒状に形成された網などである。
複数の撮像装置のキャリブレーションは予め行われている。言い換えると、複数の撮像装置のキャリブレーション情報は、あらかじめ得られている。キャリブレーション情報は、複数のカメラのカメラパラメータ及び相対的な位置関係を含む情報であってよい。キャリブレーション情報は、例えば、複数のカメラのうち2つのカメラの組み合わせの各々に対する基礎行列(Fundamental Matrix)を含む。
追跡部130は、魚の特徴点に基づく既存の様々な追跡方法のいずれかによって、魚の追跡を行う。追跡部130は、例えば、魚の特徴点を個別に追跡してもよい。具体的には、追跡部130は、動画像ごとに、連続するフレーム間で、同じ特徴点を関連づけてもよい。この場合の同じ特徴点は、異なるフレームに映る同じ魚の同じ種類の特徴点を表す。そして、追跡部130は、連続するフレーム間における、特徴点の動きに基づいて、検出された特徴点から、同じ魚の特徴点の組み合わせを抽出してもよい。追跡部130は、例えば、特徴点間の相対位置及び相対速度が、同じ魚の特徴点として可能な、特徴点の組み合わせを、同じの魚の特徴点の組み合わせの候補として抽出してよい。そして、追跡部130は、例えば所定フレーム数以上のフレームで継続して同じ魚の特徴点の組み合わせの候補として抽出された特徴点の組み合わせを、同じ魚の特徴点の組み合わせとしてよい。
追跡部130は、例えば、連続するフレーム間で、テンプレートマッチングによって、特徴点の追跡を行ってもよい。追跡部130は、例えば、連続するフレーム間で、テンプレートマッチングによって、魚領域の追跡を行ってもよい。そして、追跡部130は、追跡している魚領域において特徴点の位置を特定してもよい。追跡部130は、追跡している魚領域の特徴点を、追跡する特徴点としてよい。
追跡部130は、さらに、複数の動画像に映っている魚の中で、同じ魚を関連付ける。
追跡部130は、例えば、2台の撮像装置によって得られた2つの動画像の同じタイミングで撮像された2枚のフレームにおいてそれぞれ検出された魚の領域のうち、同じ魚の領域を、既存の様々な方法のいずれかによって特定する。追跡部130は、2台の撮像装置の位置及び方向が近い場合、同じタイミングで撮像された上述の2枚のフレームにおいてそれぞれ検出された魚の領域のうち、同じ魚の領域を、例えばテンプレートマッチングによって特定してもよい。
追跡部130は、2台の撮像装置のキャリブレーション情報を使用して、同じタイミングで撮像された上述の2枚のフレームにおいてそれぞれ検出された魚の領域のうち、同じ魚の領域を特定してもよい。3次元空間内の点を2台の撮像装置によって撮像する場合、得られる2枚の画像の各々に、3次元空間内の点の像(以下、対応点と表記)が存在する。この場合、一方の画像上の対応点は、上述の2台の撮像装置のキャリブレーション情報(基礎行列)と、他方の画像の対応点の座標とによって定まるエピポーラ線上に存在する。追跡部130は、2台の撮像装置の間に定まる基礎行列と、一方の撮像装置によって撮像された動画像のフレームにおいて検出された魚領域の魚特徴点の座標から、他方の撮像装置によって撮像された動画像のフレームにおけるエピポーラ線を算出してよい。以下の追跡部130の説明において、2台の撮像装置のうち一方の撮像装置によって撮像された動画像のフレームを第1フレームと表記し、他方の撮像装置によって撮像された動画像のフレームを第1フレームと表記する。追跡部130は、第2フレームにおける同じ魚の特徴点と、第1フレームにおける同じ魚の特徴点によって定まるエピポーラ線との距離に基づいて、第1フレームにおける魚領域と、第2フレームにおける魚領域とを関連付けてよい。具体的には、追跡部130は、第1フレームにおける同じ魚の特徴点の組み合わせと、第2フレームにおける同じ魚の特徴点の組み合わせと、の組の各々について、以下の処理を行う。まず、追跡部130は、第1フレームと第2フレームの同じ魚の同じ種類の特徴点の組の各々について、第1フレームの特徴点によって定まるエピポーラ線と、第2フレームの特徴点との距離を算出する。追跡部130は、算出された距離の統計値(平均値、中央値、又は、中間値など)を算出する。追跡部130は、算出された統計値が所定値よりも小さい場合、第1フレームの特徴点の組み合わせと、第2領域の特徴点の組み合わせとが、同じ魚の魚領域の特徴点であると判定してよい。
追跡部130は、複数の撮像装置のうち2台の撮像装置の組み合わせの各々について、同じ魚の領域を特定する。そして、追跡部130は、複数の撮像装置によって撮像された動画像において、同じ魚の領域として特定された魚領域の組み合わせごとに、識別子(以下、魚識別子とも表記)を付与する。また、追跡部130は、同じ魚の同じ種類の魚特徴点に、魚特徴点の識別子(以下、特徴点識別子とも表記)を付与する。
推定部140は、複数の動画像の、同じタイミングで撮像された少なくともいずれかのフレームにおいて、追跡中の特徴点が検出されなかった場合、例えば以下のように、追跡中の特徴点の位置を推定する。上述のように、3次元空間内の点を2台の撮像装置によって撮像する場合、得られる1対の画像の各々に、3次元空間内の点の像(以下、対応点と表記)が存在する。この場合、一方の画像上の対応点は、上述の2台の撮像装置のキャリブレーション情報(基礎行列)と、他方の画像の対応点の座標とによって定まるエピポーラ線上に存在する。
以下の推定部140の説明では、2つの動画像を第1動画像及び第2動画像と表記し、同じタイミングで撮像された、第1動画像のフレームと第2動画像のフレームとを、それぞれ、第1フレーム及び第2フレームと表記する。この第1フレーム及び第2フレームは、上述の追跡部130の説明における第1フレーム及び第2フレームと必ずしも同一でなくてよい。そして、以下では、第1動画像の第1フレームの前のフレーム及び第2動画像の第2のフレームの前のフレームにおいて、それぞれ対応点として追跡されていた特徴点が、第1フレームにおいて検出されず、第2のフレームにおいて検出された場合について説明する。ここでは、第1動画像の第1フレームの前のフレームまで追跡され、第1フレームで検出されなかった特徴点を、未検出特徴点と表記する。未検出特徴点の、第2のフレームにける対応点を、対応特徴点と表記する。第1動画像の各フレームにおいて、未検出特徴点によって表される魚(対象魚とも表記)を表す特徴点を、第1対象魚特徴点と表記する。第2動画像の各フレームにおいて、未検出特徴点の対応特徴点によって表される魚(すなわち対象魚)を表す特徴点を、第2対象魚特徴点と表記する。第1のフレーム及び第2のフレームに映る魚のうち、対象魚ではない、適宜選択された魚の1つを、近接魚と表記する。第1動画像の各フレームにおいて近接魚を表す特徴点を、第1近接魚特徴点と表記する。第2動画像の各フレームにおいて近接魚を表す特徴点を、第2近接魚特徴点と表記する。
まず、推定部140は、例えば、未検出特徴点が存在する第1フレームを含む第1画像を撮像した撮像装置と、方向及び距離が最も近い撮像装置によって撮像された動画像を、第2動画像とする。推定部140は、例えば、未検出特徴点が存在する第1フレームを含む第1画像を撮像した撮像装置に対する相対的な一致関係が、方向及び距離の記述を満たす複数の撮像装置によって撮像された動画像を、第2動画像としてもよい。その場合、推定部140は、複数の第2の動画像の各々について、以下の動作を行う。
推定部140は、第2のフレームの対応特徴点の座標と基礎行列とによって定まるエピポーラ線と、第1対象魚特徴点、第2対象魚特徴点、第1近接魚特徴点、及び第2近接魚特徴点の少なくともいずれかと、に基づいて、未検出特徴点の座標を推定してよい。
具体的には、例えば、推定部140は、未検出特徴点の、第1フレームの前のフレームまでの追跡特徴点の位置の推移から、第1フレームの前のフレームと第1フレームとの間における、未検出特徴点の速度、又は、速度及び加速度を推定する。そして、推定部140は、第1フレームの前のフレームにおける未検出特徴点の追跡特徴点の位置と、推定された、速度、又は、速度及び加速度とから、未検出特徴点の仮位置を推定してよい。なお、未検出特徴点の追跡特徴点は、第1フレームの前のフレームまで追跡され第1フレームにおいて追跡されなかった、第1フレームの前のフレームまでの特徴点の列である。そして、推定部140は、第2のフレームの対応特徴点の座標と基礎行列とによって定まるエピポーラ線の上の点のうち、未検出特徴点の仮位置に最も近い点が、未検出特徴点の位置であると推定する。
推定部140は、例えば、第1フレームの前のフレームにおける第1対象魚特徴点の位置と、第1フレームにおける未検出特徴点を除く第1対象魚特徴点の位置とに基づいて、未検出特徴点の仮位置を推定してよい。この場合、まず、推定部140は、第1フレームの前のフレームにおける、未検出特徴点の追跡特徴点以外の第1対象魚特徴点の位置を、第1フレームにおける未検出特徴点を除く第1対象魚特徴点の位置に変換する座標変換を算出してよい。次に、推定部140は、算出した座標変換によって、第1フレームの前のフレームにおける、未検出特徴点の追跡特徴点の座標を変換することによって、未検出特徴点の仮位置を推定してよい。そして、推定部140は、第2のフレームの対応特徴点の座標と基礎行列とによって定まるエピポーラ線の上の点のうち、未検出特徴点の仮位置に最も近い点が、未検出特徴点の位置であると推定する。
推定部140は、第2フレームにおける、対象魚の魚矩形領域及び近接魚の魚矩形領域と、第1フレームにおける近接魚の魚矩形領域と、第1フレームにおける未検出特徴点を除く第1対象魚特徴点の位置とに基づいて、未検出特徴点の仮位置を推定してもよい。なお、推定部140は、第1フレームにおける近接魚の魚矩形領域を、第1近接魚特徴点の座標によって定めてもよい。推定部140は、第2フレームにおける近接魚の魚矩形領域を、第2近接魚特徴点の座標によって定めてもよい。推定部140は、第2フレームにおける対象魚の魚矩形領域を、第2対象魚特徴点の座標によって定めてもよい。
この場合、推定部140は、まず、第2フレームにおいて、魚矩形領域のサイズと魚矩形領域間の距離とに基づいて、近接魚の魚矩形領域を選択する。具体的には、推定部140は、例えば、第2フレームにおける対象魚の魚矩形領域のサイズとの差が所定サイズ差以内のサイズを持つ、近接魚の魚矩形領域を選択してよい。魚矩形領域のサイズは、面積であってもよい。この場合のサイズの差は、例えば、面積の差の絶対値である。魚矩形領域のサイズは、対角線の長さであってもよい。この場合のサイズの差は、例えば、対角線の長さの差の絶対値である。魚矩形領域のサイズは、縦方向の長さ及び横方向の長さであってもよい。この場合のサイズの差は、例えば、縦方向の長さの差の絶対値と、横方向の長さの差の絶対値との和である。サイズおよびサイズの差はこれらの例に限られない。推定部140は、さらに、選択された近接魚の魚矩形領域の中で、対象魚の魚矩形領域に対する距離が最も小さい近接魚の魚矩形領域を選択してよい。2つの魚矩形領域の間の距離は、2つの魚矩形領域の各々に所定の方法で定めた基準点(例えば、所定の頂点又は重心)の間の距離である。なお、推定部140は、近接魚の魚矩形領域の中で、対象魚の魚矩形領域に対する距離が所定距離以下である、近接魚の魚矩形領域を選択してよい。この場合、推定部140は、さらに、選択された近接魚の魚矩形領域の中で、対象魚の魚矩形領域のサイズとの差が最も小さい、近接魚の魚矩形領域を選択する。
そして、推定部140は、第2フレームにおける、対象魚の魚矩形領域と近接魚の魚矩形領域のサイズの比を算出する。推定部140は、第1フレームにおける、対象魚の魚矩形領域と近接魚の魚矩形領域のサイズの比が、算出した比と同じになるように、第1フレームにおける対象魚の魚矩形領域のサイズを算出してよい。魚矩形領域における魚特徴点の位置は、魚特徴点の種類に応じた魚特徴点間の相対的な位置関係によって推定できる。例えば、口の特徴点が魚外接矩形の左辺に存在する場合、尾の特徴点は魚外接矩形の右辺に存在することが推定される。また、第1背びれの特徴点が魚外接矩形の上辺に存在する場合、腹びれの特徴点は、魚外接矩形の下辺に存在するはずである。魚特徴点の魚外接矩形の辺上の相対位置は、魚の種類によって定まる。魚の種類、及び、魚の種類に応じた魚特徴点の魚外接矩形の辺上の相対位置は、予め与えられていてよい。推定部140は、第1フレームにおける未検出特徴点を除く第1対象魚特徴点の位置と、算出された、第1フレームにおける対象魚の魚矩形領域のサイズから、第1フレームにおける対象魚の魚矩形領域の位置を推定する。推定部140は、魚外接矩形の位置と、未検出特徴点の種類と、魚特徴点の種類に応じた魚外接矩形の辺上の魚な特徴点の相対位置とから、未検出特徴点の仮位置を推定する。そして、推定部140は、第2のフレームの対応特徴点の座標と基礎行列とによって定まるエピポーラ線の上の点のうち、未検出特徴点の仮位置に最も近い点が、未検出特徴点の位置であると推定する。
推定部140は、複数の第2の動画像について、第1フレームにおける未検出特徴点の位置を推定した場合、推定した複数の未検出特徴点の位置の座標の統計値を、第1フレームにおける未検出特徴点の位置としてよい。座標の統計値は、例えば、座標軸ごとの座標値の平均値、中央値、又は、中間値などである。
<第2の実施形態>
次に、本開示の第2の実施形態について、図面を使用して詳細に説明する。
<構成>
図3は、本開示の第2の実施形態に係る魚検出システム1の構成の例を表すブロック図である。図3に示す例では、魚検出システム1は、魚検出装置100と、複数の撮像装置200と、出力装置300とを含む。魚検出装置100は、複数の撮像装置200、及び、出力装置300と、通信可能に接続されている。本実施形態の複数の撮像装置200は、第1の実施形態の複数の撮像装置と同じである。
魚検出装置100は、受取部110と、抽出部120と、追跡部130と、推定部140と、カウント部150と、出力部160とを含む。本実施形態の抽出部120、追跡部130、及び、推定部140は、それぞれ、第1の実施形態の抽出部120、追跡部130、及び、推定部140と同じである。実施形態の抽出部120、追跡部130、及び、推定部140は、それぞれ、第1の実施形態の抽出部120、追跡部130、及び、推定部140と同様に動作する。以下の抽出部120、追跡部130、及び、推定部140の説明では、補足と第1の実施形態に対する相違点とを中心に説明する。
<受取部110>
受取部110は、複数の撮像装置200から、動画像を受け取る。受取部110は、受け取った動画像を、抽出部120に送出する。具体的には、受取部110は、複数の撮像装置200の各々から、動画像のデータを受け取る。受取部110は、受け取った動画像のデータから、動画像のフレームのデータを生成し、生成した動画像のフレームのデータを抽出部120に送出する。
<抽出部120>
抽出部120は、受取部110から、複数の動画像を受け取る。具体的には、抽出部120は、受取部110から、複数の動画像のフレームのデータを受け取る。抽出部120は、複数のフレームの各々から、魚特徴点を抽出する。抽出部120は、複数の動画像のフレームにおいて抽出した魚特徴点の位置を表すデータを、追跡部130に送出する。
<追跡部130>
追跡部130は、複数の動画像のフレームにおいて抽出された魚特徴点の位置を表すデータを、抽出部120から受け取る。追跡部130は、受け取った、抽出された魚特徴点の位置を表すデータを保持する。
追跡部130は、複数の動画像のフレームにおいて抽出された魚特徴点に基づいて、魚を追跡する。言い換えると、追跡部130は、複数の動画像から抽出された魚特徴点の位置の時系列情報を使用して、動画像ごとに、同じ魚の魚特徴点の位置及び魚矩形領域の位置の推移を特定し、さらに、複数の動画像の間で同じ魚(具体的には、同じ魚の特徴点及び魚矩形領域)に、同じ識別子を付与する。
また、追跡部130は、最新のフレームにおける未検出特徴点を検出する。追跡部130は、未検出特徴点が検出された場合、第1の実施形態の説明で説明した、未検出特徴点の位置の推定に使用する情報を、推定部140に送出する。未検出特徴点の位置の推定に使用する情報は、例えば、未検出特徴点の魚特徴点識別子と、その魚特徴点識別子によって表される魚特徴点が表す魚(すなわち、上述の対象魚)の魚識別子、その魚識別子が示す魚を表す魚特徴点の識別子及び位置などである。未検出特徴点の位置の推定に使用する情報は、近接魚の識別子、近接魚を表す魚特徴点の魚特徴点識別子及び位置などを含んでいてもよい。また、追跡部130は、推定部140から、推定された、未検出特徴点の位置のデータを受け取る。
追跡部130は、受け取った未検出特徴点の位置を、その未検出特徴点が検出された位置として使用して、魚を追跡する。
追跡部130は、追跡している魚の位置の情報(例えば、複数の動画像の各々における、追跡している魚の魚特徴点の位置を表す情報)を、カウント部150に送出する。
<推定部140>
推定部140は、追跡部130から、未検出特徴点の位置の推定に使用する情報を受け取る。推定部140は、キャリブレーション情報と、未検出特徴点の位置の推定に使用する情報とを使用して、未検出特徴点の位置を推定する。推定部140は、推定した、未検出特徴点の位置のデータを、追跡部130に送出する。
<カウント部150>
カウント部150は、複数の動画像の各々における、追跡している魚の位置の情報を、追跡部130から受け取る。
カウント部150は、所定の撮像装置によって撮像された動画像に設定されたカウント領域への魚の進入及び退去を検出する。そして、カウント部150は、カウント領域への魚の進入及び退去の検出の結果を使用して、カウント領域を所定の方向(以下、カウント方向と表記)に通過した魚の数をカウントする。カウント領域の、カウント方向と垂直な方向のサイズは、動画像のサイズと同じである。カウント領域の、カウント方向と平行な方向のサイズは、動画像のサイズよりも小さくてよい。例えば、カウント方向が方向である場合、カウント部150は、カウント領域を右から左に通過する魚の数をカウントする。この場合、カウント領域の上下方向の長さ(言い換えると、カウント領域の高さ)は、動画像の上下方向の長さと同じでよい。また、この場合、カウント領域の左右方向の長さ(言い換えると、カウント領域の幅)は、動画像の左右方向の長さよりも小さくてよい。そして、カウント領域の右端は、動画像の右端よりも中央に近い位置に設定されてよい。また、カウント領域の左端は、動画像の左端よりも中央に近い位置に設定されてよい。
カウント領域は、2つの生簀をつなぐ魚の通路が撮像された動画像に設定されていてもよい。この場合、2つの生簀のあらかじめ定められた一方の生簀から他方の生簀に魚が向かう方向が、カウント方向であってよい。この場合、動画像を撮像する撮像装置は、通路を通過する魚が必ず撮像されるように設置されていてもよい。言い換えると、動画像を撮像する撮像装置は、例えば、魚の通路のカウント方向と平行でない断面の少なくとも1つが撮像されるように設置されていてもよい。この場合、カウント領域及び動画像の幅又は高さが一致していなくてよい。
以下の説明において、魚がカウント方向でカウント領域を通過する場合に、カウント領域に侵入する際に通過する端を、上流端と表記する。魚がカウント方向でカウント領域を通過する場合に、カウント領域から退去する際に通過する端を、下流端と表記する。
カウント部150は、例えば、魚領域の特定の魚特徴点(例えば、口、又は、尾等)が、下流端を、カウント方向に通過し、カウント領域から退去した場合に、魚の通過数を1増加させる。カウント部150は、例えば、魚領域の特定の魚特徴点が、下流端を、カウント方向とは逆方向に通過し、カウント領域に侵入した場合に、魚の通過数を1減少させる。
さらに、カウント部150は、魚領域の特定の魚特徴点が、上流端を、カウント方向に通過し、カウント領域に侵入した場合に、魚の滞留数を1増加させてもよい。カウント部150は、例えば、魚領域の特定の魚特徴点が、上流端を、カウント方向とは逆方向に通過し、カウント領域から退去した場合に、魚の滞留数を1減少させてもよい。
なお、カウント部150は、魚領域の特定の魚特徴点が、上流端を、カウント方向に通過し、カウント領域に侵入した場合に、魚の通過数を1増加させてもよい。カウント部150は、例えば、魚領域の特定の魚特徴点が、上流端を、カウント方向とは逆方向に通過し、カウント領域から退去した場合に、魚の通過数を1減少させてもよい。この場合、カウント部150は、魚の滞留数をカウントしなくてよい。
なお、カウント領域は、線であってもよい。この場合、カウント部150は、魚領域の特定の魚特徴点が、カウント領域である線を、カウント方向に通過し、カウント領域から退去した場合に、魚の通過数を1増加させる。カウント部150は、例えば、魚領域の特定の魚特徴点が、カウント領域である線を、カウント方向とは逆方向に通過し、カウント領域に侵入した場合に、魚の通過数を1減少させる。
カウント部150は、魚の通過数のデータを、出力部160に送出する。カウント部150は、魚の通過数のデータを、あらかじめ定められたタイミングで出力部160に送出してもよい。例えば、カウント部150は、魚の通過数のデータを、所定の時間ごとに、出力部160に送出してもよい。カウント部150は、魚の通過数のデータを、魚の通過数が変化するたびに、出力部160に送出してもよい。
<出力部160>
出力部160は、魚の通過数のデータを、カウント部150から受け取る。出力部160は、受け取った魚の通過数のデータを、出力装置300に出力する。
出力部160は、さらに、少なくとも1つの動画像の、追跡中の魚の位置を表すデータを出力してもよい。この場合、出力部160は、カウント部150を介して、追跡部130から、出力される、追跡中の魚の位置を表すデータ(例えば、魚外接矩形の位置を表すデータ、具体的には、頂点の座標)を受け取ってもよい。出力部160は、少なくとも1つの動画像に、追跡中の魚の位置を表す情報を動画像に重畳し、追跡中の魚の位置を表す情報が重畳された動画像を出力してもよい。この場合、追跡中の魚の位置を表す情報は、魚外接矩形を表す図形である。出力部160は、少なくとも1つの動画像の、追跡中の魚の領域(魚領域又は魚外接矩形の内部)の、色又は明るさの少なくとも一方を変更する処理を行い、そのような処理が適用された結果である動画像を週力してもよい。動画像を出力する場合、出力部160は、追跡部130及びカウント部150を介して、抽出部120から、動画像を受け取ってよい。出力部160は、少なくとも1つの動画像に追跡中の魚の魚識別子を表す文字列を、その魚の位置を示すように重畳し、追跡中の魚の魚識別子を表す文字列が重畳された動画像を出力してもよい。この場合、出力部160は、さらに、魚の魚識別子を表す文字列と、その魚の魚外接矩形を示す図形とをつなぐ線を、動画像に重畳してもよい。出力部160は、魚の魚外接矩形を示す図形に近接する位置に、魚の魚識別子を表す文字列を重畳してもよい。これらの場合、出力部160は、追跡中の魚の魚識別子と追跡中の魚の位置を表す情報とを、カウント部150を介して、追跡部130から受け取ってよい。
<出力装置300>
出力装置300は、魚の通過数のデータを出力部160から受け取り、魚の通過数を出力する。
出力装置300は、例えばディスプレイである。この場合、出力装置300は、魚の通過数のデータを表示する。出力装置300は、例えば、コンピュータ、携帯端末、プリンタ、サーバ等であってもよい。出力装置300は、受け取ったデータを記憶してもよい。
出力装置300は、出力部160から動画像を受け取り、受け取った動画像を含む画面を表示してもよい。その場合、その画面は、魚の通過数を表す文字または図形を含む。
<動作>
次に、本実施形態に係る魚検出装置100の動作を、図面を使用して詳細に説明する。
図4は、本開示の第2の実施形態に係る魚検出装置の動作の例を表すフローチャートである。図4に示す例では、まず、受取部110が、複数の動画像を受け取る(ステップS0101)。次に、抽出部120が、複数の動画像の各々のフレームにおいて、魚の特徴点を抽出する(ステップS102)。次に、追跡部130が、動画像ごとに、抽出された特徴点に基づいて、魚の追跡を行う(ステップS103)。追跡部130は、つい移籍中の魚の未検出の特徴点の有無を判定する(ステップS104)。未検出の特徴点が存在しない場合(ステップS105においてNO)、魚検出装置100は、次に、ステップS107の動作を行う。未検出の特徴点が存在する場合(ステップS105においてYES)、推定部140が、検出された特徴点(具体的には、特徴点の位置)と、キャリブレーション情報とに基づいて、未検出の特徴点の位置を推定する(ステップS106)。追跡部130は、推定された未検出の特徴点の位置を、その特徴点が検出された位置として使用して、魚特徴点の追跡及び魚特徴点の追跡を継続する。
ステップS107において、カウント部150は、カウント領域を通過した魚の数をカウントする(ステップS107)。そして、出力部160が、カウント領域を通過した魚の数を含む、出力情報を出力する(ステップS108)。出力情報は、上述の出力部160によって、追跡中の魚の位置、又は、追跡中の魚の位置と識別子とを表す情報が重畳された動画を含んでいてもよい。そして、魚検出装置100は、図4に示す動作を終了する。
なお、魚検出装置100は、複数の動画像の、同じタイミングで撮像された複数のフレームの組み合わせの各々に対して、図4に示す動作を繰り返してよい。
<効果>
本実施形態には、第1の実施形態と同じ効果がある。その理由は、第1の実施形態の効果が生じる理由と同じである。
<他の実施形態>
本開示の実施形態に係る魚検出装置の各々は、記憶媒体から読み出されたプログラムがロードされたメモリと、そのプログラムを実行するプロセッサとを含むコンピュータによって実現できる。本開示の実施形態に係る魚検出装置の各々は、専用のハードウェアによって実現することもできる。本開示の実施形態に係る魚検出装置の各々は、前述のコンピュータと専用のハードウェアとの組み合わせによって実現することもできる。
図5は、本開示の実施形態に係る魚検出装置の各々を実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。図5を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記憶媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記憶媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記憶媒体である。記憶装置1003が記憶媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、撮像装置200及び出力装置300にアクセスすることができる。プロセッサ1001は、記憶媒体1005にアクセスすることができる。記憶媒体1005には、コンピュータ1000を、本開示の実施形態に係る魚検出装置として動作させるプログラムが格納されている。
プロセッサ1001は、記憶媒体1005に格納されている、コンピュータ1000を、本開示の実施形態に係る魚検出装置として動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、本開示の実施形態に係る魚検出装置として動作する。
受取部110、抽出部120、追跡部130、推定部140、カウント部150、出力部160は、例えば、メモリ1002にロードされたプログラムを実行するプロセッサ1001により実現することができる。受取部110、抽出部120、追跡部130、推定部140、カウント部150、出力部160の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。
(付記1)
複数の動画像の各々から魚の特徴点を抽出する抽出手段と、
前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する追跡手段と、
前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定する推定手段と、
を備え、
前記追跡手段は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する
魚検出装置。
(付記2)
前記複数の動画像の少なくともいずれかの動画像に設定されたカウント領域への前記魚の進入の情報と当該魚の前記カウント領域からの退去の情報とに基づいて、前記カウント領域を通過する前記魚の数をカウントするカウント手段
をさらに備える付記1に記載の魚検出装置。
(付記3)
前記カウント領域は、第1の生簀と第2の生簀とをつなぐ通路の領域に設定され、
前記カウント手段は、前記第1の生簀から前記第2の生簀に向かって前記カウント領域を通過する前記魚の数をカウントする
付記2に記載の魚検出装置。
(付記4)
前記カウント手段は、前記カウント領域への前記魚の進入と当該魚の前記カウント領域からの退去とを検出する
付記2又は3に記載の魚検出装置。
(付記5)
前記推定手段は、前記魚の検出されなかった特徴点である未検出特徴点の位置を、前記他の動画像において検出された、前記未検出特徴点に対応する前記特徴点の位置と、前記キャリブレーション情報と、に基づくエピポーラ線を使用して推定する
付記1乃至4のいずれか1項に記載の魚検出装置。
(付記6)
前記追跡手段は、前記キャリブレーション情報に基づいて、前記複数の動画像において検出された同一の前記魚の前記特徴点を関連付ける
付記1乃至5のいずれか1項に記載の魚検出装置。
(付記7)
複数の動画像の各々から魚の特徴点を抽出し、
前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡し、
前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定し、
前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する
魚検出方法。
(付記8)
前記複数の動画像の少なくともいずれかの動画像に設定されたカウント領域への前記魚の進入の情報と当該魚の前記カウント領域からの退去の情報とに基づいて、前記カウント領域を通過する前記魚の数をカウントする
付記7に記載の魚検出方法。
(付記9)
前記カウント領域は、第1の生簀と第2の生簀とをつなぐ通路の領域に設定され、
前記第1の生簀から前記第2の生簀に向かって前記カウント領域を通過する前記魚の数をカウントする
付記8に記載の魚検出方法。
(付記10)
前記カウント領域への前記魚の進入と当該魚の前記カウント領域からの退去とを検出する
付記8又は9に記載の魚検出方法。
(付記11)
前記魚の検出されなかった特徴点である未検出特徴点の位置を、前記他の動画像において検出された、前記未検出特徴点に対応する前記特徴点の位置と、前記キャリブレーション情報と、に基づくエピポーラ線を使用して推定する
付記7乃至10のいずれか1項に記載の魚検出方法。
(付記12)
前記キャリブレーション情報に基づいて、前記複数の動画像において検出された同一の前記魚の前記特徴点を関連付ける
付記7乃至11のいずれか1項に記載の魚検出方法。
(付記13)
複数の動画像の各々から魚の特徴点を抽出する抽出処理と、
前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する追跡処理と、
前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定する推定処理と、
をコンピュータに実行させ、
前記追跡処理は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡する
プログラム。
(付記14)
前記複数の動画像の少なくともいずれかの動画像に設定されたカウント領域への前記魚の進入の情報と当該魚の前記カウント領域からの退去の情報とに基づいて、前記カウント領域を通過する前記魚の数をカウントするカウント処理
をさらにコンピュータに実行させる付記13に記載のプログラム。
(付記15)
前記カウント領域は、第1の生簀と第2の生簀とをつなぐ通路の領域に設定され、
前記カウント処理は、前記第1の生簀から前記第2の生簀に向かって前記カウント領域を通過する前記魚の数をカウントする
付記14に記載のプログラム。
(付記16)
前記カウント処理は、前記カウント領域への前記魚の進入と当該魚の前記カウント領域からの退去とを検出する
付記14又は15に記載のプログラム。
(付記17)
前記推定処理は、前記魚の検出されなかった特徴点である未検出特徴点の位置を、前記他の動画像において検出された、前記未検出特徴点に対応する前記特徴点の位置と、前記キャリブレーション情報と、に基づくエピポーラ線を使用して推定する
付記13乃至16のいずれか1項に記載のプログラム。
(付記18)
前記追跡処理は、前記キャリブレーション情報に基づいて、前記複数の動画像において検出された同一の前記魚の前記特徴点を関連付ける
付記13乃至17のいずれか1項に記載のプログラム。
以上、実施形態を参照して本開示を説明したが、本開示は上記実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 魚検出システム
10 魚検出装置
100 魚検出装置
110 受取部
120 抽出部
130 追跡部
140 推定部
150 カウント部
160 出力部
200 撮像装置
300 出力装置
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記憶媒体

Claims (6)

  1. 複数の動画像の各々から魚の特徴点を抽出する抽出手段と、
    前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する追跡手段と、
    前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定する推定手段と、
    前記複数の動画像の少なくともいずれかの動画像に設定されたカウント領域への前記魚の進入の情報と当該魚の前記カウント領域からの退去の情報とに基づいて、前記カウント領域を通過する前記魚の数をカウントするカウント手段と
    を備え、
    前記追跡手段は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡し、
    前記カウント領域は、第1の生簀と第2の生簀とをつなぐ通路の領域に設定され、
    前記カウント手段は、前記第1の生簀から前記第2の生簀に向かって前記カウント領域を通過する前記魚の数をカウントする
    魚検出装置。
  2. 前記カウント手段は、前記カウント領域への前記魚の進入と当該魚の前記カウント領域からの退去とを検出する
    請求項に記載の魚検出装置。
  3. 前記推定手段は、前記魚の検出されなかった特徴点である未検出特徴点の位置を、前記他の動画像において検出された、前記未検出特徴点に対応する前記特徴点の位置と、前記キャリブレーション情報と、に基づくエピポーラ線を使用して推定する
    請求項1又は2に記載の魚検出装置。
  4. 前記追跡手段は、前記キャリブレーション情報に基づいて、前記複数の動画像において検出された同一の前記魚の前記特徴点を関連付ける
    請求項1乃至のいずれか1項に記載の魚検出装置。
  5. 複数の動画像の各々から魚の特徴点を抽出し、
    前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡し、
    前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定し、
    前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡し、
    前記複数の動画像の少なくともいずれかの動画像の第1の生簀と第2の生簀とをつなぐ通路の領域に設定されたカウント領域への前記魚の進入の情報と当該魚の前記カウント領域からの退去の情報とに基づいて、前記第1の生簀から前記第2の生簀に向かって前記カウント領域を通過する前記魚の数をカウントする
    魚検出方法。
  6. 複数の動画像の各々から魚の特徴点を抽出する抽出処理と、
    前記複数の動画像の各々において、検出された前記特徴点に基づいて、前記魚を追跡する追跡処理と、
    前記複数の動画像の少なくともいずれかのフレームにおいて追跡中の前記魚の前記特徴点が検出されなかった場合、当該魚の特徴点を、他の動画像のフレームにおいて検出された前記魚の前記特徴点と、前記複数の動画像を撮像した複数の撮像装置のキャリブレーション情報とに基づいて推定する推定処理と、
    前記複数の動画像の少なくともいずれかの動画像に設定されたカウント領域への前記魚の進入の情報と当該魚の前記カウント領域からの退去の情報とに基づいて、前記カウント領域を通過する前記魚の数をカウントするカウント処理と、
    をコンピュータに実行させ、
    前記追跡処理は、前記特徴点が推定された場合、推定された当該特徴点に基づいて、前記魚を追跡し、
    前記カウント領域は、第1の生簀と第2の生簀とをつなぐ通路の領域に設定され、
    前記カウント処理は、前記第1の生簀から前記第2の生簀に向かって前記カウント領域を通過する前記魚の数をカウントする
    プログラム。
JP2021156242A 2021-09-27 2021-09-27 魚検出装置、魚検出方法及びプログラム Active JP7287430B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021156242A JP7287430B2 (ja) 2021-09-27 2021-09-27 魚検出装置、魚検出方法及びプログラム
PCT/JP2022/001964 WO2023047613A1 (ja) 2021-09-27 2022-01-20 魚検出装置、魚検出方法及び記録媒体
AU2022352047A AU2022352047A1 (en) 2021-09-27 2022-01-20 Fish detection device, fish detection method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156242A JP7287430B2 (ja) 2021-09-27 2021-09-27 魚検出装置、魚検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023047371A JP2023047371A (ja) 2023-04-06
JP7287430B2 true JP7287430B2 (ja) 2023-06-06

Family

ID=85720350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156242A Active JP7287430B2 (ja) 2021-09-27 2021-09-27 魚検出装置、魚検出方法及びプログラム

Country Status (3)

Country Link
JP (1) JP7287430B2 (ja)
AU (1) AU2022352047A1 (ja)
WO (1) WO2023047613A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052177A (ja) 1999-08-11 2001-02-23 Univ Waseda 画像処理装置および画像処理方法
JP2004246667A (ja) 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2009500042A (ja) 2005-07-07 2009-01-08 インジーニアス・ターゲティング・ラボラトリー・インコーポレーテッド ターゲットの運動行動の3dのモニタリング及び分析のためのシステム
JP2016152027A (ja) 2015-02-19 2016-08-22 株式会社リコー 画像処理装置、画像処理方法およびプログラム
CN106875429A (zh) 2017-03-02 2017-06-20 楚雄师范学院 鱼群三维跟踪方法及系统
WO2017122258A1 (ja) 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
JP2017168029A (ja) 2016-03-18 2017-09-21 Kddi株式会社 行動価値によって調査対象の位置を予測する装置、プログラム及び方法
WO2019188506A1 (ja) 2018-03-26 2019-10-03 日本電気株式会社 情報処理装置、物体計測システム、物体計測方法およびプログラム記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166319A (ja) * 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JP2003250382A (ja) * 2002-02-25 2003-09-09 Matsushita Electric Works Ltd 水棲生物の成育状態監視方法及びその装置
JP5268757B2 (ja) * 2009-04-09 2013-08-21 日本放送協会 動物体照合装置および動物体照合プログラム
JP2020110138A (ja) * 2019-05-15 2020-07-27 株式会社FullDepth 魚監視システム及びカメラユニット

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052177A (ja) 1999-08-11 2001-02-23 Univ Waseda 画像処理装置および画像処理方法
JP2004246667A (ja) 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2009500042A (ja) 2005-07-07 2009-01-08 インジーニアス・ターゲティング・ラボラトリー・インコーポレーテッド ターゲットの運動行動の3dのモニタリング及び分析のためのシステム
JP2016152027A (ja) 2015-02-19 2016-08-22 株式会社リコー 画像処理装置、画像処理方法およびプログラム
WO2017122258A1 (ja) 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
JP2017168029A (ja) 2016-03-18 2017-09-21 Kddi株式会社 行動価値によって調査対象の位置を予測する装置、プログラム及び方法
CN106875429A (zh) 2017-03-02 2017-06-20 楚雄师范学院 鱼群三维跟踪方法及系统
WO2019188506A1 (ja) 2018-03-26 2019-10-03 日本電気株式会社 情報処理装置、物体計測システム、物体計測方法およびプログラム記憶媒体

Also Published As

Publication number Publication date
WO2023047613A1 (ja) 2023-03-30
AU2022352047A1 (en) 2024-02-29
JP2023047371A (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US20200279121A1 (en) Method and system for determining at least one property related to at least part of a real environment
WO2018025831A1 (ja) 人流推定装置、表示制御装置、人流推定方法および記録媒体
JP2016095849A (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
CN104517102A (zh) 学生课堂注意力检测方法及系统
CN108292362A (zh) 用于光标控制的手势识别
Liem et al. Joint multi-person detection and tracking from overlapping cameras
US20130230245A1 (en) People counting device, people counting method and people counting program
US10515459B2 (en) Image processing apparatus for processing images captured by a plurality of imaging units, image processing method, and storage medium storing program therefor
JP2011134114A (ja) パターン認識方法およびパターン認識装置
Ren et al. Multi-camera video surveillance for real-time analysis and reconstruction of soccer games
JP6620443B2 (ja) 監視プログラム、監視装置、及び監視方法
CN110555349B (zh) 一种工作时长统计方法和装置
US20210019906A1 (en) Method and apparatus for object detection integrating 2d image recognition and 3d scene reconstruction
JP7287430B2 (ja) 魚検出装置、魚検出方法及びプログラム
Chen et al. Stingray detection of aerial images with region-based convolution neural network
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
JP2021149687A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Schindler et al. Instance segmentation and tracking of animals in wildlife videos: SWIFT-segmentation with filtering of tracklets
JP2012234432A (ja) 消失点算出装置、消失点算出方法、及びプログラム
KR20150137698A (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
CN113312981B (zh) 机房鼠类图像识别方法、系统和存储介质
JP2011090708A (ja) 対象個数検出装置および対象個数検出方法
JP2009205695A (ja) 対象個数検出装置および対象個数検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7287430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151