JP6879375B2 - Information processing equipment, length measurement system, length measurement method and computer program - Google Patents
Information processing equipment, length measurement system, length measurement method and computer program Download PDFInfo
- Publication number
- JP6879375B2 JP6879375B2 JP2019539697A JP2019539697A JP6879375B2 JP 6879375 B2 JP6879375 B2 JP 6879375B2 JP 2019539697 A JP2019539697 A JP 2019539697A JP 2019539697 A JP2019539697 A JP 2019539697A JP 6879375 B2 JP6879375 B2 JP 6879375B2
- Authority
- JP
- Japan
- Prior art keywords
- fish
- image
- detected
- length
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
Description
本発明は、測定対象の物体を撮影した撮影画像から物体の長さを測定する技術に関する。 The present invention relates to a technique for measuring the length of an object from a photographed image of the object to be measured.
魚の養殖技術の向上のために、養殖している魚の成長を観測することが行われている。特許文献1には、魚の観測に関わる技術が開示されている。この特許文献1における技術では、水槽の上方側(あるいは底側)と横側から撮影された魚の背側(あるいは腹側)の撮影画像と、頭側の正面の撮影画像とに基づいて、魚の頭、胴体、尾ひれ等の部位の形状や大きさが部位毎に推定される。その魚の部位毎の形状や大きさの推定は、各部位毎に与えられている複数のテンプレート画像を利用して行われる。すなわち、各部位毎の撮影画像がそれぞれ各部位毎のテンプレート画像に照合され、撮影画像に合うテンプレート画像中の魚の部位における大きさ等の既知の情報に基づいて、魚の各部位毎の大きさ等が推定される。 In order to improve fish farming techniques, the growth of farmed fish is being observed. Patent Document 1 discloses a technique related to fish observation. In the technique of Patent Document 1, the image of the dorsal side (or ventral side) of the fish taken from the upper side (or the bottom side) and the side side of the water tank and the image taken from the front side of the head side of the fish are used. The shape and size of parts such as the head, torso, and tail fins are estimated for each part. The shape and size of each part of the fish are estimated by using a plurality of template images given for each part. That is, the captured image for each part is collated with the template image for each part, and the size of each part of the fish, etc., is based on known information such as the size of the fish part in the template image that matches the photographed image. Is estimated.
特許文献2には、水中の魚を動画カメラと静止画カメラによって撮影し、撮影された動画および静止画に基づいて、魚影を検知する技術が開示されている。また、特許文献2には、画像サイズ(画素数)によって、魚のサイズを推定する構成が示されている。 Patent Document 2 discloses a technique in which an underwater fish is photographed by a moving image camera and a still image camera, and a fish shadow is detected based on the photographed moving image and the still image. Further, Patent Document 2 shows a configuration in which the size of a fish is estimated based on the image size (number of pixels).
特許文献1に記載されている技術では、テンプレート画像中の魚の部位における既知の大きさの情報に基づいて魚の部位の大きさが推定されている。つまり、特許文献1における技術では、テンプレート画像中の魚の部位の大きさが測定対象の魚の部位の大きさとして検知されているにすぎず、測定対象の魚の部位の大きさを測定していないので、大きさの検知精度を高めにくいという問題が生じる。 In the technique described in Patent Document 1, the size of the fish part is estimated based on the information of the known size of the fish part in the template image. That is, in the technique of Patent Document 1, the size of the fish part in the template image is only detected as the size of the fish part to be measured, and the size of the fish part to be measured is not measured. However, there arises a problem that it is difficult to improve the size detection accuracy.
特許文献2には、魚影サイズとして画像サイズ(画素数)を検知する構成は示されているものの、魚の実際の大きさを検知する構成は開示されていない。 Patent Document 2 discloses a configuration for detecting an image size (number of pixels) as a fish shadow size, but does not disclose a configuration for detecting the actual size of a fish.
本発明は上記課題を解決するために考え出された。すなわち、本発明の主な目的は、撮影画像に基づいて測定対象の物体の長さを容易に、かつ、精度良く検知できる技術を提供することにある。 The present invention has been devised to solve the above problems. That is, a main object of the present invention is to provide a technique capable of easily and accurately detecting the length of an object to be measured based on a captured image.
上記目的を達成するために、本発明に係る情報処理装置の一態様は、
測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する検知部と、
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する算出部と
を備える。In order to achieve the above object, one aspect of the information processing device according to the present invention is
A detection unit that detects a pair of characteristic parts having predetermined characteristics in the object from a captured image in which the object to be measured is photographed.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. It is provided with a calculation unit for calculating.
また、本発明に係る長さ測定システムの一態様は、
測定対象の物体を撮影する撮影装置と、
前記撮影装置により撮影された撮影画像を利用して、前記物体における予め定められた特徴を持つ対を成す特徴部位間の長さを算出する情報処理装置と
を備え、
前記情報処理装置は、
前記測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する検知部と、
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する算出部とを備える。Moreover, one aspect of the length measuring system according to the present invention is
An imaging device that photographs the object to be measured, and
It is provided with an information processing device that calculates the length between paired feature parts having predetermined features in the object by using the captured image taken by the photographing device.
The information processing device
A detection unit that detects a pair of feature portions having predetermined features in the object from a captured image in which the object to be measured is captured.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. It is provided with a calculation unit for calculating.
さらに、本発明に係る長さ測定方法の一態様は、
測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知し、
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する。Further, one aspect of the length measuring method according to the present invention is
From the captured image in which the object to be measured is photographed, a pair of characteristic parts having predetermined characteristics in the object is detected.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. Is calculated.
さらにまた、本発明に係るプログラム記憶媒体の一態様は、
測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する処理と、
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する処理とをコンピュータに実行させるコンピュータプログラムを記憶する。Furthermore, one aspect of the program storage medium according to the present invention is
A process of detecting a pair of featured parts having predetermined features in the object from a photographed image of the object to be measured, and a process of detecting the paired feature parts of the object.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. Stores a computer program that causes the computer to execute the process of calculating.
本発明によれば、撮影画像に基づいて測定対象の物体の長さを容易に、かつ、精度良く検知できる。 According to the present invention, the length of an object to be measured can be easily and accurately detected based on a captured image.
以下に、本発明に係る実施形態を図面を参照しながら説明する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
<第1実施形態>
図1は、本発明に係る第1実施形態の情報処理装置の構成を簡略化して表すブロック図である。第1実施形態では、情報処理装置20は、図2Aに表されるような複数(2台)のカメラ40A,40Bによって撮影された測定対象の物体である魚の撮影画像から、魚の長さを算出する機能を備えている。この情報処理装置20は、カメラ40A,40Bと共に、長さ測定システムを構成する。<First Embodiment>
FIG. 1 is a block diagram showing a simplified configuration of the information processing apparatus according to the first embodiment of the present invention. In the first embodiment, the
第1実施形態では、カメラ40A,40Bは、動画を撮影する機能を備えている撮影装置であるが、動画撮影機能を持たずに例えば静止画を設定の時間間隔毎に断続的に撮影する撮影装置をカメラ40A,40Bとして採用してもよい。
In the first embodiment, the
ここでは、カメラ40A,40Bは、図2Aに表されるような支持部材42に支持固定されることにより、図2Bに表されるように間隔を介して並設されている状態で、魚を撮影する。支持部材42は、伸縮棒43と、取り付け棒44と、取り付け具45A,45Bとを有して構成されている。この例では、伸縮棒43は、伸縮自在な棒部材であり、さらに、伸縮可能な長さ範囲内における使用に適切な長さで長さを固定できる構成を備えている。取り付け棒44は、例えばアルミニウム等の金属材料により構成されており、伸縮棒43に直交するように接合されている。取り付け棒44には、伸縮棒43との接合部分を中心にして対称となる部位にそれぞれ取り付け具45A,45Bが固定されている。取り付け具45A,45Bは、カメラ40A,40Bを搭載する搭載面46A,46Bを備え、当該搭載面46A,46Bに搭載されたカメラ40A,40Bを例えば螺子等により搭載面46A,46Bにがたつきなく固定する構成が設けられている。
Here, the
カメラ40A,40Bは、上述したような構成を持つ支持部材42に固定されることにより、予め設定された間隔を介して並設されている状態を維持することができる。また、第1実施形態では、カメラ40A,40Bに設けられているレンズが同じ方向を向き、かつ、レンズの光軸が平行となるように、カメラ40A,40Bは支持部材42に固定される。なお、カメラ40A,40Bを支持固定する支持部材は、図2A等に表される支持部材42に限定されない。例えば、カメラ40A,40Bを支持固定する支持部材は、支持部材42における伸縮棒43に代えて、1本あるいは複数本のロープを利用し、当該ロープによって取り付け棒44を吊下げる構成であってもよい。
By fixing the
カメラ40A,40Bは、支持部材42に固定されている状態で、例えば図3に表されるように魚が養殖されている生簀48に進入し、魚の観測(換言すれば、測定対象の物体である魚の撮影)に適切と判断された水深およびレンズの向きで配設される。なお、生簀48に進入させた支持部材42(カメラ40A,40B)を適宜な水深およびレンズの向きで配設固定する手法には様々な手法が考えられ、ここでは、何れの手法を採用してもよく、その説明は省略する。また、カメラ40A,40Bのキャリブレーションは、生簀48の環境や測定対象の魚の種類等を考慮した適宜なキャリブレーション手法によって行われる。ここでは、そのキャリブレーション手法の説明は省略する。
The
さらに、カメラ40A,40Bによる撮影を開始する手法および撮影を停止する手法は、カメラ40A,40Bの性能や生簀48の環境などを考慮した適宜な手法が採用される。例えば、魚の観測者(測定者)が、カメラ40A,40Bを生簀48に進入させる前に手動により撮影を開始させ、また、カメラ40A,40Bを生簀48から退出させた後に手動により撮影を停止させる。また、カメラ40A,40Bが無線通信あるいは有線通信の機能を備えている場合には、撮影開始と撮影停止を制御する情報を送信できる操作装置と、カメラ40A,40Bとを通信接続する。そして、観測者による操作装置の操作により、水中のカメラ40A,40Bの撮影開始と撮影停止が制御されてもよい。
Further, as a method of starting shooting with the
また、カメラ40Aとカメラ40Bの一方又は両方の撮影中の画像をカメラ40A,40Bから有線通信あるいは無線通信により受信可能なモニタ装置が用いられてもよい。この場合には、観測者は、モニタ装置により撮影中の画像を見ることが可能となる。これにより、例えば、観測者は、撮影中の画像を見ながら、カメラ40A,40Bの撮影方向や水深を変更することが可能となる。なお、モニタ機能を備えた携帯端末がモニタ装置として用いられてもよい。
Further, a monitor device capable of receiving an image being captured by one or both of the
ところで、情報処理装置20は、魚の長さを算出する処理において、同じ時点に撮影されたカメラ40Aの撮影画像とカメラ40Bの撮影画像とを用いる。このことを考慮し、同じ時点に撮影されたカメラ40Aによる撮影画像とカメラ40Bによる撮影画像とを得やすくするために、撮影中に、時間合わせに用いる目印となる変化をもカメラ40A,40Bに撮影させることが好ましい。例えば、時間合わせに用いる目印として、自動制御あるいは観測者の手動によって短時間発光する光を利用することとし、カメラ40A,40Bがその光を撮影するようにしてもよい。これにより、カメラ40A,40Bによる撮影画像に撮影されたその光に基づき、カメラ40Aによる撮影画像と、カメラ40Bによる撮影画像との時間合わせ(同期)を行うことが容易となる。
By the way, in the process of calculating the length of the fish, the
上述したようなカメラ40A,40Bにより撮影された撮影画像は、可搬型記憶媒体(例えば、SD(Secure Digital)カード)に格納された後に当該可搬型記憶媒体から情報処理装置20に取り込まれる。カメラ40A,40Bによる撮影画像は、有線通信あるいは無線通信によって情報処理装置20に取り込まれてもよい。
The captured images taken by the
情報処理装置20は、図1に表されるように、概略すると、制御装置22と、記憶装置23とを備えている。また、情報処理装置20は、例えば観測者の操作により情報を情報処理装置20に入力する入力装置(例えば、キーボードやマウス)25と、情報を表示する表示装置26に接続されている。さらに、情報処理装置20は、当該情報処理装置20とは別体の外付けの記憶装置24に接続されていてもよい。
As shown in FIG. 1, the
記憶装置23は、各種データやコンピュータプログラム(以下、プログラムとも記す)を記憶する機能を有し、例えば、ハードディスク装置や半導体メモリ等の記憶媒体により実現される。情報処理装置20に備えられる記憶装置23は一つには限定されず、複数種の記憶装置が情報処理装置20に備えられていてもよく、この場合には、複数の記憶装置を総称して記憶装置23と記す。また、記憶装置24も、記憶装置23と同様に、各種データやコンピュータプログラムを記憶する機能を有し、例えば、ハードディスク装置や半導体メモリ等の記憶媒体により実現される。なお、情報処理装置20が記憶装置24に接続されている場合には、記憶装置24には適宜な情報が格納される。また、この場合には、情報処理装置20は、適宜、記憶装置24に情報を書き込む処理および読み出す処理を実行するが、以下の説明では、記憶装置24に関する説明を省略する。
The
第1実施形態では、記憶装置23には、カメラ40A,40Bによる撮影画像が、撮影したカメラを表す情報や、撮影時間の情報などの撮影状況に関わる情報と関連付けられた状態で格納される。
In the first embodiment, the image captured by the
制御装置22は、例えば、CPU(Central Processing Unit)等のプロセッサにより構成される。制御装置22は、例えばCPUが記憶装置23に格納されているコンピュータプログラムを実行することにより、次のような機能を有することができる。すなわち、制御装置22は、機能部として、検知部30と、特定部31と、算出部32と、分析部33と、表示制御部34とを備えている。
The
表示制御部34は、表示装置26の表示動作を制御する機能を備えている。例えば、表示制御部34は、入力装置25から、カメラ40A,40Bの撮影画像を再生する要求を受け取った場合に、記憶装置23から要求に応じたカメラ40A,40Bの撮影画像を読み出し当該撮影画像を表示装置26に表示する。図4は、表示装置26におけるカメラ40A,40Bの撮影画像の表示例を表す図である。図4の例では、二画面表示により、カメラ40Aによる撮影画像41Aとカメラ40Bによる撮影画像41Bが並んで表示される。
The
なお、表示制御部34は、表示装置26に同時に表示される撮影画像41A,41Bの撮影時点が同じになるように、撮影画像41A,41Bの同期が可能な機能を備える。例えば、表示制御部34は、カメラ40A,40Bに同時撮影された前述したような時間合わせの目印を利用して、観測者が撮影画像41A,41Bの再生コマを調整可能な機能を備える。
The
検知部30は、表示装置26に表示(再生)されている撮影画像41A,41Bにおいて、測定対象の魚を指定する情報の入力を観測者に促す機能を備えている。例えば、検知部30は、表示制御部34を利用して、図4のように撮影画像41A,41Bが表示されている表示装置26に、「測定対象の魚を指定(選択)して下さい」旨のメッセージを表示させる。第1実施形態では、観測者が入力装置25を操作することにより、撮影画像41A,41Bのそれぞれにおいて、図5に表されるような枠50,51で測定対象の魚が囲まれることにより、測定対象の魚が指定されるように設定されている。枠50,51は、例えば長方形状(正方形を含む)と成し、その大きさおよび縦横比が観測者により可変可能となっている。枠50,51は、検知部30が撮影画像に行う検知処理の対象となる調査範囲である。検知部30は、観測者により設定された撮影画像41A,41Bにおける枠50,51の位置情報を受け付ける機能を備えている。なお、観測者が枠50,51によって測定対象の魚を指定する作業を実行している場合には、撮影画像41A,41Bは一時停止状態で静止している状態となっている。
The
なお、撮影画像41A,41Bのうちの一方側を表示する画面領域(例えば図4、図5における左側の画面領域)が操作画面として設定され、他方側を表示する画面領域(例えば図4、図5における右側の画面領域)が参照画面として設定されていてもよい。また、検知部30は、カメラ40A,40B間の間隔を表す間隔情報に基づき、撮影画像41Bにおいて枠50により指定されている領域と同じ領域を表す参照画面の撮影画像41Aでの枠51の表示位置を算出する機能を備えていてもよい。この場合、検知部30は、撮影画像41Bにおいて枠50の位置や大きさが調整されている最中に、その位置や大きさに追従して撮影画像41Aにおける枠51の位置や大きさを可変する機能を備えていてもよい。あるいは、検知部30は、撮影画像41Bにおいて枠50の位置および大きさが確定した後に、枠51を撮影画像41Aに表示させる機能を備えていてもよい。さらにまた、検知部30は、枠50の位置や大きさの調整に追従して枠51の位置や大きさを可変する機能と、枠50の位置および大きさが確定した後に枠51を表示させる機能とを共に備え、例えば観測者により択一的に選択された側の機能を実行してもよい。また、上記のような撮影画像41Bにおいて指定された枠50に基づいて撮影画像41Aにおける枠51を設定する機能は、検知部30に代えて、図1の点線に表されるような範囲追従部35が実行してもよい。
A screen area for displaying one side of the captured
検知部30は、さらに、撮影画像41A,41Bにおいて調査範囲として指定された枠50,51内で、測定対象の魚における予め定められた特徴を持つ対を成す特徴部位を検知する機能を備えている。第1実施形態では、魚の頭と尾が対を成す特徴部位として設定されている。撮影画像41A,41Bから特徴部位である魚の頭と尾を検知する手法には様々な手法があり、ここでは、情報処理装置20の処理能力等を考慮した適宜な手法が採用されるが、その一例を挙げると、次のような手法がある。
The
例えば、測定対象となる種類の魚の頭と尾について、魚の向きや形が異なる図6に表されるような複数の参考データが記憶装置23に格納されている。これら参考データは、特徴部位である魚の頭と尾のサンプル画像が表されている参考部位画像である。当該参考データは、測定対象となる種類の魚が撮影されている多数の撮影画像から、頭と尾のそれぞれの特徴部位が撮影されている領域の画像が教師データ(教師画像)として抽出され、当該教師データを利用した機械学習により作成される。
For example, with respect to the head and tail of the type of fish to be measured, a plurality of reference data shown in FIG. 6 having different directions and shapes of the fish are stored in the
第1実施形態の情報処理装置20は、魚の頭と尾との間の長さを魚の長さとして測定する。このことから、魚の頭と尾は、魚の長さを測定する際に測定部分の両端となる部位である。このことを考慮し、ここでは、魚の長さを測定する際に魚の測定部分の両端となる頭と尾のそれぞれの測定ポイントが中心となるように抽出された教師データを利用した機械学習により参考データが作成される。これにより、図6に表されるように、参考データの中心は、魚の頭あるいは尾の測定ポイントPを表すという意味を持つ。
The
これに対し、測定ポイントPを考慮せずに、図7に表されるように単に頭と尾が撮影されている領域が教師データとして抽出され、当該教師データに基づいて参考データが作成された場合には、参考データの中心は測定ポイントPを表すとは限らない。つまり、この場合には、参考データの中心位置は、測定ポイントPを表すという意味を持たない。 On the other hand, without considering the measurement point P, the area where the head and tail were simply photographed was extracted as teacher data as shown in FIG. 7, and reference data was created based on the teacher data. In this case, the center of the reference data does not always represent the measurement point P. That is, in this case, the center position of the reference data does not mean that it represents the measurement point P.
上述したような参考データと、撮影画像41A,41Bにおいて指定された調査範囲(枠50,51)内の画像とが照合されることにより、枠50,51において参考データに合う画像領域が検知される。
By collating the reference data as described above with the images within the survey range (frames 50 and 51) specified in the captured
検知部30は、さらに、表示制御部34を利用して、検知した特徴部位である魚の頭と尾の位置を表示装置26に明示させる機能を備えている。図8には、表示装置26において、検知された魚の頭と尾のそれぞれの部位が枠52,53により明示されている表示例が表されている。
The
特定部31は、検知部30により検知された測定対象の魚における対を成す特徴部位(つまり、頭と尾)の座標空間における位置を表す座標を特定する機能を備えている。例えば、特定部31は、検知部30により検知された測定対象の魚の頭と尾が撮影画像41A,41Bにおいて表示されている表示位置を表す表示位置情報を検知部30から受け取る。また、特定部31は、記憶装置23から、カメラ40A,40B(つまり、撮影位置)間の間隔を表す間隔情報を読み出す。そして、特定部31は、それら情報を利用して、三角測量法によって測定対象の魚の頭と尾の座標空間における座標を特定(算出)する。この際、中心が測定ポイントPとなっている参考データを利用して、検知部30が特徴部位を検知している場合には、特定部31は、検知部30により検知された特徴部位の中心が表示されている撮影画像41A,41Bの表示位置情報を利用する。
The
算出部32は、特定部31により特定された測定対象の魚の特徴部位(頭と尾)の空間座標を利用して、対を成す特徴部位(頭と尾)間の図9に表されるような間隔Lを測定対象の魚の長さとして算出する機能を備えている。この第1実施形態では、算出部32は、このように算出部32により算出された魚の長さLは、例えば観測日時等の予め定められた情報に関連付けられた状態で記憶装置23に格納される。
The
ところで、測定対象の魚の周囲状況などの原因により、次のような事態が発生してしまうことが懸念される。懸念事項の一つは、図10Aに表されるように、測定対象の魚M1の頭は検知部30により特徴部位Hとして検知されたが、尾は他の魚M3,M4との重なり等に因り検知されず、他の魚M2の尾が検知部30により特徴部位Tとして検知されてしまうことがある。この場合には、誤った特徴部位H,Tの対(組み合わせ)が検知されてしまうので、算出部32は、測定対象の魚M1の長さを正確に算出することができない。
By the way, there is a concern that the following situations may occur due to the surrounding conditions of the fish to be measured. One of the concerns is that, as shown in FIG. 10A, the head of the fish M1 to be measured was detected as the characteristic part H by the
また、別の懸念事項の一つは、図10Bに表されるように、検知部30が、測定対象の魚M1の頭と尾をそれぞれ特徴部位H,Tとして検知するだけでなく、他の魚M3,M4の頭や尾をも特徴部位H,Tとして検知してしまうことがある。この場合には、検知部30は、測定対象の魚における正しい対を成す特徴部位(頭と尾の組み合わせ)H,Tだけでなく、誤った特徴部位H,Tの対(組み合わせ)をも検知してしまう。この場合には、算出部32は、特徴部位H,Tの複数の対が検知される不都合に因り、魚の長さLを算出しない、あるいは、魚の長さLを複数算出してしまい測定対象の魚M1の正しい長さを認識することが難しいという問題が発生してしまう。
Further, one of the other concerns is that, as shown in FIG. 10B, the
算出部32は、図10Aや図10Bに表されるような事態が発生しても、測定対象の魚の誤った長さを算出してしまう事態の発生を抑制する機能を備えている。なお、図10Aや図10Bに表されるような事態は、例えば、調査範囲の大きさを測定対象の魚の大きさ程度の大きさに調整するなどの工夫により、発生頻度を低く抑えることが可能であると思われる。ただ、その場合には、測定対象の魚ごとに、例えば観測者(測定者)が調査範囲の大きさを調整するというような手間が掛かる。ここでは、そのような手間の軽減および誤算出の低下を図る手法を提案する。
The
すなわち、算出部32は、検知部30により対として検知された特徴部位(頭と尾)の組み合わせが正しいか否かを魚の傾きを利用して次のように判断する機能を備えている。
That is, the
算出部32は、対として検知された特徴部位(頭と尾)間を結ぶ図11Aに表されるような仮想線分を特定部31により得られた座標を利用して傾き調査線Kとして生成(検知)する。なお、調査範囲内に、対と成り得る特徴部位(頭と尾)の組み合わせが複数有る場合には、算出部32は、対と成り得る特徴部位(頭と尾)の組み合わせ毎に、傾き調査線を生成する。例えば、図10Bのように、調査範囲内に対と成り得る特徴部位(頭と尾)の組み合わせが複数有る場合には、算出部32は、図11Bのように複数の傾き調査線K1〜K4を生成する。
The
第1実施形態では、撮影画像における図11Aに表されるような仮想基準線(図11Aの例では、撮影画像の横線)Sに対する魚の傾きが図12のように定義されている。つまり、魚の傾きは、大概に右向きと左向きに大別され、さらに、魚の尾側を基準とし当該尾側から頭に向かう方向が仮想基準線Sに対して成す角度によって表される。 In the first embodiment, the inclination of the fish with respect to the virtual reference line (horizontal line of the captured image in the example of FIG. 11A) S as shown in FIG. 11A in the captured image is defined as shown in FIG. That is, the inclination of the fish is roughly classified into a right direction and a left direction, and further, the direction from the caudal side to the head of the fish is represented by an angle formed with respect to the virtual reference line S.
また、図13Aや図13Bのような特徴部位の参考画像と魚の傾きの参考角度との関係データ(角度参考データ)が傾き角度検知用データとして予め記憶装置23に記憶される。第1実施形態では、頭と尾のそれぞれの特徴部位の参考画像は6つのクラスに分けられ、傾き角度検知用データでは、各クラスの参考画像に参考角度が関連付けられている。つまり、頭と尾のそれぞれの特徴部位の参考画像は、右向きの0°,45°,-45°と、左向きの0°,45°,-45°との6つのクラスに分類されている。なお、図12、図13A、図13Bの例では、魚の傾き角度は左向きと右向きのそれぞれに分けて表す角度となっているが、左向きと右向きに分けない角度(例えば、0°,45°,135°,180°,225°,315°)で表してもよい。
Further, the relationship data (angle reference data) between the reference image of the characteristic portion as shown in FIGS. 13A and 13B and the reference angle of the inclination of the fish is stored in the
図13Aや図13Bのような特徴部位の画像と魚の傾き角度との関係データは、例えば、生簀48における測定対象の魚を撮影した撮影画像である多数の教師データ(教師画像)を利用した機械学習により生成される。
The relationship data between the image of the characteristic portion as shown in FIGS. 13A and 13B and the inclination angle of the fish is, for example, a machine using a large number of teacher data (teacher images) which are captured images of the fish to be measured in the
算出部32は、検知部30により検知された撮影画像における特徴部位の画像を図13Aや図13Bのような傾き角度検知用データに照合し、特徴部位に合致する参考角度を検知する。例えば、図11Aの例では、撮影画像における頭の特徴部位Hの画像に合致する参考角度が傾き角度検知用データから左向き角度-45°(225°)であると検知される。換言すれば、頭の特徴部位Hの画像を持つ魚の傾きは、左向き-45°(225°)であると推定される。また同様に、撮影画像における尾の特徴部位Tの画像に合致する参考角度が傾き角度検知用データから左向き角度0°(180°)であると検知される。換言すれば、尾の特徴部位Tの画像を持つ魚の傾きは、左向き0°(180°)であると推定される。
The
また、算出部32は、仮想基準線Sと傾き調査線Kとの成す角度を検知する。ここでは、魚の傾きは、魚の尾側を基準とした傾きであることから、算出部32は、図11Aのように、検知部30により検知された魚の尾の特徴部位Tを交点とした仮想基準線Sと傾き調査線Kとの成す角度θtを特定部31により得られた座標を利用して算出する。さらに、算出部32は、角度θtを、傾き角度検知用データから検知された頭の参考角度と尾の参考角度のそれぞれに対比し、角度θtが参考角度であるか、あるいは、参考角度を含む参考角度許容範囲内(例えば、参考角度±15°)であるか否かを判断する。換言すれば、算出部32は、角度θtが測定対象の魚の傾き角度に応じた角度であるか否かを判断する。
Further, the
そして、算出部32は、角度θtが頭の参考角度(参考角度許容範囲内)であり、かつ、角度θtが尾の参考角度(参考角度許容範囲内)である場合に、特徴部位H,Tの組み合わせは測定対象の魚における正しい頭と尾の組み合わせであると判断する。この場合には、算出部32は、前述したように、特定部31により特定された測定対象の魚の特徴部位(頭と尾)の空間座標を利用して、対を成す特徴部位(頭と尾)の中心部間の間隔を測定対象の魚の長さLとして算出する。
Then, in the
これに対し、角度θtが頭と尾の一方又は両方の参考角度(参考角度許容範囲内)でない場合には、算出部32は、特徴部位H,Tの組み合わせは測定対象の魚における正しい頭と尾の組み合わせでないと判断する。この場合には、算出部32は、魚の長さLを算出する演算を行わない。図11Aの例では、角度θtは左向き-50°(230°)であり、尾の特徴部位Tに対応する参考角度である左向き角度0°(180°)と合致しない。つまり、この場合には、算出部32は、特徴部位H,Tの組み合わせは測定対象の魚における正しい頭と尾の組み合わせでないと判断し、魚の長さLを算出する演算を行わない。
On the other hand, when the angle θt is not the reference angle of one or both of the head and the tail (within the allowable reference angle range), the
なお、測定対象の魚の長さLを算出しない場合には、例えば、算出部32は、表示装置26に、計算できない旨のメッセージを表示制御部34の制御動作によって表示させてもよい。
When the length L of the fish to be measured is not calculated, for example, the
また、算出部32は、図11Bのように、撮影画像における調査範囲内に複数の傾き調査線K1〜K4を検知した場合には、上記同様に、仮想基準線Sに対する傾き調査線K1〜K4の角度θt1〜θt4を特定部31により得られた座標を利用して算出する。一方、算出部32は、各特徴部位T,Hの画像に基づいて傾き角度検知用データから頭と尾の参考角度を検知する。図14は、傾き調査線K1〜K4の角度θt1〜θt4および頭と尾の参考角度を表す表である。
Further, when the
算出部32は、図14のように検知された角度θt1〜θt4を、それぞれ、対応する頭と尾の参考角度であるか、あるいは、参考角度を含む参考角度許容範囲内であるか否かを判断する。そして、頭と尾の両方の特徴部位H,Tの参考角度(参考角度許容範囲内)と同じ角度を持つ傾き調査線(線分)を検知した場合に、算出部32は、その傾き調査線(線分)の基となった頭と尾の特徴部位H,Tが測定対象の魚の正しい組み合わせであると判断する。図14の例では、傾き調査線K2の基となった頭と尾の特徴部位H,Tの両方の参考角度と傾き調査線K2の角度θt2とが合致している。これにより、算出部32は、傾き調査線K2の基となった頭と尾の特徴部位H,Tが測定対象の魚における正しい組み合わせであると判断する。そして、算出部32は、特定部31により特定された測定対象の魚の特徴部位(頭と尾)の空間座標を利用して、対を成す特徴部位(頭と尾)間の間隔を測定対象の魚の長さLとして算出する。
The
これに対し、算出部32は、複数の傾き調査線の角度と、頭と尾の参考角度との対比により、正しい頭と尾の特徴部位H,Tの組み合わせが検知されなかった場合には、前記同様に、魚の長さLを算出する演算を行わない。この場合には、前述したように、算出部32は、表示装置26に、計算できない旨のメッセージを表示制御部34の制御動作によって表示させてもよい。
On the other hand, when the
なお、図14に表されるような傾き調査線の傾き(算出結果)と頭の参考角度と尾の参考角度との比較結果を例えば図11A、図11Bのような算出方法を表す画像と共に、表示装置26に表示させる構成が情報処理装置20に備えられていてもよい。
It should be noted that the comparison result of the inclination (calculation result) of the inclination survey line as shown in FIG. 14 and the reference angle of the head and the reference angle of the tail is shown together with images showing the calculation method as shown in FIGS. 11A and 11B, for example. The
さらに、算出部32が、正しい組み合わせであるとして頭と尾の対を成す特徴部位を複数検知することが考えられる場合には、その場合を考慮した機能を備えていてもよい。例えば、算出部32は、正しい組み合わせであるとして頭と尾の対を成す特徴部位を複数検知した場合には、それら正しい組み合わせである頭と尾の対を成す特徴部位間の間隔Lをそれぞれ測定対象の魚の長さであるとして算出する。あるいは、算出部32は、正しい組み合わせであるとして頭と尾の対を成す特徴部位を複数検知した場合には、特定部31による特徴部位の座標を利用して最もカメラに近い対を成す特徴部位間の間隔を測定対象の魚の長さLとして算出してもよい。
Further, when it is conceivable that the
分析部33は、記憶装置23に格納されている魚の長さLの複数の情報と当該情報に関連付けられている情報を利用して、予め定められた分析を実行する機能を備えている。例えば、分析部33は、観測日における生簀48内の複数の魚の長さLの平均値あるいは検知対象とした魚の長さLの平均値を算出する。なお、検知対象とした魚の長さLの平均値を算出する場合の一例としては、1秒間というような短時間に撮影された動画の複数フレームにおける検知対象の魚の画像により算出された検知対象の魚の複数の長さLが利用される。また、生簀48内の複数の魚の長さLの平均値を算出する場合であって魚の個体識別をしていない場合には、平均値の算出に利用する魚の長さLの値として同じ魚の値が重複利用されることが懸念される。ただ、千尾以上というような多数の魚の長さLの平均値を算出する場合には、値を重複利用することに因る平均値の算出精度への悪影響は小さくなる。
The
また、分析部33は、生簀48内における魚の長さLとその魚の数との関係 (魚の長さにおける魚体数分布)を算出してもよい。さらに、分析部33は、魚の成長を表す魚の長さLの時間的な推移を算出してもよい。
Further, the
次に、情報処理装置20における魚の長さLの算出(測定)動作の一例を図15を参照しつつ説明する。なお、図15は、情報処理装置20が実行する魚の長さLの算出(測定)に関わる処理手順を表すフローチャートである。
Next, an example of the calculation (measurement) operation of the fish length L in the
例えば、情報処理装置20の検知部30は、操作画面における撮影画像41Bにおいての調査範囲(枠50,51)を指定する情報を受け付けると(ステップS101)、参照画面における撮影画像41A,41Bの調査範囲(枠50,51)の位置を算出する。そして、検知部30は、撮影画像41A,41Bの枠50,51内において、予め定められた特徴部位(頭と尾)を例えば参考データを利用して検知する(ステップS102)。
For example, when the
その後、特定部31が、検知された頭と尾の特徴部位について、例えば、カメラ40A,40B(撮影位置)間についての間隔情報等を利用し、三角測量法によって座標空間における座標を特定する(ステップS103)。
After that, the
そして、算出部32が、検知部30により対として検知された頭と尾の特徴部位の組み合わせの正誤について、前述したような仮想基準線Sに対する傾き調査線(線分)の成す角度と、参考角度(参考角度許容範囲)とを利用して、確認する(ステップS104)。これにより、算出部32が、正しい頭と尾の特徴部位の組み合わせを検知する。対として成り得る頭と尾の特徴部位の複数の組み合わせが検知された場合にも、前述したように、算出部32が、仮想基準線Sに対する傾き調査線(線分)の成す角度と、参考角度(参考角度許容範囲)とを利用して、正しい頭と尾の特徴部位の組み合わせを検知する。
Then, the
そして、算出部32が、検知部30によって正しいと検知された対を成す特徴部位(頭と尾)間の間隔Lを特定部31により特定された座標を利用し魚の長さとして算出する(ステップS105)。その後、算出部32は、算出結果を予め定められた情報(例えば、撮影日時)に関連付けた状態で記憶装置23に格納する(ステップS106)。
Then, the
さらに、情報処理装置20の制御装置22は、例えば観測者による入力装置25の操作により魚の長さLの測定を終了する旨の指示が入力されたか否かを判断する(ステップS107)。そして、制御装置22は、終了の指示が入力されていない場合には、次の魚の長さLの測定に備えて待機する。また、制御装置22は、終了の指示が入力された場合には、魚の長さLを測定する動作を終了する。
Further, the
第1実施形態の情報処理装置20は、検知部30によって、カメラ40A,40Bの撮影画像41A,41Bにおいて、魚の長さLの測定に必要な魚の頭と尾の部位を検知する機能を備えている。さらに、情報処理装置20は、特定部31によって、検知された魚の頭と尾の位置を表す座標空間における座標を特定する機能を備えている。さらにまた、情報処理装置20は、算出部32によって、特定された座標に基づき魚の頭と尾の間隔Lを魚の長さとして算出する機能を備えている。このため、撮影画像41A,41Bにおける調査対象の範囲(枠50,51)の情報を観測者が入力装置25を利用して入力することにより、情報処理装置20は、魚の長さLを算出し、当該魚の長さLの情報を観測者に提供できる。換言すれば、観測者は、撮影画像41A,41Bにおける調査対象の範囲(枠50,51)の情報を情報処理装置20に入力することで、簡単に魚の長さLの情報を得ることができる。
The
また、情報処理装置20は、三角測量法により、魚の対を成す特徴部位(頭と尾)の空間座標を特定(算出)し、当該空間座標を利用して、特徴部位間の長さLを魚の長さとして算出するので、長さの測定精度を高めることができる。
Further, the
さらに、情報処理装置20が特徴部位を検知する処理にて利用する参考データ(参考部位画像)の中心が、魚の長さを測定する部分の端部となっている場合には、測定する魚によって測定部分の端部位置がばらつくことを抑制できる。これにより、情報処理装置20は、魚の長さLの測定に対する信頼性をより高めることができる。
Further, when the center of the reference data (reference part image) used by the
さらに、情報処理装置20は、指定された調査範囲(枠50,51)内において特徴部位を検知する機能を備えている。このため、情報処理装置20は、撮影画像全体に亘って特徴部位を検知する場合に比べて、処理の負荷を軽減できる。
Further, the
さらに、情報処理装置20は、複数の撮影画像のうちの一つの画像において、調査範囲(枠50)が指定されることにより、他の撮影画像の調査範囲(枠51)を決定する機能を備えていてもよい。この場合には、情報処理装置20は、複数の撮影画像において観測者が調査範囲を指定する場合に比べて、観測者の手間を軽減できる。
Further, the
さらに、情報処理装置20は、算出部32により、頭と尾の特徴部位の組み合わせが正しいと検知された対を成す特徴部位間の間隔を魚の長さLとして算出する機能を備えている。このため、情報処理装置20は、誤った特徴部位の組み合わせに因る魚の長さLの誤算出を抑制することができる。
Further, the
また、情報処理装置20は、正しいと検知された頭と尾の特徴部位の対が複数有る場合に、カメラに最も近い対を成す頭と尾の特徴部位間の間隔を魚の長さLとして算出する機能を備えてもよい。この場合には、情報処理装置20は、撮影画像において明瞭な画像であると想定される魚の画像に基づいて魚の長さLを測定するので、魚の長さLの算出精度を高めることができる。
Further, the
<第2実施形態>
以下に、本発明に係る第2実施形態を説明する。なお、第2実施形態の説明において、第1実施形態の情報処理装置および長さ測定システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。<Second Embodiment>
The second embodiment according to the present invention will be described below. In the description of the second embodiment, the same reference numerals are given to the components having the same names as the components constituting the information processing apparatus and the length measurement system of the first embodiment, and duplicate description of the common parts will be omitted.
第2実施形態の情報処理装置20は、第1実施形態の構成に加えて、図16に表されるような設定部55を備えている。なお、情報処理装置20は、第1実施形態の構成を備えているが、図16では、特定部31と算出部32と分析部33と表示制御部34の図示が省略されている。また、図16において、記憶装置24と入力装置25と表示装置26の図示も省略されている。
The
設定部55は、撮影画像41A,41Bにおいて検知部30が特徴部位(頭と尾)の位置を調べる調査範囲を設定する機能を備えている。その調査範囲は、第1実施形態では、観測者により入力される情報であるのに対し、第2実施形態では、設定部55が調査範囲を設定するので、観測者は調査範囲の情報を入力しなくて済む。このことにより、第2実施形態の情報処理装置20は、利便性をより高めることができる。
The setting
第2実施形態では、記憶装置23には、設定部55が調査範囲を設定するために利用する情報として、調査範囲の形状および大きさを決定する情報が格納されている。例えば、調査範囲の形状および大きさが図17の実線に示されるような形状および大きさを持つ枠50,51である場合には、その形状を表す情報と、枠50,51の縦と横の長さの情報とが記憶装置23に格納される。なお、枠50,51は、同じ形状および同じ大きさを持つ。また、枠50,51は、例えば観測者が測定に適切であると考えた撮影画像における魚1尾の大きさに応じた大きさを持つ範囲であり、その縦と横のそれぞれの長さは、観測者等による入力装置25の操作により可変可能となっている。
In the second embodiment, the
さらに、記憶装置23には、測定対象の物体全体(つまり、ここでは魚体)の撮影画像がサンプル画像として格納されている。ここでは、図18および図19に表されるように、撮影条件が互いに異なる複数のサンプル画像が格納されている。これら測定対象の物体全体(魚体)のサンプル画像も、特徴部位(頭と尾)のサンプル画像と同様に、多数の測定対象の物体を撮影した撮影画像を教師データ(教師画像)とした機械学習により得ることができる。
Further, the
設定部55は、次のようにして調査範囲を設定する。例えば、設定部55は、観測者により、長さの測定を要求する情報が入力装置25の操作により入力されると、記憶装置23から枠50,51に関する情報を読み出す。なお、長さの測定を要求する情報は、例えば、撮影画像41A,41Bの再生中に画像の一時停止を指示する情報であってもよいし、撮影画像41A,41Bの停止中に動画の再生を指示する情報であってよい。また、長さの測定を要求する情報は、表示装置26に表示されている『測定開始』のマークが観測者の入力装置25の操作により指示されたことを表す情報であってもよい。さらに、長さの測定を要求する情報は、測定開始を意味する予め定められた入力装置25の操作(例えばキーボード操作)が行われたことを表す情報であってもよい。
The setting
設定部55は、枠50,51に関する情報を読み出した後に、撮影画像4A,4Bにおいて、読み出した情報に表されている形状および大きさの枠50,51を図17に表される枠A1→枠A2→枠A3→・・・→枠A9→・・・のように、枠50,51を所定の間隔で順次移動させる。なお、枠50,51の移動の間隔は、例えば、観測者により適宜可変可能な構成を備えていてもよい。
After reading the information about the
また、設定部55は、枠50,51を移動させながら、当該枠50,51における撮影画像部分と、図18および図19のような測定対象の物体のサンプル画像とのマッチ度(類似度)を例えばテンプレートマッチング手法で利用される手法により判定する。そして、設定部55は、マッチ度が閾値(例えば、90%)以上となる枠50,51を撮影画像4A,4Bにおける調査範囲として設定する。例えば、図20に表される撮影画像の例では、設定部55により、1つの撮影画像において、2つの調査範囲(枠50,51)が設定されている。この場合には、2つの調査範囲のそれぞれについて、第1実施形態で述べたように、検知部30は、特徴部位を検知する処理を実行し、特定部31は、座標空間における特徴部位の空間座標を特定する。そして、算出部32は、2つの調査範囲のそれぞれについて、検知された頭と尾の特徴部位の対(組み合わせ)が正しいか否かを判断し、正しい対の特徴部位間の間隔(ここでは、魚の長さL)を算出する。なお、例えば、長さの測定を要求する情報として画像の一時停止を指示する情報が入力された場合、設定部55は、一時停止中の撮影画像において調査範囲を設定する。このように調査範囲が設定されることにより、前記の如く、対を成す特徴部位間の間隔が算出される。また、例えば、長さの測定を要求する情報として動画の再生を指示する情報が入力された場合、設定部55は、再生中の動画に対して、連続的に、調査範囲を設定する。このように調査範囲が設定されることにより、前記の如く、対を成す特徴部位間の間隔が算出される。
Further, the setting
なお、設定部55は、上記のように設定した調査範囲の位置を仮決定とし、仮決定の調査範囲(枠50,51)の位置を撮影画像4A,4Bに明記すると共に、調査範囲の確認を観測者に促すメッセージを表示制御部34によって表示装置26に表示させる機能を備えていてもよい。そして、設定部55は、観測者による入力装置25の操作によって調査範囲(枠50,51)の位置(例えば、枠50,51が同じ魚を囲んでいること等)を確認した旨の情報が入力された場合に、調査範囲の位置を確定してもよい。また、設定部55は、観測者による入力装置25の操作により調査範囲(枠50,51)の位置を変更したい旨の情報が入力された場合には、調査範囲(枠50,51)の位置を調整可能とし、観測者により変更された枠50,51の位置を調査範囲として確定してもよい。
The setting
第2実施形態の情報処理装置20および長さ測定システムにおける上記以外の構成は、第1実施形態の情報処理装置20と同様である。
The configuration other than the above in the
第2実施形態の情報処理装置20および長さ測定システムは、第1実施形態と同様の構成を備えているので、第1実施形態と同様の効果を得ることができる。その上、第2実施形態の情報処理装置20および長さ測定システムは、設定部55を備えているので、観測者が調査範囲を確定する情報を入力しなくて済むこととなり、観測者の手間を軽減できる。これにより、第2実施形態の情報処理装置20および長さ測定システムは、物体の長さ測定に関する利便性をより高めることができる。例えば、情報処理装置20は、撮影画像41A,41Bの同期を取り、その後、撮影画像41A,41Bを再生しながら設定部55と検知部30と特定部31と算出部32により魚の長さLを算出していく処理を再生終了まで連続して行うことが可能となる。なお、情報処理装置20が上記のような画像の同期から撮影画像の再生および魚の長さの算出を連続して行う一連の処理を開始する手法には様々な手法が考えられる。例えば、入力装置25の操作により処理の開始が指示された場合に、情報処理装置20は、上記一連の処理を開始してもよい。また、撮影画像41A,41Bが情報処理装置20の記憶装置23に格納(登録)される際に、情報処理装置20は、その登録を検知することにより、上記一連の処理を開始してもよい。さらに、再生する撮影画像41A,41Bが選択された際に、情報処理装置20は、その選択情報に基づいて上記一連の処理を開始してもよい。ここでは、そのような様々な手法の中から、適宜な手法が採用されてよいものとする。
Since the
また、設定部55により調査範囲が設定される場合には、調査範囲が手動により設定される場合に比べて、調査範囲に複数の魚の画像が含まれる確率が高くなる。このため、前述したような頭と尾の特徴部位の誤った対が検知される確率が上がるけれども、情報処理装置20は、第1実施形態で述べたように頭と尾の特徴部位の対の正誤を確認できるので、誤った対の特徴部位間の間隔を魚の長さLとして算出する事態を抑制できる。
Further, when the survey range is set by the setting
<その他の実施形態>
なお、本発明は第1と第2の実施形態に限定されることなく、様々な実施の形態を採り得る。例えば、第1と第2の実施形態では、情報処理装置20に分析部33が備えられているが、魚の長さLの観測により得られた情報の分析は、情報処理装置20とは別の情報処理装置により実行されてもよく、この場合には、分析部33は省略されてもよい。<Other Embodiments>
The present invention is not limited to the first and second embodiments, and various embodiments can be adopted. For example, in the first and second embodiments, the
また、第1と第2の実施形態では、対を成す特徴部位が魚の頭と尾である例を示したが、例えば、対を成す特徴部位として、さらに、背びれと腹びれの対をも検知する構成とし、頭と尾の間の長さだけでなく、背びれと腹びれとの間の長さをも算出してもよい。それら特徴部位としての背びれと腹びれを撮影画像から検知する手法は、頭と尾の検知と同様の検知手法を用いることができる。 Further, in the first and second embodiments, an example in which the paired characteristic parts are the head and the tail of the fish is shown. For example, as the paired characteristic parts, the pair of the dorsal fin and the abdominal fin is also detected. As a configuration, not only the length between the head and the tail but also the length between the dorsal fin and the abdominal fin may be calculated. As a method for detecting the dorsal fin and the abdominal fin as these characteristic parts from the captured image, a detection method similar to the detection of the head and the tail can be used.
さらに、例えば、頭と尾の間の長さと、背びれと腹びれとの間の長さとを算出する場合であって、それら長さに基づいて魚の重さを推定できる長さと重さの関係が得られる場合には、分析部33が、それら算出された長さに基づき魚の重さを推定してもよい。
Further, for example, in the case of calculating the length between the head and the tail and the length between the dorsal fin and the abdominal fin, the relationship between the length and the weight that can estimate the weight of the fish based on these lengths is obtained. If so, the
上記のような対を成す特徴部位として検知される物体の部位の組み合わせは、頭と尾の組み合わせに限定されず、測定対象の物体において長さを測定する部分に応じて適宜設定される。 The combination of the parts of the object detected as the paired feature parts as described above is not limited to the combination of the head and the tail, and is appropriately set according to the part of the object to be measured whose length is to be measured.
さらに、第1実施形態の説明では、特徴部位の参考データとして図6の例が挙げられているが、特徴部位の参考データの種類は、図22〜図25に表されているように、より多くてもよい。なお、図22および図23は、魚の頭に関する参考データの例であり、図24および図25は、魚の尾に関する参考データの例である。また、例えば、魚の尾の参考データとして、さらに、くねりが入っている魚の尾の画像が含まれていてもよい。また、魚の頭や尾の一部が撮影画像に映っていない見切りのデータが検知対象外の参考データとして与えられていてもよい。このように、参考データの種類や数は限定されない。 Further, in the description of the first embodiment, the example of FIG. 6 is given as the reference data of the feature portion, but the types of the reference data of the feature portion are more as shown in FIGS. 22 to 25. There may be many. 22 and 23 are examples of reference data regarding the fish head, and FIGS. 24 and 25 are examples of reference data regarding the fish tail. Further, for example, as reference data of the fish tail, an image of the fish tail containing a bend may be further included. In addition, parting data in which a part of the head or tail of the fish is not shown in the captured image may be given as reference data not to be detected. In this way, the type and number of reference data are not limited.
さらに、第1と第2の各実施形態において、教師データを利用した機械学習によって特徴部位(頭と尾)や測定対象の物体全体(魚体)のサンプル画像を作成する場合に、次のようにして教師データの削減が図られてもよい。例えば、教師データとして図21に表されるような左向きの魚の撮影画像が取得された場合に、その左向きの魚の像を左右反転する処理を行って右向きの魚の教師データが得られるようにしてもよい。 Further, in each of the first and second embodiments, when creating a sample image of a feature part (head and tail) or the entire object to be measured (fish body) by machine learning using teacher data, the following is performed. The teacher data may be reduced. For example, when a photographed image of a left-pointing fish as shown in FIG. 21 is acquired as teacher data, the image of the left-pointing fish may be flipped horizontally so that the teacher data of the right-pointing fish can be obtained. Good.
さらに、第1実施形態において、情報処理装置20が、特徴部位を検知する処理を開始する前などの適宜なタイミングで、撮影画像における水の濁りを軽減する画像処理や、カメラレンズや水の揺らぎに因る魚体の歪みを補正する画像処理を行ってもよい。また、情報処理装置20は、撮影画像を物体の水深や明るさ等の撮影条件を考慮して補正する画像処理を行ってもよい。さらに、第2実施形態において、情報処理装置20が、調査範囲を確定する処理を開始する前などの適宜なタイミングで、上記同様の画像処理を実行してもよい。このように、情報処理装置20が、撮影環境を考慮して撮影画像を画像処理(画像補正)することにより、測定対象の物体の長さ測定の精度をより高めることができる。また、情報処理装置20は、そのように画像補正された撮影画像を利用することにより、参考データの数を少なくできるという効果を得ることができる。
Further, in the first embodiment, image processing for reducing water turbidity in a captured image, camera lens, and fluctuation of water are performed at an appropriate timing such as before the
さらに、第1と第2の実施形態では、測定対象の物体として魚を例にして説明しているが、第1と第2の実施形態で説明した構成を持つ情報処理装置20は、他の物体にも適用可能である。すなわち、第1と第2の実施形態における情報処理装置20は、魚でなくとも、長さを測定する部分の両端部分が他の部分と区別可能な特徴を持つ物体であれば、その物体の長さ測定に適用することもできる。
Further, in the first and second embodiments, a fish is described as an example of an object to be measured, but the
さらに、第1と第2の実施形態では、算出部32は、検知部30により検知された頭と尾の特徴部位の対の正誤を判断する際に、頭と尾の特徴部位を結ぶ仮想線分を傾き調査線として利用している。その仮想線分に代えて、算出部32は、検知部30により検知された頭と尾の特徴部位を通る仮想直線あるいは仮想半直線を傾き調査線として利用してもよい。
Further, in the first and second embodiments, the
また、第1と第2の実施形態では、検知部30により検知された頭と尾の特徴部位の対の正誤を算出部32が判断する際に利用する傾き角度検知用データは、6つのクラスに分けられている参考画像と参考角度との関係データである。これに代えて、傾き角度検知用データは、参考画像と参考角度とのリニアな関係データであってもよい。
Further, in the first and second embodiments, the tilt angle detection data used when the
さらに、第1と第2の実施形態では、算出部32は、検知部30により検知された頭と尾の特徴部位の対の正誤を判断する際に、仮想基準線として撮影画像における横線を利用している。これに代えて、算出部32は、撮影画像における縦線を仮想基準線として利用してもよい。また、算出部32は、四角形状の撮影画像における対角線を仮想基準線として利用してもよい。このように、仮想基準線は、撮影画像における横線に限定されない。
Further, in the first and second embodiments, the
さらに、第1と第2の実施形態では、算出部32は、検知部30により検知された頭と尾の特徴部位の画像からそれぞれ参考角度を検知し、傾き調査線の角度を、検知された2つの参考角度のそれぞれと対比している。そして、算出部32は、傾き調査線の角度が2つの参考角度の両方に合致している場合に、頭と尾の特徴部位の組み合わせは正しいと判断し、それら頭と尾の特徴部位間の間隔を測定対象の魚の長さLとして算出している。これに代えて、例えば、測定対象の物体(例えば魚以外)の形状によっては、検知部30により検知された対を成す特徴部位の一方の画像から検知される物体の傾きに応じた角度と、傾き調査線の角度との対比により、算出部32は、対を成す特徴部位の組み合わせが正しいか否かを判断してもよい。
Further, in the first and second embodiments, the
図26には、本発明に係るその他の実施形態の情報処理装置の構成が簡略化して表されている。図26における情報処理装置70は、機能部として、検知部71と、算出部72とを備えている。この情報処理装置70は、図27に表されるように、撮影装置76と共に、長さ測定システム75を構成する。撮影装置76は、測定対象の物体を撮影する構成を備えている。
FIG. 26 shows a simplified configuration of the information processing apparatus according to another embodiment of the present invention. The
情報処理装置70の検知部71は、撮影装置76による撮影画像から、測定対象の物体における対を成す部位であって予め定められた特徴をそれぞれ持つ特徴部位を検知する機能を備えている。算出部72は、撮影装置76による撮影画像において、検知部71により対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度を算出する機能を備えている。さらに、算出部72は、算出した角度が、撮影画像における特徴部位の画像に基づいて算出される測定対象の物体の仮想基準線に対する傾きに応じた角度であるか否かを判断する機能を備えている。さらに、算出部72は、算出した角度が、測定対象の物体の傾きに応じた角度である場合に、その測定対象の物体の傾きに応じた傾きを持つ傾き調査線の基である対を成す特徴部位間の長さを算出する機能を備えている。
The
情報処理装置70および長さ測定システム75は、上記のような構成を備えることにより、撮影画像に基づいて測定対象の物体の長さを容易に、かつ、精度良く検知できるという効果を得ることができる。
By providing the
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present invention has been described above using the above-described embodiment as a model example. However, the present invention is not limited to the above-described embodiments. That is, the present invention can apply various aspects that can be understood by those skilled in the art within the scope of the present invention.
この出願は、2017年9月4日に出願された日本出願特願2017−169792を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2017-169792 filed on September 4, 2017, and incorporates all of its disclosures herein.
20,70 情報処理装置
30,71 検知部
31 特定部
32,72 算出部
10,75 長さ測定システム
40A,40B カメラ
55 設定部
76 撮影装置20,70
Claims (9)
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する算出手段と
を備える情報処理装置。A detection means for detecting a pair of feature portions having predetermined features in the object from a captured image in which the object to be measured is captured.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. An information processing device including a calculation means for calculating.
前記算出手段は、前記対として検知された前記特徴部位の中心部間の間隔を算出する請求項5に記載の情報処理装置。The detection means is a sample image of the featured portion, and is based on a reference portion image in which the center of the image represents the end of the measuring portion for measuring the length of the object. The part centered on the end is detected as the characteristic part,
The information processing device according to claim 5, wherein the calculation means calculates the distance between the central portions of the feature portions detected as the pair.
前記撮影装置により撮影された撮影画像を利用する請求項1乃至請求項6の何れか一つに記載の情報処理装置と
を備える長さ測定システム。An imaging device that photographs the object to be measured, and
A length measuring system including the information processing device according to any one of claims 1 to 6, which uses a photographed image captured by the photographing device.
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する長さ測定方法。From the captured image in which the object to be measured is photographed, a pair of characteristic parts having predetermined characteristics in the object is detected.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. A length measurement method for calculating.
前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する処理と
をコンピュータに実行させるコンピュータプログラム。 A process of detecting a pair of featured parts having predetermined features in the object from a photographed image of the object to be measured, and a process of detecting the paired feature parts of the object.
In the captured image, the angle formed by the inclination survey line, which is a virtual line segment, a virtual straight line, or a virtual half straight line connecting the feature portions detected as the pair, and a predetermined virtual reference line is determined in the captured image. When the reference angle corresponds to the inclination of the object to be measured, which is detected based on the image of the feature portion and the angle reference data, the length between the paired feature portions that form the basis of the inclination survey line. computer programs for executing the processing for calculating the computer.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017169792 | 2017-09-04 | ||
JP2017169792 | 2017-09-04 | ||
PCT/JP2018/032534 WO2019045089A1 (en) | 2017-09-04 | 2018-09-03 | Information processing device, length measurement system, length measurement method, and program storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019045089A1 JPWO2019045089A1 (en) | 2020-08-27 |
JP6879375B2 true JP6879375B2 (en) | 2021-06-02 |
Family
ID=65527415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019539697A Active JP6879375B2 (en) | 2017-09-04 | 2018-09-03 | Information processing equipment, length measurement system, length measurement method and computer program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6879375B2 (en) |
WO (1) | WO2019045089A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6760458B1 (en) | 2019-09-24 | 2020-09-23 | 日本電気株式会社 | Individual weight estimation system, method and program |
WO2021065265A1 (en) * | 2019-09-30 | 2021-04-08 | 日本電気株式会社 | Size estimation device, size estimation method, and recording medium |
CN112492197B (en) * | 2020-11-18 | 2022-01-07 | 京东科技信息技术有限公司 | Image processing method and related equipment |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1251863A (en) * | 1988-02-29 | 1989-03-28 | Kevin Mccarthy | Fish sorting machine |
JP2007304721A (en) * | 2006-05-09 | 2007-11-22 | Toyota Motor Corp | Image processing device and image processing method |
JP5217193B2 (en) * | 2007-03-14 | 2013-06-19 | カシオ計算機株式会社 | Imaging apparatus, dimension measuring method, and program. |
JP6016226B2 (en) * | 2012-04-04 | 2016-10-26 | シャープ株式会社 | Length measuring device, length measuring method, program |
JP5997989B2 (en) * | 2012-09-13 | 2016-09-28 | 株式会社キーエンス | Image measuring apparatus, control method thereof, and program for image measuring apparatus |
US20190277624A1 (en) * | 2016-09-30 | 2019-09-12 | Nec Corporation | Information processing device, length measurement method, and program storage medium |
-
2018
- 2018-09-03 JP JP2019539697A patent/JP6879375B2/en active Active
- 2018-09-03 WO PCT/JP2018/032534 patent/WO2019045089A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2019045089A1 (en) | 2020-08-27 |
WO2019045089A1 (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004094B2 (en) | Fish length measurement system, fish length measurement method and fish length measurement program | |
JP6981531B2 (en) | Object identification device, object identification system, object identification method and computer program | |
JP6735592B2 (en) | Image processing apparatus, control method thereof, and image processing system | |
JP7001145B2 (en) | Information processing equipment, object measurement system, object measurement method and computer program | |
JP6816773B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP6879375B2 (en) | Information processing equipment, length measurement system, length measurement method and computer program | |
US20130002712A1 (en) | Image display device and image display method | |
CN109600543B (en) | Method for photographing panoramic image by mobile device and mobile device | |
JP2017004268A (en) | Image processor, image processing method and image processing program | |
JP2016085380A (en) | Controller, control method, and program | |
JP2009210331A (en) | Camera calibration apparatus and camera calibration method | |
JP2017079400A (en) | Display system, information processing method, and program | |
WO2021192906A1 (en) | Calculation method | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP4860431B2 (en) | Image generation device | |
JPWO2018061928A1 (en) | INFORMATION PROCESSING APPARATUS, COUNTING SYSTEM, COUNTING METHOD, AND COMPUTER PROGRAM | |
US10432916B2 (en) | Measurement apparatus and operation method of measurement apparatus | |
JPWO2018061926A1 (en) | Counting system and counting method | |
WO2021192908A1 (en) | Tracking method | |
CN111279352A (en) | Three-dimensional information acquisition system through ball throwing exercise and camera parameter calculation method | |
JP7323234B2 (en) | Guide method | |
JP7059829B2 (en) | Information processing equipment, information processing methods and programs | |
US20230260159A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
JP2008157780A (en) | Three-dimensional data creating apparatus, image acquiring device, three-dimensional data creating method, image acquisition method and program | |
CN115994949A (en) | Automatic calibration method, equipment, system and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6879375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |