JP2022068308A - 位置関係決定装置 - Google Patents

位置関係決定装置 Download PDF

Info

Publication number
JP2022068308A
JP2022068308A JP2022024685A JP2022024685A JP2022068308A JP 2022068308 A JP2022068308 A JP 2022068308A JP 2022024685 A JP2022024685 A JP 2022024685A JP 2022024685 A JP2022024685 A JP 2022024685A JP 2022068308 A JP2022068308 A JP 2022068308A
Authority
JP
Japan
Prior art keywords
image
captured
captured image
moving
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022024685A
Other languages
English (en)
Other versions
JP7256314B2 (ja
Inventor
成典 田中
Shigenori Tanaka
文渊 姜
Wenyuan Jiang
雄平 山本
Yuhei Yamamoto
健二 中村
Kenji Nakamura
ちひろ 田中
Chihiro Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Style Co Ltd
Original Assignee
Intelligent Style Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018031047A external-priority patent/JP7048347B2/ja
Application filed by Intelligent Style Co Ltd filed Critical Intelligent Style Co Ltd
Priority to JP2022024685A priority Critical patent/JP7256314B2/ja
Publication of JP2022068308A publication Critical patent/JP2022068308A/ja
Application granted granted Critical
Publication of JP7256314B2 publication Critical patent/JP7256314B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 2022068308000001
【課題】拡大画像が、全体画像のいずれの部分を撮像したものであるかを特定することのできる位置関係決定装置及び位置関係決定プログラムを提供する。
【解決手段】位置関係決定装置は、複数の移動体を含む第1所定エリア2の第1撮像画像を取得する第1撮像画像取得手段10と、第1撮像画像よりも縮尺が拡大されている第2撮像画像を取得する第2撮像画像取得手段12と、第1撮像画像に基づいて、撮像されている少なくとも複数の移動体を認識する第1移動体認識手段14と、第2撮像画像に基づいて、撮像されている少なくとも複数の移動体および他の移動体を認識する第2移動体認識手段16と、第2撮像画像において認識した複数の移動体の位置関係と、第1撮像画像において認識した複数の移動体の位置関係とのマッチングに基づいて、第2移動体認識手段によって認識した他の移動体の第1撮像画像中の位置を特定する撮像エリア特定手段18と、を備える。
【選択図】図1

Description

この発明は画像に基づいて移動物を認識し、その位置を推定する技術に関するものである。
基準点を含めて移動物を撮像し、撮像された基準点と移動物との位置関係に基づいて、移動物の位置を推定することが行われている。たとえば、サッカーなどの競技フィールドの4隅に基準体を置き、これを含めてプレイヤを撮像することで、プレイヤの位置を推定するものである。
画像によって移動物の位置が簡易に推定できるため広く用いられている。
特開2008-217243
ところが、上記従来技術において、複数のプレイヤが重なって撮像されると、各プレイヤを個々に認識することができず、正確な位置を推定できないという問題がある。プレイヤが重なった場合であっても、ズームした画像があれば、ディープラーニング等の手法を用いて個々のプレイヤを識別することが可能である。
一方で、ズームすると位置推定のための基準となる基準体が撮像されず、位置が推定できないという問題が生じる。
このような問題を解決するため、特許文献1に記載されているような技術を応用して、基準体を含む画像を異なる角度から撮像することで、プレイヤの重なりのない画像を用いるという方法も考えられる。しかし、基準体を撮像することが前提であるため、移動体の重なりの排除に大きな限界があった。
また、一般に、ある拡大画像が、全体画像のいずれの部分を撮像したものであるかを特定したいという要望がある。
この発明は上記のような問題点に鑑みて、拡大画像が、全体画像のいずれの部分を撮像したものであるかを特定することのできる技術を提供することを目的とする。
この発明のいくつかの独立して適用可能な特徴を以下に示す。
(1)(2)この発明に係る関係決定装置は、第1撮像部によって複数の移動体を含む第1所定エリアを撮像した第1撮像画像を取得する第1撮像画像取得手段と、第1撮像部と実質的に同じ方向から前記第1所定エリアよりも狭い第2所定エリアを撮像した第2撮像画像を取得する第2撮像画像取得手段と、前記第1撮像画像に基づいて、撮像されている一以上の移動体の塊を認識する第1移動体認識手段と、前記第2撮像画像に基づいて、撮像されている移動体を個々に区別して認識する第2移動体認識手段と、前記第2撮像画像において個々に区別して認識できた複数の移動体の位置関係と、前記第1撮像画像において認識された塊の位置関係とのマッチングに基づいて、前記第2撮像画像が前記第1撮像画像中のいずれのエリアを撮像しているかを特定する撮像エリア特定手段とを備えている。
したがって、第2撮像画像が第1撮像画像のどの位置に対応するのかを得ることができる。
(3)この発明に係る関係決定装置は、撮像エリア特定手段は、前記第1撮像画像において複数の移動体の塊として認識された移動体について、前記第2撮像画像によって区別して認識し、前記第2撮像画像の撮像エリアの特定に基づいて、当該個々の移動体の前記第1撮像画像における位置を決定することを特徴としている。
したがって、第1撮像画像にて個々に特定できなかった移動体についても、第2撮像画像にて個々に特定した上、その位置を決定することができる。
(4)この発明に係る関係決定装置は、第1撮像画像には、位置を推定するための基準となる基準体が含まれることを特徴としている。
したがって、第2撮像画像によって特定した移動体について、基準体によって特定される第1撮像画像中の位置を特定することができる。
(5)この発明に係る関係決定装置は、移動体は人を含むことを特徴としている。したがって、人の位置を決定することができる。
(6)この発明に係る関係決定装置は、第1移動体認識手段は、背景差分法に基づいて一以上の移動体の塊を認識するものであり、前記第2移動体認識手段は、オブジェクトディテクション(object detection)により個々の人を認識するものであることを特徴とする装置またはプログラム。
(7)この発明に係る関係決定装置は、第1移動体認識手段および第2移動体認識手段は、オブジェクトディテクション(object detection)により個々の人を認識するものであることを特徴とする装置またはプログラム。
したがって、より正確に移動体の位置を検出することができる。
(8)(9)この発明に係る関係決定装置は、第1撮像部~第n撮像部によって、それぞれ複数の移動体を含む第1所定エリア~第n所定エリアを撮像した第1撮像画像~第n撮像画像を取得する第1~第n撮像画像取得手段と、前記第1~第n撮像画像に基づいて、撮像されている一以上の移動体の塊または個々の移動体を認識する第1~第n移動体認識手段と、前記第m撮像画像中の複数の移動体の位置関係と、前記第m-1撮像画像中の複数の移動体の位置関係とのマッチングに基づいて、前記第m撮像画像が前記第m-1撮像画像中のいずれのエリアを撮像しているかを特定する撮像エリア特定手段と、を備えた関係決定装置であって、前記第m撮像画像は、前記第m-1撮像画像と実質的に同じ方向から撮像され、前記第m所定エリアは、前記第m-1所定エリアより狭い範囲であることを特徴としている。なお、ここで、mは1~nの間の任意の整数である。
したがって、第m+1撮像画像が第m撮像画像のどの位置に対応するのかを得ることができる。
(10)この発明に係る関係決定装置は、撮像画像は動画であることを特徴としている。
したがって、刻々変化する関係をダイナミックに把握することができる。
(11)(12)この発明に係る関係決定装置は、第1撮像部によって四隅に基準体が設けられ複数のプレイヤが競技を行うフィールド全体を撮像した第1撮像動画を取得する第1撮像動画取得手段と、第1撮像部と実質的に同じ方向から前記フィールドの一部を撮像した第2撮像動画を取得する第2撮像動画取得手段と、
前記第1撮像動画の画像に基づいて、撮像されている一以上のプレイヤの塊を認識する第1プレイヤ認識手段と、前記第2撮像動画の画像に基づいて、撮像されているプレイヤを個々に区別して認識する第二プレイヤ認識手段と、前記第2撮像動画の画像において個々に区別して認識できた複数のプレイヤの位置関係と、前記第1撮像動画の対応する画像において認識されたプレイヤの塊の位置関係とのマッチングに基づいて、前記第1撮像画像において複数のプレイヤの塊として認識されたプレイヤのそれぞれについて、前記第2撮像画像によって区別して認識して前記第1撮像画像における位置を決定し、当該各プレイヤの前記フィールド上の位置を決定する撮像エリア特定手段とを備えている。
したがって、第2撮像画像が第1撮像画像のどの位置に対応するのかを得ることができ、プレイヤの位置を特定することができる。
「第1撮像画像取得手段」は、実施形態においては、ステップS1がこれに対応する。
「第2撮像画像取得手段」は、実施形態においては、ステップS1がこれに対応する。
「第1移動体認識手段」は、実施形態においては、ステップS2がこれに対応する。
「第2移動体認識手段」は、実施形態においては、ステップS3がこれに対応する。
「撮像エリア特定手段」は、実施形態においては、ステップS4、S5がこれに対応する。
「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
この発明の一実施形態による関係決定装置の機能ブロック図である。 カメラ6、8の設置例を示す図である。 ハードウエア構成を示す図である。 関係決定プログラムのフローチャートである。 背景差分処理のフローチャートである。 マッチング処理のフローチャートである。 マッチング処理のフローチャートである。 評価値算出のフローチャートである。 条件判定のフローチャートである。 図10Aは背景画像、図10Bは撮像画像の1フレーム、図10Cは膨張収縮処理を説明するための図である。 OpenPoseによって抽出されたプレイヤのスケルトンである。 スケルトンの詳細を示す図である。 図13AはOpenPoseによって抽出されたプレイヤ、図13Bは背景差分法によって抽出されたプレイヤである。 評価値算出を模式的示す図である。 全体画像とズーム画像との関係を示す図である。 全体画像とズーム画像との関係を示す図である。 全体画像とズーム画像との関係を示す図である。 第2の実施形態による関係決定装置の機能ブロック図である。 関係決定プログラムのフローチャートである。 マッチング処理のフローチャートである。 マッチング処理のフローチャートである。 評価値算出のフローチャートである。 条件判定のフローチャートである。 ズーム画像と強ズーム画像の対応である。 重なりの評価を模式的に示す図である。 他の実施形態によるカメラ6、8の設置例である。 GPSによって特定したプレイヤの位置と撮像画像によって特定したプレイヤの位置を示す図である。 撮像画像のフィールド上の位置を示す図である。 他の実施形態による複数の撮像画像を示す図である。
1.第1の実施形態
1.1関係決定装置の機能構成
図1に、この発明の一実施形態による関係決定装置の機能ブロック図を示す。カメラ6は、複数の移動体が含まれる第1所定エリア2を撮像し、第1撮像画像を出力する。第1撮像画像は、第1撮像画像取得手段10によって取り込まれる。第1移動体認識手段14は、第1撮像画像に基づいて、これに含まれる一以上の移動体の塊を認識する。
カメラ8は、第1所定エリア2よりも狭い第2所定エリア4を撮像し、第2撮像画像を出力する。第2撮像画像は、第2撮像画像取得手段12によって取り込まれる。第2移動体認識手段16は、第2撮像画像に基づいて、これに含まれる移動体を個々に区別して認識する。
撮像エリア特定手段18は、第2の移動体認識手段16によって認識された複数の移動体の位置関係と、第1移動体認識手段14によって認識された複数の移動体の塊(各塊は少なくとも一つの移動体によって構成される)の位置関係とに基づいて、前記カメラ8による第2所定エリア4が、前記カメラ6による第1所定エリア2中のいずれの位置にあるかを決定する。
したがって、第2撮像画像によってのみ移動体を個々に区別できた場合に、当該移動体の第1所定エリア2における位置を特定することができる。
1.2システム構成およびハードウエア構成
図2に、一実施形態による関係決定装置の設置例を示す。この例では、アメリカンフットボール場における各プレイヤの位置を動的に把握するために用いた場合を示している。
スタジアムのスタンドには、カメラ6、8が設けられている。カメラ6は、スタジアム全体の動画を撮像している。スタジアムの四隅には、基準体となるポール24が設けられている。カメラ6は、この基準体24を含めてスタジアム全体を撮像する。この実施形態において、カメラ6は撮像方向を固定して設置されている。
カメラ8は、選手が密集している場所(ボールのある場所)をズームして動画を撮像するためのものである。このため、人が手に持って撮像を行うようにしている。ズームによる撮像を行うため、スタジアム全体が撮像されない。
これら2つのカメラ6、8は、たとえば、タブレットコンピュータ(図示せず)などから、Wifi通信によって、録画開始指令が同時に与えられて、動画が記録される。したがって、2つのカメラ6、8の動画は時間的に同期がとれた画像となる。すなわち、2つのカメラ6、8による動画においては、録画開始からのタイムスタンプが同じ時間であれば、同一の時刻の動画データであるとすることができる。
なお、録画開始前に、カメラ6、8にて、それぞれ同じ時計(例えばスマートフォンの時計画面)を撮像し、この撮像された時間を開始時刻として、タイムスタンプを修正し、両カメラ6、8の同期をとるようにしてもよい。
図3に、関係決定装置のハードウエア構成を示す。CPU30には、メモリ32、ディスプレイ34、キーボード/マウス36、ハードディスク38、DVD-ROMドライブ40、記録媒体読取装置48が接続されている。
ハードディスク38には、オペレーティングシステム42、関係決定プログラム44が記録されている。関係決定プログラム44は、オペレーティングシステム42と協働してその機能を発揮するものである。これらプログラムは、DVD-ROM46に記録されていたものを、DVD-ROMドライブ40を介してハードディスク38にインストールしたものである。
カメラ6、8によって撮像された動画は、カメラ6、8の記録媒体に記録される。この記録媒体に記録された動画は、記録媒体読取装置48を介して、ハードディスク38に記録される。なお、カメラ6、8をハードディスク38に接続し、撮像された画像を、直接ハードディスク38に取り込むようにしてもよい。
1.3関係決定プログラム44の処理
図4に、関係決定プログラム44のフローチャートを示す。ここでは、ハードディスク38に、カメラ6の動画(全体動画)とカメラ8の動画(ズーム動画)が記録されているものとする。
CPU30は、全体動画とズーム動画を読み出してメモリ32に展開する(ステップS1)。CPU30は、全体画像について、背景差分法に基づいてプレイヤを抽出する(ステップS2)。
背景差分法によるプレイヤの抽出処理を図5に示す。CPU30は、まず、ハードディスク38から背景画像を読み出す(ステップS21)。ここで、背景画像とは、プレイヤが存在しない状態でスタジアム全体をカメラ6によって撮像した画像(静止画)である。この背景画像は、予め撮像され、ハードディスク38に記録されている。
次に、CPU30は、背景画像をグレースケール化する(ステップS22)。図10Aに、グレースケール化された背景画像の例を示す。さらに、CPU30は、全体動画の各フレームをグレースケール化する(ステップS23)。図10Bに、グレースケール化された全体画像の1フレームの例を示す。
CPU30は、両画像の差分をピクセルごとに算出する(ステップS24)。これにより、プレイヤの画像のみが抽出されることになる。次に、しきい値によって2値化する。たとえば、差分の大きい部分を「1」小さい部分を「0」とする。続いて、差分の大きい部分を膨張・収縮させる(ステップS25)。すなわち、「1」の画素の周囲の画素を全て「1」にする膨張処理と、「0」の画素の周囲の画素を全て「0」にする収縮処理を繰り返す。
これにより、図10Cに示すように、プレイヤの手や足などが一体となった画像を得ることができる。CPU30は、この画像に基づいて、プレイヤの輪郭を決定する(ステップS26)。この実施形態では、プレイヤに外接する矩形を輪郭としている。この際、人が重なっている部分では、一つの塊として矩形輪郭が決定されることになる。矩形輪郭の例を、図13Bに示す。
次に、CPU30は、ズーム画像に基づいて、畳み込みニューラルネットワークを用いたディープラーニングによって、人物をオブジェクトとしたobject detectionを行う。すなわち、人物画像を教師データとしてAIに学習をさせておき、人物を特定する処理を行う。これにより、プレイヤを抽出することができる(ステップS3)。
なお、人物をオブジェクトとしたobject detectionとしては、人物全体をオブジェクトとして抽出する手法を採用してもよいし、人物の各パーツ(首、手、足など)ごとに抽出を行い、これを組み合わせて人物全体を抽出する手法を用いてもよい。この実施形態では、後者に該当するカーネギー・メロン大学開発のOpenPoseを用いている。人が重なっていても、峻別して検知することができるという特徴がある。ただし、ある程度、人が大きく写っていなければ解析を行うことができない。図11に、object detectionによって得られた各プレイヤのスケルトンを示す。図12に示すように、首、肩のライン、腕、脚などの要素のスケルトンを抽出することができる。
次に、両画像でのプレイヤをマッチングして評価する(ステップS4)。マッチング評価の処理を、図6に示す。まず、CPU30は、スケルトンが重ならず、ほぼ全ての要素(たとえば90%以上の要素)が検出されたプレイヤのうち、一番左の位置にいるプレイヤおよび一番右の位置にいるプレイヤを抽出する(ステップS41)。図13Aのような例であれば、丸印で示した2人のプレイヤが抽出される。
背景差分法による矩形輪郭の中には、この2人のプレイヤに対応する矩形輪郭が存在するはずである。そこで、CPU30は、いずれの矩形輪郭が対応するかを、総当たりにて、評価値を持って決定するようにしている。以下その処理を説明する。
ズーム画面から抽出した2人のプレイヤの距離を算出する(ステップS42)。なお、スケルトンによって表されるプレイヤの位置は、当該スケルトンに外接する矩形の重心座標とする。すなわち、2人のプレイヤの重心座標の距離d1を算出する。
次に、CPU30は、背景差分法によって得た矩形輪郭の中から2つを選択する(ステップS43)。CPU30は、これら2つの矩形の重心座標の距離d2を算出する(ステップS44)。
これらのobject detectionによる矩形と、背景差分法による矩形が対応したものであるとすれば、この2つの距離の比が、両画像のズーム比(縮尺比)となる筈である。そこで、CPU30は距離d2/距離d1によって縮尺を算出する(ステップS45)。そして、ズーム画像に基づくobject detectionのための画像に上記縮尺を乗じる。
ズーム画像にて選択した2人のプレイヤと、背景差分法から選択した2人のプレイヤ(矩形)が対応するものであれば、両者を基準として、object detectionと背景差分法に基づく矩形画像におけるプレイヤが重なるはずである。
そこで、この実施形態では、プレイヤが正しく重なっているかどうかを以下の処理によって判断するようにしている。
まず、object detectionのための画像と背景差分法に基づく矩形画像を重ねる(ステップS47)。この際、上記選択した2人のスケルトン矩形の重心点と、上記選択した背景差分法の2つの矩形の重心点とを重ねるようにする。
次に、この時の重なりの評価値を算出する(ステップS48)。重なりの評価値の算出処理を、図8に示す。まず、object detectionのための画像に含まれる全てのプレイヤの重心点を算出する(ステップS481)。次に、この重心点が含まれる背景差分法の矩形を探し出す(ステップS482)。スケルトンの重心点を含む矩形があれば、評価値を下式によって算出する(ステップS483)。
評価値=
1/(背景差分法の矩形の面積+背景差分法の矩形の面積のうち最大のものの面積)
矩形の中にスケルトンの重心点が含まれていれば、両者は対応しているということである。また、その矩形の面積が小さいほど、両者が対応している確率は高いということになる。ただし、ノイズや抽出不十分などの理由によって微小な矩形が存在する場合、この中に重心点がたまたま含まれると、極端に評価値が大きくなってしまう。これを避けるために、矩形の面積に最大の矩形の面積を加えたものを分母としている。
CPU30は、上記の処理を、object detection画像に含まれる全てのスケルトンについて行う(ステップS485)。全てのスケルトンについての処理が終わると、各スケルトンについて算出した評価値を合計する(ステップS486)。これを模式化して示すと、図14のようになる。点がスケルトンの重心座標、矩形は背景差分法の矩形である。
このようにして得た評価値が高いほど、object detection画像と背景差分法に基づく矩形画像との合致度合いが高いということができる。したがって、この実施形態では、ステップS41にて選択した2つのスケルトンについて、背景差分法の矩形の全ての組み合せを対応付けて、上記評価値を算出するようにしている(ステップS51、S52)。そして、CPU30は、最も評価値の大きい対応付けを選択する(ステップS5)。
これにより、図16に示すように、ズーム画像を全体画像に重ね合わせて、どの位置にあるのかを特定することができる。したがって、全体画像ではプレイヤが重なって個々の位置が認識できなかったものについて、ズーム画像のobject detectionにより、個々のプレイヤを認識しその全体画像での位置を決定することができる。全体画像においては、4隅の基準体を撮像しているので、フィールド上での位置を決定することができる。これにより、プレイヤが密集している場所においても、個々のプレイヤのフィールド上の位置を把握することができる。
また、上記の処理は、動画の各フレームについて行われるので、刻々と変化するズーム動画の位置を対応付けて、プレイヤの位置を把握することができる。
なお、この実施形態では、重なりの評価値を算出した後、条件判定を行うようにしている(ステップS49)。これは、1つ前のフレームにて決定された縮尺や座標位置が、大きく変化しないであろうとの推測に基づくものである。
CPU30は、まず、今回の評価値を算出した際の縮尺(ステップS45参照)を取得する(ステップS491)。次に、今回の重ね合わせにより、ズーム画像の左上の点(スケルトンではなく画像の左上の点)(図15参照)の、全体画像における座標位置を算出する(ステップS492)。
CPU30は、今回の縮尺が1つ前のフレームの縮尺と合致しているかどうか(所定%以内の違いに留まっているか)を判断する(ステップS493)。合致していれば、ズーム画像の左上の座標位置が、1つ前のフレームと合致しているかどうか(X方向、Y方向ともに所定%以内の違いに留まっているか)を判断する(ステップS494)。
いずれか一方でも合致していなければ、間違いである可能性が高いので、評価値を0とする(ステップS495)。両方が合致していれば、算出した評価値をそのまま用いる。
以上のようにして、全体画像とズーム画像とを対応付け、プレイヤの正確な位置を把握することができる。
1.4その他
(1)上記実施形態では、カメラによって取得した動画を、PCに取り込むようにしている。しかし、撮像した動画をインターネットなどを介してサーバ装置に送信し、当該サーバ装置にて上記の関係決定処理を行うようにしてもよい。サーバ装置に記録された処理結果は、インターネットなどを介して端末装置から取得できるようにすることができる。
(2)上記実施形態では、ズーム画像においてプレイヤを認識するためにディープラーニングによって人物をオブジェクトとするobject detectionを用いている。しかし、重なりのあるプレイヤを認識できる手法であれば他の方式も用いることができる。
(3)上記実施形態では、object detectionにて独立して認識できた2人のプレイヤに基づいて、背景差分法にて認識できたプレイヤの任意の2人に対して対応付けて重なりを評価するようにしている。しかし、2人ではなく3人以上のプレイヤによって対応付けを行うようにしてもよい。
また、3人以上のプレイヤにて対応付けを行う場合、object detectionによって独立して認識できたプレイヤと、背景差分法にて独立して認識できたプレイヤのみによって対応付けを行うようにしてもよい。たとえば、図17に示すように、3人のプレイヤによって形成される三角形(図中破線で示す)が、背景差分法とobject detectionで相似するものを探し出して対応付ける。なお、背景差分法では、2人以上のプレイヤを一つの矩形として認識することもあるので、矩形面積が所定値以下のものを独立する一人のプレイヤとして扱う。
以上のようにすれば、総当たりを行わなくとも比較的正確に対応付けを行うことができる。
(4)上記実施形態では、アメリカンフットボールに適用した場合について説明した。しかし、サッカー、バスケット、バレーボールなど複数人が所定のフィールド内で行う競技全般に適用することができる。
また、競技以外であっても、全体画面とズーム画面で複数人を同時に撮像し、認識した人の位置によって両画面を対応付ける場合一般に用いることができる。たとえば、雑踏の中で一台の固定カメラにて基準体(位置を特定するために必要なマークなど)を含む広い範囲の動画を撮像し、他の一台を手持ちのカメラにてズームして人が密集している範囲を撮像する場合に適用できる。この場合、ズーム画像の方に基準体が撮像できなくとも、両画像の関係づけによって認識した人の位置を特定することができる。
(5)上記実施形態では、動画を撮像するようにしているが、静止画を撮像するようにしてもよい。
(6)上記実施形態の応用例として、図26に示すようなシステムとしてもよい。このシステムでは、全体画像を撮像する固定カメラ6がスタジアムに複数個設けられている。ズーム画像は、固定カメラ6に近いところにいる観客等に依頼してスマートフォン8にて撮像してもらう。これにより、いずれかの固定カメラ6の近くのスマートフォン8の撮像画像があれば、プレイヤの位置を決定することができる。
(7)上記実施形態では、第1撮像画像と第2撮像画像に基づいて、第2撮像画像の第1撮像画像上における位置を決定するようにしている。しかし、一つの撮像画像と各プレイヤの位置情報を用いて、当該撮像画像がいずれの位置を撮像したものであるかを特定するようにしてもよい。
この場合、各プレイヤにGPS受信器などを装着して時刻ごとの各プレイヤの位置データを取得する。この位置データを図27Aに示すようにフィールド図面上に点としてプロットする。次に、撮像画像に基づいて図27Bに示すプレイヤを抽出した矩形を(背景差分法、object detectionのいずれでもよい)、上記の点と対応付ける。これにより、図28に示すように、撮像画像がフィールド上のいずれの領域を撮像したものであるかを得ることができる。
なお、一方チームの選手のみにGPS受信機が装着されていて位置データが取得できる場合、上記手法を応用して、撮像画像から他方のチーム選手の位置を算出することができる。まず、ユニフォームの色などにより、撮像画像からGPSによって位置データが取得できるチームのプレイヤを特定する。特定したプレイヤについて、上記の手法にて対応付けを行い、撮像画像の撮像位置を特定する。次に、撮像画像に基づいて認識されたプレイヤのうち、他方のチームの選手を特定し、その位置を特定する。
(8)上記実施形態では、背景差分法による矩形領域とobject detectionによる点との対応付けを行うようにしている。しかし、object detectionによって認識されたプレイヤの外形を囲う矩形を算出し、両者ともに矩形領域として対応付けを行うようにしてもよい。
(9)上記実施形態では、プレイヤを移動体としている。しかし、ボール、審判など競技に関連して動くものを移動体として検出対象とすることができる。また、鳥、魚、動物、車などを移動体として検出対象としてもよい。
(9)上記実施形態および上記変形例は、その本質に反しない限り他の実施形態と組み合わせて実施可能である。
2.第2の実施形態
2.1関係決定装置の機能構成
図18に、この発明の第2の実施形態による関係決定装置の機能ブロック図を示す。カメラ6は、複数の移動体が含まれる第1所定エリア2を撮像し、第1撮像画像を出力する。第1撮像画像は、第1撮像画像取得手段10によって取り込まれる。第1移動体認識手段14は、第1撮像画像に基づいて、これに含まれる一以上の移動体の塊を認識する。
カメラ8は、第1所定エリア2よりも狭い第2所定エリア4を撮像し、第2撮像画像を出力する。第2撮像画像は、第2撮像画像取得手段12によって取り込まれる。第2移動体認識手段16は、第2撮像画像に基づいて、これに含まれる移動体を個々に区別して認識する。
カメラ9は、第2所定エリア4よりも狭い第3所定エリア5を撮像し、第3撮像画像を出力する。第3撮像画像は、第3撮像画像取得手段13によって取り込まれる。第3移動体認識手段17は、第3撮像画像に基づいて、これに含まれる移動体を個々に区別して認識する。
撮像エリア特定手段18は、第3の移動体認識手段17によって認識された複数の移動体の位置関係と、第2移動体認識手段16によって認識された複数の移動体の位置関係とに基づいて、前記カメラ9による第3所定エリア5が、前記カメラ8による第2所定エリア4中のいずれの位置にあるかを決定する。
さらに、第2の移動体認識手段16によって認識された複数の移動体の位置関係と、第1移動体認識手段14によって認識された複数の移動体の塊(各塊は少なくとも一つの移動体によって構成される)の位置関係とに基づいて、前記カメラ8による第2所定エリア4が、前記カメラ6による第1所定エリア2中のいずれのエリアにあたるかを決定する。
したがって、第3撮像画像や第2撮像画像によってのみ移動体を個々に区別できた場合に、当該移動体の第1所定エリア2における位置を特定することができる。
2.2システム構成およびハードウエア構成
システム構成およびハードウエア構成は、第1の実施形態と同様である。ただし、この実施形態では、全体画像を撮像するカメラ6、ズーム画像を撮像するカメラ8の他に、さらなるズーム画像を撮像するカメラ9を設けている。
2.3関係決定プログラム44の処理
関係決定プログラム44のフローチャートを図19に示す。ステップS1において、カメラ6の全体画像、カメラ8のズーム画像に加えて、カメラ9の強ズーム画像も取り込むようにしている。背景差分法による全体画像とobject detectionによるズーム画像との対応付け(ステップS2~S5)は、第1の実施形態と同様である。
この実施形態では、全体画像とズーム画像との対応付けを行った後、カメラ9による強ズーム画像とカメラ8によるズーム画像との対応付けを行うようにしている。これにより、ズーム画像では画像が小さいために認識できなかったプレイヤを、強ズーム画像で認識でき、強ズーム画像をズーム画像と対応付けてプレイヤの位置を特定することができる。
ステップS6において、CPU30は、強ズーム画像にてobject detectionを行ってプレイヤを抽出する(ステップS6)この処理は、第1の実施形態と同様である。
次に、CPU30は、ズーム画像と強ズーム画像において抽出したプレイヤのマッチングを行って評価値を算出する(ステップS7)。マッチングと評価値の算出処理を、図20、図21に示す。
CPU30は、ズーム画像の1人のプレイヤと強ズーム画像の1人のプレイヤの位置と枠(認識したプレイヤに外接する矩形)の大きさを取得する(ステップS410、S420)。図24にこれを模式的に表す。たとえば、CPU30は、まず枠Aと枠Iを取得する。
次に、両枠A、Iの高さに基づいて、縮尺を算出する(ステップS430)。縮尺は、A枠の高さ/I枠の高さにて算出することができる。CPU30は、算出した縮尺により、強ズーム画像の縮尺をズーム画像に揃える(ステップS440)。
続いて、CPU30は、強ズーム画像の全プレイヤの枠をズーム画像上に配置する(ステップS450)。これにより、両画像が正しく対応していれば、枠の重なりが大きくなるはずである。そこで、この実施形態では、枠の重なり面積によって評価値を算出するようにしている(ステップS460)。
重なりの評価値算出のフロチャートを図22に示す。ズーム画像の枠と強ズーム画像の枠の重なりの評価値を算出する(ステップS461、S462、S463)。評価値は以下の式にて算出している。
評価値=(重なりの面積×2)/(一方の枠の面積+他方の枠の面積)
なお、重なりの面積は重なった部分の面積である(図25の面積C)。一方の枠の面積は、重なった枠の一方の全体の面積である(図25の面積A)。他方の枠の面積は、重なった枠の他方の全体の面積である(図25の面積B)。これを全ての枠について行って、各評価値を算出し全て合計して評価値とする(ステップS465、S466)。
次に、第1の実施形態と同じように、縮尺と位置が1フレーム前のものと大きく異なっていないかを条件判定する(ステップS470、図23ステップS491~S495)。
上記の処理によって、図24の枠Aと枠Iを対応付けた場合の評価値が得られる。CPU30は、これを記録する(ステップS480)。このようにして、枠の対応について全ての組合せにつき評価値を算出する(ステップS490、S500)。最後に、最も評価値の大きい対応付けを選択して、縮尺と位置を決定する(ステップS8)。
以上のようにして、ズーム画像中における強ズーム画像の位置を決定することができる。ステップS5において、全体画像中におけるズーム画像の位置が決定されているので、結果として、全体画像中における強ズーム画像の位置も定まることになる。
2.4その他
(1)上記実施形態では、図29Aに示すように、第1撮像画像αから第3撮像画像γまでを用いている。しかし、第n撮像画像までを用いるようにしてもよい。この場合、nの数が大きくなるほどズームが強くなるようにする。nは4以上でもよく、2としてもよい。
また、図29Bに示すように、第1撮像画像αに含まれる複数の撮像画像を設けるようにしてもよい。図においては、第2撮像画像β1と第2撮像画像β2が第1撮像画像αに含まれている。さらに、第3撮像画像γ1が第2撮像画像β1に含まれ、第3撮像画像γ2が第2撮像画像β2に含まれている。
(2)上記実施形態では、第1撮像画像を背景差分法にて処理し、第2、第3撮像画像をobject detectionによって処理している。しかし、第1撮像画像もobject detectionを行うようにしてもよい。
また、第1撮像画像、第2撮像画像を背景差分法によって処理し、第3撮像画像をobject detectionによって処理するようにしてもよい。さらに、第1~第3撮像画像の全てを背景差分法によって処理するようにしてもよい。
(3)上記実施形態および上記変形例は、その本質に反しない限り他の実施形態と組み合わせて実施可能である。

Claims (12)

  1. 第1撮像部によって複数の移動体を含む第1所定エリアを撮像した第1撮像画像を取得する第1撮像画像取得手段と、
    第1撮像部と実質的に同じ方向から前記第1所定エリアよりも狭い第2所定エリアを撮像した第2撮像画像を取得する第2撮像画像取得手段と、
    前記第1撮像画像に基づいて、撮像されている一以上の移動体の塊を認識する第1移動体認識手段と、
    前記第2撮像画像に基づいて、撮像されている移動体を個々に区別して認識する第2移動体認識手段と、
    前記第2撮像画像において個々に区別して認識できた複数の移動体の位置関係と、前記第1撮像画像において認識された塊の位置関係とのマッチングに基づいて、前記第2撮像画像が前記第1撮像画像中のいずれのエリアを撮像しているかを特定する撮像エリア特定手段と、
    を備えた関係決定装置。
  2. コンピュータによって関係決定装置を実現するための関係決定プログラムであって、コンピュータを、
    第1撮像部によって複数の移動体を含む第1所定エリアを撮像した第1撮像画像を取得する第1撮像画像取得手段と、
    第1撮像部と実質的に同じ方向から前記第1所定エリアよりも狭い第2所定エリアを撮像した第2撮像画像を取得する第2撮像画像取得手段と、
    前記第1撮像画像に基づいて、撮像されている一以上の移動体の塊を認識する第1移動体認識手段と、
    前記第2撮像画像に基づいて、撮像されている移動体を個々に区別して認識する第2移動体認識手段と、
    前記第2撮像画像において個々に区別して認識できた複数の移動体の位置関係と、前記第1撮像画像において認識された塊の位置関係とのマッチングに基づいて、前記第2撮像画像が前記第1撮像画像中のいずれのエリアを撮像しているかを特定する撮像エリア特定手段として機能させるための関係決定プログラム。
  3. 請求項1の装置または請求項2のプログラムにおいて、
    前記撮像エリア特定手段は、前記第1撮像画像において複数の移動体の塊として認識された移動体について、前記第2撮像画像によって区別して認識し、前記第2撮像画像の撮像エリアの特定に基づいて、当該個々の移動体の前記第1撮像画像における位置を決定することを特徴とする装置またはプログラム。
  4. 請求項1~3のいずれかの装置またはプログラムにおいて、
    前記第1撮像画像には、位置を推定するための基準となる基準体が含まれることを特徴とする装置またはプログラム。
  5. 請求項1~4のいずれかの装置またはプログラムにおいて、
    前記移動体は人を含むことを特徴とする装置またはプログラム。
  6. 請求項1~5のいずれかの装置またはプログラムにおいて、
    前記第1移動体認識手段は、背景差分法に基づいて一以上の移動体の塊を認識するものであり、
    前記第2移動体認識手段は、オブジェクトディテクション(object detection)により個々の人を認識するものであることを特徴とする装置またはプログラム。
  7. 請求項1~6のいずれかの装置またはプログラムにおいて、
    前記第1移動体認識手段および前記第2移動体認識手段は、人のスケルトンを推定して個々の人を認識するものであることを特徴とする装置またはプログラム。
  8. 第1撮像部~第n撮像部によって、それぞれ複数の移動体を含む第1所定エリア~第n所定エリアを撮像した第1撮像画像~第n撮像画像を取得する第1~第n撮像画像取得手段と、
    前記第1~第n撮像画像に基づいて、撮像されている一以上の移動体の塊または個々の移動体を認識する第1~第n移動体認識手段と、
    前記第m撮像画像中の複数の移動体の位置関係と、前記第m-1撮像画像中の複数の移動体の位置関係とのマッチングに基づいて、前記第m撮像画像が前記第m-1撮像画像中のいずれのエリアを撮像しているかを特定する撮像エリア特定手段と、
    を備えた関係決定装置であって、
    前記第m撮像画像は、前記第m-1撮像画像と実質的に同じ方向から撮像され、前記第m所定エリアは、前記第m-1所定エリアより狭い範囲であることを特徴とする関係決定装置。
  9. コンピュータによって関係決定装置を実現するための関係決定プログラムであって、コンピュータを、
    第1撮像部~第n撮像部によって、それぞれ複数の移動体を含む第1所定エリア~第n所定エリアを撮像した第1撮像画像~第n撮像画像を取得する第1~第n撮像画像取得手段と、
    前記第1~第n撮像画像に基づいて、撮像されている一以上の移動体の塊または個々の移動体を認識する第1~第n移動体認識手段と、
    前記第m撮像画像中の複数の移動体の位置関係と、前記第m-1撮像画像中の複数の移動体の位置関係とのマッチングに基づいて、前記第m撮像画像が前記第m-1撮像画像中のいずれのエリアを撮像しているかを特定する撮像エリア特定手段として機能させる関係決定プログラムであって、
    前記第m撮像画像は、前記第m-1撮像画像と実質的に同じ方向から撮像され、前記第m所定エリアは、前記第m-1所定エリアより狭い範囲であることを特徴とする関係決定プログラム。
  10. 請求項1~9のいずれかの装置またはプログラムにおいて、
    前記撮像画像は動画であることを特徴とする装置またはプログラム。
  11. 第1撮像部によって四隅に基準体が設けられ複数のプレイヤが競技を行うフィールド全体を撮像した第1撮像動画を取得する第1撮像動画取得手段と、
    第1撮像部と実質的に同じ方向から前記フィールドの一部を撮像した第2撮像動画を取得する第2撮像動画取得手段と、
    前記第1撮像動画の画像に基づいて、撮像されている一以上のプレイヤの塊を認識する第1プレイヤ認識手段と、
    前記第2撮像動画の画像に基づいて、撮像されているプレイヤを個々に区別して認識する第二プレイヤ認識手段と、
    前記第2撮像動画の画像において個々に区別して認識できた複数のプレイヤの位置関係と、前記第1撮像動画の対応する画像において認識されたプレイヤの塊の位置関係とのマッチングに基づいて、前記第1撮像画像において複数のプレイヤの塊として認識されたプレイヤのそれぞれについて、前記第2撮像画像によって区別して認識して前記第1撮像画像における位置を決定し、当該各プレイヤの前記フィールド上の位置を決定する撮像エリア特定手段と、
    を備えたプレイヤ位置決定装置。
  12. コンピュータによってプレイヤ位置決定装置を実現するためのプレイヤ位置決定プログラムであって、コンピュータを、
    第1撮像部によって四隅に基準体が設けられ複数のプレイヤが競技を行うフィールド全体を撮像した第1撮像動画を取得する第1撮像動画取得手段と、
    第1撮像部と実質的に同じ方向から前記フィールドの一部を撮像した第2撮像動画を取得する第2撮像動画取得手段と、
    前記第1撮像動画の画像に基づいて、撮像されている一以上のプレイヤの塊を認識する第1プレイヤ認識手段と、
    前記第2撮像動画の画像に基づいて、撮像されているプレイヤを個々に区別して認識する第二プレイヤ認識手段と、
    前記第2撮像動画の画像において個々に区別して認識できた複数のプレイヤの位置関係と、前記第1撮像動画の対応する画像において認識されたプレイヤの塊の位置関係とのマッチングに基づいて、前記第1撮像画像において複数のプレイヤの塊として認識されたプレイヤのそれぞれについて、前記第2撮像画像によって区別して認識して前記第1撮像画像における位置を決定し、当該各プレイヤの前記フィールド上の位置を決定する撮像エリア特定手段として機能させるためのプレイヤ位置決定プログラム。











JP2022024685A 2018-02-23 2022-02-21 位置関係決定装置 Active JP7256314B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022024685A JP7256314B2 (ja) 2018-02-23 2022-02-21 位置関係決定装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018031047A JP7048347B2 (ja) 2018-02-23 2018-02-23 位置関係決定装置
JP2022024685A JP7256314B2 (ja) 2018-02-23 2022-02-21 位置関係決定装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018031047A Division JP7048347B2 (ja) 2018-02-23 2018-02-23 位置関係決定装置

Publications (2)

Publication Number Publication Date
JP2022068308A true JP2022068308A (ja) 2022-05-09
JP7256314B2 JP7256314B2 (ja) 2023-04-11

Family

ID=87888278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022024685A Active JP7256314B2 (ja) 2018-02-23 2022-02-21 位置関係決定装置

Country Status (1)

Country Link
JP (1) JP7256314B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279494A1 (en) * 2004-04-16 2007-12-06 Aman James A Automatic Event Videoing, Tracking And Content Generation
JP2010244440A (ja) * 2009-04-09 2010-10-28 Nippon Hoso Kyokai <Nhk> 動物体照合装置および動物体照合プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279494A1 (en) * 2004-04-16 2007-12-06 Aman James A Automatic Event Videoing, Tracking And Content Generation
JP2010244440A (ja) * 2009-04-09 2010-10-28 Nippon Hoso Kyokai <Nhk> 動物体照合装置および動物体照合プログラム

Also Published As

Publication number Publication date
JP7256314B2 (ja) 2023-04-11

Similar Documents

Publication Publication Date Title
US9330470B2 (en) Method and system for modeling subjects from a depth map
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
KR101870902B1 (ko) 영상 처리 장치 및 영상 처리 방법
CN107438173A (zh) 视频处理装置、视频处理方法和存储介质
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
JP6286474B2 (ja) 画像処理装置および領域追跡プログラム
JP5722381B2 (ja) ビデオ解析
JP5674465B2 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
JP2009510541A (ja) オブジェクト追跡方法及びオブジェクト追跡装置
JP2009089077A5 (ja)
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
KR20210084449A (ko) 목표 대상 인식 시스템, 방법, 장치, 전자 디바이스 및 기록 매체
CN113850248A (zh) 运动姿态评估方法、装置、边缘计算服务器及存储介质
TW201541407A (zh) 辨識二維影像產生三維資訊之方法
JP2010198566A (ja) 人数計測装置、方法及びプログラム
JP2010123019A (ja) 動作認識装置及び方法
JP2006185109A (ja) 画像計測装置及び画像計測方法
JP2015219879A (ja) 画像認識システム、画像認識方法およびプログラム
JP2008288684A (ja) 人物検出装置及びプログラム
JP7048347B2 (ja) 位置関係決定装置
JP2007199864A (ja) 画像列生成方法および画像列生成装置
KR101891439B1 (ko) 영상 기반의 dtw를 이용한 기침하는 돼지 탐지 방법 및 장치
JP7256314B2 (ja) 位置関係決定装置
JP2020173781A (ja) 番号認識装置、方法及び電子機器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230330

R150 Certificate of patent or registration of utility model

Ref document number: 7256314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350