JP2020077953A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2020077953A
JP2020077953A JP2018209494A JP2018209494A JP2020077953A JP 2020077953 A JP2020077953 A JP 2020077953A JP 2018209494 A JP2018209494 A JP 2018209494A JP 2018209494 A JP2018209494 A JP 2018209494A JP 2020077953 A JP2020077953 A JP 2020077953A
Authority
JP
Japan
Prior art keywords
player
information
image processing
server
specific target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018209494A
Other languages
English (en)
Other versions
JP7233887B2 (ja
Inventor
吉田 武弘
Takehiro Yoshida
武弘 吉田
雄資 白川
Yusuke Shirakawa
雄資 白川
裕介 春山
Yusuke HARUYAMA
裕介 春山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018209494A priority Critical patent/JP7233887B2/ja
Priority to PCT/JP2019/040874 priority patent/WO2020095647A1/ja
Priority to CN201980088091.XA priority patent/CN113273171A/zh
Publication of JP2020077953A publication Critical patent/JP2020077953A/ja
Priority to US17/307,582 priority patent/US20210258496A1/en
Application granted granted Critical
Publication of JP7233887B2 publication Critical patent/JP7233887B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 プロカメラマンや一般の観客が、映像を取得する際に、特定の対象の位置情報をタイムリーに表示できるようにする。【解決手段】 画像処理装置において、画像を表示する表示手段、前記表示手段に表示された画像の中から特定の対象を選択する選択手段、前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。【選択図】図1

Description

本発明は撮影や映像モニターのための画像処理装置等に関するものである。
近年、国際化が進み、多くの観光客が日本を訪問するようになっている。また、競技スポーツにおいても、様々な国の選手の撮影機会が大幅に増加している。
しかしプロカメラマンにとっても、一般の写真を撮影する人にとっても、例えば競技スポーツシーンにおいて多数の選手の中から特定の選手を見つけることは比較的難しい。また、特に競技スポーツにおける競技中は動きが速く複数の選手が交錯し選手のいる場所を見失うことが多々ある。これは、競技スポーツに限らず雑踏の中から特定の人物等を撮影したりモニターしたりする場合でも同じことが言える。
特許文献1には、被写体を複数の方向から撮影するための複数のカメラと、前記複数のカメラのうち対応するカメラによる撮影画像から所定領域を抽出する複数の画像処理装置が記載されている。また、前記複数の画像処理装置により前記複数のカメラによる撮影画像から抽出された所定領域の画像データに基づいて仮想視点画像を生成する画像生成装置が記載されている。
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
特開2017−211828号公報 特許第5322629号明細書
しかしながら、スポーツシーンなど、多くの選手が集まっている場合などでは、選手が重なってしまったりして、見失ったりすることがある。また視野から外れることもあり、適切なタイミングで選手を撮影するのはより難しかった。
また、特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、判定結果が分からないと判定の認識に時間をとられてしまうという欠点があった。さらに、撮影したい選手を見つけても、その選手へのフォーカスを合わせた後に、その撮影したい選手を追いかけていかないといけなかった。これは、動きの速いスポーツでは、とても難しく、また、この追いかけることに集中していると、良い写真の撮影ができないということになってしまうという欠点があった。
またサーバー側では、全方位の映像、試合や競技のフィールドの各種情報を把握することができ、グランド内外の各種の貴重な情報も入手することができるが、従来のシステムではサーバーの活用が十分でないという問題があった。
同様に、競技場や自宅の端末で競技をモニターしている一般ユーザーにとっても特定の選手を見失ったり競技の状況がわからなくなったりする場合が多かった。同様にカーレースや飛行機レースや競馬などにおいても特定の車両や飛行機や馬などの対象を見失ってしまうことがあった。更には特定の人物を街角で追跡する場合においても雑踏の中にその特定の人物が紛れてしまい見失うことがあった。また、そのような、注目している特定の対象を目視で追いかけることに専念しているとその対象に対する撮影やピント合わせや露出調整などをスムーズにできないという問題があった。
本発明は、上記、課題を解決し、撮影者や観察者にとって有益な情報をタイムリーに表示できる画像処理装置を提供することを目的とする。
画像処理装置において、
画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
本発明によれば、ユーザーが、狙った特定の対象を指定すれば、その特定の対象が画面のどこにいるかが簡単にわかりユーザーが例えばその特定の対象をモニターしたり撮影したりする場合などにおいてその特定の対象を見失いにくくなる。
実施例の画像処理装置を用いたシステムの構成を模式的に示す図。 サーバー側の詳細ブロック図。 端末側の詳細ブロック図。 端末側の詳細ブロック図。 注目選手表示開始シーケンスの一例を示す図。 注目選手表示追跡シーケンスの一例を示す図。 注目選手表示追跡シーケンスの一例を示す図。 カメラ側における注目選手表示追跡制御フローを示す図。 カメラ側での注目選手表示追跡制御フローの他の例を示す図。 デジタルカメラの追跡部371の機能構成例を示すブロック図。 サーバー側における注目選手の検出制御フローを示す図。 サーバー側における選手の背番号を検出するフローを示す図。 サーバー側における注目選手検出制御フローの他の例を示す図。 サーバー側における注目選手検出制御フローの他の例を示す図。 サーバー側における注目選手検出制御フローの他の例を示す図。 サーバー側における注目選手検出制御フローの他の例を示す図。 カメラ表示部での表示例を示す図。 カメラ側での注目選手表示追跡制御フローの他の例を示す図。 カメラ側での注目選手表示追跡制御フローの他の例を示す図。 カメラ側での注目選手表示追跡制御フローの他の例を示す図。 カメラ側での注目選手表示追跡制御フローの他の例を示す図。
以下本発明を実施するための形態につき、実施例を用いて説明をする。
最初に撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。
図1において、サーバー用の複数台のカメラ(固定カメラやドローンなどを用いた移動カメラ)を有するサーバー(画像処理サーバー)側が、競技場のフィールド全体における注目選手(特定の対象)の位置やゲームの最新の状況をリアルタイムで把握する。そして、サーバーが、個々の観客が持っている端末に対して、例えばカメラ撮影や画像のモニターの際に必要な情報をタイムリーに提供する例を示す。
一般にプロカメラマンや一般の写真撮影者がカメラで撮影している角度や視野では分からないあるいは追えない場所が存在することが多い。競技場外にいて撮影をしていない観客にとっても同様である。一方、サーバー側のシステムでは、複数のサーバー用のカメラの映像をもとに全方位の映像、試合のフィールド全体の情報(フィールドの座標情報等)をあらかじめ把握しマッピングができる。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
即ち、サーバー用の複数台のカメラ(固定カメラや移動カメラ)で、各選手の位置、得点、反則、審判の判断結果、その他の最新状況を追いかけたりすることができる。また大型スクリーンなどに表示され情報を基にして、サーバーで解析したりすることもできる。それにより全体の状況を正確に認識して、プロカメラマンや観客が保有するカメラ端末等やスマートフォンやタブレット等の端末にタイムリーに送信することができる。それにより、観客は競技の最新の状況をタイムリーに把握することが可能となる。特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、カメラの画面を見ているだけでは視野が狭いので競技の全体の状況などが正確に把握しにくい。しかし、本実施例のような構成を用いれば、競技の状況などが速やかに分かるので、報道局などに送る写真の選択を素早く行うことが可能となる。
なお、プロカメラマンや観客が用いる端末(画像処理装置)としては、デジタルカメラ、スマートフォン、カメラとスマートフォンなどを接続した構成、タブレットPCあるいはTVなどが考えられる。家庭でインターネットやテレビ放送をPCやTV等の端末(画像処理装置)を通じて競技を見ている観客に対しても同様のサービスを提供することができるので競技などの状況をより正確に把握することができ競技をより楽しむことができる。
図1において、101〜103はサーバー用のカメラであり、101(固定設置されたカメラ1)、102(固定設置されたカメラ2)、103(固定設置された3)、104(大型スクリーン)、110(サーバー)、111(入力手段)、112(基地局)は、一般のプロカメラマンや観客への情報提供をするための映像取得や音声取得などを行う。サーバー用カメラは、本実施形態では101〜103の3台としたが、1台でも複数台でもよい。また、これらのサーバー用カメラは、固定設置されたカメラではなく例えばドローンなどに搭載されたカメラでもよい。映像取得、音声取得に加えて、入力手段から映像以外の入力情報(例えば音声など)も取り込み、一般のプロカメラマンや観客等へのサービスを拡充できる。
105は有線/無線などによるLANやインターネットであり、106は、入力手段111から出力された情報をサーバー110で入力するための接続線である。107は、基地局112への信号を送受信するための接続線、108は、基地局の無線通信を実行するためのアンテナ部である。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
一方、図1において、401(端末1)、402(端末2)、403(端末3)は端末であり、例えばプロカメラマンや観客が撮影やモニターをするための例えばカメラやスマートフォンやタブレットPCやTVなどの映像表示端末装置である。ここで、404(アンテナ)405(アンテナ)、406(アンテナ)は、それぞれ、401(端末1)、202(端末2)、203(端末3)が無線通信するためのアンテナである。
サーバーが注目選手の位置を検出する際には、例えば端末からサーバー側に注目選手のID情報などを送り、また、サーバー側から端末にその選手に関する位置情報などの各種情報を送る。選手は動いており、競技状況も変化しているので、短時間での注目選手の検出処理が必要になる。よって、ここでの無線通信は、例えば5Gなどを用いる。
なお401(端末1)、402(端末2)、403(端末3)はカメラとスマートフォンなどを接続して組み合わせた構成としても良い。図1の右下において、301はスマートフォンであり、主にサーバーとの通信制御を行う。また、このスマートフォンに、アプリケーションソフトウェアをインストールすることで、各種の映像取得サービスを実現する。また、300は(デジタル)カメラであり、主に、プロプロカメラマンや観客が撮影したり画像をモニターしたりする画像処理装置である。ここで、カメラ300はスマートフォン301にUSBあるいはブルートゥース(登録商標)などにより接続されている。320はスマートフォン301が基地局112と無線通信するためのアンテナである。
なお、端末がスマートフォン等の場合は、サーバーとの映像、制御信号のやりとりを無線で実行するが、端末との通信を実行するための接続は、無線通信と有線通信を適応的に使い分けても良い。例えば、無線通信環境が5Gであれば無線で通信し、無線通信環境がLTEであればデータ量の多い情報は有線で送り、データ量の少ない制御信号は無線で送るといった制御も可能である。さらには、無線通信の回線の混み具合によって、有線通信に切り替えることも可能である。
次に、図2を用いてサーバー側の詳細なブロック構成を説明する。図2において、図1と同じ符番は同じ構成を示し説明は省略する。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
すなわち、選手の役割(ポジション)に応じて、選手のいる位置が大体決まるので、注目選手の上記役割(ポジション)を把握したうえで、選手を追いかけたほうが、効果的に精度よく選手を追いかけることができる。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
205は、輪郭情報検出部であり、たとえば、プロカメラマンや観客が端末で映像をモニターしつつ、その位置、角度からカメラの倍率で撮影している時に、サーバー110は注目選手のいる位置を各端末401〜403などに知らせる。また、撮影している注目選手の輪郭情報をサーバー110から各端末401〜403などに知らせることで、各端末401〜403側で、より確実に注目選手を認識することが可能になる。205のブロックで検出した輪郭情報は、CPU211に取り込まれる。
206は選手の顔認識部であり、注目選手の予め登録された顔写真情報に基づきAI、特に、Deep Learningなどの画像認識技術を用いて映像の中から選手を見つける。顔認識部206で検出した顔認識結果の情報もCPU211に取り込まれる。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
208は選手の背番号検出部であり、前記のような画像認識技術を用いて注目選手の、あらかじめ登録した番号(背番号など)から選手を見つける。なお選手の番号を検出する際はビブスの背中側の番号だけでなく、前側に書かれた番号を検出してもよいことは言うまでもない。209は位置情報作成部であり、カメラ101、102、103等のGPSなどを用いた位置情報とカメラの向きと画角に関する情報から、各カメラの位置と方角と画角を認識する。そして、各カメラからの映像に基づきその選手がいるグラウンド上での絶対的な位置情報を三角測量方式で取得する。この位置情報作成部209は競技場に予め設置された基準位置検出用の基準指標としてのポールや競技フィールドのライン(例えばサイドラインやエンドライン)等の画面内での位置もあらかじめ映像から取得しておいてもよい。そしてそれらを基準座標として競技場における注目選手のフィールドに対する絶対位置を取得するようにしてもよい。
210は各端末401〜403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
211はコンピュータとしてのCPU(Central Processing Unit)であり、記憶媒体としてのプログラムメモリ712に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する中央演算処理装置である。また、表示制御手段を兼ねており、後述する表示部214に表示する情報を制御する。213はCPU211において参照される各種データを記憶するデータメモリである。データメモリ213には過去の試合情報、過去の選手情報、本日の試合(競技)に関する情報、観客動員数に関する、天候などの情報、注目選手の情報、選手の現在の状況などが格納されている。注目選手の情報の中には顔、背番号、体格などの情報も含まれる。
1101はサーバー110内のデータバスラインである。
次に、画像処理装置としての端末側の詳細について図3、図4を用いて説明する。図3、図4は端末の構成例を示すブロック図であり、端末の例としてデジタルカメラ500全体の構成を2つの図面を用いて示す。
図3、図4に示されるデジタルカメラは、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画が所定のフォーマットで格納される。
303はCCDやCMOSなどの撮像素子としてのイメージセンサーであり、光学像を光信号から電気信号に変換して、さらに、この情報をアナログ情報からデジタルデータに変換して出力する。304は信号処理部であり、イメージセンサー303から出力されるデジタルデータに対してホワイトバランス補正やガンマ補正などの各種補正をして出力するものである。305はセンサー駆動部であり、イメージセンサー303から情報を読み出すための水平垂直ライン駆動やイメージセンサー303がデジタルデータを出力するタイミング等を制御する。
306は操作部入力手段である。デジタルカメラで撮影する際の各種条件を選択したり設定したり、撮影するためのトリガー操作、フラッシュを使用するための選択操作、電池を交換する操作などに応じて入力が行われる。また、操作部入力手段306において、注目選手をサーバーからの位置情報に基づきAF(オートフォーカス)するか否かを選択/設定できる。この注目選手をAF(オートフォーカス)するかの選択/設定情報は、操作部入力手段306からバスライン370に出力される。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
307は送受信手段として機能する無線通信部であり、プロカメラマンや一般の観客などが持っているカメラ端末が無線でサーバー側と通信をするためのものである。308はデジタルカメラにおける撮影倍率を検出する倍率検出部である。309は操作部出力手段であり、デジタルカメラなどで撮影した画像情報を表示する画像表示部380にメニューや設定情報などのUI情報を表示するためのものである。310は圧縮伸長回路であり、イメージセンサー303からのデジタルデータ(RAWデータ)を信号処理部304で現像処理後、圧縮伸長回路310で圧縮してJPEG画像ファイルやHEIF画像ファイルにするか、あるいは、RAWデータのまま圧縮してRAW画像ファイルにする。一方、RAW画像ファイルをカメラ内で現像処理してJPEG画像ファイルやHEIF画像ファイルを生成する場合に、圧縮されている情報を伸張してRAWデータに戻す処理を行う。
311は顔認識部であり、注目選手についてあらかじめサーバーに登録された顔写真情報を参照し、映像の中からその選手をAI、特に、Deep Learning等の技術を用いた画像認識によって見つけるためのものである。顔認識部311で検出した顔認識結果に関する情報は、バスライン370を介してCPU318に取り込まれる。
312は体格認識部であり、注目選手に関してサーバーに予め登録した体格写真情報を参照して、映像の中から前述のような画像認識技術によってその注目選手を見つける。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
316は端末の電源の状態を検出する電源管理部であり、電源スイッチがオフの状態で電源ボタンの押下を検出したら、端末全体に電源を供給する。318はコンピュータとしてのCPUであり、記憶媒体としてのプログラムメモリ319に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する。また、表示制御手段を兼ねており画像表示部380に表示する画像情報を制御する。なお画像表示部380は液晶や有機ELなどを用いた表示部である。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
図4において、350は撮影レンズユニットであり、固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359、ズームモーター353、絞りモーター356、およびフォーカスモーター360を有する。固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359は撮影光学系を構成する。なお、便宜上レンズ351、352、358、359は、それぞれ1枚のレンズとして図示しているが、それぞれ複数のレンズで構成されても良い。また、撮影レンズユニット350は、デジタルカメラに対して着脱可能な交換レンズユニットとして構成されてもよい。
ズーム制御部354はズームモーター353の動作を制御し、撮影レンズユニット350の焦点距離(画角)を変更する。絞り制御部357は絞りモーター356の動作を制御し、絞り355の開口径を変更する。
フォーカス制御部361は、イメージセンサー303から得られる1対の焦点検出用信号(A像およびB像)の位相差に基づいて撮影レンズユニット350のデフォーカス量およびデフォーカス方向を算出する。そしてフォーカス制御部361は、デフォーカス量およびデフォーカス方向をフォーカスモーター360の駆動量および駆動方向に変換する。この駆動量および駆動方向に基づいてフォーカス制御部361はフォーカスモーター360の動作を制御し、フォーカスレンズ359を駆動することにより、撮影レンズユニット350の焦点を制御(フォーカス調整)する。このように、フォーカス制御部361は位相差検出方式の自動焦点(AF)を実施する。なお、フォーカス制御部361は、イメージセンサー303から得られる画像信号のコントラストのピークをサーチするコントラスト検出方式のAFを実行しても良い。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
次に、図5を用いて注目選手表示開始シーケンスの例について説明する。これは、サーバー110とカメラ500とで行うシーケンスである。図5(A)は、カメラ500側の問いかけ(リクエスト)に対して、サーバー110側が答えるシーケンスである。そしてサーバー110側はカメラ500側に、注目選手の絶対位置に関する情報を提供する。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。あるいはメニューで画面上に複数の選手のリストを表示し、その中の注目選手名をタッチしたりしてもよいし、あるいは画面上に文字入力画面を表示し選手名や選手の背番号を入力してもよい。
その際、注目選手の画面上の顔位置をタッチすると顔を画像認識したり背番号を画像認識して選手名や背番号などを送ったりしてもよい。あるいは、画像認識せずに顔画像そのものをサーバーに送って、サーバー側で画像認識してもよい。またこの時あらかじめ決まったパスワードがあればそれもサーバーに送る。サーバー側では、映像を撮影することをサポートするブロックにより、注目選手指定情報(背番号、選手名等のID情報)に基づいて、選手のいる絶対値的な位置に関する情報をカメラに送る。パスワードもカメラから送られてくればそれに応じてカメラに送る情報の内容を変更する。
図5(B)に別の異なる注目選手表示開始シーケンスを示す。カメラからサーバーには、今、プロカメラマンや一般観客が撮影しているカメラの位置情報、カメラの方角、カメラの倍率、注目選手指定情報(背番号、選手名指定)を通知する。サーバー側では、カメラの位置情報、カメラの方角、カメラの倍率から自由視点映像を作り出す。そして注目選手指定情報(背番号、選手名指定)に基づいて、実際にカメラで見えている映像のどの位置に選手がいるかの位置情報と、カメラに撮影されている選手の輪郭情報も一緒にカメラに送る。
カメラは、サーバーから送られた位置情報、輪郭情報などをもとに、カメラの表示部の画面で注目選手をより精度高く目立つように表示するとともに注目選手に対してAFやAEを行う。
なお、注目選手指定情報(背番号、選手名指定)を通知する代わりに、例えば注目する建物などを指定した場合には、サーバーは輪郭情報としてその建物の輪郭情報をカメラに送っても良い。
注目選手を見つける注目選手表示開始シーケンスの例を簡単に説明したが、端末側は、継続して選手を追いかけていきたい場合が多い。そこで、注目選手表示追跡シーケンスについて図6(A)を用いて説明する。図6(A)においては、端末としてのカメラ500から何度も、例えば周期的にサーバー110へ問い合わせ(リクエスト)を行って、選手の位置を継続して認識するものである。図6(A)において、選手の位置情報を、カメラ500からサーバー110に注目選手のID情報を送って、一度、カメラで注目選手を視野に入れる。その後も継続して上記の「注目選手のカメラ表示開始」を繰り返すことで「注目選手のカメラ表示追跡」を実現できる。具体的には、カメラからサーバーに、注目選手表示開始シーケンス(A1、B1、、、)を周期的に送り、サーバーから注目選手表示開始シーケンス(A2、B2、、、)を周期的に受信して、注目選手の位置を認識する動作を何度も繰り返す。
更に図6(B)では選手の位置情報は、カメラ500からサーバー110に注目選手のID情報を送って、一旦サーバーから注目選手の位置情報を取得する。その後その位置情報を参照してカメラで注目選手を視野に入れたあと、カメラ500自身で画像認識によって継続して注目選手を追跡するものである。図7(A)は、図6(B)の注目選手表示追跡シーケンスに対して、更に、カメラ500自身が画像認識で注目選手を追跡するが、そのあと見失ったときに、デバイス側からサーバーに、注目選手の位置情報をリクエストするものである。具体的には、カメラで、注目選手を見失ったときには、カメラからサーバーに、注目選手表示開始シーケンス(A1)を送り、サーバーから注目選手表示開始シーケンス(A2)を受信して、注目選手の位置を認識する。図7(B)は、図6(B)の注目選手表示追跡シーケンスに対して更に、サーバー110で、カメラ500が注目選手を見失う可能性が高いと推測した場合を示す。
つまり追跡に失敗すると推測したときに、カメラ500からのリクエストを待たずに、注目選手の位置情報を通知するPushタイプの制御を示すものである。これにより、プロカメラマンや一般観客は、継続して、注目選手がカメラの表示部上で、どこにいるかを検出でき、とても使いやすく、例えばシャッターチャンスを逃すことが大幅に減る。ここで、プロカメラマンや一般観客が注目選手を見失うケースとしては、選手が、モール、ラック、スクラムなどで、外側から見えなくなるケース(いわゆる死角に入る場合)や、あるカメラの方向からは見えないなどがありうる。
なお、本実施例ではプロカメラマンや観客の撮影アシストのためのサービスの例を説明しているが、リモートカメラ制御に使ってもよい。サーバーからこれらの情報を送ることで、自動パンチルト雲台に搭載したリモートカメラにより、選手を追跡して、決定的瞬間を撮影することも可能である。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。
また表示画面外にいる場合に端末が現在見ている角度からどのくらい離れているか(ずれているか)、どのくらい端末を回転しないと注目選手が表示画面内に入らないかなどを矢印の長さや太さや、数字や目盛りなどで表示してもよい。
更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
次に、図7におけるカメラ側での制御シーケンスの詳細を、図8(A)、(B)を用いて説明する。図8(A)、(B)は、カメラ側における注目選手表示追跡制御フローを表している。
図8(A)においてにおいてS101は初期化を表している。S102で写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
S107はサーバーから送られた位置情報を参照しつつカメラ自身で注目選手の追跡を実施する。ここでは、カメラ自身で注目選手について例えば画像認識を行って追跡する。その場合、選手の背番号、選手の顔情報、選手の体格などのいずれかの認識結果あるいはそれらの組み合わせに基づき選手の追跡を行う。すなわち、注目選手の一部または全体の形状を画像認識して追跡する。ただし、ユーザーの撮影ポジションが悪い場合や、カメラの視界が狭い場合や、撮影角度などによっては他の被写体の背後に隠れてしまったりするので見失う可能性があり、見失った場合には再度サーバーに位置情報のリクエストを送ることになる。S107−2は、注目選手に対する付加情報としてのマーク表示の例を示している。即ち付加情報としては、注目選手を示すカーソルを表示したり注目選手の位置に枠を表示したり、注目選手位置の色や輝度を目立つように変更したり、あるいはそれらの組み合わせにより表示をする。マーク以外にも文字で表示したりしてもよい。そして画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示す付加情報を重畳する。
図8(B)にマークを表示するS107−2のフローの例を示しており、これについては後述する。なお、上記のようなS107の追跡動作はスキップして実行しないように選択スイッチでユーザーが選択可能にしてもよい。あるいは、注目選手が画面内にいるときには追跡動作を実行するが画面外に出た場合には追跡動作をしない、というモードを設け、そのモードを選択できるようにしてもよい。更には、競技の状況を自動的に判断し、例えば注目選手がベンチ入りした場合などに、画面外の注目選手の追跡動作(矢印などの付加情報を表示など)を自動的に停止するように制御してもよい。あるいは画面内であるか画面外であるかにかかわらず、注目選手がベンチ入りしたことがサーバー側でわかったら画面における注目選手位置の表示や注目選手に対するオートフォーカスや注目選手に対する自動露光調整を停止するように制御してもよい。
S108では、注目選手の追跡継続がOK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S107に進み更に継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないとS109に進む。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に進む。注目選手の撮影が継続している場合には、S105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。即ち、追跡が失敗した場合はS108でNoとなり、その場合追跡を継続するならS105に戻ってサーバーに位置情報のリクエストを行う。
図8(B)は、カメラ側における注目選手マーク表示制御フローを表している。S120では注目選手の表示部における相対位置を計算して求める。S121では画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置等を示す付加情報を重畳する。
以上の実施例では、サーバー110は、例えば競技フィールド全体の映像を読み取り座標を取得しているので、プロカメラマンや観客が撮影している映像から、競技フィールドに対してどこから撮影しているかを把握することもできる。すなわちサーバーは、サーバー用の複数台のカメラ(固定カメラや移動カメラ)から競技フィールドの全体の映像をあらかじめ把握しておく。それにより、フィールド内における注目選手の絶対位置情報と、プロカメラマンや観客が端末やデジタルカメラで見ている映像とのマッピングが可能になる。
また、プロカメラマンや観客のカメラ等の端末は、サーバーから選手の絶対位置情報を受信するとこの絶対位置情報と今撮影あるいはモニターしている映像とのマッピングが可能になる。なお、例えばサーバーからの注目選手のフィールド内での絶対位置情報を(X、Y)とする。この絶対位置情報を個々のカメラの位置情報に従い、カメラから見たときの相対的な位置情報(X´、Y´)に変換する必要がある。上記の絶対位置情報から相対位置情報への変換は、S120のようにカメラ側で実施してもよいし、サーバー側で変換した後に個々の端末(カメラなど)に相対位置情報を送ってもよい。
カメラ等の端末で上記変換を実行する場合は、サーバーから送られた絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、相対的な位置情報(X´、Y´)に変換する。この相対的な位置情報をもとに、カメラ側の表示画面内での位置情報とする。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
以上のようにして、プロカメラマンや観客のカメラ等の端末では、注目選手を見失うことが減るので、タイミングを逃さず注目選手の良い写真の撮影が可能になる。
なお、図7に基づいたカメラ側での制御シーケンスの他の例を図9に示す。図9はカメラ等の端末側の注目選手表示追跡制御フローの他の例を表している。図9において、S101、S102、S103、S104、S105、S106、S107、S107−2、S110は、図8と同一の制御であり説明は省略する。
S131では、注目選手の追跡継続がOK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S134に進み、注目選手の追跡継続に成功していないと、S132に進む。S132では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS133に進む。注目選手の撮影が継続している場合にはS105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。S133では、サーバーからの注目選手の位置を検出したか否かが判断され、サーバーからの注目選手の位置を検出しているとS106に進み、サーバーからの注目選手の位置を検出していないとS101に進む。S134では、サーバーからの注目選手の位置を検出したか否かが判断され、サーバーからの注目選手の位置を検出しているとS106に進み、サーバーからの注目選手の位置を検出していないとS107に進む。
次に、デジタルカメラの追跡部371について図10を用いて説明する。
図10はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。なお距離マップ生成部3712により撮像素子からの1対の視差画像(A像とB像)から被写体までの距離情報を取得し、照合部3710における被写体領域の特定精度を上げることもできる。ただし距離マップ生成部3712は必ずしもなくても構わない。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
次に、サーバー側における注目選手の検出制御フローについて図11、図12を用いて説明する。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行う。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
プロカメラマンや一般観客が保有するカメラ等の端末では、注目選手のID情報をサーバーに送り、サーバーから取得した位置情報をもとに注目選手の追跡を実施する。同時に、プロカメラマンや一般観客の保有するカメラ等の端末自身でも注目選手の位置を検出することができる。
図11はサーバー側における注目選手の検出制御のメインフローを示す。
図11において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
S206で、サーバーは、前記注目選手のID情報に基づき、複数のカメラ(固定カメラや移動カメラなど)からの映像に基づき画像認識によって、注目選手を画面内で見つける。S207で、サーバーは、複数のカメラからの映像に基づき注目選手を追跡する。S208で、注目選手の追跡継続がOK(成功している)か否かを判断し、注目選手の追跡継続に成功していれば、S207に戻り、複数のカメラからの情報に基づき注目選手の追跡を継続する。S208で注目選手の追跡継続に成功していない場合はS209に進む。
S209で注目選手の撮影が終了か否か判断し、注目選手の撮影が終了するとS201に戻り、S209で注目選手の撮影が継続している場合には、S206に戻る。そして再度、サーバーは、注目選手のID情報に基づき、複数のサーバー用のカメラ(固定カメラや移動カメラ)からの情報を探索して、注目選手を見つけ、S207で、継続して複数のカメラからの映像に基づき、注目選手の追跡を行う。
次に上記SS206において注目選手を見つけ、S207で追跡するための方法の例について図12を用いて説明する。
図12は背番号情報を用いたサーバーによる注目選手検出制御フローを示す。図12において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの映像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図12のフローを終了する。
なお、サーバー用の複数台のカメラの中のすくなくとも1台のカメラからの映像を用いて、注目選手の背番号を見つけ、見えている大きさ、角度、さらには、背景(競技フィールド)の情報を入力することにより、注目選手の位置情報を取得することもできる。またサーバー用の複数台のカメラからの映像を用いて、同様に、注目選手の背番号を見つけられるようにし、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報の精度を高めることができる。
次に注目選手の位置を検出するための他の検出方法の例について図13を用いて説明する。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報をサーバー側へ通信手段により無線で送ることで選手の位置センサーからの信号をサーバー(側の複数のカメラ等)が認識して、位置情報を生成し、サーバーからプロカメラマンや一般観客が保有するカメラへ知らせる。
サーバー側による、位置センサー情報を用いた具体的な注目選手検出制御フローを図13に示す。図13において、S301は、サーバーは、複数台のカメラで、注目選手の位置センサー情報を受信して取得する。前記複数台のカメラには位置センサーからの電波を受信し、受信している電波の方向、受信している電波のレベルを検出して位置センサー情報として取得するための検出手段がそれぞれ含まれている。位置センサー情報の中には、受信している電波の方向、受信している電波のレベルも含まれている。S302で複数台のカメラからの位置センサー情報に基づき注目選手を絶対位置を検出する。S303で注目選手の絶対位置をカメラに送信する。S304で、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS301に進み、注目選手の追跡が継続していないとこの制御を終了する。
この例の場合には、複数台のカメラ(固定カメラや移動カメラ)の中の少なくとも1台は、画像、音声の取得に加えて、選手が保有している位置センサーからの情報を検出するための検出手段を有する。複数台のカメラの中の上記の1台のカメラによって、選手の位置センサーからの情報を受信し、受信している電波の方向、さらには、受信している電波のレベルを認識できる。このように1台だけの検出結果に基づき選手の位置を検出することもできるが、この例では選手の位置センサー情報を、複数台のカメラでそれぞれ認識できるようにしている。そして複数台のカメラにおける注目選手のセンサー情報を受信している電波の方向、受信している電波のレベルの情報を総合して、より正確に選手の位置情報を分析する。
次にサーバー側での顔認識情報を用いた注目選手検出制御フローを図14に示す。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の過去に撮影した顔情報が複数枚格納されている。さらに、サーバーは、複数台のサーバー用のカメラからの映像をもとに選手の顔情報を検出する手段を有する。そしてサーバーは、前記複数台のサーバー用カメラから検出した顔情報をもとに、試合にメンバー登録されている選手の過去に撮影した顔情報を複数枚の写真と比較して例えばAIを用いて顔認識し、注目選手を検出する。
図14において、S501は、サーバーは注目選手のID情報に基づき注目選手の複数の顔情報をデータメモリ213から取得し、サーバー用の複数台のカメラの映像を用いて、この顔情報の選手の位置情報を取得する。サーバー用の複数台のカメラの中の1台のカメラの映像を用いて、注目選手の顔情報に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報を取得できる。サーバー用の複数台のカメラで、同様に、注目選手の顔情報に対応した選手を見つけ、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報をより精度よく取得できる。
S502では、S501にて複数のカメラの映像から取得された注目選手の位置情報に基づき注目選手の絶対位置を検出する。S503では、S502で検出した注目選手の絶対位置情報をプロカメラマンや一般観客が保有するカメラに対して送信する。S504では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS501に進み、注目選手の追跡が継続していないとこの制御を終了する。
次に体格(体形)を用いて選手位置を検出する方法について図15を用いて説明する。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の、過去に撮影した体格画像情報が複数枚格納されている。また、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の体格情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した体格情報と、試合にメンバー登録されている選手の、過去に撮影した複数枚の体格画像情報と例えばAIを用いて比較して、選手を検出する。
サーバーにおける、体格(体形)認識情報を用いた具体的な注目選手検出制御フローを図15に示す。図15において、S601で、サーバーは注目選手のID情報に基づき複数の体格画像情報をデータメモリ213から取得し、サーバー用の複数台のカメラの映像情報を用いて、この体格の選手の位置情報を取得する。サーバー用の複数台のカメラの中の1台のカメラからの映像を用いて、注目選手の体格画像に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を取得することにより、注目選手の位置情報を取得できる。サーバー用の複数台のカメラの映像から、同様に、注目選手の体格画像に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を取得することにより、注目選手の位置情報を取得できる。これらの複数台のカメラの情報を総合することによって、体格情報に基づき注目選手の位置情報の精度を向上できる。
S602では、S601にて取得した、この体格情報の選手の位置情報に基づき注目選手の絶対位置を検出する。S603では、S602で検出した注目選手の絶対位置をプロカメラマンや一般観客が保有するカメラ端末に対して送信する。S604では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS601に進み、注目選手の追跡が継続していないと図15の制御を終了する。
以上、選手の位置センサー情報、背番号認識、顔認識、体格認識等について説明したが、更にユニフォーム(デザイン、色)、シューズ、選手の髪型、選手の動きなどの情報についても画像認識して注目選手の認識精度を上げても良い。
次に図16は、注目選手の検出方法の補助的な検出方法であり、注目選手の競技フィールドにおける基本的な役割(所謂ポジション)に基づく検出をするためのフローである。
サーバーのデータメモリ213には、各選手の競技フィールドにおける役割(ポジション)の情報が格納されている。さらに、ボールがある位置に従って、選手の役割に基づく位置も変わってくるので、この情報も合わせて格納してある。
サーバーは複数台のカメラの映像からボールの現在ある位置を検出して、試合状況(攻撃している状態であるかあるいは守備をしている状態であるかの状況)を認識する。この情報をもとにして、選手のおおまかな位置を検出しやすくなる。すなわち、ゲーム状況からの判断し、選手の役割に注目して、役割からの選手のいる場所の推定をしていく。これは、サーバー側での判断が主体となる。
選手の役割を考慮した注目選手検出制御フローの例を図16に示す。図16において、S701で、サーバーは、複数台のカメラの映像に基づき、ボールの位置情報を検出する。このボールの位置情報から選手のいる大まかな位置を推定する。さらに、フォワード、バックスなどの選手の役割(背番号で選手の役割を認識する。)に応じて、顔情報で選手をサーチするエリアを認識する。S702で、サーバーは注目選手の複数の顔情報をデータメモリ213から取得し、複数台のカメラの映像情報と比較して、この顔情報の選手の位置情報を取得する。
S703では、S702にて複数のカメラの映像から取得された注目選手の位置情報に基づき注目選手の絶対位置を検出する。S704で、S703で検出した注目選手の絶対位置をプロカメラマンや一般観客が保有するカメラに対して送信する。S705では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS701に進み、注目選手の追跡が継続していないと図16のフローを終了する。
ここでは、ボールの位置に応じて、試合の状況(あるチームが攻撃しているか守備をしているか)を判断したが、たとえば、試合状況に基づいた制御としては、ボールの位置に限定されない。たとえば、あるチームが反則をすると相手のチームに、ペナルティキックなどが与えられる。この場合、試合は、ペナルティキックを得たチームは、今のボールの位置より、前進する可能性が高い。よって、この前進することを予測した試合状況に基づいた制御が可能になる。ボールの位置を反則ということから予測しても良い。
このように、本実施例によれば、カメラで撮影をしている時や観客が端末で試合観戦などをしているときに、注目選手の位置情報をプロカメラマンや一般観客にタイムリーに知らせることができる。これにより、プロカメラマンや一般観客は、注目選手のいる位置を逐次認識できて、注目選手の好プレイを確実に撮影できる。
次にプロカメラマンや一般観客が保持するカメラに注目選手の位置情報を表示する際の表示方法の例について図17(A)〜(D)を用いて説明する。
本実施例では、カメラ等の端末の画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、サーバーから注目選手の位置情報が送られてきたら、注目選手の位置に付加情報としてのマークやカーソルや矢印や枠などを重畳表示する。ここで、注目選手が、前記画像表示部の画面外にいる場合には、表示部の画面内の周辺部に、どちらの方向に注目選手がいるかを表示する。この表示を見ることにより、プロカメラマンや一般観客が保持するカメラ等の端末の画面を見れば、どちらの方向にカメラを向ければ、撮影エリアの中に、注目選手が画面に入るかを速やかに認識できるようになる。
図17(A)に、カメラ表示部での映像に対する注目選手の位置情報の表示例が図示されている。3201はカメラの表示部を表している。ここで、注目選手が、表示部の表示画面から外れていて、表示画面の右側にいるのであれば、3202のように表示部の画面内の右側周辺に右側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3203のように表示部の画面内の下側周辺に下側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば3204のように表示部の画面内の左側周辺に左側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3205のように表示部の画面内の上側周辺に上側の矢印を表示する。なお右斜め上方向に注目選手がいる場合には、例えば図17(B)のように画面内の右斜め上方向の周辺に右斜め上方向の矢印を表示する。従って図17(B)に示すように、注目選手は、右斜め上の方向にいることがわかる。
これらの矢印は、プロカメラマンや一般観客にとって、注目選手の撮影をする時に、どちらの方向にカメラを動かせば、注目選手をカメラの撮影のエリアに入れることができるかを知らせることができるものである。これにより、プロカメラマンや一般観客は、注目選手を一旦見失ってもすぐに、撮影画面内に入れることができ、注目選手の絶好のシャッターチャンスを逃すことなく撮影できる。
次に図17(C)は、どちらにどれだけ動かすと注目選手が撮影エリアに入ってくるかを矢印の向きと矢印の長さで表示する例を示す図である。3401は、カメラの表示部を表している。
ここで、注目選手が、表示エリアから外れていて、表示画面の右側にいるのであれば、3402のように表示部の画面内の右側周辺に右側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3403のように表示部の画面内の下側周辺に下側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば、3404のように表示部の画面内の左側周辺に左側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3405のように表示部の画面内の上側周辺に上側の矢印を表示する。しかも上記において、矢印の長さで画面に対して注目選手がどのくらい外れているか(ずれているか)、即ちカメラをどのくらい回転しないと注目選手が映らないかを表している。注目選手の位置が画面の視野からずれているほど、矢印の長さが長くなっている。
図17(C)においては、3402に示した右側の矢印は比較的短いので、カメラを右方向に比較的小さい角度動かしただけでも注目選手が撮影エリアに入ることがわかる。同様に、3405に示した上側の矢印は比較的短いので、カメラを上側に回転させる角度は比較的小さくても注目選手が撮影エリアに入ることがわかる。一方、3403に示した下側の矢印は、中くらいの長さなので、3402、3405での角度より大きめにカメラを回転すれば注目選手が撮影エリアに入ることがわかる。更に3404に示した左側の矢印は比較的長いので、3403での回転角度より大きめの角度だけカメラを注目選手の方向に回転すれば注目選手が撮影エリアに入ることがわかる。
これにより、プロカメラマンや一般観客にとって、注目選手を撮影エリア(表示画面内)に入れやすくなり、注目選手のシャッターチャンスを逃すことなく撮影できるようになる。
次に、図17(D)は矢印の長さは一定にして矢印の太さを変える例を示す図である。すなわち、今、撮影しているエリアからの回転角度が大きい場合、すなわち、注目選手を撮影のエリアに入るようにするためのカメラの回転角度が大きい場合には、矢印の太さを太くしても良い。3601は、カメラの表示部を表している。ここで、注目選手が、表示エリアから外れていて、表示画面の右側にいるのであれば、3602のように表示部の画面内の右側周辺部に右側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3603のように表示部の画面内の下側周辺部に下側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば、3604のように表示部の画面内の左側周辺部に左側の矢印を表示する。
また、注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3605のように表示部の画面内の上側周辺部に上側の矢印を表示する。更に、上記において、矢印の太さでカメラの回転角度を表している。回転すべき角度が大きいほど、矢印の太さが太くなっている。図17(D)においては、3602や3605に示した矢印より3603に示した矢印や3604に示した左側の矢印は、比較的太いので、比較的大きく回転しないと注目選手が撮影エリアに入らないことがわかる。
このような表示により、プロカメラマンや一般観客にとって、見失った注目選手をすぐに、見つけ出すことが可能になり、注目選手の好プレイをシャッターチャンスを逃すことなく撮影できる。
なお、以上の例では矢印やその長さや太さで注目選手の画面からのずれの方向やずれ量を表示したが、これに限らない。例えば矢印の代わりに文字で単に「画面右上斜め外に存在します。」などのように画面内に存在しないことだけを表示してもよい。その場合音や点滅などによって警告表示するだけでもよい。あるいは「右方向にずれています。」「水平方向に右に20度ずれています。」などと表示してもよいし、画面の端にコンパスのように注目選手のいる方向を回転する針が表示するようにしたり、どの程度画面からずれているかを数字や目盛りを使って画面の隅に表示したりしてもよい。即ち目盛りを表示し、その目盛りのどの位置にカーソルがあるかによってずれ量を表示したり、ずれ量に応じて目盛りに沿ってバーの長さが変化するように表示したりしてもよい。
次に図18は、カメラ側における注目選手表示追跡制御フローの一例を示した図である。
図18において、図8と同じ符番のステップすなわちS3300以外は図8と同じステップなので説明は省略する。S3300は、カメラ自身で注目選手の追跡を実施する。ここで、注目選手がカメラで撮影しているエリアの外にいった時には、その方向を示す矢印が表示部に表示される。このS3300における詳細なフローを図19に示す。
図19において、S3311で、カメラは、サーバーから注目選手の絶対位置情報を受信する。S3312で、カメラは、注目選手の絶対位置情報をこのカメラで撮影している位置、方向、倍率などに基づき相対位置情報に変換する。S3313で、カメラから見た相対位置の情報を基に、注目選手の情報を表示部に表示する。S3314では、注目選手が、カメラの現時点での撮影エリアの外、すなわちカメラの表示部の画面外であるか否かが判断され、外側であればS3316に進み、画面内であるとS3315に進む。S3315では、カメラの表示部に、注目選手のいる位置を示す矢印の表示をしない。代わりに注目選手の位置を示す枠などのマークを表示する。S3316では、カメラの表示部の周辺部に注目選手のいる位置を矢印で表す。S3317では、注目選手の追跡が継続されているか否かが判断され、注目選手の追跡が継続されているとS3311に進み、注目選手の追跡が終了しているとS3300のフローを終了する。
図20は、図18のS3300において、図17(C)のような表示をするためのフローを示す図である。図20において、S3311からS3515、S3517は、図19と同じステップなので説明を省略する。S3516では、カメラの表示部の画面内の周辺部に、注目選手のいる位置を矢印で表す。ここで、カメラの表示画面内にいれるために回転するべき角度に応じて、矢印の長さを変える。カメラの回転角度が大きいほど矢印を長くする。
図21は、図18のS3300において、図17(D)のような表示をするためのフローを示す図である。図21において、S3311からS3515、S3517は、図19、図20と同じなので説明を省略する。S3716では、カメラの表示部の画面内の周辺部に、注目選手のいる位置を矢印で表すとともに、カメラの表示画面内にいれるために回転すべき角度に応じて、矢印の太さを変える。カメラの回転角度が大きいほど矢印を太くする。
なお、注目選手は1人の例で、説明したが、注目選手は複数選手であっても良い。また、注目選手は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。また、実施例では選手を追跡する例を用いて説明したが、犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
101、102、103・・・・カメラ
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部

Claims (27)

  1. 画像を表示する表示手段、
    前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
    前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
    前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
    前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
    前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする画像処理装置。
  2. 前記制御手段は、前記位置情報に基づき前記表示手段の表示画面内における前記特定の対象の位置を前記付加情報として表示することを特徴とする請求項1項に記載の画像処理装置。
  3. 前記サーバーは、映像の中の前記特定の対象を認識し、認識結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記サーバーは、前記特定の対象を画像認識して認識結果に基づき位置情報を生成して前記画像処理装置に送信することを特徴とする請求項2に記載の画像処理装置。
  5. 前記サーバーは、前記特定の対象が有する位置センサーからの信号を認識した結果に基づき前記特定の対象の位置情報を生成することを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記付加情報は枠、カーソル、色や輝度の異なる領域の少なくとも一つを含むことを特徴とする請求項5に記載の画像処理装置。
  7. 前記付加情報は前記特定の対象が画面外にいる場合には画面から見てどの方向にいるかを示すものであることを特徴とする請求項6に記載の画像処理装置。
  8. 前記付加情報は前記特定の対象がどのくらい画面からずれているかを示すものであることを特徴とする請求項6または7に記載の画像処理装置。
  9. 前記付加情報は前記特定の対象がどのくらい画面からずれているかを矢印の長さまたは太さによって示すものであることを特徴とする請求項8に記載の画像処理装置。
  10. 前記付加情報は前記特定の対象がどのくらい画面からずれているかを数字または目盛りによって示すものであることを特徴とする請求項8に記載の画像処理装置。
  11. 前記サーバーは、前記特定の対象が装着している番号、前記特定の対象の一部または全体の形状を画像認識することを特徴とする請求項4に記載の画像処理装置。
  12. 前記サーバーは、複数のカメラからの映像の中の前記特定の対象を画像認識した結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 前記特定の対象の位置情報をサーバーから取得した後に、前記特定の対象の追跡を実行する追跡手段を更に有し、前記送信手段は、追跡に失敗したときには、前記サーバーへ位置情報の送信をリクエストすることを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記サーバーは、前記画像処理装置が前記特定の対象の追跡に失敗すると予測する場合には、前記画像処理装置からの前記リクエストを待たずに、前記特定の対象の位置情報を画像処理装置に通知することを特徴とする請求項13に記載の画像処理装置。
  15. 前記サーバーは、前記特定の対象が存在するフィールド全体の映像をあらかじめ取得し、前記位置情報を生成することを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 前記サーバーは前記フィールドにおける前記特定の対象の位置情報に基づき、前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項15に記載の画像処理装置。
  17. 前記サーバーは前記フィールドにおける前記特定の対象の第1の位置情報を前記画像処理装置に送信し、前記画像処理装置は前記第1の位置情報に基づき前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項16に記載の画像処理装置。
  18. 前記選択手段は複数の特定の対象を選択することを特徴とする請求項1から請求項17のいずれか1項に記載の画像処理装置。
  19. 前記表示手段に表示される画像は撮像手段によって得られたライブビュー画像であり、前記ライブビュー画像に前記位置情報に基づく前記付加情報が重畳表示されることを特徴とする請求項1から18のいずれか一項に記載の画像処理装置。
  20. 画像を表示する表示手段、
    前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
    前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
    前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
    前記サーバーから前記指定情報に基づき前記特定の対象の位置情報を取得する取得手段、
    前記取得手段によって取得された前記特定の対象の位置情報に基づき、前記特定の対象の位置が前記表示手段の画面外に存在する場合に前記画面から外れていることを表示する制御手段、を有することを特徴とする画像処理装置。
  21. 前記制御手段は、前記特定の対象が前記表示手段の画面外に存在する場合には前記画面に対して外れている方向を表示することを特徴とする請求項20に記載の画像処理装置。
  22. 前記制御手段は、前記特定の対象が前記表示手段の画面外に存在する場合には前記画面に対してどのくらい外れているかを表示することを特徴とする請求項20または21に記載の画像処理装置。
  23. 画像処理装置から送られてくる特定の対象に関する指定情報を受信する受信手段、
    前記受信手段によって受信された指定情報に基づき、前記特定の対象を映像の中から探して前記特定の対象の位置に関するデータを生成する生成手段、
    前記生成手段によって生成された前記特定の対象の位置に関するデータを前記画像処理装置に送信する送信手段、を有することを特徴とする画像処理サーバー。
  24. 請求項1から22のうちいずれか一項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
  25. 請求項24に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
  26. 請求項23に記載の画像処理サーバーの各手段としてコンピュータを機能させるためのコンピュータプログラム。
  27. 請求項26に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。

JP2018209494A 2018-11-07 2018-11-07 画像処理装置 Active JP7233887B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018209494A JP7233887B2 (ja) 2018-11-07 2018-11-07 画像処理装置
PCT/JP2019/040874 WO2020095647A1 (ja) 2018-11-07 2019-10-17 画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体
CN201980088091.XA CN113273171A (zh) 2018-11-07 2019-10-17 图像处理装置、图像处理服务器、图像处理方法、计算机程序和存储介质
US17/307,582 US20210258496A1 (en) 2018-11-07 2021-05-04 Image processing device, image processing server, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018209494A JP7233887B2 (ja) 2018-11-07 2018-11-07 画像処理装置

Publications (2)

Publication Number Publication Date
JP2020077953A true JP2020077953A (ja) 2020-05-21
JP7233887B2 JP7233887B2 (ja) 2023-03-07

Family

ID=70724470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209494A Active JP7233887B2 (ja) 2018-11-07 2018-11-07 画像処理装置

Country Status (1)

Country Link
JP (1) JP7233887B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
JP2009010967A (ja) * 2001-09-28 2009-01-15 Fujifilm Corp 撮影支援装置
JP2010198104A (ja) * 2009-02-23 2010-09-09 Nec Corp 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法
JP2012209943A (ja) * 2011-03-29 2012-10-25 Sony Corp アノテーション方法、アノテーション装置、および携帯電話機
JP2013168854A (ja) * 2012-02-16 2013-08-29 Nikon Corp 撮影装置、サーバ装置及び管理システム
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009010967A (ja) * 2001-09-28 2009-01-15 Fujifilm Corp 撮影支援装置
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
JP2010198104A (ja) * 2009-02-23 2010-09-09 Nec Corp 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法
JP2012209943A (ja) * 2011-03-29 2012-10-25 Sony Corp アノテーション方法、アノテーション装置、および携帯電話機
JP2013168854A (ja) * 2012-02-16 2013-08-29 Nikon Corp 撮影装置、サーバ装置及び管理システム
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法

Also Published As

Publication number Publication date
JP7233887B2 (ja) 2023-03-07

Similar Documents

Publication Publication Date Title
US9967458B2 (en) Controlling a client terminal to automatically determine image settings
KR101680714B1 (ko) 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체
CN106575027B (zh) 摄像装置及其被摄体跟踪方法
JP5194650B2 (ja) 電子カメラ
US9648229B2 (en) Image processing device and associated methodology for determining a main subject in an image
US8730335B2 (en) Imaging apparatus and imaging system
US8760518B2 (en) Photographing apparatus, photographing system and photographing method
US8817134B2 (en) Imaging control device, subject detection method, and program
US9094597B2 (en) Imaging apparatus and imaging system
CN108259921B (zh) 一种基于场景切换的多角度直播系统及切换方法
JP5991514B2 (ja) 撮像装置及び撮像システム
JP4121974B2 (ja) 画像撮影システムおよび画像撮影方法
JP2011091607A (ja) 撮像装置、撮像方法、及び撮像システム
KR20150119793A (ko) 촬상 장치, 카메라 유닛, 표시 유닛, 촬영 방법, 표시 방법 및 기록 매체
US20210258505A1 (en) Image processing apparatus, image processing method, and storage medium
US20210258496A1 (en) Image processing device, image processing server, image processing method, and storage medium
KR101814714B1 (ko) 스마트폰 카메라 원격 제어 방법 및 시스템
JP7235098B2 (ja) 情報配信装置、情報配信方法、情報配信プログラム
JP7282519B2 (ja) 画像処理装置または画像処理サーバー
JP7233887B2 (ja) 画像処理装置
JP7289630B2 (ja) 画像処理装置
JP7233886B2 (ja) 画像処理装置
JP2017022650A (ja) 撮影システム、携帯機器、撮像装置、カメラ選択方法及びプログラム
JP2015037219A (ja) 撮像装置、撮像方法およびプログラム
JP2014123853A (ja) 撮影機器、画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R151 Written notification of patent or utility model registration

Ref document number: 7233887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151