JP7040599B2 - Viewing support device, viewing support method and program - Google Patents

Viewing support device, viewing support method and program Download PDF

Info

Publication number
JP7040599B2
JP7040599B2 JP2020506548A JP2020506548A JP7040599B2 JP 7040599 B2 JP7040599 B2 JP 7040599B2 JP 2020506548 A JP2020506548 A JP 2020506548A JP 2020506548 A JP2020506548 A JP 2020506548A JP 7040599 B2 JP7040599 B2 JP 7040599B2
Authority
JP
Japan
Prior art keywords
image
moving body
moving
speed
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020506548A
Other languages
Japanese (ja)
Other versions
JPWO2019176922A1 (en
Inventor
亜紀 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019176922A1 publication Critical patent/JPWO2019176922A1/en
Priority to JP2022034126A priority Critical patent/JP7276538B2/en
Application granted granted Critical
Publication of JP7040599B2 publication Critical patent/JP7040599B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

(関連出願についての記載)
本発明は、日本国特許出願:特願2018-045582号(2018年3月13日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、視聴支援装置、視聴支援方法及びプログラムに関する。
(Description of related applications)
The present invention is based on the priority claim of Japanese patent application: Japanese Patent Application No. 2018-045582 (filed on March 13, 2018), and all the contents of the application are incorporated in this document by citation. It shall be.
The present invention relates to a viewing support device, a viewing support method, and a program.

特許文献1に、複数移動体を撮像した動画から複数の移動体の対応付けを行う移動体識別装置の一例が開示されている。また、特許文献2には、移動体を撮影して得られる移動体の識別情報を認識し、予め登録した識別情報から検索する可搬型の情報認識装置を含む構成が開示されている。さらに、特許文献2の13頁8行以下には、陸上トラック競技においてトラックの各所に撮像装置を配置し、選手を撮影した静止画からゼッケンナンバーを読み取り、一般家庭に動画とともに、各選手のスプリットタイムを配信する構成が開示されている。 Patent Document 1 discloses an example of a moving body identification device that associates a plurality of moving bodies with a moving image of a plurality of moving bodies. Further, Patent Document 2 discloses a configuration including a portable information recognition device that recognizes the identification information of the moving body obtained by photographing the moving body and searches from the identification information registered in advance. Further, in Patent Document 2, page 13, line 8 and below, image pickup devices are placed in various parts of the track in athletics track competition, the bib number is read from the still image of the athlete, and the split of each athlete is accompanied by a video for general households. The configuration for delivering time is disclosed.

また、非特許文献1には、駅伝やマラソンなどのロードレース中継における走者間の距離を推定するシステムが開示されている。また、同文献の距離推定システムは、中継車の位置、カメラデータ、映像中の走者座標(フレーム内の被写体の位置)からカメラと走者間の距離を推定し、走者位置のフレーム間の変化から走者の速度を求めることができると記載されている(図1参照)。 Further, Non-Patent Document 1 discloses a system for estimating the distance between runners in a road race relay such as a relay road race or a marathon. In addition, the distance estimation system of the same document estimates the distance between the camera and the runner from the position of the relay vehicle, camera data, and the runner coordinates (position of the subject in the frame) in the image, and from the change between the frames of the runner position. It is stated that the speed of the runner can be determined (see FIG. 1).

特開2018-005474号公報Japanese Unexamined Patent Publication No. 2018-005474 国際公開第2003/034278号International Publication No. 2003/034278

「ロードレース中継距離推定システム」、兼六館出版、「放送技術」,2016年69巻5月号,pp.101-105"Road Race Relay Distance Estimating System", Kenrokukan Publishing, "Broadcasting Technology", Vol. 69, May 2016, pp.101-105

以下の分析は、本発明によって与えられたものである。上記した背景技術に記載の手法では、任意の時点における選手の速度を推定することはできないという問題点がある。 The following analysis is given by the present invention. The method described in the background technique described above has a problem that the speed of the athlete at any time cannot be estimated.

また、非特許文献1の方法では、任意の時点における走者の速度を推定できるが、中継車の位置、カメラデータをリアルタイムに入手できることが条件となる。 Further, in the method of Non-Patent Document 1, the speed of the runner at an arbitrary time point can be estimated, but it is a condition that the position of the relay vehicle and the camera data can be obtained in real time.

本発明は、上記した情報が得られなくとも、中継映像に映し出された移動体とその速度を測定し、映像の付帯情報として提供できる構成の豊富化に貢献できる視聴支援装置、視聴支援方法及びプログラムを提供することを目的とする。 The present invention is a viewing support device, a viewing support method, and a viewing support method that can contribute to the enrichment of configurations that can be provided as incidental information of a video by measuring a moving body and its speed projected on a relay video even if the above information cannot be obtained. The purpose is to provide a program.

第1の視点によれば、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す手段を備えた視聴支援装置が提供される。この視聴支援装置は、さらに、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する手段と、前記移動体の推定速度を出力する手段と、を備える。 According to the first viewpoint, a means for cutting out an image on which the moving object is projected is provided at a predetermined time interval from a relay image having a moving object moving from the first point to the second point as a subject. A viewing support device is provided. The viewing support device further includes means for estimating the speed of the moving body based on the change in the background image of the image on which the moving body is projected, and means for outputting the estimated speed of the moving body. ..

第2の視点によれば、第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す手段と、前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の距離差を推定する手段と、前記複数の移動体の距離差を出力する手段と、を備えた視聴支援装置が提供される。 According to the second viewpoint, an image in which the plurality of moving objects are projected at predetermined time intervals from a relay image in which a plurality of moving objects moving from the first point to the second point are the subjects. A means for cutting out, a means for estimating the distance difference of the moving body based on a change in the background image of the image on which the plurality of moving bodies are projected, and a means for outputting the distance difference of the plurality of moving bodies. A equipped viewing support device is provided.

第3の視点によれば、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出すステップと、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定するステップと、前記移動体の推定速度を出力するステップと、を含む視聴支援方法が提供される。本方法は、少なくとも中継映像を入力として、画像分析を行って付帯情報を出力するコンピュータという、特定の機械に結びつけられている。 According to the third viewpoint, a step of cutting out an image on which the moving object is projected at a predetermined time interval from a relay image of a moving object moving from the first point to the second point as a subject. A viewing support method including a step of estimating the speed of the moving body and a step of outputting the estimated speed of the moving body based on a change in the background image of the image on which the moving body is projected is provided. This method is linked to a specific machine, which is a computer that takes at least a relay image as an input, performs image analysis, and outputs incidental information.

第4の視点によれば、視聴支援装置を構成するコンピュータに、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す処理と、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する処理と、前記画像に映し出された前記移動体の像に基づいて、前記移動体を特定する処理と、前記特定した移動体の情報と、その推定速度とを出力する処理と、を実行させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。また、このプログラムは、コンピュータ装置に入力装置又は外部から通信インタフェースを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェースを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。 According to the fourth viewpoint, the moving object is displayed on the computer constituting the viewing support device at predetermined time intervals from the relay image of the moving object moving from the first point to the second point as a subject. Based on the process of cutting out the projected image, the process of estimating the speed of the moving body based on the change in the background image of the projected image of the moving body, and the process of estimating the speed of the moving body, and the image of the moving body projected on the image. Further, a program for executing a process of specifying the moving body and a process of outputting the information of the specified moving body and the estimated speed thereof is provided. Note that this program can be recorded on a computer-readable (non-transitional) storage medium. That is, the present invention can also be embodied as a computer program product. Further, this program is input to a computer device from an input device or an external communication interface, stored in a storage device, drives a processor according to a predetermined step or process, and processes the result including an intermediate state as necessary. Can be displayed step by step via a display device, or can communicate with the outside via a communication interface. Computer devices for that purpose typically include, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device that can be connected to each other by a bus.

本発明によれば、任意の時点における移動体の速度を推定することが可能となる。即ち、本発明は、背景技術に記載した視聴支援装置を、被写体となった移動体の速度情報を提供可能なものへと変換するものとなっている。 According to the present invention, it is possible to estimate the speed of a moving body at an arbitrary time point. That is, the present invention converts the viewing support device described in the background technology into a device capable of providing speed information of a moving object as a subject.

本発明の一実施形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of this invention. 本発明の第1の実施形態の全体構成を示す図である。It is a figure which shows the whole structure of the 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置の構成を示す図である。It is a figure which shows the structure of the viewing support device of 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置の走者情報データベースに保持される情報の一例を示す図である。It is a figure which shows an example of the information held in the runner information database of the viewing support apparatus of 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の一例を示す図である。It is a figure which shows an example of the information provision form by the viewing support device of 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の別の一例を示す図である。It is a figure which shows another example of the information provision form by the viewing support device of 1st Embodiment of this invention. 本明の第2の実施形態の視聴支援装置の構成を示す図である。It is a figure which shows the structure of the viewing support device of the 2nd Embodiment of this Akira. 本発明の第2の実施形態の視聴支援装置による情報の提供形態の一例を示す図である。It is a figure which shows an example of the information provision form by the viewing support device of the 2nd Embodiment of this invention. 本発明の第3の実施形態の視聴支援装置の構成を示す図である。It is a figure which shows the structure of the viewing support device of the 3rd Embodiment of this invention. 本発明の第3の実施形態の視聴支援装置の基準背景画像データベースに保持される情報の一例を示す図である。It is a figure which shows an example of the information held in the reference background image database of the viewing support apparatus of the 3rd Embodiment of this invention. 本発明の第3の実施形態の視聴支援装置が切り出す中継画像を模式的に表した図である。It is a figure which represented typically the relay image cut out by the viewing support apparatus of the 3rd Embodiment of this invention. 本発明の第3の実施形態の視聴支援装置による走者位置特定の原理を説明するための図である。It is a figure for demonstrating the principle of locating a runner by the viewing support apparatus of 3rd Embodiment of this invention. 本発明の視聴支援装置を構成するコンピュータの構成を示す図である。It is a figure which shows the structure of the computer which comprises the viewing support device of this invention. 本発明の一実施形態の変形構成を示す図である。It is a figure which shows the modified structure of one Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置の変形構成を示す図である。It is a figure which shows the modified structure of the viewing support device of 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の別の一例を示す図である。It is a figure which shows another example of the information provision form by the viewing support device of 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の別の一例を示す図である。It is a figure which shows another example of the information provision form by the viewing support device of 1st Embodiment of this invention.

はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート乃至インタフェースがあるが図示省略する。また、プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、コンピュータ装置は、通信インタフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。 First, an outline of one embodiment of the present invention will be described with reference to the drawings. It should be noted that the drawing reference reference numerals added to this outline are added to each element for convenience as an example for assisting understanding, and the present invention is not intended to be limited to the illustrated embodiment. Further, the connecting line between blocks such as drawings referred to in the following description includes both bidirectional and unidirectional. The one-way arrow schematically shows the flow of the main signal (data), and does not exclude bidirectionality. Further, although there are ports or interfaces at the input / output connection points of each block in the figure, they are not shown. Also, the program is executed via a computer device, which includes, for example, a processor, a storage device, an input device, a communication interface, and a display device as needed. Further, the computer device is configured to be able to communicate with a device inside or outside the device (including a computer) via a communication interface regardless of whether it is wired or wireless.

本発明は、その一実施形態において、図1に示すように、画像切り出し部11と、速度推定部12と、出力部14と、を備えた視聴支援装置10にて実現できる。 In one embodiment of the present invention, as shown in FIG. 1, the present invention can be realized by a viewing support device 10 including an image cutting unit 11, a speed estimation unit 12, and an output unit 14.

より具体的には、画像切り出し部11は、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す手段として機能する。 More specifically, the image cutting unit 11 displays an image on which the moving object is projected at predetermined time intervals from a relay image whose subject is a moving object moving from the first point to the second point. It functions as a means of cutting out.

速度推定部12は、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する手段として機能する。 The speed estimation unit 12 functions as a means for estimating the speed of the moving body based on the change in the background image of the image on which the moving body is projected.

出力部14は、前記移動体の推定速度を出力する手段として機能する。なお、出力部14によると、移動体の推定速度の出力形態としては種々のものが考えられる。例えば、中継画像に重畳表示(スーパーインポーズ)する情報として、移動体の推定速度を表示しても良い。また例えば、中継画像とは別のサブ領域に表示する情報として、移動体の推定速度を表示しても良い。また、中継映像の内容をより詳しく知るためのウェブサイトやアプリケーションプログラムにより表示する情報として移動体の推定速度を表示してもよい。 The output unit 14 functions as a means for outputting the estimated speed of the moving body. According to the output unit 14, various output forms of the estimated speed of the moving body can be considered. For example, the estimated speed of the moving object may be displayed as the information to be superimposed and displayed (superimposed) on the relay image. Further, for example, the estimated speed of the moving body may be displayed as information to be displayed in a sub-region different from the relay image. Further, the estimated speed of the moving object may be displayed as the information to be displayed by the website or the application program for knowing the contents of the relay video in more detail.

以上のとおり、本実施形態によれば、中継映像に映し出された移動体とその速度を測定し、映像の付帯情報として提供することが可能となる。 As described above, according to the present embodiment, it is possible to measure the moving body and its speed projected on the relay video and provide it as incidental information of the video.

また、本発明は、別の実施形態において、前記推定速度の代わりに、あるいは、前記推定速度と併せて、複数の移動体の間の距離差を推定し、出力する視聴支援装置としても構成できる(図14参照)。図14の例では、前述の速度推定部12の代わりに距離差推定部18が備えられている。そして、この実施形態では、画像切り出し部11は、前記第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す処理を行う。そして、距離差推定部18は、前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の間の距離差を推定する。そして、出力部14は、前記複数の移動体の距離差を出力する。 Further, in another embodiment, the present invention can be configured as a viewing support device that estimates and outputs a distance difference between a plurality of moving objects instead of the estimated speed or in combination with the estimated speed. (See FIG. 14). In the example of FIG. 14, a distance difference estimation unit 18 is provided instead of the speed estimation unit 12 described above. Then, in this embodiment, the image cutting unit 11 is the plurality of moving objects at predetermined time intervals from the relay image in which the plurality of moving objects moving from the first point to the second point are the subjects. Performs the process of cutting out the projected image. Then, the distance difference estimation unit 18 estimates the distance difference between the moving bodies based on the change in the background image of the image on which the plurality of moving bodies are projected. Then, the output unit 14 outputs the distance difference between the plurality of moving bodies.

以上のとおり、本実施形態によれば、中継映像に映し出された複数の移動体の間の距離差を測定し、映像の付帯情報として提供することが可能となる。 As described above, according to the present embodiment, it is possible to measure the distance difference between a plurality of moving objects projected on the relay video and provide it as incidental information of the video.

[第1の実施形態]
続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。図2は、本発明の第1の実施形態の全体構成を示す図である。図2を参照すると、ロードレース等を中継する中継車に搭載されたカメラ200と、視聴支援装置100と、視聴支援装置100の情報の出力先となるテレビジョン受像機300とが接続された構成が示されている。
[First Embodiment]
Subsequently, the first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 2 is a diagram showing the overall configuration of the first embodiment of the present invention. Referring to FIG. 2, a configuration in which a camera 200 mounted on a relay vehicle that relays a road race or the like, a viewing support device 100, and a television receiver 300 that is an output destination of information of the viewing support device 100 are connected. It is shown.

カメラ200は、撮影した中継映像を視聴支援装置100に送信する。カメラ200と視聴支援装置100とデータの転送は、有線方式でも無線方式でも磁気テープなどの物理媒体の移送方式でもよい。 The camera 200 transmits the captured relay video to the viewing support device 100. The data transfer between the camera 200 and the viewing support device 100 may be a wired method, a wireless method, or a physical medium transfer method such as a magnetic tape.

視聴支援装置100は、望ましい一形態において、放送局もしくは動画配信事業者等に配置される。なお、視聴支援装置100の配置先は、放送局もしくは動画配信事業者等に限られず、例えば、中継車内、あるいは、テレビジョン受像機側に配置されていてもよい。また、視聴支援装置100は、インターネット上や、クラウド基盤上に配置されていてもよい。 The viewing support device 100 is arranged in a broadcasting station, a video distribution company, or the like in a desirable form. The viewing support device 100 is not limited to a broadcasting station, a video distribution company, or the like, and may be arranged, for example, in a relay vehicle or on the television receiver side. Further, the viewing support device 100 may be arranged on the Internet or a cloud platform.

テレビジョン受像機300は、中継画像のほか、視聴支援装置100により得られた情報の出力先となる。なお、視聴支援装置100により得られた情報の出力先は、中継画像とその付帯情報を表示可能な装置であればよく、テレビジョン受像機300以外の装置を用いても良い。例えば、インターネット経由で動画再生が可能なPC(パーソナルコンピュータ)、タブレット端末、スマートフォンその他の機器をテレビジョン受像機300の代わりに用いることもできる。 The television receiver 300 is an output destination of information obtained by the viewing support device 100 in addition to the relay image. The output destination of the information obtained by the viewing support device 100 may be any device that can display the relay image and its incidental information, and a device other than the television receiver 300 may be used. For example, a PC (personal computer), a tablet terminal, a smartphone or other device capable of playing a moving image via the Internet can be used instead of the television receiver 300.

図3は、本発明の第1の実施形態の視聴支援装置の構成を示す図である。図3を参照すると、画像切り出し部110と、速度推定部120と、移動体特定部130と、出力部140と、走者情報DB(データベース)150と、を含む構成が示されている。 FIG. 3 is a diagram showing a configuration of a viewing support device according to the first embodiment of the present invention. Referring to FIG. 3, a configuration including an image cutting unit 110, a speed estimation unit 120, a moving object specifying unit 130, an output unit 140, and a runner information DB (database) 150 is shown.

画像切り出し部110は、中継映像から走者の位置を特定するための画像を切り出し、速度推定部120と移動体特定部130に送る処理を行う。本実施形態では、画像切り出し部110は、中継映像における被写体である走者の足が地に着いたタイミングで、画像を切り出す。像を切り出すタイミングを、走者の足が地に着いたタイミングとする理由は、走者と背景画像の位置関係を適切に特定できるようになり、速度の推定精度が向上するためである。なお、本実施形態では「画像を切り出す」との表現を用いるが、実際には、中継映像を構成するフレームから走者の足が地に着いているフレームを選択すればよい。 The image cutting unit 110 cuts out an image for specifying the position of the runner from the relay video and sends it to the speed estimation unit 120 and the moving object specifying unit 130. In the present embodiment, the image cutting unit 110 cuts out an image at the timing when the foot of the runner, which is the subject in the relay video, touches the ground. The reason why the timing of cutting out the image is the timing when the runner's foot reaches the ground is that the positional relationship between the runner and the background image can be appropriately specified, and the speed estimation accuracy is improved. In the present embodiment, the expression "cut out the image" is used, but in reality, a frame in which the runner's foot is on the ground may be selected from the frames constituting the relay video.

移動体特定部130は、走者情報DB150に格納された情報を参照して、中継映像の被写体である走者の顔画像やゼッケンから、走者を特定し、その結果を出力部140に出力する。なお、この走者の特定に顔画像を用いる場合、AI(Artificial Intelligence)利用して、事前に登録した顔画像と近似する特徴量を持つ走者を特定する方法を用いることができる。 The moving body specifying unit 130 refers to the information stored in the runner information DB 150, identifies the runner from the face image and the bib of the runner, which is the subject of the relay video, and outputs the result to the output unit 140. When a face image is used to identify the runner, a method of specifying a runner having a feature amount similar to the face image registered in advance can be used by using AI (Artificial Integrity).

図4は、走者情報DB150に保持される情報の一例を示す図である。図4の例では、ゼッケンと選手名を対応付けた走者情報が格納されている。移動体特定部130は、画像切り出し部110から送られた画像からゼッケンを文字認識し、そのゼッケンに対応する走者名を読み出して、出力部140に送る。なお、図4の例では、ゼッケンにて走者を特定する場合の情報を示しているが、例えば、顔画像から走者を特定する場合には、ゼッケンに代えて、事前に撮影された走者の顔画像が登録される。また、図4の例以外にも、例えば、各走者の所属するチームや、年齢、過去の入賞歴などのプロフィール情報を走者情報DB150に登録してもよい。 FIG. 4 is a diagram showing an example of information held in the runner information DB 150. In the example of FIG. 4, the runner information in which the bib and the player name are associated with each other is stored. The moving body specifying unit 130 recognizes a bib from the image sent from the image cutting unit 110, reads out the runner name corresponding to the bib, and sends it to the output unit 140. In the example of FIG. 4, information is shown when the runner is identified by the bib. For example, when the runner is identified from the face image, the runner's face taken in advance is taken instead of the bib. The image is registered. In addition to the example of FIG. 4, for example, profile information such as the team to which each runner belongs, age, and past winning history may be registered in the runner information DB 150.

速度推定部120は、中継映像の被写体である走者の背景画像の変化から、走者の速度を推定し、その結果を出力部140に出力する。 The speed estimation unit 120 estimates the speed of the runner from the change in the background image of the runner who is the subject of the relay image, and outputs the result to the output unit 140.

上記速度の推定方法の一例を示すと次のようになる。速度推定部120は、画像切り出し部110にて切り出された連続する複数フレームの差分情報からカメラ200と走者の移動量、背景画像に含まれる地平線と地表面の映像内の位置、走者の足の接地位置を推定することで、カメラ200と走者の相対距離を推定する。併せて、速度推定部120は、同様の手法で、カメラ200(中継車)の移動距離を推定する。次に、速度推定部120は、画像切り出し部110にて切り出されたフレームのフレームレートと、相対距離の変化から走者の相対速度(カメラ200から見た速度)を計算する。併せて、速度推定部120は、同様の手法で、カメラ200(中継車)の移動速度を推定する。最後に、速度推定部120は、走者の相対速度とカメラ200(中継車)の移動速度とを合算することで、走者の移動速度を計算する。 An example of the above speed estimation method is as follows. The speed estimation unit 120 determines the movement amount of the camera 200 and the runner from the difference information of a plurality of consecutive frames cut out by the image cutout unit 110, the position of the horizon and the ground surface included in the background image in the image, and the runner's foot. By estimating the ground contact position, the relative distance between the camera 200 and the runner is estimated. At the same time, the speed estimation unit 120 estimates the moving distance of the camera 200 (relay vehicle) by the same method. Next, the speed estimation unit 120 calculates the relative speed of the runner (speed seen from the camera 200) from the frame rate of the frame cut out by the image cutting unit 110 and the change in the relative distance. At the same time, the speed estimation unit 120 estimates the moving speed of the camera 200 (relay vehicle) by the same method. Finally, the speed estimation unit 120 calculates the moving speed of the runner by adding up the relative speed of the runner and the moving speed of the camera 200 (relay vehicle).

出力部140は、移動体特定部130から受け取った走者情報と、速度推定部120から受け取った走者の推定速度とを対応付けて視聴者に提供する。図5は、出力部140による情報の提供形態の一例であり、図5の例では、中継映像に重畳させる形態で、走者の情報(選手名)と、推定速度が表示されている。これにより、視聴者は、走者が現在どの程度の速度で走っているのかはもちろんとして、そのペースが落ちているのか、逆にピッチを上げてきているのかといった情報を得ることが可能となる。 The output unit 140 provides the viewer with the runner information received from the mobile object specifying unit 130 and the estimated speed of the runner received from the speed estimation unit 120 in association with each other. FIG. 5 is an example of the form of providing information by the output unit 140, and in the example of FIG. 5, the runner's information (player name) and the estimated speed are displayed in a form of being superimposed on the relay video. This allows the viewer to obtain information such as how fast the runner is currently running, as well as whether the pace is slowing down or, conversely, the pitch is rising.

なお、上記走者の情報と、推定速度の出力形態は図5に示した例に限られない。例えば、図6のボックス400a、400b内に示すように、画像に映し出された複数の走者について、それぞれ走者情報を特定し、かつ、それぞれの推定速度を求めて表示することも可能である。これにより、視聴者は、各走者の速度差を把握することが可能となる。また、例えば、中継映像の表示領域とは別のサブ領域に、前記特定した走者のリストと、推定した各走者の速度をまとめて表示する形態も採用可能である。 The information of the runner and the output form of the estimated speed are not limited to the example shown in FIG. For example, as shown in the boxes 400a and 400b of FIG. 6, it is also possible to specify the runner information for each of the plurality of runners projected on the image and to obtain and display the estimated speed of each runner. This allows the viewer to grasp the speed difference of each runner. Further, for example, a form in which the list of the specified runners and the estimated speed of each runner are collectively displayed in a sub-area different from the display area of the relay video can be adopted.

なお、上記した実施形態では、画像切り出し部110から移動体特定部130に切り出された画像が送られるものとして説明したが、移動体特定部130への画像送信タイミングはこれに限られない。たとえば、移動体特定部130が、シーン切り替わりなどの適切なタイミングで画像を取得し、速度推定とは独立して、中継映像やそのフレーム画像から走者を特定することでもよい。走者の情報は、一旦特定してしまえば、以降基本的に変える必要はないからである。 In the above embodiment, the image cut out from the image cutting unit 110 is sent to the moving body specifying unit 130, but the timing of transmitting the image to the moving body specifying unit 130 is not limited to this. For example, the moving body specifying unit 130 may acquire an image at an appropriate timing such as scene switching, and may specify the runner from the relay video or the frame image thereof independently of the speed estimation. This is because once the runner's information is specified, there is basically no need to change it.

例えば、特許文献1との比較においても、本発明では、移動体である選手等に、加速度センサ等の測定装置を装着してもらう必要がないという利点がある。また、特許文献2との比較においても、本発明は、予め決められたコースの各所に撮像装置を配置する必要がないという利点がある。 For example, even in comparison with Patent Document 1, the present invention has an advantage that it is not necessary for a moving athlete or the like to wear a measuring device such as an acceleration sensor. Further, in comparison with Patent Document 2, the present invention has an advantage that it is not necessary to arrange the image pickup apparatus in various places of the predetermined course.

また、本実施形態の視聴支援装置にも、複数の移動体の間の距離差、即ち、複数の走者の間の距離差の表示機能を追加することもできる。図15は、本発明の第1の実施形態の視聴支援装置100cの変形構成を示す図である。図3の構成との相違点は、速度推定部120と、出力部140の間に距離差推定部180が追加されている点である。 Further, the viewing support device of the present embodiment can also be provided with a function of displaying a distance difference between a plurality of moving objects, that is, a distance difference between a plurality of runners. FIG. 15 is a diagram showing a modified configuration of the viewing support device 100c according to the first embodiment of the present invention. The difference from the configuration of FIG. 3 is that a distance difference estimation unit 180 is added between the speed estimation unit 120 and the output unit 140.

距離差推定部180は、速度推定部120の速度推定の過程で算出された走者の位置情報を用いて、複数の走者の間の距離差を推定する。そして、距離差推定部180は、推定した複数の走者の間の距離差を出力部140に出力する。そして、出力部140は、走者の推定速度に加えて、複数の走者の距離差を視聴者に提供する。 The distance difference estimation unit 180 estimates the distance difference between a plurality of runners by using the position information of the runners calculated in the process of speed estimation by the speed estimation unit 120. Then, the distance difference estimation unit 180 outputs the estimated distance difference between the plurality of runners to the output unit 140. Then, the output unit 140 provides the viewer with a distance difference between the plurality of runners in addition to the estimated speed of the runners.

図15に示す変形構成によれば、図16のように、走者間の双方向矢印と、推定した距離差を表示することができる。これにより、視聴者は、複数の走者の間のそれぞれの距離差、速度差を参照して、「あと何分後に追いつきそうだ」、「このペースでは追いつけない」といった予測をすることができる。 According to the modified configuration shown in FIG. 15, as shown in FIG. 16, a bidirectional arrow between runners and an estimated distance difference can be displayed. As a result, the viewer can make predictions such as "it seems to catch up in a few minutes" or "cannot catch up at this pace" by referring to each distance difference and speed difference between the plurality of runners.

また、より望ましい形態において、過去のレコードタイムなどが記録されている場合には、レコードタイムから、AR(Augmented Reality)技術を用いて、そのレコードタイムを出した仮想的な走者を表示することもできる。図17のゼッケン11番の手前の破線で表された走者は、AR技術を用いて表示された仮想的なレコードタイム保持者の像である。図17の例では、この仮想的なレコードタイム保持者と現実の走者と間の距離差を表示している。これにより、視聴者は、それぞれの距離差、速度差を参照して、「レコードタイムを更新しそうだ」、「このペースではレコードタイムを更新できない」といった予測をすることができる。 Further, in a more desirable form, when the past record time or the like is recorded, the virtual runner who put out the record time can be displayed from the record time by using AR (Augmented Reality) technology. can. The runner represented by the broken line in front of the number 11 in FIG. 17 is an image of a virtual record time holder displayed using AR technology. In the example of FIG. 17, the distance difference between the virtual record time holder and the actual runner is displayed. As a result, the viewer can make predictions such as "the record time is likely to be updated" and "the record time cannot be updated at this pace" by referring to each distance difference and speed difference.

[第2の実施形態]
続いて、走者の表情を判定し、付帯情報として表示する機能を追加した本発明の第2の実施形態について図面を参照して詳細に説明する。図7は、本発明の第2の実施形態の視聴支援装置の構成を示す図である。図3に示した第1の実施形態の視聴支援装置100との差異は、移動体特定部130の下段に表情判定部170が追加されている点である。その他の構成及び動作は第1の実施形態と同様であるので、以下、相違点を中心に説明する。
[Second Embodiment]
Subsequently, the second embodiment of the present invention to which the function of determining the facial expression of the runner and displaying it as incidental information will be described in detail with reference to the drawings. FIG. 7 is a diagram showing a configuration of a viewing support device according to a second embodiment of the present invention. The difference from the viewing support device 100 of the first embodiment shown in FIG. 3 is that the facial expression determination unit 170 is added to the lower stage of the mobile body identification unit 130. Since other configurations and operations are the same as those of the first embodiment, the differences will be mainly described below.

表情判定部170は、移動体特定部130経由で画像切り出し部110から中継画像を受け取ると、その画像中から走者の顔画像を特定し、その表情を判定し、その結果を出力部140に出力する。表情判定部170における表情の判定手法としては、種々の方法を採用できる。例えば、走者の顔の各器官の変化や移動量を用いて表情を判定する方法を採ることができる。また顔の表情のみならず、走者のしぐさなどから、表情を判定してもよい。例えば、走者の顔自体は無表情であっても、顔が左右に揺れている状態が続いている場合に、その走者は「苦しそうな表情」と判定してもよい。また、事前に表情ごとの教師データを登録しておき、走者の表情との対比により表情を判定してもよい。 When the facial expression determination unit 170 receives the relay image from the image cutting unit 110 via the moving body identification unit 130, the facial expression determination unit 170 identifies the runner's face image from the image, determines the facial expression, and outputs the result to the output unit 140. do. Various methods can be adopted as the facial expression determination method in the facial expression determination unit 170. For example, a method of determining a facial expression can be adopted by using the change and the amount of movement of each organ of the runner's face. Further, the facial expression may be determined not only from the facial expression but also from the gesture of the runner. For example, even if the runner's face itself is expressionless, if the face continues to sway from side to side, the runner may be determined to have a “painful facial expression”. Further, the teacher data for each facial expression may be registered in advance, and the facial expression may be determined by comparing with the facial expression of the runner.

出力部140は、移動体特定部130から受け取った走者情報と、速度推定部120から受け取った走者の推定速度と、表情判定部170から受け取った走者の表情を視聴者に提供する。図8は、出力部140による情報の提供形態の一例である。図6に示した第1の実施形態との相違点は、ボックス400a、400b内に、走者の表情を示すアイコンが追加されている点である。これにより、視聴者は、各走者の表情からその状態を推測することが可能となる。例えば、図8の場合、画面手前側の走者Aの表情は中継映像からも把握することができるが、画面奥の走者Bの表情は、顔が小さく写っていたり、カメラの焦点が合っていないなどの理由で、中継映像から直接把握することができない場合がある。本実施形態によれば、そのような場合でも視聴者に走者の表情を伝えることが可能となる。 The output unit 140 provides the viewer with the runner information received from the moving object specifying unit 130, the estimated speed of the runner received from the speed estimation unit 120, and the facial expression of the runner received from the facial expression determination unit 170. FIG. 8 is an example of an information provision form by the output unit 140. The difference from the first embodiment shown in FIG. 6 is that an icon indicating the facial expression of the runner is added in the boxes 400a and 400b. This allows the viewer to infer the state from the facial expressions of each runner. For example, in the case of FIG. 8, the facial expression of the runner A on the front side of the screen can be grasped from the relay image, but the facial expression of the runner B on the back side of the screen has a small face or the camera is out of focus. For some reason, it may not be possible to grasp directly from the live video. According to the present embodiment, it is possible to convey the facial expression of the runner to the viewer even in such a case.

以上のように、本実施形態によれば、走者の情報や推定速度に加え、走者の表情を視聴者に伝えることが可能となる。 As described above, according to the present embodiment, it is possible to convey the facial expression of the runner to the viewer in addition to the information of the runner and the estimated speed.

[第3の実施形態]
続いて、走者の速度の推定方法に変更を加えた本発明の第3の実施形態について図面を参照して詳細に説明する。図9は、本発明の第3の実施形態の視聴支援装置100bの構成を示す図である。図3に示した第1の実施形態の視聴支援装置100との差異は、速度推定部120が速度推定部120bに置き換えられ、基準背景画像データベース(基準背景画像DB)160が追加されている点である。その他の構成及び動作は第1の実施形態と同様であるので、以下、相違点を中心に説明する。
[Third Embodiment]
Subsequently, a third embodiment of the present invention in which the method of estimating the speed of the runner is modified will be described in detail with reference to the drawings. FIG. 9 is a diagram showing the configuration of the viewing support device 100b according to the third embodiment of the present invention. The difference from the viewing support device 100 of the first embodiment shown in FIG. 3 is that the speed estimation unit 120 is replaced with the speed estimation unit 120b and the reference background image database (reference background image DB) 160 is added. Is. Since other configurations and operations are the same as those of the first embodiment, the differences will be mainly described below.

本実施形態の速度推定部120bは、基準背景画像DB160に格納された情報を参照して中継映像の被写体である走者の背景画像の変化から、走者の速度を推定し、その結果を出力部140に出力する。 The speed estimation unit 120b of the present embodiment estimates the speed of the runner from the change in the background image of the runner, which is the subject of the relay image, with reference to the information stored in the reference background image DB 160, and outputs the result to the output unit 140. Output to.

図10は、基準背景画像DB160に保持される情報の一例を示す図である。図10の例では、走者の位置を特定するための基準背景画像と、当該画像に対応する地点(スタート地点からの距離)とを対応付けた情報が格納されている。速度推定部120bは、画像切り出し部110から送られた画像(例えば、図11)を受け取ると、背景画像を取り出す(図12参照)。そして、速度推定部120bは、基準背景画像DB160から、その背景画像の特徴量と共通する特徴量を持つ基準背景画像に対応付けられた地点を走者の位置として特定する。上記の処理を繰り返すことで、例えば、図11に示す時刻t1の走者位置と、時刻t+1の走者位置をそれぞれ特定し、速度(推定移動距離/(t2-t1))を推定することができる。なお、画像切り出し部110から送られた画像及び基準背景画像DB160に保持される画像は、第1の実施形態と同様に、走者の足が地面についたタイミングで切り出したものが好ましい。 FIG. 10 is a diagram showing an example of information held in the reference background image DB 160. In the example of FIG. 10, information in which a reference background image for specifying the position of the runner and a point corresponding to the image (distance from the start point) are stored is stored. Upon receiving the image (for example, FIG. 11) sent from the image cutting unit 110, the speed estimation unit 120b extracts a background image (see FIG. 12). Then, the speed estimation unit 120b specifies from the reference background image DB 160 a point associated with the reference background image having a feature amount common to the feature amount of the background image as a runner's position. By repeating the above processing, for example, the runner position at time t1 and the runner position at time t + 1 shown in FIG. 11 can be specified, and the speed (estimated travel distance / (t2-t1)) can be estimated. The image sent from the image cutting unit 110 and the image held in the reference background image DB 160 are preferably cut out at the timing when the runner's foot touches the ground, as in the first embodiment.

上記基準背景画像は、移動体の移動経路をモデル移動体が移動した際の撮影映像に含まれる前記モデル移動体の背景画像を用いることができる。また、このモデル移動体の背景画像として、過去に行われた同一の大会の映像から切り出した画像を用いることもできる。 As the reference background image, the background image of the model moving body included in the captured image when the model moving body moves along the moving path of the moving body can be used. Further, as the background image of this model moving body, an image cut out from the video of the same tournament held in the past can also be used.

本実施形態によれば、カメラ200(中継車)の速度を用いずに、走者の速度を推定できるという利点がある。 According to this embodiment, there is an advantage that the speed of the runner can be estimated without using the speed of the camera 200 (relay vehicle).

以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、メッセージの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。 Although each embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and further modifications, substitutions, and adjustments are made without departing from the basic technical idea of the present invention. Can be added. For example, the network configuration, the configuration of each element, and the expression form of the message shown in each drawing are examples for facilitating the understanding of the present invention, and are not limited to the configurations shown in these drawings. Further, in the following description, "A and / or B" is used to mean at least one of A and B.

例えば、上記した実施形態では、視聴支援装置100を介して中継映像がテレビジョン受像機で再生される例を挙げて説明したが、視聴支援装置100の形態はこれに限られない。例えば、視聴支援装置100に、動画配信事業者等がインターネットを介して配信する中継映像についてその被写体の速度推定と、推定した速度の提供を行わせてもよい。この場合、視聴支援装置100による速度情報等の提供先は、インターネット経由で動画再生が可能なPC(パーソナルコンピュータ)、タブレット端末、スマートフォンその他の機器となる。もちろん、インターネット接続機能を備えたテレビジョン受像機もこれらの機器に含まれる。 For example, in the above-described embodiment, the relay video is reproduced by the television receiver via the viewing support device 100, but the form of the viewing support device 100 is not limited to this. For example, the viewing support device 100 may be made to estimate the speed of the subject and provide the estimated speed for the relay video distributed by the video distribution company or the like via the Internet. In this case, the destination of the speed information and the like provided by the viewing support device 100 is a PC (personal computer), a tablet terminal, a smartphone, or other device capable of playing a moving image via the Internet. Of course, television receivers with internet connectivity are also included in these devices.

また、上記した実施形態では、主として中継映像から切り出した画像を用いて、被写体を特定し、かつ、被写体の速度を推定するものとして説明したが、その他の補助情報を用いて、推定した速度を補正したり、誤りを除去する構成も採用可能である。例えば、中継車の速度情報が得られる場合、その情報を用いて被写体の推定速度が正しいか否かを検証することができる。また、競技によっては、走者等の体や着用物にRFIDタグやチップの取り付けが義務付けられている場合がある。これらのRFIDタグやチップから得られる情報を用いて、走者の特定やその推定速度の検証を行うことも可能である。 Further, in the above-described embodiment, the subject is specified and the speed of the subject is estimated mainly by using the image cut out from the relay video, but the estimated speed is estimated by using other auxiliary information. A configuration that corrects or eliminates errors can also be adopted. For example, when the speed information of the relay vehicle is obtained, it is possible to verify whether or not the estimated speed of the subject is correct by using the information. In addition, depending on the competition, it may be obligatory to attach RFID tags or chips to the body or wear of runners or the like. Information obtained from these RFID tags and chips can also be used to identify runners and verify their estimated speeds.

例えば、上記した実施形態では、ロードレースの中継映像から走者の情報と、その推定速度を提供する例を挙げて説明したが、本発明の適用範囲は、これに限られず、中継映像が得られる競技全般に適用可能である。例えば、陸上選手のトレーニングなどでも、カメラで撮影した映像からリアルタイムで速度距離を計測してトレーニングに活用するといった用途が考えられる。また、その他、トラック競技全般のほか、競輪、競馬、自動車レース、水泳などの中継映像の被写体の速度推定にも適用可能である。 For example, in the above-described embodiment, an example of providing runner information and an estimated speed thereof from a relay video of a road race has been described, but the scope of application of the present invention is not limited to this, and a relay video can be obtained. It can be applied to all competitions. For example, even in the training of track and field athletes, it is possible to measure the speed distance in real time from the image taken by the camera and utilize it for training. In addition to general track events, it can also be applied to speed estimation of subjects in relay images such as bicycle races, horse races, car races, and swimming.

また、競争系の競技以外にも、例えば、イベント会場などの警備用途で巡回しているドローンなどで撮影された映像について、上述した方法で被写体を特定し、その速度を推定して、警備担当者に通知するという用途にも適用可能である。例えば、警備指揮者に対し、特定の監視対象者と、その速度情報とを提供することで、警備担当者を差し向けたり、警備範囲を広げるといった指揮用途にも適用可能である。 In addition to competitive competitions, for example, for images taken by drones that are patrolling for security purposes such as event venues, the subject is identified by the method described above, the speed is estimated, and security personnel are in charge. It can also be applied to the purpose of notifying a person. For example, by providing a security commander with a specific monitored person and its speed information, it can be applied to a command application such as sending a security officer or expanding the security range.

また、上記した第1~第3の実施形態に示した手順は、視聴支援装置10、100~100cとして機能するコンピュータ(図13の9000)に、視聴支援装置10、100~100cとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図13のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図13のCPU9010にて、移動体特定プログラムや速度推定プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメーターの更新処理を実施させればよい。 Further, in the procedure shown in the first to third embodiments described above, the computer (9000 in FIG. 13) that functions as the viewing support device 10, 100 to 100c is provided with the function as the viewing support device 10, 100 to 100c. It can be realized by the program to be realized. Such a computer is exemplified in a configuration including a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG. That is, the CPU 9010 in FIG. 13 may execute a mobile object identification program or a speed estimation program, and update each calculation parameter held in the auxiliary storage device 9040 or the like.

即ち、上記した各実施形態に示した視聴支援装置10、100~100cの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。 That is, each part (processing means, function) of the viewing support devices 10, 100 to 100c shown in each of the above-described embodiments uses the hardware of the processor mounted on these devices to perform each of the above-mentioned processes. It can be realized by a computer program to be executed.

最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による視聴支援装置参照)
[第2の形態]
上記した視聴支援装置が取り扱う移動体は、競争系競技の走者であり、
前記切り出す手段は、前記走者の足が地についたタイミングで、画像を切り出す構成を採ることができる。
[第3の形態]
前記移動体の速度を推定する手段は、
前記移動体が映し出された画像から、カメラと走者の相対距離を推定し、
前記移動体が映し出された画像のフレームレートと、前記カメラと走者の相対距離の変化から、前記カメラと移動体の相対速度を推定する処理を実行する構成を採ることができる。
[第4の形態]
前記移動体の速度を推定する手段は、
前記移動体の相対速度とカメラの移動速度とを合算することで、走者の移動速度を計算する構成を採ることができる。
[第5の形態]
上記した視聴支援装置において、
前記移動体の速度を推定する手段は、前記移動体が映し出された画像の背景画像から計算した特徴量の変化に基づいて、前記移動体の速度を推定する構成を採ることができる。
[第6の形態]
上記した視聴支援装置において、
前記移動体の速度を推定する手段は、
前記移動体の移動経路をモデル移動体が移動した際の撮影映像に含まれる前記モデル移動体の背景画像の特徴量と、
前記移動体が映し出された画像の背景画像から計算した特徴量とを照合することにより、前記移動体の位置を特定し、
前記特定した位置を用いて前記移動体の位置を推定する構成を採用できる。
[第7の形態]
第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す手段と、
前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記複数の移動体の間の距離差を推定する手段と、
前記複数の移動体の間の距離差を出力する手段と、を備えた
視聴支援装置。
[第8の形態]
上記した視聴支援装置は、
さらに、前記画像に映し出された前記移動体の像に基づいて、前記移動体を特定する手段を備え、
前記特定した移動体の情報と、その推定速度または距離差の少なくとも一方と、を出力する構成を採ることができる。
[第9の形態]
上記した視聴支援装置において、
前記移動体は、競争系競技の走者であり、
前記移動体を特定する手段は、
前記走者の顔画像の特徴又はゼッケンの情報に基づいて、前記走者を特定する構成を採ることができる。
[第10の形態]
上記した視聴支援装置において、
さらに、
前記走者の顔画像の特徴から、前記走者の表情を判定する手段を備え、
前記出力する手段は、前記走者の表情を所定の態様で出力する構成を採ることができる。
[第11の形態]
(上記第3の視点による視聴支援方法参照)
[第12の形態]
(上記第4の視点によるプログラム参照)
なお、上記第11~第12の形態は、第1の形態と同様に、第2~第10の形態に展開することが可能である。
Finally, the preferred embodiments of the present invention are summarized.
[First form]
(Refer to the viewing support device from the first viewpoint above)
[Second form]
The mobile body handled by the above-mentioned viewing support device is a runner of a competitive competition.
The cutting means can be configured to cut out an image at the timing when the runner's foot touches the ground.
[Third form]
The means for estimating the speed of the moving body is
The relative distance between the camera and the runner is estimated from the image of the moving object.
It is possible to adopt a configuration in which a process of estimating the relative speed between the camera and the moving body is executed from the frame rate of the image on which the moving body is projected and the change in the relative distance between the camera and the runner.
[Fourth form]
The means for estimating the speed of the moving body is
By summing the relative speed of the moving body and the moving speed of the camera, it is possible to adopt a configuration for calculating the moving speed of the runner.
[Fifth form]
In the above-mentioned viewing support device
The means for estimating the speed of the moving body can adopt a configuration for estimating the speed of the moving body based on the change in the feature amount calculated from the background image of the image on which the moving body is projected.
[Sixth form]
In the above-mentioned viewing support device
The means for estimating the speed of the moving body is
The feature amount of the background image of the model moving body included in the captured image when the model moving body moves along the moving path of the moving body, and
By collating with the feature amount calculated from the background image of the image on which the moving body is projected, the position of the moving body is specified.
A configuration can be adopted in which the position of the moving body is estimated using the specified position.
[7th form]
A means for cutting out an image in which the plurality of moving objects are projected at predetermined time intervals from a relay image having a plurality of moving objects moving from the first point to the second point as subjects.
A means for estimating the distance difference between the plurality of moving objects based on the change in the background image of the image on which the plurality of moving objects are projected, and
A viewing support device comprising a means for outputting a distance difference between the plurality of moving objects.
[8th form]
The above-mentioned viewing support device is
Further, a means for identifying the moving body based on the image of the moving body projected on the image is provided.
It is possible to adopt a configuration that outputs the information of the specified moving object and at least one of the estimated speed or the distance difference thereof.
[Ninth form]
In the above-mentioned viewing support device
The mobile is a runner in a competitive competition and
The means for identifying the moving body is
A configuration for identifying the runner can be adopted based on the characteristics of the face image of the runner or the information of the bib.
[10th form]
In the above-mentioned viewing support device
Moreover,
A means for determining the facial expression of the runner from the characteristics of the face image of the runner is provided.
The output means can adopt a configuration in which the facial expression of the runner is output in a predetermined mode.
[11th form]
(Refer to the viewing support method from the third viewpoint above)
[Twelfth form]
(Refer to the program from the fourth viewpoint above)
The eleventh to twelfth forms can be expanded into the second to tenth forms in the same manner as the first form.

なお、上記の特許文献および非特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。 The disclosures of the above patented and non-patented documents shall be incorporated into this document by citation. Within the framework of the entire disclosure (including the scope of claims) of the present invention, it is possible to change or adjust the embodiments or examples based on the basic technical idea thereof. In addition, various combinations or selections (parts) of various disclosure elements (including each element of each claim, each element of each embodiment or embodiment, each element of each drawing, etc.) within the framework of the disclosure of the present invention. (Including target deletion) is possible. That is, it goes without saying that the present invention includes all disclosure including claims, various modifications and modifications that can be made by those skilled in the art in accordance with the technical idea. In particular, with respect to the numerical range described in this document, any numerical value or small range included in the range should be construed as being specifically described even if not otherwise described.

10、100、100a、100b、100c 視聴支援装置
11、110 画像切り出し部
12、120、120b 速度推定部
14、140 出力部
18、180 距離差推定部
130 移動体特定部
150 走者情報DB(データベース)
150a 走者特定エンジン
160 基準背景画像DB(データベース)
170 表情判定部
200 カメラ
300 テレビジョン受像機
400a、400b ボックス
401a、401b アイコン
9000 コンピュータ
9010 CPU
9020 通信インタフェース
9030 メモリ
9040 補助記憶装置
10, 100, 100a, 100b, 100c Viewing support device 11, 110 Image cutting section 12, 120, 120b Speed estimation section 14, 140 Output section 18, 180 Distance difference estimation section 130 Moving object identification section 150 Runner information DB (database)
150a Runner specific engine 160 Reference background image DB (database)
170 Facial expression judgment unit 200 Camera 300 Television receiver 400a, 400b Box 401a, 401b Icon 9000 Computer 9010 CPU
9020 Communication interface 9030 Memory 9040 Auxiliary storage

Claims (10)

第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す手段と、
前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する手段と、
前記移動体の推定速度を出力する手段と、を備えた
視聴支援装置。
A means for cutting out an image on which a moving object is projected at predetermined time intervals from a relay image of a moving object moving from a first point to a second point as a subject.
A means for estimating the speed of the moving body based on a change in the background image of the image on which the moving body is projected, and a means for estimating the speed of the moving body.
A viewing support device including means for outputting the estimated speed of the moving object.
前記移動体は、競争系競技の走者であり、
前記切り出す手段は、前記走者の足が地についたタイミングで、画像を切り出す請求項1の視聴支援装置。
The mobile is a runner in a competitive competition and
The viewing support device according to claim 1, wherein the cutting means cuts out an image at the timing when the runner's foot touches the ground.
前記移動体の速度を推定する手段は、
前記移動体が映し出された画像から、カメラと移動体の相対距離を推定し、
前記移動体が映し出された画像のフレームレートと、前記カメラと移動体の相対距離の変化から、前記カメラと移動体の相対速度を推定する処理を実行する請求項1又は2の視聴支援装置。
The means for estimating the speed of the moving body is
The relative distance between the camera and the moving object is estimated from the image on which the moving object is projected.
The viewing support device according to claim 1 or 2, which executes a process of estimating the relative speed between the camera and the moving body from the frame rate of the image on which the moving body is projected and the change in the relative distance between the camera and the moving body.
前記移動体の速度を推定する手段は、
前記移動体の相対速度とカメラの移動速度とを合算することで、移動体の移動速度を計算する請求項3の視聴支援装置。
The means for estimating the speed of the moving body is
The viewing support device according to claim 3, wherein the moving speed of the moving body is calculated by adding up the relative speed of the moving body and the moving speed of the camera.
前記移動体の速度を推定する手段は、前記移動体が映し出された画像の背景画像から計算した特徴量の変化に基づいて、前記移動体の速度を推定する請求項1又は2の視聴支援装置。 The means for estimating the speed of the moving body is the viewing support device according to claim 1 or 2, which estimates the speed of the moving body based on the change in the feature amount calculated from the background image of the image on which the moving body is projected. .. 前記移動体の速度を推定する手段は、
前記移動体の移動経路をモデル移動体が移動した際の撮影映像に含まれる前記モデル移動体の背景画像の特徴量と、
前記移動体が映し出された画像の背景画像から計算した特徴量とを照合することにより、前記移動体の位置を特定し、
前記特定した位置を用いて前記移動体の位置を推定する請求項1から3いずれか一の視聴支援装置。
The means for estimating the speed of the moving body is
The feature amount of the background image of the model moving body included in the captured image when the model moving body moves along the moving path of the moving body, and
By collating with the feature amount calculated from the background image of the image on which the moving body is projected, the position of the moving body is specified.
The viewing support device according to any one of claims 1 to 3, which estimates the position of the moving body using the specified position.
第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す手段と、
前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記複数の移動体の間の距離差を推定する手段と、
前記複数の移動体の間の距離差を出力する手段と、を備えた
請求項6の視聴支援装置。
A means for cutting out an image in which the plurality of moving objects are projected at predetermined time intervals from a relay image having a plurality of moving objects moving from the first point to the second point as subjects.
A means for estimating the distance difference between the plurality of moving objects based on the change in the background image of the image on which the plurality of moving objects are projected, and
The means for outputting the distance difference between the plurality of moving objects is provided.
The viewing support device of claim 6 .
さらに、前記画像に映し出された前記移動体の像に基づいて、前記移動体を特定する手段を備え、
前記特定した移動体の情報と、その推定速度または距離差の少なくとも一方と、を出力する請求項7の視聴支援装置。
Further, a means for identifying the moving body based on the image of the moving body projected on the image is provided.
The viewing support device according to claim 7 , which outputs information on the specified moving object and at least one of its estimated speed or distance difference.
第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出すステップと、
前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定するステップと、
前記移動体の推定速度を出力するステップと、
を含む視聴支援方法。
A step of cutting out an image on which the moving object is projected at a predetermined time interval from a relay image of a moving object moving from the first point to the second point as a subject.
A step of estimating the speed of the moving body based on a change in the background image of the image on which the moving body is projected, and a step of estimating the speed of the moving body.
The step of outputting the estimated speed of the moving body and
Viewing support methods including.
視聴支援装置を構成するコンピュータに、
第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す処理と、
前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する処理と、
前記移動体の推定速度を出力する処理と、
を実行させるプログラム。
For the computers that make up the viewing support device,
A process of cutting out an image on which a moving object is projected at predetermined time intervals from a relay image of a moving object moving from a first point to a second point.
A process of estimating the speed of the moving body based on a change in the background image of the image on which the moving body is projected, and a process of estimating the speed of the moving body.
The process of outputting the estimated speed of the moving body and
A program to execute.
JP2020506548A 2018-03-13 2019-03-12 Viewing support device, viewing support method and program Active JP7040599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022034126A JP7276538B2 (en) 2018-03-13 2022-03-07 VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018045582 2018-03-13
JP2018045582 2018-03-13
PCT/JP2019/009945 WO2019176922A1 (en) 2018-03-13 2019-03-12 Audiovisual assistance device, audiovisual assistance method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022034126A Division JP7276538B2 (en) 2018-03-13 2022-03-07 VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JPWO2019176922A1 JPWO2019176922A1 (en) 2021-03-11
JP7040599B2 true JP7040599B2 (en) 2022-03-23

Family

ID=67908480

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020506548A Active JP7040599B2 (en) 2018-03-13 2019-03-12 Viewing support device, viewing support method and program
JP2022034126A Active JP7276538B2 (en) 2018-03-13 2022-03-07 VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022034126A Active JP7276538B2 (en) 2018-03-13 2022-03-07 VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM

Country Status (2)

Country Link
JP (2) JP7040599B2 (en)
WO (1) WO2019176922A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010114547A (en) 2008-11-05 2010-05-20 Canon Inc Photographing system, and lens apparatus
JP2012124553A (en) 2010-12-06 2012-06-28 Canon Inc Photographing system and lens device
WO2014046184A1 (en) 2012-09-24 2014-03-27 富士フイルム株式会社 Device and method for measuring distances of multiple subjects
JP2015076738A (en) 2013-10-09 2015-04-20 カシオ計算機株式会社 Photographed image processing apparatus, photographed image processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01119190A (en) * 1987-10-30 1989-05-11 Mazda Motor Corp Traveling control device for vehicle
JPH0769332B2 (en) * 1989-04-20 1995-07-26 富士通株式会社 Runner pitch measurement method
JP5477399B2 (en) 2012-01-30 2014-04-23 カシオ計算機株式会社 Information processing apparatus, information processing method and program, and information processing system
JP2014174493A (en) 2013-03-13 2014-09-22 Zenrin Datacom Co Ltd Content display system, content distribution server, and content display method
JP6350268B2 (en) 2014-12-22 2018-07-04 株式会社Jvcケンウッド Ground detection device, ground detection method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010114547A (en) 2008-11-05 2010-05-20 Canon Inc Photographing system, and lens apparatus
JP2012124553A (en) 2010-12-06 2012-06-28 Canon Inc Photographing system and lens device
WO2014046184A1 (en) 2012-09-24 2014-03-27 富士フイルム株式会社 Device and method for measuring distances of multiple subjects
JP2015076738A (en) 2013-10-09 2015-04-20 カシオ計算機株式会社 Photographed image processing apparatus, photographed image processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉田 拓也・浜田 正稔・高橋 茂之,ロードレース中継距離推定システム,放送技術,日本,兼六館出版株式会社 西村 瓊江,2016年05月01日,第69巻,第5号,p.101-105,ISSN 0287-8658

Also Published As

Publication number Publication date
JP7276538B2 (en) 2023-05-18
JPWO2019176922A1 (en) 2021-03-11
WO2019176922A1 (en) 2019-09-19
JP2022075766A (en) 2022-05-18

Similar Documents

Publication Publication Date Title
US11355160B2 (en) Multi-source event correlation system
US20230260552A1 (en) Disparate sensor type event correlation system
US9911045B2 (en) Event analysis and tagging system
JP6898165B2 (en) People flow analysis method, people flow analyzer and people flow analysis system
EP3451681B1 (en) Information processing device, control method of information processing device, and program
US9406336B2 (en) Multi-sensor event detection system
US9401178B2 (en) Event analysis system
US20200193671A1 (en) Techniques for rendering three-dimensional animated graphics from video
US20180350084A1 (en) Techniques for object tracking
CN105009163B (en) Content distribution system and its operating method with augmented reality mechanism
US20180103197A1 (en) Automatic Generation of Video Using Location-Based Metadata Generated from Wireless Beacons
US20180082436A1 (en) Image processing apparatus, image processing system, and image processing method
CN107766788A (en) Information processor, its method and computer-readable recording medium
EP3408846B1 (en) Line-of-sight-based content-sharing dynamic ad-hoc networks
WO2017011811A1 (en) Event analysis and tagging system
US20230206093A1 (en) Music recommendation method and apparatus
US9990857B2 (en) Method and system for visual pedometry
CN111078751A (en) Method and system for carrying out target statistics based on UNREAL4
JP7040599B2 (en) Viewing support device, viewing support method and program
CN110662106B (en) Video playback method and device
CN108701141A (en) Determine semanteme traveling mode
CN209216543U (en) Campus emulation shows device
US20210343025A1 (en) Method and controller for tracking moving objects
CN111652173B (en) Acquisition method suitable for personnel flow control in comprehensive market
Wu et al. Design of dynamic ski motion capture and human posture detection model based on spatio-temporal Transformer and wireless device tracking technology

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R151 Written notification of patent or utility model registration

Ref document number: 7040599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151