JP7276538B2 - VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM - Google Patents

VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7276538B2
JP7276538B2 JP2022034126A JP2022034126A JP7276538B2 JP 7276538 B2 JP7276538 B2 JP 7276538B2 JP 2022034126 A JP2022034126 A JP 2022034126A JP 2022034126 A JP2022034126 A JP 2022034126A JP 7276538 B2 JP7276538 B2 JP 7276538B2
Authority
JP
Japan
Prior art keywords
person
image
speed
information
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022034126A
Other languages
Japanese (ja)
Other versions
JP2022075766A (en
Inventor
亜紀 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022075766A publication Critical patent/JP2022075766A/en
Application granted granted Critical
Publication of JP7276538B2 publication Critical patent/JP7276538B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

(関連出願についての記載)
本発明は、日本国特許出願:特願2018-045582号(2018年3月13日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、視聴支援装置、視聴支援方法及びプログラムに関する。
(Description of Related Application)
The present invention is based on the priority claim of Japanese Patent Application: Japanese Patent Application No. 2018-045582 (filed on March 13, 2018), and the entire description of the application is incorporated herein by reference. shall be
The present invention relates to a viewing support device, a viewing support method, and a program.

特許文献1に、複数移動体を撮像した動画から複数の移動体の対応付けを行う移動体識別装置の一例が開示されている。また、特許文献2には、移動体を撮影して得られる移動体の識別情報を認識し、予め登録した識別情報から検索する可搬型の情報認識装置を含む構成が開示されている。さらに、特許文献2の13頁8行以下には、陸上トラック競技においてトラックの各所に撮像装置を配置し、選手を撮影した静止画からゼッケンナンバーを読み取り、一般家庭に動画とともに、各選手のスプリットタイムを配信する構成が開示されている。 Patent Literature 1 discloses an example of a moving object identification device that associates a plurality of moving objects from moving images of the moving objects. Further, Patent Literature 2 discloses a configuration including a portable information recognition device that recognizes identification information of a mobile object obtained by photographing the mobile object and searches for the identification information registered in advance. Furthermore, on page 13, line 8 and below of Patent Document 2, in track and field events, imaging devices are arranged at various places on the track, the bib number is read from the still image of the athlete, and the athlete's split is sent to general households along with the video. A configuration for distributing time is disclosed.

また、非特許文献1には、駅伝やマラソンなどのロードレース中継における走者間の距離を推定するシステムが開示されている。また、同文献の距離推定システムは、中継車の位置、カメラデータ、映像中の走者座標(フレーム内の被写体の位置)からカメラと走者間の距離を推定し、走者位置のフレーム間の変化から走者の速度を求めることができると記載されている(図1参照)。 In addition, Non-Patent Document 1 discloses a system for estimating the distance between runners in a relay road race such as a long-distance relay race or a marathon. In addition, the distance estimation system in the same document estimates the distance between the camera and the runner from the position of the broadcast van, the camera data, and the coordinates of the runner in the video (the position of the subject in the frame), and from the change in the runner's position between frames It is stated that the speed of the runner can be determined (see FIG. 1).

特開2018-005474号公報JP 2018-005474 A 国際公開第2003/034278号WO2003/034278

「ロードレース中継距離推定システム」、兼六館出版、「放送技術」,2016年69巻5月号,pp.101-105"Road Race Relay Distance Estimation System", Kenrokukan Publishing, "Broadcasting Technology", Vol.69, May, 2016, pp.101-105

以下の分析は、本発明によって与えられたものである。上記した背景技術に記載の手法では、任意の時点における選手の速度を推定することはできないという問題点がある。 The following analysis is given by the present invention. The technique described in the above background art has a problem that it is not possible to estimate the player's speed at an arbitrary point in time.

また、非特許文献1の方法では、任意の時点における走者の速度を推定できるが、中継車の位置、カメラデータをリアルタイムに入手できることが条件となる。 In the method of Non-Patent Document 1, the speed of the runner can be estimated at any point in time, but the condition is that the position of the broadcast van and camera data can be obtained in real time.

本発明は、上記した情報が得られなくとも、中継映像に映し出された移動体とその速度を測定し、映像の付帯情報として提供できる構成の豊富化に貢献できる視聴支援装置、視聴支援方法及びプログラムを提供することを目的とする。 The present invention provides a viewing support device, a viewing support method, and a viewing support device capable of measuring the moving object and its speed displayed in the relay image even if the above-described information cannot be obtained, and contributing to the enrichment of the configuration that can be provided as supplementary information of the image. The purpose is to provide a program.

第1の視点によれば、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す手段を備えた視聴支援装置が提供される。この視聴支援装置は、さらに、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する手段と、前記移動体の推定速度を出力する手段と、を備える。 According to the first viewpoint, a means is provided for cutting out, at predetermined time intervals, an image in which the moving body is projected from a relay video in which the moving body is moving from a first point to a second point. A viewing support device is provided. This viewing support device further comprises means for estimating the speed of the moving object based on changes in the background image of the image showing the moving object, and means for outputting the estimated speed of the moving object. .

第2の視点によれば、第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す手段と、前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の距離差を推定する手段と、前記複数の移動体の距離差を出力する手段と、を備えた視聴支援装置が提供される。 According to the second viewpoint, an image in which the plurality of moving bodies appearing is displayed at predetermined time intervals from a relay video in which a plurality of moving bodies moving from a first point to a second point are captured. means for estimating the distance difference of the moving object based on a change in the background image of the image showing the plurality of moving objects; and means for outputting the distance difference between the plurality of moving objects. A viewing support device is provided.

第3の視点によれば、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出すステップと、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定するステップと、前記移動体の推定速度を出力するステップと、を含む視聴支援方法が提供される。本方法は、少なくとも中継映像を入力として、画像分析を行って付帯情報を出力するコンピュータという、特定の機械に結びつけられている。 According to the third viewpoint, a step of cutting out an image showing the moving object at predetermined time intervals from a relay video in which the object is the moving object moving from a first point to a second point; A viewing support method is provided that includes the steps of: estimating the speed of the moving object based on changes in the background image of the image showing the moving object; and outputting the estimated speed of the moving object. The method is tied to a specific machine, a computer that takes at least the relay video as input, performs image analysis and outputs additional information.

第4の視点によれば、視聴支援装置を構成するコンピュータに、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す処理と、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する処理と、前記画像に映し出された前記移動体の像に基づいて、前記移動体を特定する処理と、前記特定した移動体の情報と、その推定速度とを出力する処理と、を実行させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。また、このプログラムは、コンピュータ装置に入力装置又は外部から通信インタフェースを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェースを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。 According to the fourth aspect, the computer constituting the viewing support device receives, at predetermined time intervals, the moving object moving from the first point to the second point from the relay video in which the object is the moving object. A process of cutting out the projected image, a process of estimating the speed of the moving object based on a change in the background image of the image showing the moving object, and a process of estimating the moving object based on the image of the moving object shown in the image. Then, a program for executing a process of identifying the moving body and a process of outputting information on the identified moving body and its estimated speed is provided. This program can be recorded in a computer-readable (non-transitory) storage medium. That is, the present invention can also be embodied as a computer program product. Also, this program is input to the computer device via an input device or an external communication interface, is stored in a storage device, drives the processor according to predetermined steps or processes, and outputs the processing results including intermediate states as necessary. can be displayed step by step via a display device, or can be communicated with the outside via a communication interface. A computer device for this purpose typically includes, as an example, a processor, a storage device, an input device, a communication interface, and optionally a display device, all of which are connectable to each other via a bus.

本発明によれば、任意の時点における移動体の速度を推定することが可能となる。即ち、本発明は、背景技術に記載した視聴支援装置を、被写体となった移動体の速度情報を提供可能なものへと変換するものとなっている。 According to the present invention, it is possible to estimate the speed of a mobile object at any point in time. That is, the present invention converts the viewing support device described in the background art into one capable of providing speed information of a moving object that is a subject.

本発明の一実施形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of this invention. 本発明の第1の実施形態の全体構成を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the whole structure of the 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置の構成を示す図である。1 is a diagram showing the configuration of a viewing support device according to a first embodiment of the present invention; FIG. 本発明の第1の実施形態の視聴支援装置の走者情報データベースに保持される情報の一例を示す図である。4 is a diagram showing an example of information held in a runner information database of the viewing support device according to the first embodiment of the present invention; FIG. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の一例を示す図である。It is a figure which shows an example of the provision form of information by the viewing support apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の別の一例を示す図である。FIG. 5 is a diagram showing another example of the form of providing information by the viewing support device according to the first embodiment of the present invention; 本明の第2の実施形態の視聴支援装置の構成を示す図である。FIG. 5 is a diagram showing the configuration of a viewing support device according to a second embodiment of the present invention; 本発明の第2の実施形態の視聴支援装置による情報の提供形態の一例を示す図である。It is a figure which shows an example of the provision form of information by the viewing support apparatus of the 2nd Embodiment of this invention. 本発明の第3の実施形態の視聴支援装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of a viewing support device according to a third embodiment of the present invention; 本発明の第3の実施形態の視聴支援装置の基準背景画像データベースに保持される情報の一例を示す図である。FIG. 12 is a diagram showing an example of information held in a reference background image database of the viewing support device according to the third embodiment of the present invention; 本発明の第3の実施形態の視聴支援装置が切り出す中継画像を模式的に表した図である。FIG. 11 is a diagram schematically showing a relay image cut out by the viewing support device according to the third embodiment of the present invention; 本発明の第3の実施形態の視聴支援装置による走者位置特定の原理を説明するための図である。FIG. 11 is a diagram for explaining the principle of runner position identification by the viewing support device according to the third embodiment of the present invention; 本発明の視聴支援装置を構成するコンピュータの構成を示す図である。It is a figure which shows the structure of the computer which comprises the viewing assistance apparatus of this invention. 本発明の一実施形態の変形構成を示す図である。FIG. 10 illustrates a modified configuration of one embodiment of the present invention; 本発明の第1の実施形態の視聴支援装置の変形構成を示す図である。It is a figure which shows the deformation|transformation structure of the viewing assistance apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態の視聴支援装置による情報の提供形態の別の一例を示す図である。FIG. 5 is a diagram showing another example of the form of providing information by the viewing support device according to the first embodiment of the present invention; 本発明の第1の実施形態の視聴支援装置による情報の提供形態の別の一例を示す図である。FIG. 5 is a diagram showing another example of the form of providing information by the viewing support device according to the first embodiment of the present invention;

はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート乃至インタフェースがあるが図示省略する。また、プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、コンピュータ装置は、通信インタフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。 First, an outline of an embodiment of the present invention will be described with reference to the drawings. It should be noted that the drawing reference numerals added to this overview are added to each element for convenience as an example to aid understanding, and are not intended to limit the present invention to the illustrated embodiments. Also, connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections. The unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality. Also, although there are ports or interfaces at input/output connection points of each block in the figure, they are omitted from the drawing. Also, the program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device. In addition, the computer device is configured to be able to communicate with internal or external devices (including computers) via a communication interface, whether wired or wireless.

本発明は、その一実施形態において、図1に示すように、画像切り出し部11と、速度推定部12と、出力部14と、を備えた視聴支援装置10にて実現できる。 In one embodiment of the present invention, as shown in FIG. 1, a viewing support device 10 having an image clipping section 11, a speed estimating section 12, and an output section 14 can be implemented.

より具体的には、画像切り出し部11は、第1の地点から第2の地点へと移動する移動体を被写体とする中継映像から、所定の時間間隔で、前記移動体が映し出された画像を切り出す手段として機能する。 More specifically, the image clipping unit 11 extracts, at predetermined time intervals, an image showing the moving object from a relay video in which the object is the moving object moving from a first point to a second point. It functions as a means of cutting out.

速度推定部12は、前記移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の速度を推定する手段として機能する。 The speed estimator 12 functions as means for estimating the speed of the moving object based on changes in the background image of the image showing the moving object.

出力部14は、前記移動体の推定速度を出力する手段として機能する。なお、出力部14によると、移動体の推定速度の出力形態としては種々のものが考えられる。例えば、中継画像に重畳表示(スーパーインポーズ)する情報として、移動体の推定速度を表示しても良い。また例えば、中継画像とは別のサブ領域に表示する情報として、移動体の推定速度を表示しても良い。また、中継映像の内容をより詳しく知るためのウェブサイトやアプリケーションプログラムにより表示する情報として移動体の推定速度を表示してもよい。 The output unit 14 functions as means for outputting the estimated speed of the moving object. Incidentally, according to the output unit 14, various forms are conceivable as the output form of the estimated speed of the moving body. For example, the estimated speed of the moving object may be displayed as information superimposed on the relay image. Further, for example, the estimated speed of the moving object may be displayed as information displayed in a sub-region different from the relay image. Also, the estimated speed of the moving object may be displayed as information displayed by a website or application program for knowing the contents of the relay video in more detail.

以上のとおり、本実施形態によれば、中継映像に映し出された移動体とその速度を測定し、映像の付帯情報として提供することが可能となる。 As described above, according to the present embodiment, it is possible to measure a moving object displayed in a relay image and its speed, and to provide them as incidental information of the image.

また、本発明は、別の実施形態において、前記推定速度の代わりに、あるいは、前記推定速度と併せて、複数の移動体の間の距離差を推定し、出力する視聴支援装置としても構成できる(図14参照)。図14の例では、前述の速度推定部12の代わりに距離差推定部18が備えられている。そして、この実施形態では、画像切り出し部11は、前記第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す処理を行う。そして、距離差推定部18は、前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記移動体の間の距離差を推定する。そして、出力部14は、前記複数の移動体の距離差を出力する。 Further, in another embodiment, the present invention can be configured as a viewing support device that estimates and outputs distance differences between a plurality of moving objects instead of or in combination with the estimated speeds. (See FIG. 14). In the example of FIG. 14, a distance difference estimator 18 is provided instead of the speed estimator 12 described above. Then, in this embodiment, the image clipping unit 11 extracts the plurality of moving bodies moving from the first point to the second point at predetermined time intervals from the relay video in which the subjects are the moving bodies. is processed to cut out the projected image. Then, the distance difference estimating unit 18 estimates the distance difference between the moving objects based on the change in the background image of the image showing the plurality of moving objects. Then, the output unit 14 outputs the distance difference between the plurality of moving objects.

以上のとおり、本実施形態によれば、中継映像に映し出された複数の移動体の間の距離差を測定し、映像の付帯情報として提供することが可能となる。 As described above, according to this embodiment, it is possible to measure the distance difference between a plurality of moving objects displayed in a relay image and provide it as supplementary information of the image.

[第1の実施形態]
続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。図2は、本発明の第1の実施形態の全体構成を示す図である。図2を参照すると、ロードレース等を中継する中継車に搭載されたカメラ200と、視聴支援装置100と、視聴支援装置100の情報の出力先となるテレビジョン受像機300とが接続された構成が示されている。
[First embodiment]
Next, a first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 2 is a diagram showing the overall configuration of the first embodiment of the present invention. Referring to FIG. 2, a configuration in which a camera 200 mounted on a broadcast vehicle that relays a road race or the like, a viewing support device 100, and a television receiver 300 serving as an information output destination of the viewing support device 100 are connected. It is shown.

カメラ200は、撮影した中継映像を視聴支援装置100に送信する。カメラ200と視聴支援装置100とデータの転送は、有線方式でも無線方式でも磁気テープなどの物理媒体の移送方式でもよい。 The camera 200 transmits the captured relay image to the viewing support device 100 . Transfer of data between the camera 200 and the viewing support device 100 may be performed by a wired method, a wireless method, or a physical medium transfer method such as a magnetic tape.

視聴支援装置100は、望ましい一形態において、放送局もしくは動画配信事業者等に配置される。なお、視聴支援装置100の配置先は、放送局もしくは動画配信事業者等に限られず、例えば、中継車内、あるいは、テレビジョン受像機側に配置されていてもよい。また、視聴支援装置100は、インターネット上や、クラウド基盤上に配置されていてもよい。 The viewing support device 100 is arranged in a broadcasting station, a video distribution company, or the like in one desirable form. Note that the place where the viewing support device 100 is arranged is not limited to a broadcasting station, a video distribution company, or the like, and may be arranged, for example, in a relay car or on the side of a television receiver. Also, the viewing support device 100 may be arranged on the Internet or on a cloud platform.

テレビジョン受像機300は、中継画像のほか、視聴支援装置100により得られた情報の出力先となる。なお、視聴支援装置100により得られた情報の出力先は、中継画像とその付帯情報を表示可能な装置であればよく、テレビジョン受像機300以外の装置を用いても良い。例えば、インターネット経由で動画再生が可能なPC(パーソナルコンピュータ)、タブレット端末、スマートフォンその他の機器をテレビジョン受像機300の代わりに用いることもできる。 The television receiver 300 serves as an output destination of the information obtained by the viewing support device 100 in addition to the relay image. Note that the output destination of the information obtained by the viewing support device 100 may be any device capable of displaying the relay image and its incidental information, and a device other than the television receiver 300 may be used. For example, a PC (personal computer), a tablet terminal, a smart phone, or other device capable of reproducing moving images via the Internet can be used instead of the television receiver 300 .

図3は、本発明の第1の実施形態の視聴支援装置の構成を示す図である。図3を参照すると、画像切り出し部110と、速度推定部120と、移動体特定部130と、出力部140と、走者情報DB(データベース)150と、を含む構成が示されている。 FIG. 3 is a diagram showing the configuration of the viewing support device according to the first embodiment of the present invention. Referring to FIG. 3, a configuration including an image cropping unit 110, a speed estimating unit 120, a moving body identifying unit 130, an output unit 140, and a runner information DB (database) 150 is shown.

画像切り出し部110は、中継映像から走者の位置を特定するための画像を切り出し、速度推定部120と移動体特定部130に送る処理を行う。本実施形態では、画像切り出し部110は、中継映像における被写体である走者の足が地に着いたタイミングで、画像を切り出す。像を切り出すタイミングを、走者の足が地に着いたタイミングとする理由は、走者と背景画像の位置関係を適切に特定できるようになり、速度の推定精度が向上するためである。なお、本実施形態では「画像を切り出す」との表現を用いるが、実際には、中継映像を構成するフレームから走者の足が地に着いているフレームを選択すればよい。 The image clipping unit 110 clips an image for identifying the position of the runner from the relay video, and performs processing for sending the image to the speed estimating unit 120 and the moving object identifying unit 130 . In this embodiment, the image clipping unit 110 clips the image at the timing when the foot of the runner, who is the subject in the relay video, touches the ground. The reason why the image is cut out at the timing when the runner's foot touches the ground is that the positional relationship between the runner and the background image can be appropriately specified, and the speed estimation accuracy is improved. In the present embodiment, the expression "cut out an image" is used, but in practice, a frame in which the runner's feet are on the ground may be selected from the frames forming the relay video.

移動体特定部130は、走者情報DB150に格納された情報を参照して、中継映像の被写体である走者の顔画像やゼッケンから、走者を特定し、その結果を出力部140に出力する。なお、この走者の特定に顔画像を用いる場合、AI(Artificial Intelligence)利用して、事前に登録した顔画像と近似する特徴量を持つ走者を特定する方法を用いることができる。 The moving object identification unit 130 refers to the information stored in the runner information DB 150 , identifies the runner from the face image and bib of the runner who is the subject of the relay video, and outputs the result to the output unit 140 . When a face image is used to identify the runner, a method of using AI (Artificial Intelligence) to identify a runner having a feature amount similar to a pre-registered face image can be used.

図4は、走者情報DB150に保持される情報の一例を示す図である。図4の例では、ゼッケンと選手名を対応付けた走者情報が格納されている。移動体特定部130は、画像切り出し部110から送られた画像からゼッケンを文字認識し、そのゼッケンに対応する走者名を読み出して、出力部140に送る。なお、図4の例では、ゼッケンにて走者を特定する場合の情報を示しているが、例えば、顔画像から走者を特定する場合には、ゼッケンに代えて、事前に撮影された走者の顔画像が登録される。また、図4の例以外にも、例えば、各走者の所属するチームや、年齢、過去の入賞歴などのプロフィール情報を走者情報DB150に登録してもよい。 FIG. 4 is a diagram showing an example of information held in the runner information DB 150. As shown in FIG. In the example of FIG. 4, runner information is stored in which bibs and athlete names are associated with each other. The moving object identifying unit 130 performs character recognition on the bib from the image sent from the image clipping unit 110 , reads the runner name corresponding to the bib, and sends it to the output unit 140 . In the example of FIG. 4, the information for specifying the runner by the bib is shown. The image is registered. In addition to the example shown in FIG. 4, for example, profile information such as the team to which each runner belongs, age, past winning history, etc. may be registered in the runner information DB 150 .

速度推定部120は、中継映像の被写体である走者の背景画像の変化から、走者の速度を推定し、その結果を出力部140に出力する。 Speed estimating section 120 estimates the speed of the runner from changes in the background image of the runner, who is the subject of the relay video, and outputs the result to output section 140 .

上記速度の推定方法の一例を示すと次のようになる。速度推定部120は、画像切り出し部110にて切り出された連続する複数フレームの差分情報からカメラ200と走者の移動量、背景画像に含まれる地平線と地表面の映像内の位置、走者の足の接地位置を推定することで、カメラ200と走者の相対距離を推定する。併せて、速度推定部120は、同様の手法で、カメラ200(中継車)の移動距離を推定する。次に、速度推定部120は、画像切り出し部110にて切り出されたフレームのフレームレートと、相対距離の変化から走者の相対速度(カメラ200から見た速度)を計算する。併せて、速度推定部120は、同様の手法で、カメラ200(中継車)の移動速度を推定する。最後に、速度推定部120は、走者の相対速度とカメラ200(中継車)の移動速度とを合算することで、走者の移動速度を計算する。 An example of the speed estimation method is as follows. The speed estimating unit 120 uses the difference information of the continuous frames extracted by the image extracting unit 110 to determine the movement amount of the camera 200 and the runner, the positions of the horizon and the ground surface included in the background image in the image, and the positions of the runner's feet. By estimating the ground contact position, the relative distance between the camera 200 and the runner is estimated. In addition, speed estimating section 120 estimates the movement distance of camera 200 (relay van) by a similar method. Next, the speed estimator 120 calculates the relative speed of the runner (the speed as seen from the camera 200) from the frame rate of the frame cut out by the image cutout unit 110 and the change in the relative distance. In addition, speed estimating section 120 estimates the moving speed of camera 200 (relay van) by a similar method. Finally, the speed estimator 120 calculates the moving speed of the runner by adding the relative speed of the runner and the moving speed of the camera 200 (relay van).

出力部140は、移動体特定部130から受け取った走者情報と、速度推定部120から受け取った走者の推定速度とを対応付けて視聴者に提供する。図5は、出力部140による情報の提供形態の一例であり、図5の例では、中継映像に重畳させる形態で、走者の情報(選手名)と、推定速度が表示されている。これにより、視聴者は、走者が現在どの程度の速度で走っているのかはもちろんとして、そのペースが落ちているのか、逆にピッチを上げてきているのかといった情報を得ることが可能となる。 The output unit 140 associates the runner information received from the moving body identifying unit 130 with the estimated speed of the runner received from the speed estimating unit 120 and provides the information to the viewer. FIG. 5 shows an example of how information is provided by the output unit 140. In the example of FIG. 5, runner information (athlete name) and estimated speed are displayed in a form superimposed on the relay video. As a result, viewers can obtain information such as not only how fast the runner is currently running, but also whether the pace is slowing down or, conversely, whether the pitch is increasing.

なお、上記走者の情報と、推定速度の出力形態は図5に示した例に限られない。例えば、図6のボックス400a、400b内に示すように、画像に映し出された複数の走者について、それぞれ走者情報を特定し、かつ、それぞれの推定速度を求めて表示することも可能である。これにより、視聴者は、各走者の速度差を把握することが可能となる。また、例えば、中継映像の表示領域とは別のサブ領域に、前記特定した走者のリストと、推定した各走者の速度をまとめて表示する形態も採用可能である。 Note that the output form of the runner information and the estimated speed is not limited to the example shown in FIG. For example, as shown in boxes 400a and 400b in FIG. 6, it is possible to specify runner information for each of the multiple runners displayed in the image, and obtain and display their estimated speeds. This allows the viewer to grasp the difference in speed of each runner. Further, for example, it is possible to employ a mode in which the list of the specified runners and the estimated speed of each runner are collectively displayed in a sub-area different from the display area of the relay image.

なお、上記した実施形態では、画像切り出し部110から移動体特定部130に切り出された画像が送られるものとして説明したが、移動体特定部130への画像送信タイミングはこれに限られない。たとえば、移動体特定部130が、シーン切り替わりなどの適切なタイミングで画像を取得し、速度推定とは独立して、中継映像やそのフレーム画像から走者を特定することでもよい。走者の情報は、一旦特定してしまえば、以降基本的に変える必要はないからである。 In the above-described embodiment, the clipped image is sent from the image clipping unit 110 to the moving body identifying unit 130, but the timing of sending the image to the moving body identifying unit 130 is not limited to this. For example, the moving object identification unit 130 may acquire images at appropriate timings such as scene changes, and identify the runner from relay video or frame images thereof independently of speed estimation. This is because once the information on the runner is specified, there is basically no need to change it thereafter.

例えば、特許文献1との比較においても、本発明では、移動体である選手等に、加速度センサ等の測定装置を装着してもらう必要がないという利点がある。また、特許文献2との比較においても、本発明は、予め決められたコースの各所に撮像装置を配置する必要がないという利点がある。 For example, even in comparison with Patent Literature 1, the present invention has the advantage that it is not necessary for a player or the like, who is a mobile body, to wear a measuring device such as an acceleration sensor. Also, in comparison with Patent Document 2, the present invention has the advantage that it is not necessary to dispose imaging devices at various locations on a predetermined course.

また、本実施形態の視聴支援装置にも、複数の移動体の間の距離差、即ち、複数の走者の間の距離差の表示機能を追加することもできる。図15は、本発明の第1の実施形態の視聴支援装置100cの変形構成を示す図である。図3の構成との相違点は、速度推定部120と、出力部140の間に距離差推定部180が追加されている点である。 Also, the viewing support device of the present embodiment can be added with a function of displaying the distance difference between a plurality of moving objects, that is, the distance difference between a plurality of runners. FIG. 15 is a diagram showing a modified configuration of the viewing support device 100c according to the first embodiment of the present invention. A difference from the configuration of FIG. 3 is that a distance difference estimating section 180 is added between the speed estimating section 120 and the output section 140 .

距離差推定部180は、速度推定部120の速度推定の過程で算出された走者の位置情報を用いて、複数の走者の間の距離差を推定する。そして、距離差推定部180は、推定した複数の走者の間の距離差を出力部140に出力する。そして、出力部140は、走者の推定速度に加えて、複数の走者の距離差を視聴者に提供する。 The distance difference estimator 180 estimates the distance difference between a plurality of runners using the position information of the runners calculated in the speed estimation process of the speed estimator 120 . Distance difference estimating section 180 then outputs the estimated distance differences between the plurality of runners to output section 140 . The output unit 140 then provides the viewer with the distance difference between the runners in addition to the estimated speed of the runners.

図15に示す変形構成によれば、図16のように、走者間の双方向矢印と、推定した距離差を表示することができる。これにより、視聴者は、複数の走者の間のそれぞれの距離差、速度差を参照して、「あと何分後に追いつきそうだ」、「このペースでは追いつけない」といった予測をすることができる。 According to the modified configuration shown in FIG. 15, bidirectional arrows between runners and the estimated distance difference can be displayed as shown in FIG. This allows the viewer to refer to the distance difference and speed difference between the multiple runners and make predictions such as "I will catch up with you in how many minutes" or "I will not be able to catch up with you at this pace."

また、より望ましい形態において、過去のレコードタイムなどが記録されている場合には、レコードタイムから、AR(Augmented Reality)技術を用いて、そのレコードタイムを出した仮想的な走者を表示することもできる。図17のゼッケン11番の手前の破線で表された走者は、AR技術を用いて表示された仮想的なレコードタイム保持者の像である。図17の例では、この仮想的なレコードタイム保持者と現実の走者と間の距離差を表示している。これにより、視聴者は、それぞれの距離差、速度差を参照して、「レコードタイムを更新しそうだ」、「このペースではレコードタイムを更新できない」といった予測をすることができる。 In a more desirable form, when past record times are recorded, it is also possible to display a virtual runner who achieved that record time using AR (Augmented Reality) technology from the record time. can. The runner represented by the dashed line in front of number 11 in FIG. 17 is the image of the virtual record holder displayed using AR technology. In the example of FIG. 17, the distance difference between this virtual record time holder and the actual runner is displayed. This allows the viewer to refer to the respective distance differences and speed differences and make predictions such as "I am likely to break the record time" or "I cannot break the record time at this pace".

[第2の実施形態]
続いて、走者の表情を判定し、付帯情報として表示する機能を追加した本発明の第2の実施形態について図面を参照して詳細に説明する。図7は、本発明の第2の実施形態の視聴支援装置の構成を示す図である。図3に示した第1の実施形態の視聴支援装置100との差異は、移動体特定部130の下段に表情判定部170が追加されている点である。その他の構成及び動作は第1の実施形態と同様であるので、以下、相違点を中心に説明する。
[Second embodiment]
Next, a second embodiment of the present invention, in which a function of judging a runner's facial expression and displaying it as supplementary information is added, will be described in detail with reference to the drawings. FIG. 7 is a diagram showing the configuration of a viewing support device according to the second embodiment of the present invention. The difference from the viewing support device 100 of the first embodiment shown in FIG. Since other configurations and operations are the same as those of the first embodiment, differences will be mainly described below.

表情判定部170は、移動体特定部130経由で画像切り出し部110から中継画像を受け取ると、その画像中から走者の顔画像を特定し、その表情を判定し、その結果を出力部140に出力する。表情判定部170における表情の判定手法としては、種々の方法を採用できる。例えば、走者の顔の各器官の変化や移動量を用いて表情を判定する方法を採ることができる。また顔の表情のみならず、走者のしぐさなどから、表情を判定してもよい。例えば、走者の顔自体は無表情であっても、顔が左右に揺れている状態が続いている場合に、その走者は「苦しそうな表情」と判定してもよい。また、事前に表情ごとの教師データを登録しておき、走者の表情との対比により表情を判定してもよい。 Facial expression determination unit 170 receives the relay image from image clipping unit 110 via moving object identification unit 130 , identifies the face image of the runner from the image, determines the facial expression, and outputs the result to output unit 140 . do. Various methods can be adopted as the facial expression determination method in the facial expression determination unit 170 . For example, it is possible to adopt a method of judging the facial expression using changes and movement amounts of each organ of the runner's face. The facial expression may be determined not only from the facial expression but also from the runner's gesture. For example, even if the face of the runner itself is expressionless, if the face continues to sway from side to side, it may be determined that the runner has a "painful expression." Alternatively, teacher data for each facial expression may be registered in advance, and the facial expression may be determined by comparing it with the runner's facial expression.

出力部140は、移動体特定部130から受け取った走者情報と、速度推定部120から受け取った走者の推定速度と、表情判定部170から受け取った走者の表情を視聴者に提供する。図8は、出力部140による情報の提供形態の一例である。図6に示した第1の実施形態との相違点は、ボックス400a、400b内に、走者の表情を示すアイコンが追加されている点である。これにより、視聴者は、各走者の表情からその状態を推測することが可能となる。例えば、図8の場合、画面手前側の走者Aの表情は中継映像からも把握することができるが、画面奥の走者Bの表情は、顔が小さく写っていたり、カメラの焦点が合っていないなどの理由で、中継映像から直接把握することができない場合がある。本実施形態によれば、そのような場合でも視聴者に走者の表情を伝えることが可能となる。 The output unit 140 provides the viewer with the runner information received from the moving body identification unit 130 , the estimated speed of the runner received from the speed estimation unit 120 , and the runner's facial expression received from the facial expression determination unit 170 . FIG. 8 is an example of a form of providing information by the output unit 140. As shown in FIG. A difference from the first embodiment shown in FIG. 6 is that icons indicating the facial expressions of the runners are added in the boxes 400a and 400b. This allows the viewer to guess the condition of each runner from the facial expressions. For example, in the case of FIG. 8, the facial expression of runner A on the front side of the screen can be grasped from the relay video, but the facial expression of runner B on the back side of the screen is small or the camera is out of focus. For some reason, it may not be possible to directly grasp the situation from the relay video. According to this embodiment, even in such a case, it is possible to convey the expression of the runner to the viewer.

以上のように、本実施形態によれば、走者の情報や推定速度に加え、走者の表情を視聴者に伝えることが可能となる。 As described above, according to the present embodiment, it is possible to convey the runner's facial expression to the viewer in addition to the runner's information and estimated speed.

[第3の実施形態]
続いて、走者の速度の推定方法に変更を加えた本発明の第3の実施形態について図面を参照して詳細に説明する。図9は、本発明の第3の実施形態の視聴支援装置100bの構成を示す図である。図3に示した第1の実施形態の視聴支援装置100との差異は、速度推定部120が速度推定部120bに置き換えられ、基準背景画像データベース(基準背景画像DB)160が追加されている点である。その他の構成及び動作は第1の実施形態と同様であるので、以下、相違点を中心に説明する。
[Third embodiment]
Next, a third embodiment of the present invention in which the method of estimating the runner's speed is modified will be described in detail with reference to the drawings. FIG. 9 is a diagram showing the configuration of a viewing support device 100b according to the third embodiment of the present invention. The difference from the viewing support device 100 of the first embodiment shown in FIG. 3 is that the speed estimation unit 120 is replaced with a speed estimation unit 120b and a reference background image database (reference background image DB) 160 is added. is. Since other configurations and operations are the same as those of the first embodiment, differences will be mainly described below.

本実施形態の速度推定部120bは、基準背景画像DB160に格納された情報を参照して中継映像の被写体である走者の背景画像の変化から、走者の速度を推定し、その結果を出力部140に出力する。 The speed estimation unit 120b of the present embodiment refers to the information stored in the reference background image DB 160, estimates the speed of the runner from changes in the background image of the runner who is the subject of the relay video, and outputs the result to the output unit 140. output to

図10は、基準背景画像DB160に保持される情報の一例を示す図である。図10の例では、走者の位置を特定するための基準背景画像と、当該画像に対応する地点(スタート地点からの距離)とを対応付けた情報が格納されている。速度推定部120bは、画像切り出し部110から送られた画像(例えば、図11)を受け取ると、背景画像を取り出す(図12参照)。そして、速度推定部120bは、基準背景画像DB160から、その背景画像の特徴量と共通する特徴量を持つ基準背景画像に対応付けられた地点を走者の位置として特定する。上記の処理を繰り返すことで、例えば、図11に示す時刻t1の走者位置と、時刻t+1の走者位置をそれぞれ特定し、速度(推定移動距離/(t2-t1))を推定することができる。なお、画像切り出し部110から送られた画像及び基準背景画像DB160に保持される画像は、第1の実施形態と同様に、走者の足が地面についたタイミングで切り出したものが好ましい。 FIG. 10 is a diagram showing an example of information held in the reference background image DB 160. As shown in FIG. In the example of FIG. 10, information is stored that associates a reference background image for specifying the position of the runner with a point (distance from the starting point) corresponding to the image. Upon receiving the image (for example, FIG. 11) sent from the image clipping unit 110, the velocity estimating unit 120b extracts the background image (see FIG. 12). Then, from the reference background image DB 160, the speed estimating unit 120b identifies, as the position of the runner, a point associated with a reference background image having a feature amount common to that of the background image. By repeating the above process, for example, the runner's position at time t1 and the runner's position at time t+1 shown in FIG. The image sent from the image clipping unit 110 and the image held in the reference background image DB 160 are preferably clipped at the timing when the runner's feet touch the ground, as in the first embodiment.

上記基準背景画像は、移動体の移動経路をモデル移動体が移動した際の撮影映像に含まれる前記モデル移動体の背景画像を用いることができる。また、このモデル移動体の背景画像として、過去に行われた同一の大会の映像から切り出した画像を用いることもできる。 As the reference background image, the background image of the model moving body included in the photographed image when the model moving body moves along the movement path of the moving body can be used. Also, as the background image of this model moving body, an image clipped from a video of the same tournament held in the past can be used.

本実施形態によれば、カメラ200(中継車)の速度を用いずに、走者の速度を推定できるという利点がある。 According to this embodiment, there is an advantage that the speed of the runner can be estimated without using the speed of the camera 200 (relay van).

以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、メッセージの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。 Although each embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiments, and further modifications, replacements, and adjustments can be made without departing from the basic technical idea of the present invention. can be added. For example, the network configuration, the configuration of each element, and the form of expression of messages shown in each drawing are examples for helping understanding of the present invention, and are not limited to the configurations shown in these drawings. Moreover, in the following description, "A and/or B" is used to mean at least one of A and B.

例えば、上記した実施形態では、視聴支援装置100を介して中継映像がテレビジョン受像機で再生される例を挙げて説明したが、視聴支援装置100の形態はこれに限られない。例えば、視聴支援装置100に、動画配信事業者等がインターネットを介して配信する中継映像についてその被写体の速度推定と、推定した速度の提供を行わせてもよい。この場合、視聴支援装置100による速度情報等の提供先は、インターネット経由で動画再生が可能なPC(パーソナルコンピュータ)、タブレット端末、スマートフォンその他の機器となる。もちろん、インターネット接続機能を備えたテレビジョン受像機もこれらの機器に含まれる。 For example, in the above-described embodiment, an example in which relay video is reproduced on a television receiver via the viewing support device 100 has been described, but the form of the viewing support device 100 is not limited to this. For example, the viewing support device 100 may be caused to estimate the speed of a subject and provide the estimated speed for a relay video distributed by a video distributor or the like via the Internet. In this case, the speed information or the like provided by the viewing support device 100 is a PC (personal computer), a tablet terminal, a smartphone, or other device capable of reproducing moving images via the Internet. Of course, these devices also include television receivers equipped with Internet connection functions.

また、上記した実施形態では、主として中継映像から切り出した画像を用いて、被写体を特定し、かつ、被写体の速度を推定するものとして説明したが、その他の補助情報を用いて、推定した速度を補正したり、誤りを除去する構成も採用可能である。例えば、中継車の速度情報が得られる場合、その情報を用いて被写体の推定速度が正しいか否かを検証することができる。また、競技によっては、走者等の体や着用物にRFIDタグやチップの取り付けが義務付けられている場合がある。これらのRFIDタグやチップから得られる情報を用いて、走者の特定やその推定速度の検証を行うことも可能である。 Further, in the above-described embodiment, an image cut out from a relay video is mainly used to identify a subject and estimate the speed of the subject. A configuration that corrects or removes errors can also be adopted. For example, if OB van speed information is available, that information can be used to verify whether the estimated speed of the subject is correct. In addition, depending on the competition, it may be obligatory to attach an RFID tag or chip to the body of the runner or the clothing worn by the runner. Information obtained from these RFID tags and chips can also be used to identify runners and verify their estimated speed.

例えば、上記した実施形態では、ロードレースの中継映像から走者の情報と、その推定速度を提供する例を挙げて説明したが、本発明の適用範囲は、これに限られず、中継映像が得られる競技全般に適用可能である。例えば、陸上選手のトレーニングなどでも、カメラで撮影した映像からリアルタイムで速度距離を計測してトレーニングに活用するといった用途が考えられる。また、その他、トラック競技全般のほか、競輪、競馬、自動車レース、水泳などの中継映像の被写体の速度推定にも適用可能である。 For example, in the above-described embodiment, an example in which the runner's information and its estimated speed are provided from the relay video of the road race has been described, but the scope of application of the present invention is not limited to this, and the relay video can be obtained. It is applicable to competitions in general. For example, in the training of track and field athletes, it is possible to use it for training by measuring the speed and distance in real time from the video taken by the camera. In addition to track races in general, the present invention can also be applied to the speed estimation of objects in relay images of bicycle races, horse races, automobile races, swimming, and the like.

また、競争系の競技以外にも、例えば、イベント会場などの警備用途で巡回しているドローンなどで撮影された映像について、上述した方法で被写体を特定し、その速度を推定して、警備担当者に通知するという用途にも適用可能である。例えば、警備指揮者に対し、特定の監視対象者と、その速度情報とを提供することで、警備担当者を差し向けたり、警備範囲を広げるといった指揮用途にも適用可能である。 In addition to competitive sports, for example, for videos taken by drones patrolling event venues for security purposes, the above-mentioned method can be used to identify the subject, estimate its speed, and It can also be applied to the use of notifying a person. For example, by providing a security commander with a specific person to be monitored and its speed information, the present invention can also be applied to command purposes such as dispatching a security officer or widening the security range.

また、上記した第1~第3の実施形態に示した手順は、視聴支援装置10、100~100cとして機能するコンピュータ(図13の9000)に、視聴支援装置10、100~100cとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図13のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図13のCPU9010にて、移動体特定プログラムや速度推定プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメーターの更新処理を実施させればよい。 Further, the procedures shown in the above-described first to third embodiments are such that the computer (9000 in FIG. 13) functioning as the viewing support devices 10, 100 to 100c functions as the viewing support devices 10, 100 to 100c. It can be implemented by a program that implements it. Such a computer is exemplified by a configuration including a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG. That is, the CPU 9010 in FIG. 13 may execute the moving object identification program and the speed estimation program to update each calculation parameter held in the auxiliary storage device 9040 or the like.

即ち、上記した各実施形態に示した視聴支援装置10、100~100cの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。 That is, each part (processing means, function) of the viewing support devices 10, 100 to 100c shown in each of the above-described embodiments performs each of the above-described processes by using the hardware in the processors installed in these devices. It can be realized by a computer program to be executed.

最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による視聴支援装置参照)
[第2の形態]
上記した視聴支援装置が取り扱う移動体は、競争系競技の走者であり、
前記切り出す手段は、前記走者の足が地についたタイミングで、画像を切り出す構成を採ることができる。
[第3の形態]
前記移動体の速度を推定する手段は、
前記移動体が映し出された画像から、カメラと走者の相対距離を推定し、
前記移動体が映し出された画像のフレームレートと、前記カメラと走者の相対距離の変化から、前記カメラと移動体の相対速度を推定する処理を実行する構成を採ることができる。
[第4の形態]
前記移動体の速度を推定する手段は、
前記移動体の相対速度とカメラの移動速度とを合算することで、走者の移動速度を計算する構成を採ることができる。
[第5の形態]
上記した視聴支援装置において、
前記移動体の速度を推定する手段は、前記移動体が映し出された画像の背景画像から計算した特徴量の変化に基づいて、前記移動体の速度を推定する構成を採ることができる。
[第6の形態]
上記した視聴支援装置において、
前記移動体の速度を推定する手段は、
前記移動体の移動経路をモデル移動体が移動した際の撮影映像に含まれる前記モデル移動体の背景画像の特徴量と、
前記移動体が映し出された画像の背景画像から計算した特徴量とを照合することにより、前記移動体の位置を特定し、
前記特定した位置を用いて前記移動体の位置を推定する構成を採用できる。
[第7の形態]
第1の地点から第2の地点へと移動する複数の移動体を被写体とする中継映像から、所定の時間間隔で、前記複数の移動体が映し出された画像を切り出す手段と、
前記複数の移動体が映し出された画像の背景画像の変化に基づいて、前記複数の移動体の間の距離差を推定する手段と、
前記複数の移動体の間の距離差を出力する手段と、を備えた
視聴支援装置。
[第8の形態]
上記した視聴支援装置は、
さらに、前記画像に映し出された前記移動体の像に基づいて、前記移動体を特定する手段を備え、
前記特定した移動体の情報と、その推定速度または距離差の少なくとも一方と、を出力する構成を採ることができる。
[第9の形態]
上記した視聴支援装置において、
前記移動体は、競争系競技の走者であり、
前記移動体を特定する手段は、
前記走者の顔画像の特徴又はゼッケンの情報に基づいて、前記走者を特定する構成を採ることができる。
[第10の形態]
上記した視聴支援装置において、
さらに、
前記走者の顔画像の特徴から、前記走者の表情を判定する手段を備え、
前記出力する手段は、前記走者の表情を所定の態様で出力する構成を採ることができる。
[第11の形態]
(上記第3の視点による視聴支援方法参照)
[第12の形態]
(上記第4の視点によるプログラム参照)
なお、上記第11~第12の形態は、第1の形態と同様に、第2~第10の形態に展開することが可能である。
Finally, preferred forms of the invention are summarized.
[First form]
(Refer to the viewing support device from the first viewpoint above)
[Second form]
The mobile object handled by the viewing support device described above is a runner in a competitive event,
The clipping means can take a configuration that clips the image at the timing when the runner's foot touches the ground.
[Third form]
The means for estimating the speed of the moving object includes:
estimating the relative distance between the camera and the runner from the image of the moving object;
A configuration can be adopted in which a process of estimating the relative speed between the camera and the moving body is performed from the frame rate of the image showing the moving body and the change in the relative distance between the camera and the runner.
[Fourth mode]
The means for estimating the speed of the moving body comprises:
By summing the relative speed of the moving object and the moving speed of the camera, it is possible to adopt a configuration in which the moving speed of the runner is calculated.
[Fifth form]
In the viewing support device described above,
The means for estimating the speed of the moving body can adopt a configuration that estimates the speed of the moving body based on changes in feature amounts calculated from a background image of an image in which the moving body is projected.
[Sixth form]
In the viewing support device described above,
The means for estimating the speed of the moving body comprises:
a feature amount of a background image of the model moving body included in a captured image when the model moving body moves along the moving path of the moving body;
Identifying the position of the moving object by matching the feature amount calculated from the background image of the image in which the moving object is projected,
A configuration can be adopted in which the position of the moving object is estimated using the specified position.
[Seventh form]
means for clipping, at predetermined time intervals, an image showing the plurality of moving bodies from a relay video in which a plurality of moving bodies moving from a first point to a second point are captured;
means for estimating a distance difference between the plurality of moving bodies based on a change in a background image of an image showing the plurality of moving bodies;
and means for outputting a distance difference between the plurality of moving objects.
[Eighth mode]
The viewing support device described above is
Furthermore, means for specifying the moving object based on the image of the moving object displayed in the image,
A configuration can be adopted in which information on the identified moving object and at least one of its estimated speed and distance difference are output.
[Ninth form]
In the viewing support device described above,
The moving object is a runner in a competitive event,
The means for identifying the moving object is
A configuration can be adopted in which the runner is specified based on the features of the face image of the runner or information on the bib.
[Tenth mode]
In the viewing support device described above,
moreover,
comprising means for determining the expression of the runner from the features of the face image of the runner;
The means for outputting can adopt a configuration for outputting the facial expression of the runner in a predetermined manner.
[Eleventh form]
(See the viewing support method from the third viewpoint above.)
[Twelfth Mode]
(Refer to the program from the fourth viewpoint above)
It should be noted that the eleventh to twelfth modes can be developed into the second to tenth modes in the same manner as the first mode.

なお、上記の特許文献および非特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。 The disclosures of the above patent documents and non-patent documents are incorporated herein by reference. Within the framework of the full disclosure of the present invention (including the scope of claims), modifications and adjustments of the embodiments and examples are possible based on the basic technical concept thereof. Also, within the framework of the disclosure of the present invention, various combinations or selections (partial (including targeted deletion) is possible. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including claims and technical ideas. In particular, any numerical range recited herein should be construed to specifically recite any numerical value or subrange within that range, even if not otherwise stated.

10、100、100a、100b、100c 視聴支援装置
11、110 画像切り出し部
12、120、120b 速度推定部
14、140 出力部
18、180 距離差推定部
130 移動体特定部
150 走者情報DB(データベース)
150a 走者特定エンジン
160 基準背景画像DB(データベース)
170 表情判定部
200 カメラ
300 テレビジョン受像機
400a、400b ボックス
401a、401b アイコン
9000 コンピュータ
9010 CPU
9020 通信インタフェース
9030 メモリ
9040 補助記憶装置
Reference Signs List 10, 100, 100a, 100b, 100c Viewing support device 11, 110 Image clipping unit 12, 120, 120b Speed estimating unit 14, 140 Output unit 18, 180 Distance difference estimating unit 130 Moving body identifying unit 150 Runner information DB (database)
150a Runner identification engine 160 Reference background image DB (database)
170 facial expression determination unit 200 camera 300 television receiver 400a, 400b box 401a, 401b icon 9000 computer 9010 CPU
9020 Communication interface 9030 Memory 9040 Auxiliary storage device

Claims (10)

第1の地点から第2の地点へと移動する人物を映す映像において、前記映像に映る顔に基づき前記人物に関する情報を特定する特定手段と、
前記映像から所定の時間間隔で、前記人物が映し出された画像を切り出す手段と、
前記人物が映し出された画像の背景画像の変化に基づいて、前記人物の速度を推定する手段と、
前記人物の推定速度と前記情報とを出力する手段と、を備えた
情報処理装置。
identifying means for identifying information about a person based on a face appearing in the image, in which the person moves from a first point to a second point;
means for cutting out an image in which the person is projected from the video at predetermined time intervals;
means for estimating the speed of the person based on changes in the background image of the image in which the person is projected;
An information processing apparatus comprising means for outputting the estimated speed of the person and the information.
前記切り出す手段は、前記人物の足が地についたタイミングで、画像を切り出す請求項1の情報処理装置。 2. An information processing apparatus according to claim 1, wherein said clipping means clips the image at the timing when said person's feet touch the ground. 前記人物の速度を推定する手段は、
前記人物が映し出された画像から、カメラと人物の相対距離を推定し、
前記人物が映し出された画像のフレームレートと、前記カメラと人物の相対距離の変化から、前記カメラと人物の相対速度を推定する処理を実行する
請求項1又は2の情報処理装置。
The means for estimating the velocity of the person comprises:
estimating the relative distance between the camera and the person from the image in which the person is projected;
3. The information processing apparatus according to claim 1, wherein a process of estimating a relative velocity between the camera and the person is performed based on a frame rate of an image showing the person and a change in relative distance between the camera and the person.
前記人物の速度を推定する手段は、
前記人物の相対速度とカメラの移動速度とを合算することで、人物の移動速度を計算する請求項3の情報処理装置。
The means for estimating the velocity of the person comprises:
4. The information processing apparatus according to claim 3, wherein the moving speed of the person is calculated by adding the relative speed of the person and the moving speed of the camera.
前記人物の速度を推定する手段は、前記人物が映し出された画像の背景画像から計算した特徴量の変化に基づいて、前記人物の速度を推定する請求項1又は2の情報処理装置。 3. The information processing apparatus according to claim 1, wherein the means for estimating the speed of the person estimates the speed of the person based on a change in feature quantity calculated from a background image of an image in which the person is projected. 前記人物の速度を推定する手段は、
前記人物の移動経路をモデル人物が移動した際の撮影映像に含まれる前記モデル人物の背景画像の特徴量と、前記人物が映し出された画像の背景画像から計算した特徴量と、を照合することにより前記人物の位置を特定し、
前記特定した位置を用いて前記人物の位置を推定する請求項1から3いずれか一の情報処理装置。
The means for estimating the velocity of the person comprises:
Collating the feature amount of the background image of the model person included in the captured image when the model person moves along the movement route of the person and the feature amount calculated from the background image of the image in which the person is projected. Identifying the position of the person by
4. The information processing apparatus according to any one of claims 1 to 3, wherein the position of the person is estimated using the specified position.
第1の地点から第2の地点へと移動する複数の人物を被写体とする映像から、所定の時間間隔で、前記複数の人物が映し出された画像を切り出す手段と、
前記複数の人物が映し出された画像の背景画像の変化に基づいて、前記複数の人物の間の距離差を推定する手段と、
前記複数の人物の間の距離差を出力する手段と、を備えた
請求項6の情報処理装置。
means for cutting out, at predetermined time intervals, an image showing the plurality of persons from a video in which a plurality of persons moving from a first point to a second point are taken as subjects;
means for estimating a distance difference between the plurality of persons based on changes in a background image of an image in which the plurality of persons are projected;
7. The information processing apparatus according to claim 6, further comprising means for outputting a distance difference between said plurality of persons.
さらに、前記画像に映し出された前記人物の像に基づいて、前記人物を特定する手段を備え、
前記特定した人物の情報と、その推定速度または距離差の少なくとも一方と、を出力する請求項7の情報処理装置。
Furthermore, means for specifying the person based on the image of the person displayed in the image,
8. The information processing apparatus according to claim 7, which outputs information about the identified person and at least one of its estimated speed and distance difference.
第1の地点から第2の地点へと移動する人物を映す映像において、前記映像に映る顔に基づき前記人物に関する情報を特定し、
前記映像から所定の時間間隔で、前記人物が映し出された画像を切り出し、
前記人物が映し出された画像の背景画像の変化に基づいて、前記人物の速度を推定し、
前記人物の推定速度と前記情報とを出力する、
情報処理方法。
In a video showing a person moving from a first point to a second point, specifying information about the person based on the face shown in the video,
Cut out an image showing the person at a predetermined time interval from the video,
estimating the speed of the person based on changes in the background image of the image in which the person is projected;
outputting the estimated velocity of the person and the information;
Information processing methods.
コンピュータに、
第1の地点から第2の地点へと移動する人物を映す映像において、前記映像に映る顔に基づき前記人物に関する情報を特定する処理、
前記映像から所定の時間間隔で、前記人物が映し出された画像を切り出す処理、
前記人物が映し出された画像の背景画像の変化に基づいて、前記人物の速度を推定する処理、
前記人物の推定速度と前記情報とを出力する処理、
を実行させるプログラム。
to the computer,
A process of identifying information about the person based on the face appearing in the image in the image showing the person moving from the first point to the second point,
A process of cutting out an image in which the person is projected from the video at predetermined time intervals;
A process of estimating the speed of the person based on changes in the background image of the image in which the person is projected,
a process of outputting the estimated speed of the person and the information;
program to run.
JP2022034126A 2018-03-13 2022-03-07 VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM Active JP7276538B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018045582 2018-03-13
JP2018045582 2018-03-13
JP2020506548A JP7040599B2 (en) 2018-03-13 2019-03-12 Viewing support device, viewing support method and program
PCT/JP2019/009945 WO2019176922A1 (en) 2018-03-13 2019-03-12 Audiovisual assistance device, audiovisual assistance method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020506548A Division JP7040599B2 (en) 2018-03-13 2019-03-12 Viewing support device, viewing support method and program

Publications (2)

Publication Number Publication Date
JP2022075766A JP2022075766A (en) 2022-05-18
JP7276538B2 true JP7276538B2 (en) 2023-05-18

Family

ID=67908480

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020506548A Active JP7040599B2 (en) 2018-03-13 2019-03-12 Viewing support device, viewing support method and program
JP2022034126A Active JP7276538B2 (en) 2018-03-13 2022-03-07 VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020506548A Active JP7040599B2 (en) 2018-03-13 2019-03-12 Viewing support device, viewing support method and program

Country Status (2)

Country Link
JP (2) JP7040599B2 (en)
WO (1) WO2019176922A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157795A (en) 2012-01-30 2013-08-15 Casio Comput Co Ltd Information processor, information processing method, program, and information processing system
JP2014174493A (en) 2013-03-13 2014-09-22 Zenrin Datacom Co Ltd Content display system, content distribution server, and content display method
JP2016116763A (en) 2014-12-22 2016-06-30 株式会社Jvcケンウッド Grounding detection device, grounding detection method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01119190A (en) * 1987-10-30 1989-05-11 Mazda Motor Corp Traveling control device for vehicle
JPH0769332B2 (en) * 1989-04-20 1995-07-26 富士通株式会社 Runner pitch measurement method
JP5038283B2 (en) * 2008-11-05 2012-10-03 キヤノン株式会社 Imaging system and lens device
JP2012124553A (en) * 2010-12-06 2012-06-28 Canon Inc Photographing system and lens device
EP2902743B1 (en) * 2012-09-24 2017-08-23 FUJIFILM Corporation Device and method for measuring distances to two subjects
JP6213728B2 (en) * 2013-10-09 2017-10-18 カシオ計算機株式会社 Captured image processing apparatus, captured image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157795A (en) 2012-01-30 2013-08-15 Casio Comput Co Ltd Information processor, information processing method, program, and information processing system
JP2014174493A (en) 2013-03-13 2014-09-22 Zenrin Datacom Co Ltd Content display system, content distribution server, and content display method
JP2016116763A (en) 2014-12-22 2016-06-30 株式会社Jvcケンウッド Grounding detection device, grounding detection method and program

Also Published As

Publication number Publication date
JP2022075766A (en) 2022-05-18
WO2019176922A1 (en) 2019-09-19
JP7040599B2 (en) 2022-03-23
JPWO2019176922A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
US20190158774A1 (en) Information processing apparatus, information processing method, and program
JP5851651B2 (en) Video surveillance system, video surveillance method, and video surveillance device
US8724845B2 (en) Content determination program and content determination device
US10462406B2 (en) Information processing apparatus and information processing method
JP5994397B2 (en) Information processing apparatus, information processing method, and program
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
CN105009163B (en) Content distribution system and its operating method with augmented reality mechanism
US20150088637A1 (en) Information processing system, information processing method, and non-transitory computer readable storage medium
JP2007219948A (en) User abnormality detection equipment and user abnormality detection method
KR102305038B1 (en) Server for Tracking Missing Child Tracking and Method for Tracking Moving Path of Missing Child based on Face Recognition based on Deep-Learning Therein
CN109074772A (en) Content based on sight shares dynamic self-organization network
US20230206093A1 (en) Music recommendation method and apparatus
JP7276538B2 (en) VIEWING ASSISTANCE DEVICE, VIEWING ASSISTANCE METHOD, AND PROGRAM
JP7107596B2 (en) Station monitoring system and station monitoring method
CN113724454B (en) Interaction method of mobile equipment, device and storage medium
US20220319232A1 (en) Apparatus and method for providing missing child search service based on face recognition using deep-learning
CN106162193A (en) A kind of video data and the coded method of sensing data and device
US11373318B1 (en) Impact detection
JP7433504B1 (en) Determination device, determination method and computer program
CN111984801B (en) Media information display method, storage medium and electronic display device
US20240096131A1 (en) Video processing system, video processing method, and non-transitory computer-readable medium
Wu et al. Design of dynamic ski motion capture and human posture detection model based on spatio-temporal Transformer and wireless device tracking technology
US20180007396A1 (en) Apparatus, system, and method for automated real-time live video streaming for equestrian sports
JP2023105741A (en) Information processor, information processing method, and information processing program
JP2023104040A (en) Vehicle device, data collecting system, and machine learning data collecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R151 Written notification of patent or utility model registration

Ref document number: 7276538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151