JP6983364B1 - Video synchronization device, video synchronization method, and video synchronization program - Google Patents

Video synchronization device, video synchronization method, and video synchronization program Download PDF

Info

Publication number
JP6983364B1
JP6983364B1 JP2021522563A JP2021522563A JP6983364B1 JP 6983364 B1 JP6983364 B1 JP 6983364B1 JP 2021522563 A JP2021522563 A JP 2021522563A JP 2021522563 A JP2021522563 A JP 2021522563A JP 6983364 B1 JP6983364 B1 JP 6983364B1
Authority
JP
Japan
Prior art keywords
amount
images
time
movement
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021522563A
Other languages
Japanese (ja)
Other versions
JPWO2022113212A1 (en
Inventor
尚吾 清水
勝大 草野
誠司 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6983364B1 publication Critical patent/JP6983364B1/en
Publication of JPWO2022113212A1 publication Critical patent/JPWO2022113212A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

映像同期装置(200)は、特徴点抽出部(210)と、動き量計算部(220)と、時刻補正部(240)とを備える。特徴点抽出部(210)は、被写体の動きに伴って座標が変化する位置を示す特徴点を含む被写体を互いに異なる複数の視点から撮影した複数の映像それぞれにおいて、特徴点の内少なくとも1つの特徴点を抽出する。動き量計算部(220)は、複数の映像それぞれにおいて、少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める。時刻補正部(240)は、複数の映像それぞれにおいて、少なくとも1つの動き量に基づいて複数の映像を同期することに用いられる時刻補正量を求める。The video synchronization device (200) includes a feature point extraction unit (210), a motion amount calculation unit (220), and a time correction unit (240). The feature point extraction unit (210) is a feature of at least one of the feature points in each of a plurality of images of a subject including a feature point indicating a position where the coordinates change with the movement of the subject from a plurality of different viewpoints. Extract points. The movement amount calculation unit (220) obtains at least one movement amount indicating the amount of movement of at least one feature point in each of the plurality of images. The time correction unit (240) obtains a time correction amount used to synchronize a plurality of images based on at least one movement amount in each of the plurality of images.

Description

本開示は、映像同期装置、映像同期方法、及び、映像同期プログラムに関する。 The present disclosure relates to a video synchronization device, a video synchronization method, and a video synchronization program.

人物を撮影する際、死角を無くすために同時に複数台のカメラを用いて人物を撮影することがある。複数台のカメラによって撮影した複数の映像間の時刻ずれを解消するために、複数の映像を同期する必要がある。 When shooting a person, multiple cameras may be used at the same time to shoot the person in order to eliminate blind spots. In order to eliminate the time lag between multiple images shot by multiple cameras, it is necessary to synchronize multiple images.

国際公開第2013/094115号International Publication No. 2013/094115

特許文献1は、複数の映像それぞれのコンテンツを解析することにより映像の時刻ずれ量を計測して複数の映像を同期する装置を開示している。
特許文献1では、各カメラ映像から人物状態を逐次推定し、人物状態が変化したタイミングを合わせることにより時刻ずれ量を計測して補正する。ここで人物状態とは、注目している人物に関する状態であり「着座状態」又は「直立状態」等を指す。具体例として、椅子から立ち上がる人物を撮影した複数の映像を同期する場合、それぞれの映像について「着座状態」から「直立状態」に遷移するフレームを特定し、特定したフレーム間に時刻ずれがないように時刻ずれ量を補正する。
しかしながら、特許文献1が開示している装置は人物状態を認識する状態認識器を用いているため、状態認識器が認識することができない人物状態を伴う映像には適用することができないという課題がある。
Patent Document 1 discloses a device that synchronizes a plurality of images by measuring the amount of time lag of the images by analyzing the contents of each of the plurality of images.
In Patent Document 1, the person state is sequentially estimated from each camera image, and the time lag amount is measured and corrected by adjusting the timing at which the person state changes. Here, the person state is a state related to the person of interest and refers to a "sitting state", an "upright state", or the like. As a specific example, when synchronizing multiple images of a person standing up from a chair, specify the frame that transitions from the "sitting state" to the "upright state" for each image so that there is no time difference between the specified frames. Correct the amount of time lag.
However, since the device disclosed in Patent Document 1 uses a state recognizer that recognizes a person's state, there is a problem that it cannot be applied to an image with a person's state that cannot be recognized by the state recognizer. be.

本開示は、状態認識器を用いずに互いに異なる複数の視点から撮影した複数の映像を同期することを目的とする。 An object of the present disclosure is to synchronize a plurality of images taken from a plurality of different viewpoints without using a state recognizer.

本開示に係る映像同期装置は、
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期装置であって、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出する特徴点抽出部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める動き量計算部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める時刻補正部と
を備える。
The video synchronization device according to the present disclosure is
A video synchronization device that synchronizes a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, a feature point extraction unit for extracting at least one feature point among the feature points, and a feature point extraction unit.
A motion amount calculation unit for obtaining at least one motion amount indicating the amount of motion of each of the at least one feature point in each of the plurality of images.
Each of the plurality of images includes a time correction unit for obtaining a time correction amount used for synchronizing the plurality of images based on the at least one motion amount.

本開示によれば、状態認識器を用いずに互いに異なる複数の視点から撮影した複数の映像を同期することができる。 According to the present disclosure, it is possible to synchronize a plurality of images taken from a plurality of different viewpoints without using a state recognizer.

実施の形態1に係る映像同期システム90の構成例。A configuration example of the video synchronization system 90 according to the first embodiment. 実施の形態1に係る特徴点抽出部210の動作例を説明する図であり、(a)は基準映像に係る具体例、(b)は補正対象映像に係る具体例。It is a figure explaining the operation example of the feature point extraction unit 210 which concerns on Embodiment 1, (a) is a specific example which concerns on a reference image, (b) is a specific example which concerns on the correction target image. 実施の形態1に係る動き量計算部220の動作例を説明する図。The figure explaining the operation example of the movement amount calculation unit 220 which concerns on Embodiment 1. FIG. 実施の形態1に係る時刻補正部240の構成例。A configuration example of the time correction unit 240 according to the first embodiment. 実施の形態1に係る映像同期装置200のハードウェア構成例。A hardware configuration example of the video synchronization device 200 according to the first embodiment. 実施の形態1に係る映像同期装置200の動作を示すフローチャート。The flowchart which shows the operation of the image synchronization apparatus 200 which concerns on Embodiment 1. 実施の形態1に係る時刻補正部240の動作を示すフローチャート。The flowchart which shows the operation of the time correction unit 240 which concerns on Embodiment 1. 実施の形態1の変形例に係る映像同期装置200のハードウェア構成例。A hardware configuration example of the video synchronization device 200 according to the modified example of the first embodiment.

実施の形態の説明及び図面において、同じ要素及び対応する要素には同じ符号を付している。同じ符号が付された要素の説明は、適宜に省略又は簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。また、「部」を、「手段」、「回路」、「工程」、「手順」、「処理」又は「サーキットリー」に適宜読み替えてもよい。 In the description and drawings of the embodiments, the same elements and corresponding elements are designated by the same reference numerals. The description of the elements with the same reference numerals will be omitted or simplified as appropriate. The arrows in the figure mainly indicate the flow of data or the flow of processing. Further, "part" may be appropriately read as "means", "circuit", "process", "procedure", "processing" or "circuit Lee".

実施の形態1.
以下、本実施の形態について、図面を参照しながら詳細に説明する。
Embodiment 1.
Hereinafter, the present embodiment will be described in detail with reference to the drawings.

***構成の説明***
図1は、本実施の形態に係る映像同期システム90の構成例を示している。本図に示すように、映像同期システム90は、映像取得手段100と、映像同期装置200と、映像出力手段300とを備える。
映像同期システム90において、映像同期装置200は、映像取得手段100から非同期に撮影された複数の映像を受け取り、映像出力手段300に対して同期した複数の映像を送出する。映像取得手段100と、映像同期装置200と、映像出力手段300との少なくとも2つが一体的に構成されていてもよい。映像は被写体が動いている様子を示す情報を含む。映像は動画に読み替えられてもよい。
*** Explanation of configuration ***
FIG. 1 shows a configuration example of the video synchronization system 90 according to the present embodiment. As shown in this figure, the video synchronization system 90 includes a video acquisition means 100, a video synchronization device 200, and a video output means 300.
In the video synchronization system 90, the video synchronization device 200 receives a plurality of videos asynchronously shot from the video acquisition means 100, and sends out a plurality of synchronized videos to the video output means 300. At least two of the video acquisition means 100, the video synchronization device 200, and the video output means 300 may be integrally configured. The image contains information showing how the subject is moving. The video may be read as a moving image.

映像同期システム90は、複数の映像を同期することができる。しかしながら、説明の便宜上、特に断りがない限り、以下では映像同期システム90が2つの映像を同期する例について説明する。なお、映像同期システム90は、撮影時刻を補正することにより複数の映像を同期する。
典型的には、複数の映像それぞれには撮影時刻を示す情報が含まれており、複数の映像は互いに異なる複数の視点から非同期に撮影されたものである。複数の視点は、互いに異なる複数の地点に設置された複数のカメラにより実現される。典型的には、複数のカメラそれぞれは複数の地点それぞれに固定されており、複数の映像それぞれの撮影範囲はそれぞれ一定である。
複数の映像のいずれも、ある撮影期間における映像を有する。複数の映像それぞれの撮影期間は異なってもよい。複数の映像それぞれの撮影期間において、対象の被写体の少なくとも一部が常に写っていなくてもよい。対象の被写体は、映像同期装置200が動きを検出する対象を指す。即ち、複数の映像それぞれの撮影期間において、対象の被写体は常には静止していない。対象の被写体の数は、2以上であってもよい。以下、対象の被写体を単に被写体と表記することもある。被写体は、具体例として、人物、動物、ロボット、移動体又はこれらの組み合わせである。
The video synchronization system 90 can synchronize a plurality of videos. However, for convenience of explanation, unless otherwise specified, an example in which the video synchronization system 90 synchronizes two videos will be described below. The video synchronization system 90 synchronizes a plurality of videos by correcting the shooting time.
Typically, each of the plurality of images contains information indicating the shooting time, and the plurality of images are shot asynchronously from a plurality of different viewpoints. Multiple viewpoints are realized by a plurality of cameras installed at a plurality of different points. Typically, each of the plurality of cameras is fixed at each of the plurality of points, and the shooting range of each of the plurality of images is constant.
Each of the plurality of images has an image in a certain shooting period. The shooting period of each of the plurality of images may be different. At least a part of the target subject may not always be captured during the shooting period of each of the plurality of images. The target subject refers to a target for which the video synchronization device 200 detects movement. That is, the target subject is not always stationary during the shooting period of each of the plurality of images. The number of target subjects may be two or more. Hereinafter, the target subject may be simply referred to as a subject. The subject is, as a specific example, a person, an animal, a robot, a moving body, or a combination thereof.

映像取得手段100は少なくとも2つあり、映像取得手段100それぞれは被写体が含まれている映像を取得する。即ち、映像取得手段100は少なくとも2つの映像を取得する。映像取得手段100は、カメラから映像を取得してもよく、映像を保存しているサーバ等から映像を取得してもよい。以下、映像取得手段100は2つの映像を取得するものとする。2つの映像のうち、一方は時刻補正の基準となる基準映像であり、他方は時刻を補正される補正対象映像である。映像同期システム90が複数の映像を同期する場合において、複数の映像のうちいずれか1つの映像が基準映像であり、他の映像が補正対象映像である。
また、図1において、映像取得手段100について、基準映像を取得する手段と、補正対象映像を取得する手段とを区別するために、基準映像を取得する手段を映像取得手段100−1と表記し、補正対象映像を取得する手段を映像取得手段100−2と表記する。同様に、映像同期装置200の各部についても、適宜、基準映像を処理する部に“−1”を付与し、補正対象映像を処理する部に“−2”を付与して表記する。
There are at least two image acquisition means 100, and each of the image acquisition means 100 acquires an image including a subject. That is, the video acquisition means 100 acquires at least two videos. The image acquisition means 100 may acquire an image from a camera, or may acquire an image from a server or the like that stores the image. Hereinafter, it is assumed that the video acquisition means 100 acquires two videos. Of the two images, one is a reference image that serves as a reference for time correction, and the other is a correction target image that corrects the time. When the video synchronization system 90 synchronizes a plurality of videos, any one of the plurality of videos is the reference video, and the other video is the correction target video.
Further, in FIG. 1, regarding the video acquisition means 100, in order to distinguish between the means for acquiring the reference video and the means for acquiring the correction target video, the means for acquiring the reference video is referred to as the video acquisition means 100-1. , The means for acquiring the image to be corrected is referred to as the image acquisition means 100-2. Similarly, for each part of the video synchronization apparatus 200, "-1" is appropriately added to the part for processing the reference video, and "-2" is given to the part for processing the correction target video.

映像同期装置200は、本図に示すように、特徴点抽出部210と、動き量計算部220と、映像バッファ部230と、時刻補正部240と、補正量記憶部250と、映像同期部260とを備える。時刻補正部240は、時刻補正量計算手段とも呼ばれる。補正量記憶部250は、時刻補正量記憶手段とも呼ばれる。映像同期装置200は、特徴点を含む被写体を互いに異なる複数の視点から撮影した複数の映像を同期する。 As shown in this figure, the video synchronization device 200 includes a feature point extraction unit 210, a motion amount calculation unit 220, a video buffer unit 230, a time correction unit 240, a correction amount storage unit 250, and a video synchronization unit 260. And prepare. The time correction unit 240 is also called a time correction amount calculation means. The correction amount storage unit 250 is also called a time correction amount storage unit. The image synchronization device 200 synchronizes a plurality of images of a subject including a feature point taken from a plurality of different viewpoints.

特徴点抽出部210は、複数の映像それぞれにおいて、被写体が含む特徴点の内の少なくとも1つの特徴点を抽出する。特徴点は、被写体の動きに伴って座標が変化する位置を示す。特徴点は、ある領域を指すものであってもよく、映像に映っている点を指すものであってもよく、映像に映っていない点を間接的に指すものであってもよい。被写体は少なくとも1つの特徴点を含む。即ち、被写体は少なくとも1つの特徴点に相当する位置を有する。特徴点抽出部210は、具体例として、動画のフレームごとに、ある性質を満たす点を特徴点として抽出する。
特徴点は、具体例として、人物の肩、肘、又は手首等の関節位置である。特徴点抽出部210は、人物の画像から関節位置を推論するよう学習させたCNN(Convolutional Neural Network)を用いて関節位置を抽出してもよく、人物が装着しているマーカの位置を関節位置として抽出してもよい。また、特徴点抽出部210は、関節位置を特徴点に含める必要はなく、前景抽出処理等を用いて抽出された人物画像の中心位置を特徴点として抽出してもよい。
The feature point extraction unit 210 extracts at least one feature point among the feature points included in the subject in each of the plurality of images. The feature point indicates a position where the coordinates change with the movement of the subject. The feature point may point to a certain area, may point to a point shown in the image, or may indirectly point to a point not shown in the image. The subject contains at least one feature point. That is, the subject has a position corresponding to at least one feature point. As a specific example, the feature point extraction unit 210 extracts points satisfying a certain property as feature points for each frame of a moving image.
The characteristic point is, as a specific example, the position of a joint such as a person's shoulder, elbow, or wrist. The feature point extraction unit 210 may extract the joint position using a CNN (Convolutional Neural Network) trained to infer the joint position from the image of the person, and may use the position of the marker worn by the person as the joint position. It may be extracted as. Further, the feature point extraction unit 210 does not need to include the joint position in the feature point, and may extract the center position of the person image extracted by the foreground extraction process or the like as the feature point.

図2は、特徴点抽出部210の動作例を説明する図である。本図は、被写体が人物である場合において、特徴点抽出部210が、特徴点として、人物の肩と、肘と、手首等の関節位置を抽出する具体例を示している。(a)は、人物の右側面を映している映像であり、基準映像のある時点における映像を示している。(b)は、人物の左側面を映している映像であり、補正対象映像の当該ある時点における映像を示している。本図において、基準映像又は補正対象映像から取り出した映像を左側に示しており、左側に示す映像に特徴点を丸印により付与した映像を右側に示している。本例において、(a)は(b)の死角を映しており、(b)は(a)の死角を映している。
Mは特徴点抽出部210が抽出可能な特徴点の最大数を示す。即ち、Mは被写体ごとの特徴点の最大数であり、基準映像と補正対象映像とで共通の定数である。mは特徴点番号を示す。即ち、mは特徴点を識別する変数であり、1以上M以下の整数である。特徴点p1,mは、基準映像から抽出した特徴点の内、m番目の特徴点を示していることを意味する。特徴点p2,mは、補正対象映像から抽出した特徴点の内、m番目の特徴点を示していることを意味する。即ち、本図において、特徴点p1,mと特徴点p2,mとは、それぞれ映像における位置は異なっているが、対象被写体における同じ特徴点であることを示しており、どちらとも同じm番目の関節を指している。ここで、特徴点抽出部210が抽出した特徴点を用いて基準映像と補正対象映像との関係性を定義することができる。基準映像が示す被写体と補正対象映像が示す被写体とが同じ被写体である場合、特徴点抽出部210が抽出する特徴点は基準映像と補正対象映像との間で共通する。なお、基準映像が示す被写体と補正対象映像が示す被写体とが異なる場合、特徴点抽出部210が抽出する特徴点は基準映像と補正対象映像との間で異なる。また、被写体の一部のみが映像に写っており映像に映っていない部分に被写体の特徴点がある場合、特徴点が映像に映っていない点を間接的に指すものである場合を除いて、抽出される特徴点の特徴点番号は連続ではなく、飛び飛びの値となる。
FIG. 2 is a diagram illustrating an operation example of the feature point extraction unit 210. This figure shows a specific example in which the feature point extraction unit 210 extracts the joint positions of the shoulder, elbow, wrist, etc. of the person as feature points when the subject is a person. (A) is an image showing the right side surface of the person, and shows an image at a certain point in time of the reference image. (B) is an image showing the left side surface of the person, and shows an image of the image to be corrected at a certain point in time. In this figure, the image taken out from the reference image or the image to be corrected is shown on the left side, and the image on the left side with the feature points added by circles is shown on the right side. In this example, (a) reflects the blind spot of (b), and (b) reflects the blind spot of (a).
M indicates the maximum number of feature points that can be extracted by the feature point extraction unit 210. That is, M is the maximum number of feature points for each subject, and is a constant common to the reference image and the correction target image. m indicates a feature point number. That is, m is a variable that identifies a feature point, and is an integer of 1 or more and M or less. The feature points p1 and m mean that the m-th feature point among the feature points extracted from the reference image is indicated. The feature points p2 and m mean that the m-th feature point among the feature points extracted from the corrected image is indicated. That is, in this figure, the feature points p 1, m and the feature points p 2, m are different in position in the image, but are the same feature points in the target subject, and both are the same m. Pointing to the second joint. Here, the relationship between the reference image and the correction target image can be defined by using the feature points extracted by the feature point extraction unit 210. When the subject indicated by the reference image and the subject indicated by the correction target image are the same subject, the feature points extracted by the feature point extraction unit 210 are common between the reference image and the correction target image. When the subject indicated by the reference image and the subject indicated by the correction target image are different, the feature points extracted by the feature point extraction unit 210 differ between the reference image and the correction target image. Also, unless the feature points of the subject are in the part where only a part of the subject is shown in the image and not shown in the image, the feature points indirectly indicate the points not shown in the image. The feature point numbers of the extracted feature points are not continuous but discrete values.

動き量計算部220は、複数の映像それぞれにおいて、少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める。少なくとも1つの動き量それぞれは、少なくとも1つの特徴点それぞれが動いた量を示す。動き量は、被写体の少なくとも一部が単位時間あたりに動いた量を示す。動き量計算部220は、少なくとも1つの動き量それぞれとして、少なくとも1つの特徴点それぞれの座標値が単位時間に変化した量を求めてもよい。動き量は、比較する基準映像と補正対象映像との間において、動き量の値の増減が映像の視点に依存しない物理量であればよい。物理量は全ての時点において観測されなくてもよい。即ち、動き量は、複数の映像間で同様の増減を観測することができる物理量である。ここで、物理量の増減が映像の視点に依存する場合の具体例を2つ示す。1つ目は、被写体の少なくとも一部が動いている場合において、少なくとも1つの映像において動いている部分の動きを示す物理量に変化がないこと、即ち、当該動きを少なくとも1つの映像において観測することができないことである。2つ目は、被写体の少なくとも一部が動いている場合において、全ての映像において動いている部分の動きを示す物理量の増減が揃っていないことである。即ち、具体例として、一方の映像においては当該動きを示す物理量が増加傾向であるものの、他方の映像においては当該動きを示す物理量が減少傾向であることである。動き量は、具体例として、特徴点を示す座標値の単位時間当たりの変化量である。 The movement amount calculation unit 220 obtains at least one movement amount indicating the amount of movement of at least one feature point in each of the plurality of images. Each of the at least one movement amount indicates the amount of movement of each of the at least one feature point. The amount of movement indicates the amount of movement of at least a part of the subject per unit time. The movement amount calculation unit 220 may obtain, for each of at least one movement amount, the amount by which the coordinate values of each of the at least one feature point change in a unit time. The amount of motion may be a physical quantity whose increase or decrease in the value of the amount of motion does not depend on the viewpoint of the image between the reference image to be compared and the image to be corrected. The physical quantity does not have to be observed at all time points. That is, the amount of movement is a physical quantity in which the same increase or decrease can be observed between a plurality of images. Here, two specific examples are shown when the increase / decrease of the physical quantity depends on the viewpoint of the image. The first is that when at least a part of the subject is moving, there is no change in the physical quantity indicating the movement of the moving part in at least one image, that is, the movement is observed in at least one image. Is something that cannot be done. The second is that when at least a part of the subject is moving, the increase / decrease of the physical quantity indicating the movement of the moving part is not uniform in all the images. That is, as a specific example, the physical quantity showing the movement tends to increase in one video, but the physical quantity showing the movement tends to decrease in the other video. As a specific example, the amount of movement is the amount of change in the coordinate value indicating the feature point per unit time.

図3は、動き量計算部220の動作例を説明する図であり、図2と対応する図である。本図において、pn,m,tは、時刻tにおける特徴点pn,mの座標を示す。tの値が小さいほど時刻が早いことを示す。2つの特徴点におけるtの値が連続する場合において、2つの特徴点それぞれを含む2つの映像が撮影された時刻の間隔は一定である。nは、映像を識別する変数であり、1又は2である。
図3は、人物が片手を振った場合における、人物の手首を示す特徴点が移動する様子を示している。本図は、基準映像から単位時間間隔でフレームを取り出すことにより複数のフレームを取り出し、複数のフレームそれぞれにおける特徴点を抽出し、抽出した特徴点を重ね合わせて表示したものである。
FIG. 3 is a diagram illustrating an operation example of the motion amount calculation unit 220, and is a diagram corresponding to FIG. 2. In this figure, pn, m, t indicate the coordinates of the feature points pn, m at time t. The smaller the value of t, the earlier the time. When the values of t at the two feature points are continuous, the time interval between the two images including each of the two feature points is constant. n is a variable that identifies the image, and is 1 or 2.
FIG. 3 shows how the feature points indicating the wrists of a person move when the person waves one hand. In this figure, a plurality of frames are extracted by extracting frames from a reference video at unit time intervals, feature points in each of the plurality of frames are extracted, and the extracted feature points are superimposed and displayed.

図3の中央に示す特徴点の時間的な分布には、人物の動きの緩急に応じて粗密が生じている。特徴点の時間的な分布は、離散時間系において、各時間における特徴点の位置を示すものである。動き量は、具体例として、特徴点の時間的な分布の粗密の程度を表現した物理量である。動き量計算部220は、具体例として、人物の動きの速さが、相対的に速い場合に相対的に大きな値となり、相対的に遅い場合に相対的に小さな値となるように動き量を求める。
[数1]は、動き量計算部220が動き量を求める計算手法の具体例を示している。[数2]は、[数1]の一部を具体的に示している。[数1]及び[数2]において使われている記号は、図2及び図3と共通である。
[数1]は、分散に類する値を求める数式である。そのため、動き量計算部220が[数1]を用いて動き量を求めた場合、特徴点の時間的な分布が疎である程、動き量が大きな値となる。
varn,m,tは、pn,m,tの動き量を示す。本図の中央に示す図において、pn,m,t’を中心とし、varn,m,t’を半径とする円を示すことにより、varn,m,t’の大きさを示している。ここで、varn,m,t’は、[数1]により求まるpn,m,t’の動き量である。
本図の右に示すグラフは、特徴点の時間的な分布をグラフ化したものであり、動き量の時間推移を示している。横軸は時刻を示しており、縦軸は動き量を示している。本グラフは、特徴点に対応する点をプロットし、プロットした点を滑らかな線により補完したものである。本グラフに示すように、特徴点の時間的な分布が疎になるほど動き量が大きな値となり、また、特徴点の時間的な分布の粗密の変化が大きいほど曲線の傾きが急峻になる。本グラフは、動き量の時系列情報を示すグラフでもある。動き量の時系列情報は、動き量の時間推移を示す情報である。
The temporal distribution of the feature points shown in the center of FIG. 3 is uneven depending on the speed of movement of the person. The temporal distribution of feature points indicates the position of feature points at each time in a discrete-time system. As a specific example, the amount of movement is a physical quantity that expresses the degree of density of the temporal distribution of feature points. As a specific example, the movement amount calculation unit 220 determines the movement amount so that the movement speed of the person becomes a relatively large value when the movement speed is relatively fast, and becomes a relatively small value when the movement speed of the person is relatively slow. demand.
[Equation 1] shows a specific example of a calculation method in which the movement amount calculation unit 220 obtains the movement amount. [Equation 2] specifically indicates a part of [Equation 1]. The symbols used in [Equation 1] and [Equation 2] are the same as those in FIGS. 2 and 3.
[Equation 1] is a mathematical formula for obtaining a value similar to variance. Therefore, when the movement amount calculation unit 220 obtains the movement amount using [Equation 1], the sparser the temporal distribution of the feature points, the larger the movement amount becomes.
var n, m, t indicates the amount of movement of pn, m, t. In the view shown in the middle of the figure, p n, m, t 'and the center, var n, m, t' by showing a circle of the radius, shows the magnitude of the var n, m, t ' There is. Here, var n, m, t'is the amount of movement of pn, m, t'obtained by [Equation 1].
The graph shown on the right of this figure is a graph of the temporal distribution of feature points, and shows the time transition of the amount of movement. The horizontal axis shows the time, and the vertical axis shows the amount of movement. In this graph, the points corresponding to the feature points are plotted, and the plotted points are complemented by smooth lines. As shown in this graph, the sparser the temporal distribution of the feature points, the larger the amount of movement, and the larger the change in the density of the temporal distribution of the feature points, the steeper the slope of the curve. This graph is also a graph showing time-series information of the amount of movement. The time-series information of the amount of movement is information indicating the time transition of the amount of movement.

Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364

映像バッファ部230は、映像取得手段100から複数の映像を受け取り、受け取った複数の映像を一時的に保持し、映像同期部260に保持している映像を送出する。 The video buffer unit 230 receives a plurality of videos from the video acquisition means 100, temporarily holds the received plurality of videos, and sends out the video held in the video synchronization unit 260.

時刻補正部240は、複数の映像それぞれにおいて、動き量計算部220が求めた少なくとも1つの動き量に基づいて時刻補正量を求める。時刻補正量は、複数の映像を同期することに用いられ、また、典型的には補正対象映像において撮影時刻を示すタイムスタンプを補正する量を示す。時刻補正部240は基準映像のタイムスタンプを補正しないが、時刻補正部240が基準映像の時刻補正量として0を求めたとみなされてもよい。
少なくとも1つの特徴点が複数の特徴点である場合において、時刻補正部240は、複数の特徴点それぞれに対応する複数の動き量から計算した時間シフト量の評価値それぞれに重みを付け、重みに基づいて時刻補正量を求めてもよい。時間シフト量の評価値については後述する。時刻補正部240は、複数の特徴点それぞれの性質に従って複数の動き量それぞれに重みを付けてもよい。時刻補正部240は、各特徴点の抽出率、尤度、又は平均変化量に応じた重みを自動的に設定してもよく、手動で設定された重みを用いてもよい。ここで、抽出率、尤度、平均変化量について説明する。まず、抽出率とは、特徴点抽出部210に入力された少なくとも2つの映像の総フレーム数に対する当該特徴点を抽出することができたフレーム数の割合である。抽出率が高いほど、少なくとも2つの映像の多くのシーンで当該特徴点が抽出されていることを意味する。次に、尤度とは、CNNを用いて映像から特徴点を抽出した際に付随して得られる情報であり、当該特徴点の抽出結果が正しい確率を意味する。最後に、平均変化量とは、当該特徴点の動き量の平均値である。平均変化量が大きいほど活発に動いている特徴点であることを意味する。なお、時刻補正部240は、動き量が増減するタイミングを合わせることにより補正量を計算しているため、平均変化量が大きい、つまり動き量が平均的に大きい場合、より正確な補正量を計算することができる点に注意されたい。上記をまとめると、抽出率と、尤度と、平均変化量とのそれぞれが高いほど正確な補正量を計算することができる可能性が高くなる。そのため、抽出率と、尤度と、平均変化量との少なくともいずれかが高い特徴点に対して相対的に大きな重みを与えることが妥当と考えられる。時刻補正部240は、動き量の次元が2以上である場合、即ち、特徴点の数が2以上である場合、各次元に重みを付けて時刻補正量を計算してもよい。
The time correction unit 240 obtains the time correction amount based on at least one movement amount obtained by the movement amount calculation unit 220 in each of the plurality of images. The time correction amount is used for synchronizing a plurality of images, and typically indicates an amount for correcting a time stamp indicating a shooting time in the image to be corrected. Although the time correction unit 240 does not correct the time stamp of the reference image, it may be considered that the time correction unit 240 has obtained 0 as the time correction amount of the reference image.
When at least one feature point is a plurality of feature points, the time correction unit 240 weights each evaluation value of the time shift amount calculated from the plurality of movement amounts corresponding to each of the plurality of feature points, and weights the weights. The time correction amount may be obtained based on the above. The evaluation value of the time shift amount will be described later. The time correction unit 240 may weight each of the plurality of movement amounts according to the properties of each of the plurality of feature points. The time correction unit 240 may automatically set the weight according to the extraction rate, the likelihood, or the average change amount of each feature point, or may use the manually set weight. Here, the extraction rate, the likelihood, and the average amount of change will be described. First, the extraction rate is the ratio of the number of frames that could extract the feature points to the total number of frames of at least two videos input to the feature point extraction unit 210. The higher the extraction rate, the more the feature points are extracted in many scenes of at least two images. Next, the likelihood is the information obtained incidentally when the feature points are extracted from the video using CNN, and means the probability that the extraction result of the feature points is correct. Finally, the average amount of change is the average value of the amount of movement of the feature point. The larger the average amount of change, the more actively the feature points are. Since the time correction unit 240 calculates the correction amount by adjusting the timing at which the movement amount increases or decreases, if the average change amount is large, that is, the movement amount is large on average, a more accurate correction amount is calculated. Note that you can. Summarizing the above, the higher the extraction rate, the likelihood, and the average change amount, the higher the possibility that an accurate correction amount can be calculated. Therefore, it is considered appropriate to give a relatively large weight to the feature points where at least one of the extraction rate, the likelihood, and the average change amount is high. When the dimension of the movement amount is 2 or more, that is, when the number of feature points is 2 or more, the time correction unit 240 may calculate the time correction amount by weighting each dimension.

補正量記憶部250は、時刻補正部240が求めた時刻補正量を保持する。 The correction amount storage unit 250 holds the time correction amount obtained by the time correction unit 240.

映像同期部260は、映像バッファ部230から複数の映像を受け取り、補正量記憶部250が保持している時刻補正量に従って補正対象映像のタイムスタンプを更新することにより、補正対象映像を基準映像と同期し、同期した映像を映像出力手段300に送出する。即ち、映像同期部260は、時刻補正量に従って複数の映像それぞれを送出するタイミングを調整する。 The video synchronization unit 260 receives a plurality of videos from the video buffer unit 230, updates the time stamp of the correction target video according to the time correction amount held by the correction amount storage unit 250, and sets the correction target video as the reference video. Synchronize and send the synchronized video to the video output means 300. That is, the video synchronization unit 260 adjusts the timing of transmitting each of the plurality of videos according to the time correction amount.

図4は、時刻補正部240の構成例を示している。時刻補正部240は、本図に示すように、時間シフト部241と、時間シフト量評価部242と、時間シフト量記憶部243とを備える。 FIG. 4 shows a configuration example of the time correction unit 240. As shown in this figure, the time correction unit 240 includes a time shift unit 241, a time shift amount evaluation unit 242, and a time shift amount storage unit 243.

時間シフト部241は、動き計算部220−2が求めた動き量の時系列情報に対して時間シフトを実行する。
基準映像が固定されている場合において、時間シフト部241が複数の映像から1つの映像を基準映像として選択したとみなしてもよい。時間シフト部241は、補正対象映像それぞれにおいて、基準映像の少なくとも1つの動き量と、補正対象映像それぞれの少なくとも1つの動き量とに基づいて、時間シフト量を求める。この際、時間シフト部241は、基準映像と補正対象映像とのそれぞれに対応する動き量であって、同一の特徴点から計算された動き量を比較する。補正対象映像は、複数の映像のうち基準映像以外の映像である。時間シフト量は、補正対象映像それぞれを基準映像と同期することに用いられる量であって、少なくとも1つの動き量を時間シフトする量である。
The time shift unit 241 executes a time shift with respect to the time series information of the amount of movement obtained by the motion calculation unit 220-2.
When the reference image is fixed, it may be considered that the time shift unit 241 has selected one image from a plurality of images as the reference image. The time shift unit 241 obtains a time shift amount based on at least one movement amount of the reference image and at least one movement amount of each correction target image in each of the correction target images. At this time, the time shift unit 241 compares the amount of movement calculated from the same feature point, which is the amount of movement corresponding to each of the reference image and the image to be corrected. The correction target image is an image other than the reference image among a plurality of images. The time shift amount is an amount used to synchronize each of the corrected images with the reference image, and is an amount for time-shifting at least one movement amount.

時間シフト量評価部242は、動き量計算部220−1が求めた動き量の時系列情報と、時間シフト部241が時間シフトした動き量の時系列情報とに基づいて、時間シフト部241による時間シフト量の妥当性を評価する。ここで、動き量の時系列情報は非同期に取得された2つの映像から計算されたものであるから、典型的には、動き量の値が増減するタイミングも2つの映像間において同様に非同期的である。しかし、時間シフト部241が補正対象映像に対応する時系列情報を適切に時間シフトすると、2つの映像間において動き量の値が増減するタイミングが一致する。なお、動画のフレームレートの性質により、2つの映像間において動き量の値が増減するタイミングを完全に一致するよう時系列情報を時間シフトすることができない場合もある。そのため、タイミングが一致することには、タイミングが少しずれることが含まれてもよい。
時間シフト量評価部242は、補正対象映像それぞれにおいて、補正対象映像それぞれに対応する時間シフト量に従って少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、基準映像の少なくとも1つの動き量とに基づいて時間シフト量を評価する。
[数3]は、最適な時間シフト量を示す数式である。[数3]の左辺は時間シフト量を示し、右辺は最大の評価値を時間シフト量に変換する関数を示す。scoreは、補正量の適切さを示す評価値を示す。評価値は、具体例として、動き量の時系列情報間の相関係数である。一般に、値の増減するタイミングが一致した信号同士の相関係数は大きくなるため、評価値が相関係数である場合、評価値の値が大きいほど時間シフト量が適切である。即ち、時間シフト量評価部242は、基準映像と時間シフトした補正対象映像とに対応する相関係数が最大となる時間シフト量を探索すればよい。
The time shift amount evaluation unit 242 uses the time shift unit 241 based on the time series information of the movement amount obtained by the movement amount calculation unit 220-1 and the time series information of the movement amount of the time shift unit 241. Evaluate the validity of the time shift amount. Here, since the time-series information of the amount of movement is calculated from the two images acquired asynchronously, typically, the timing at which the value of the amount of movement increases or decreases is also asynchronous between the two images. Is. However, when the time shift unit 241 appropriately time-shifts the time-series information corresponding to the correction target video, the timing at which the value of the movement amount increases or decreases coincides between the two videos. Depending on the nature of the frame rate of the moving image, it may not be possible to time-shift the time-series information so that the timing at which the value of the amount of movement increases or decreases between the two images completely matches. Therefore, matching the timings may include a slight shift in timing.
The time shift amount evaluation unit 242 includes at least one movement amount obtained by time-shifting at least one movement amount according to the time shift amount corresponding to each correction target image, and at least one movement amount of the reference image in each correction target image. The time shift amount is evaluated based on.
[Equation 3] is a mathematical formula indicating the optimum time shift amount. The left side of [Equation 3] shows the time shift amount, and the right side shows the function of converting the maximum evaluation value into the time shift amount. score s indicates an evaluation value indicating the appropriateness of the correction amount. As a specific example, the evaluation value is a correlation coefficient between time-series information of the amount of movement. In general, the correlation coefficient between signals having the same timing of increase / decrease in value becomes large. Therefore, when the evaluation value is a correlation coefficient, the larger the value of the evaluation value, the more appropriate the time shift amount. That is, the time shift amount evaluation unit 242 may search for the time shift amount that maximizes the correlation coefficient corresponding to the reference image and the time-shifted correction target image.

Figure 0006983364
Figure 0006983364

時間シフト量記憶部243は、時間シフト量評価部242が最適と評価した時間シフト量を記憶する。 The time shift amount storage unit 243 stores the time shift amount evaluated as optimal by the time shift amount evaluation unit 242.

映像出力手段300は、映像を出力する機能を備える。映像出力手段300は、具体例として、LCD(Liquid Crystal Display)である。 The video output means 300 has a function of outputting video. As a specific example, the video output means 300 is an LCD (Liquid Crystal Display).

図5は、本実施の形態に係る映像同期装置200のハードウェア構成例を示している。映像同期装置200は、コンピュータ10から成る。映像同期装置200は、複数のコンピュータ10から成ってもよい。 FIG. 5 shows a hardware configuration example of the video synchronization device 200 according to the present embodiment. The video synchronization device 200 includes a computer 10. The video synchronization device 200 may be composed of a plurality of computers 10.

コンピュータ10は、本図に示すように、プロセッサ11と、メモリ12と、補助記憶装置13と、入出力IF(Interface)14と、通信装置15と等のハードウェアを備えるコンピュータである。これらのハードウェアは、信号線19を介して互いに接続されている。 As shown in this figure, the computer 10 is a computer including hardware such as a processor 11, a memory 12, an auxiliary storage device 13, an input / output IF (Interface) 14, and a communication device 15. These hardware are connected to each other via a signal line 19.

プロセッサ11は、演算処理を行うIC(Integrated Circuit)であり、かつ、コンピュータが備えるハードウェアを制御する。プロセッサ11は、具体例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)である。
映像同期装置200は、プロセッサ11を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ11の役割を分担する。
The processor 11 is an IC (Integrated Circuit) that performs arithmetic processing, and controls the hardware included in the computer. As a specific example, the processor 11 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
The video synchronization device 200 may include a plurality of processors that replace the processor 11. The plurality of processors share the role of the processor 11.

メモリ12は、典型的には、揮発性の記憶装置である。メモリ12は、主記憶装置又はメインメモリとも呼ばれる。メモリ12は、具体例として、RAM(Random Access Memory)である。メモリ12に記憶されたデータは、必要に応じて補助記憶装置13に保存される。 The memory 12 is typically a volatile storage device. The memory 12 is also referred to as a main storage device or a main memory. As a specific example, the memory 12 is a RAM (Random Access Memory). The data stored in the memory 12 is stored in the auxiliary storage device 13 as needed.

補助記憶装置13は、典型的には、不揮発性の記憶装置である。補助記憶装置13は、具体例として、ROM(Read Only Memory)、HDD(Hard Disk Drive)、又はフラッシュメモリである。補助記憶装置13に記憶されたデータは、必要に応じてメモリ12にロードされる。
メモリ12と、補助記憶装置13とは、一体的に構成されていてもよい。
The auxiliary storage device 13 is typically a non-volatile storage device. As a specific example, the auxiliary storage device 13 is a ROM (Read Only Memory), an HDD (Hard Disk Drive), or a flash memory. The data stored in the auxiliary storage device 13 is loaded into the memory 12 as needed.
The memory 12 and the auxiliary storage device 13 may be integrally configured.

入出力IF14は、入力装置及び出力装置が接続されるポートである。入出力IF14は、具体例として、USB(Universal Serial Bus)端子である。入力装置は、具体例として、キーボード及びマウスである。出力装置は、具体例として、ディスプレイである。 The input / output IF 14 is a port to which an input device and an output device are connected. The input / output IF 14 is, as a specific example, a USB (Universal Serial Bus) terminal. The input device is, as a specific example, a keyboard and a mouse. The output device is, as a specific example, a display.

通信装置15は、レシーバ及びトランスミッタである。通信装置15は、具体例として、通信チップ又はNIC(Network Interface Card)である。 The communication device 15 is a receiver and a transmitter. As a specific example, the communication device 15 is a communication chip or a NIC (Network Interface Card).

映像同期装置200の各部は、他の装置等と通信する際に、通信装置15を適宜用いてもよい。
映像同期装置200の各部がデータを受け付ける場合、映像同期装置200の各部は、入出力IF14を介してデータを受け付けても良く、また、通信装置15を介してデータを受け付けてもよい。
Each part of the video synchronization device 200 may appropriately use the communication device 15 when communicating with other devices and the like.
When each part of the video synchronization device 200 receives data, each part of the video synchronization device 200 may receive data via the input / output IF 14 or may receive data via the communication device 15.

補助記憶装置13は、映像同期プログラムを記憶している。映像同期プログラムは、映像同期装置200が備える各部の機能をコンピュータに実現させるプログラムである。映像同期プログラムは、複数のファイルから成ってもよい。映像同期プログラムは、メモリ12にロードされて、プロセッサ11によって実行される。映像同期装置200が備える各部の機能は、ソフトウェアにより実現される。 The auxiliary storage device 13 stores the video synchronization program. The video synchronization program is a program that allows a computer to realize the functions of each part of the video synchronization device 200. The video synchronization program may consist of a plurality of files. The video synchronization program is loaded into the memory 12 and executed by the processor 11. The functions of each part of the video synchronization device 200 are realized by software.

映像同期プログラムを実行する際に用いられるデータと、映像同期プログラムを実行することによって得られるデータと等は、記憶装置に適宜記憶される。映像同期装置200の各部は、適宜記憶装置を利用する。記憶装置は、具体例として、メモリ12と、補助記憶装置13と、プロセッサ11内のレジスタと、プロセッサ11内のキャッシュメモリとの少なくとも1つから成る。なお、データと、情報とは、同等の意味を有することもある。記憶装置は、コンピュータ10と独立したものであってもよい。映像バッファ部230と時間シフト量記憶部243と補正量記憶部250とのそれぞれは、記憶装置により実現される。
メモリ12の機能と、補助記憶装置13の機能とのそれぞれは、他の記憶装置によって実現されてもよい。
The data used when executing the video synchronization program, the data obtained by executing the video synchronization program, and the like are appropriately stored in the storage device. Each part of the video synchronization device 200 uses a storage device as appropriate. As a specific example, the storage device includes at least one of a memory 12, an auxiliary storage device 13, a register in the processor 11, and a cache memory in the processor 11. In addition, data and information may have the same meaning. The storage device may be independent of the computer 10. Each of the video buffer unit 230, the time shift amount storage unit 243, and the correction amount storage unit 250 is realized by the storage device.
Each of the function of the memory 12 and the function of the auxiliary storage device 13 may be realized by another storage device.

映像取得手段100と映像出力手段300とのそれぞれは、それぞれコンピュータ10であってもよい。 Each of the video acquisition means 100 and the video output means 300 may be a computer 10.

映像同期プログラムは、コンピュータが読み取り可能な不揮発性の記録媒体に記録されていてもよい。不揮発性の記録媒体は、具体例として、光ディスク又はフラッシュメモリである。映像同期プログラムは、プログラムプロダクトとして提供されてもよい。 The video synchronization program may be recorded on a computer-readable non-volatile recording medium. The non-volatile recording medium is, for example, an optical disk or a flash memory. The video synchronization program may be provided as a program product.

***動作の説明***
映像同期装置200の動作手順は、映像同期方法に相当する。また、映像同期装置200の動作を実現するプログラムは、映像同期プログラムに相当する。
*** Explanation of operation ***
The operation procedure of the video synchronization device 200 corresponds to the video synchronization method. Further, the program that realizes the operation of the video synchronization device 200 corresponds to the video synchronization program.

図6は、映像同期装置200の動作の一例を示すフローチャートである。本図を用いて、映像同期装置200の動作例を説明する。 FIG. 6 is a flowchart showing an example of the operation of the video synchronization device 200. An operation example of the video synchronization apparatus 200 will be described with reference to this figure.

(処理S01:映像取得処理)
映像バッファ部230は、映像取得手段100から映像を取得する。
(Processing S01: Video acquisition processing)
The video buffer unit 230 acquires video from the video acquisition means 100.

(処理S02:特徴点抽出処理)
特徴点抽出部210は、複数の映像を取得し、複数の映像それぞれにおいて特徴点を抽出する。
(Process S02: Feature point extraction process)
The feature point extraction unit 210 acquires a plurality of images and extracts feature points in each of the plurality of images.

(処理S03:動き量計算処理)
動き量計算部220は、処理S02で抽出された特徴点それぞれに基づいて動き量を求める。
(Process S03: Motion calculation process)
The motion amount calculation unit 220 obtains the motion amount based on each of the feature points extracted in the process S02.

(処理S04:時刻補正量計算処理)
時刻補正部240は、処理S03で求められた動き量に基づいて時刻補正量を求める。
(Process S04: Time correction amount calculation process)
The time correction unit 240 obtains the time correction amount based on the movement amount obtained in the process S03.

(処理S05:映像同期処理)
映像同期部260は、映像バッファ部230から複数の映像を取得し、取得した複数の映像を同期し、同期した複数の映像を映像出力手段300に出力する。
(Process S05: Video synchronization processing)
The video synchronization unit 260 acquires a plurality of videos from the video buffer unit 230, synchronizes the acquired plurality of videos, and outputs the synchronized video to the video output means 300.

図7は、時刻補正部240の動作の一例を示すフローチャートである。時刻補正部240は、本フローチャートに示す処理において、最適な時間シフト量を探索する。本図を用いて、時刻補正部240の動作例を説明する。 FIG. 7 is a flowchart showing an example of the operation of the time correction unit 240. The time correction unit 240 searches for the optimum time shift amount in the process shown in this flowchart. An operation example of the time correction unit 240 will be described with reference to this figure.

(処理S11:探索処理)
本処理は、探索処理内において内包する処理S12と、処理S13と、処理S14と、処理S15とを繰り返し実行することを意味する。時刻補正部240は、時間シフト量を少しずつ変更しながらこれらの処理を繰り返し実行する。時刻補正部240が探索する探索範囲は、具体例として、基準映像の時間長さをX秒、補正対象映像の時間長さをY秒、時間シフト量をSとした場合、探索範囲は−Y<S<Xであり、探索処理の終了条件はS=Xとなったときである。なお、最適な時間シフト量についておおよその見当がついている場合等に、時刻補正部240が探索範囲を自動的に設定してもよく、ユーザが探索範囲を手動で設定してもよい。ユーザは、映像同期システム90の利用者である。
(Process S11: Search process)
This process means that the process S12, the process S13, the process S14, and the process S15 included in the search process are repeatedly executed. The time correction unit 240 repeatedly executes these processes while changing the time shift amount little by little. As a specific example, when the time length of the reference image is X seconds, the time length of the image to be corrected is Y seconds, and the time shift amount is S, the search range searched by the time correction unit 240 is −Y. <S <X, and the end condition of the search process is when S = X. The time correction unit 240 may automatically set the search range, or the user may manually set the search range when the optimum time shift amount is roughly estimated. The user is a user of the video synchronization system 90.

(処理S12:時間シフト処理)
時間シフト部241は、補正対象映像に対応する動き量の時系列情報にのみ時間シフトを加える。
(Process S12: Time shift process)
The time shift unit 241 adds a time shift only to the time-series information of the amount of movement corresponding to the image to be corrected.

(処理S13:時間シフト量評価処理)
時間シフト量評価部242は、基準映像の動き量の時系列情報と、時間シフトが加えられた補正対象映像の動き量の時系列情報との相関係数から時間シフト量の妥当性を評価する。[数4]は、[数3]において用いられる評価値の具体例を示している。[数5]と、[数6]と、[数7]と、[数8]とのそれぞれは、[数4]の一部を具体的に示している。
[数4]におけるCmは、m番目の特徴点に対する重み係数を示す。各特徴点の抽出率、尤度、又は平均変化量に応じた重みなど、複数の映像の同期において相対的に役立つと考えられる特徴点、又は多くのフレームにおいて抽出される特徴点に対して相対的に大きな重みを時間シフト量評価部242が与えることにより、適切な同期結果を得ることができる可能性が高くなる。特徴点に関する事前情報又は知見等が与えられていない場合において、時間シフト量評価部242は重み係数の値を一律で同じ値としてもよい。
(Process S13: Time shift amount evaluation process)
The time shift amount evaluation unit 242 evaluates the validity of the time shift amount from the correlation coefficient between the time-series information of the movement amount of the reference image and the time-series information of the movement amount of the corrected image to which the time shift is added. .. [Equation 4] shows a specific example of the evaluation value used in [Equation 3]. [Equation 5], [Equation 6], [Equation 7], and [Equation 8] each specifically indicate a part of [Equation 4].
Cm in [Equation 4] indicates a weighting coefficient for the m-th feature point. Relative to feature points that are considered to be relatively useful in synchronizing multiple videos, such as the extraction rate, likelihood, or weight according to the average change in each feature point, or feature points that are extracted in many frames. By giving a large weight to the time shift amount evaluation unit 242, it is highly possible that an appropriate synchronization result can be obtained. When no prior information or knowledge about the feature points is given, the time shift amount evaluation unit 242 may uniformly set the value of the weighting coefficient to the same value.

Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364
Figure 0006983364

(処理S14:分岐処理)
時間シフト量評価部242は、処理S13で求めた評価値とこれまでの最適評価値とを比較する。
評価値がこれまでの最適評価値よりも大きい場合、時刻補正部240は処理S15に進む。それ以外の場合、時刻補正部240は処理S15をスキップする。
(Process S14: Branch processing)
The time shift amount evaluation unit 242 compares the evaluation value obtained in the process S13 with the optimum evaluation value so far.
When the evaluation value is larger than the optimum evaluation value so far, the time correction unit 240 proceeds to the process S15. In other cases, the time correction unit 240 skips the process S15.

(処理S15:代入処理)
時間シフト量評価部242は、最適評価値を処理S13で求めた評価値により更新し、最適時間シフト量を処理S12で用いた時間シフトの量により更新する。最適評価値は、最適時間シフト量に対応する評価値である。最適評価値は、理想的な最適値でなくてもよく、実用上求められる最も良い値であってもよい。時間シフト量記憶部243は、最適時間シフト量と、最適評価値とを記憶する。最適評価値及び最適時間シフト量は、それぞれ、繰り返し処理の途中で得られる値を指すこともある。
(Process S15: Substitution process)
The time shift amount evaluation unit 242 updates the optimum evaluation value with the evaluation value obtained in the process S13, and updates the optimum time shift amount with the amount of the time shift used in the process S12. The optimum evaluation value is an evaluation value corresponding to the optimum time shift amount. The optimum evaluation value does not have to be the ideal optimum value, and may be the best value required for practical use. The time shift amount storage unit 243 stores the optimum time shift amount and the optimum evaluation value. The optimum evaluation value and the optimum time shift amount may each refer to a value obtained in the middle of the iterative process.

時間シフト量評価部242は、探索範囲において算出された全ての時間シフト量を評価する。そのため、処理S11に示す繰り返し処理を終えたときに最適時間シフト量が示す値が時刻補正量である。 The time shift amount evaluation unit 242 evaluates all the time shift amounts calculated in the search range. Therefore, the value indicated by the optimum time shift amount when the iterative process shown in the process S11 is completed is the time correction amount.

時刻補正部240は、映像取得手段100が映像を受信する度に映像の時刻を補正する必要はない。時刻補正部240は、具体例として、映像同期システム90の使用開始直後のみ、もしくは1日に1回程度実行する。そのため、時刻補正部240が求めた時刻補正量を補正量記憶部250が保持しておき、映像同期部260は、時刻補正処理が新たに実行されるまで補正量記憶部250が保持している時刻補正量を使い続けてもよい。 The time correction unit 240 does not need to correct the time of the video every time the video acquisition means 100 receives the video. As a specific example, the time correction unit 240 is executed only immediately after the start of use of the video synchronization system 90, or about once a day. Therefore, the correction amount storage unit 250 holds the time correction amount obtained by the time correction unit 240, and the video synchronization unit 260 is held by the correction amount storage unit 250 until the time correction process is newly executed. You may continue to use the time correction amount.

***実施の形態1の効果の説明***
以上のように、本実施の形態によれば、状態認識器を用いずに互いに異なる複数の視点から撮影された複数の映像を同期することができる。従って、本開示に係る映像同期装置200が同期することができる映像の範囲は、特許文献1が開示する装置が同期することができる映像の範囲と比較して広い。
また、本開示によれば、同期サーバ又は同期専用のカメラ等の高価な装置を用いなくても、複数の映像を同期することができる。
*** Explanation of the effect of Embodiment 1 ***
As described above, according to the present embodiment, it is possible to synchronize a plurality of images taken from a plurality of different viewpoints without using a state recognizer. Therefore, the range of images that can be synchronized by the video synchronization device 200 according to the present disclosure is wider than the range of images that can be synchronized by the device disclosed in Patent Document 1.
Further, according to the present disclosure, a plurality of videos can be synchronized without using an expensive device such as a synchronization server or a camera dedicated to synchronization.

***他の構成***
<変形例1>
図8は、本変形例に係る映像同期装置200のハードウェア構成例を示している。
映像同期装置200は、本図に示すように、プロセッサ11とメモリ12と補助記憶装置13との少なくとも1つに代えて、処理回路18を備える。
処理回路18は、映像同期装置200が備える各部の少なくとも一部を実現するハードウェアである。
処理回路18は、専用のハードウェアであっても良く、また、メモリ12に格納されるプログラムを実行するプロセッサであってもよい。
*** Other configurations ***
<Modification 1>
FIG. 8 shows a hardware configuration example of the video synchronization device 200 according to this modification.
As shown in this figure, the video synchronization device 200 includes a processing circuit 18 in place of at least one of the processor 11, the memory 12, and the auxiliary storage device 13.
The processing circuit 18 is hardware that realizes at least a part of each part included in the video synchronization device 200.
The processing circuit 18 may be dedicated hardware, or may be a processor that executes a program stored in the memory 12.

処理回路18が専用のハードウェアである場合、処理回路18は、具体例として、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(ASICはApplication Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)又はこれらの組み合わせである。
映像同期装置200は、処理回路18を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路18の役割を分担する。
When the processing circuit 18 is dedicated hardware, the processing circuit 18 is, as a specific example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (ASIC is an Application Specific Integrated Circuit), an FPGA. (Field Programmable Gate Array) or a combination thereof.
The video synchronization device 200 may include a plurality of processing circuits that replace the processing circuit 18. The plurality of processing circuits share the role of the processing circuit 18.

映像同期装置200において、一部の機能が専用のハードウェアによって実現されて、残りの機能がソフトウェア又はファームウェアによって実現されてもよい。 In the video synchronization apparatus 200, some functions may be realized by dedicated hardware, and the remaining functions may be realized by software or firmware.

処理回路18は、具体例として、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせにより実現される。
プロセッサ11とメモリ12と補助記憶装置13と処理回路18とを、総称して「プロセッシングサーキットリー」という。つまり、映像同期装置200の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。
As a specific example, the processing circuit 18 is realized by hardware, software, firmware, or a combination thereof.
The processor 11, the memory 12, the auxiliary storage device 13, and the processing circuit 18 are collectively referred to as a "processing circuit Lee". That is, the functions of each functional component of the video synchronization apparatus 200 are realized by the processing circuit.

<変形例2>
実施の形態1において、基準映像が固定されている例について説明したがこの例に限定されず、時刻補正部240は状況によって基準映像を変更してもよい。具体例として、時刻補正部240は最も多くの特徴点が抽出された映像を基準映像としてもよい。このようにすることにより、時刻補正部240は最も多くのフレームにおいて被写体が写っている映像を基準映像とすることができる。
あるいは、時刻補正部240は補正対象映像の映像取得手段100に近い位置の映像取得手段100の映像を基準映像としてもよい。ここで、近い位置の映像取得手段100の選択手法としては、補正対象映像の映像取得手段100に最も近い映像取得手段100を選択する手法、又は、映像取得手段100の組合せを考慮し、同じ組合せ(基準映像と補正対象映像とを入れ替えた場合も含む)にならない組合せから最も近接している2つの映像取得手段100を選択する手法が挙げられる。この場合、時刻補正部240は、全ての補正対象映像と基準映像との時間シフト量を算出した後に、全ての映像の時刻を同期するために時間シフト量を調整する。具体的には、基準映像に対して時間シフト量が算出されている場合、時刻補正部240はその値の累積値を調整後の時間シフト量とする。これにより、映像同期装置200は位置の近い映像取得手段100同士に対応する複数の映像を比較することができるため、特徴点の差分を少なくすることができ、さらに、処理精度の向上を実現することができる。
<Modification 2>
In the first embodiment, an example in which the reference image is fixed has been described, but the present invention is not limited to this example, and the time correction unit 240 may change the reference image depending on the situation. As a specific example, the time correction unit 240 may use an image from which the most feature points are extracted as a reference image. By doing so, the time correction unit 240 can use the image in which the subject is shown in the most frames as the reference image.
Alternatively, the time correction unit 240 may use the image of the image acquisition unit 100 at a position close to the image acquisition unit 100 of the image to be corrected as the reference image. Here, as a method for selecting the video acquisition means 100 at a close position, a method of selecting the video acquisition means 100 closest to the video acquisition means 100 of the video to be corrected, or a combination of the video acquisition means 100 is considered, and the same combination is used. A method of selecting the two closest image acquisition means 100 from a combination that does not (including the case where the reference image and the image to be corrected are exchanged) is mentioned. In this case, the time correction unit 240 calculates the time shift amount between all the correction target images and the reference image, and then adjusts the time shift amount in order to synchronize the times of all the images. Specifically, when the time shift amount is calculated with respect to the reference image, the time correction unit 240 uses the cumulative value of the value as the adjusted time shift amount. As a result, the video synchronization device 200 can compare a plurality of videos corresponding to the video acquisition means 100 having close positions to each other, so that the difference between the feature points can be reduced and the processing accuracy can be improved. be able to.

以下、本変形例を具体例を用いて説明する。映像同期システム90は、映像取得手段100として、映像取得手段100−1と、映像取得手段100−2と、映像取得手段100−3とを備えるものとする。また、映像Aを映像取得手段100−1から取得した映像とし、映像Bを映像取得手段100−2から取得した映像とし、映像Cを映像取得手段100−3から取得した映像とする。
ここで、映像Aを基準映像とし映像Bを補正対象映像とする組合せである組aと、映像Bを基準映像とし映像Cを補正対象映像とする組合せである組bとを考える。なお、映像Bを基準映像とし映像Aを補正対象映像とする組合せは、組aと同じ組合せに当たる。
さらに、組aにおける時間シフト量がα、組bにおける時間シフト量がβと求められているものとする。それぞれの時間シフト量は、それぞれの組合せにおける相対的な差を示している。
このとき、映像B及び映像Cの時刻補正量を求めることを考える。この際、映像Bの時刻補正量をαとし、映像Cの時刻補正量をβとすると、映像Bにおける時刻の基準は映像Aが示す時刻であり、映像Cにおける時刻の基準は映像Bが示す時刻である。即ち、映像Bと映像Cとでは時刻の基準が異なる。そこで、映像Cの時刻補正量を組bにおける時間シフト量とするのではなく、組aにおける時間シフト量と組bにおける時間シフト量との累積値(即ち、α+β)とすることにより、映像Cにおける時刻の基準は映像Aが示す時刻となる。その結果、映像同期装置200は、映像Aと映像Bと映像Cとの間で時刻を適切に補正することができる。
Hereinafter, this modification will be described with reference to specific examples. The video synchronization system 90 includes video acquisition means 100-1, video acquisition means 100-2, and video acquisition means 100-3 as video acquisition means 100. Further, the video A is a video acquired from the video acquisition means 100-1, the video B is a video acquired from the video acquisition means 100-2, and the video C is a video acquired from the video acquisition means 100-3.
Here, consider a set a, which is a combination in which the image A is a reference image and the image B is a correction target image, and a set b, which is a combination in which the image B is a reference image and the image C is a correction target image. The combination in which the image B is the reference image and the image A is the correction target image corresponds to the same combination as the set a.
Further, it is assumed that the time shift amount in the set a is α and the time shift amount in the set b is β. Each time shift amount shows a relative difference in each combination.
At this time, it is considered to obtain the time correction amount of the image B and the image C. At this time, assuming that the time correction amount of the image B is α and the time correction amount of the image C is β, the time reference in the image B is the time indicated by the image A, and the time reference in the image C is indicated by the image B. It is the time. That is, the time reference differs between the video B and the video C. Therefore, the time correction amount of the image C is not the time shift amount in the set b, but the cumulative value (that is, α + β) of the time shift amount in the set a and the time shift amount in the set b. The reference time in the above is the time indicated by the image A. As a result, the video synchronization device 200 can appropriately correct the time between the video A, the video B, and the video C.

***他の実施の形態***
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、上述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は、適宜変更されてもよい。
*** Other embodiments ***
Although the first embodiment has been described, a plurality of parts of the present embodiment may be combined and carried out. Alternatively, the present embodiment may be partially implemented. In addition, various modifications may be made to the present embodiment as necessary, and the present embodiment may be implemented in any combination as a whole or partially.
It should be noted that the embodiments described above are essentially preferred examples and are not intended to limit the present disclosure, its applications and the scope of its use. The procedure described using the flowchart or the like may be changed as appropriate.

10 コンピュータ、11 プロセッサ、12 メモリ、13 補助記憶装置、14 入出力IF、15 通信装置、18 処理回路、19 信号線、90 映像同期システム、100 映像取得手段、200 映像同期装置、210 特徴点抽出部、220 動き量計算部、230 映像バッファ部、240 時刻補正部、241 時間シフト部、242 時間シフト量評価部、243 時間シフト量記憶部、250 補正量記憶部、260 映像同期部、300 映像出力手段。 10 computer, 11 processor, 12 memory, 13 auxiliary storage device, 14 input / output IF, 15 communication device, 18 processing circuit, 19 signal line, 90 video synchronization system, 100 video acquisition means, 200 video synchronization device, 210 feature point extraction Unit, 220 motion amount calculation unit, 230 video buffer unit, 240 time correction unit, 241 time shift unit, 242 hour shift amount evaluation unit, 243 hour shift amount storage unit, 250 correction amount storage unit, 260 video synchronization unit, 300 video Output means.

Claims (19)

被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期装置であって、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出する特徴点抽出部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める動き量計算部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める時刻補正部と
を備え、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記時刻補正部は、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求める映像同期装置。
A video synchronization device that synchronizes a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, a feature point extraction unit for extracting at least one feature point among the feature points, and a feature point extraction unit.
A motion amount calculation unit for obtaining at least one motion amount indicating the amount of motion of each of the at least one feature point in each of the plurality of images.
Each of the plurality of images is provided with a time correction unit for obtaining a time correction amount used for synchronizing the plurality of images based on the at least one motion amount.
When the at least one feature point is a plurality of feature points, the time correction unit weights each of the plurality of movement amounts corresponding to the plurality of feature points, and the time correction amount is based on the weights. Video synchronization device that requires.
前記時刻補正部は、前記複数の特徴点それぞれの性質に従って前記複数の動き量それぞれに重みを付ける請求項に記載の映像同期装置。 The video synchronization device according to claim 1 , wherein the time correction unit weights each of the plurality of movement amounts according to the properties of each of the plurality of feature points. 前記時刻補正部は、The time correction unit
前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求める時間シフト部と、 One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the at least one movement amount of the reference video and the correction target. Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. The time shift part to find the amount,
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価する時間シフト量評価部と In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. With the time shift amount evaluation unit that evaluates the time shift amount
を備える請求項1又は2に記載の映像同期装置。The video synchronization apparatus according to claim 1 or 2.
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期装置であって、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出する特徴点抽出部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める動き量計算部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める時刻補正部と
を備え、
前記時刻補正部は、
前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求める時間シフト部と、
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価する時間シフト量評価部と
を備える映像同期装置。
A video synchronization device that synchronizes a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, a feature point extraction unit for extracting at least one feature point among the feature points, and a feature point extraction unit.
A motion amount calculation unit for obtaining at least one motion amount indicating the amount of motion of each of the at least one feature point in each of the plurality of images.
Each of the plurality of images is provided with a time correction unit for obtaining a time correction amount used for synchronizing the plurality of images based on the at least one motion amount.
The time correction unit
One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the at least one movement amount of the reference video and the correction target. Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. The time shift part to find the amount,
In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. A video synchronization device including a time shift amount evaluation unit for evaluating the time shift amount.
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記時刻補正部は、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求める請求項4に記載の映像同期装置。When the at least one feature point is a plurality of feature points, the time correction unit weights each of the plurality of movement amounts corresponding to the plurality of feature points, and the time correction amount is based on the weights. The video synchronization apparatus according to claim 4. 被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期装置であって、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出する特徴点抽出部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める動き量計算部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める時刻補正部と
を備え、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記時刻補正部は、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求め、
前記時刻補正部は、
前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求める時間シフト部と、
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価する時間シフト量評価部と
を備える映像同期装置。
A video synchronization device that synchronizes a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, a feature point extraction unit for extracting at least one feature point among the feature points, and a feature point extraction unit.
A motion amount calculation unit for obtaining at least one motion amount indicating the amount of motion of each of the at least one feature point in each of the plurality of images.
A time correction unit for obtaining a time correction amount used for synchronizing the plurality of images based on the time-series information of the at least one movement amount in each of the plurality of images.
Equipped with
When the at least one feature point is a plurality of feature points, the time correction unit weights each of the plurality of movement amounts corresponding to the plurality of feature points, and the time correction amount is based on the weights. Seeking,
The time correction unit
One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the at least one movement amount of the reference video and the correction target. Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. The time shift part to find the amount,
In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. the time Film image synchronizer that a time shift amount evaluation unit for evaluating the shift amount.
前記時刻補正部は、前記複数の特徴点それぞれの性質に従って前記複数の動き量それぞれに重みを付ける請求項に記載の映像同期装置。 The video synchronization device according to claim 6 , wherein the time correction unit weights each of the plurality of movement amounts according to the properties of each of the plurality of feature points. 被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期装置であって、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出する特徴点抽出部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める動き量計算部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める時刻補正部と
を備え、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記時刻補正部は、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求める映像同期装置。
A video synchronization device that synchronizes a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, a feature point extraction unit for extracting at least one feature point among the feature points, and a feature point extraction unit.
A motion amount calculation unit for obtaining at least one motion amount indicating the amount of motion of each of the at least one feature point in each of the plurality of images.
A time correction unit for obtaining a time correction amount used for synchronizing the plurality of images based on the time-series information of the at least one movement amount in each of the plurality of images.
Equipped with
When the at least one feature point is a plurality of feature points, the time correction unit weights each of the plurality of movement amounts corresponding to the plurality of feature points, and the time correction amount is based on the weights. look that movies image synchronization device.
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期装置であって、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出する特徴点抽出部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求める動き量計算部と、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める時刻補正部と
を備え、
前記時刻補正部は、
前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求める時間シフト部と、
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価する時間シフト量評価部と
を備える映像同期装置。
A video synchronization device that synchronizes a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, a feature point extraction unit for extracting at least one feature point among the feature points, and a feature point extraction unit.
A motion amount calculation unit for obtaining at least one motion amount indicating the amount of motion of each of the at least one feature point in each of the plurality of images.
A time correction unit for obtaining a time correction amount used for synchronizing the plurality of images based on the time-series information of the at least one movement amount in each of the plurality of images.
Equipped with
The time correction unit
One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the at least one movement amount of the reference video and the correction target. Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. The time shift part to find the amount,
In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. the time Film image synchronizer that a time shift amount evaluation unit for evaluating the shift amount.
前記動き量計算部は、前記少なくとも1つの動き量それぞれとして、前記少なくとも1つの特徴点それぞれの座標値が単位時間に変化した量を求める請求項1からのいずれか1項に記載の映像同期装置。 The video synchronization according to any one of claims 1 to 9 , wherein the movement amount calculation unit obtains an amount in which the coordinate value of each of the at least one feature point changes in a unit time as each of the at least one movement amount. Device. 前記複数の映像を受け取り、受け取った複数の映像を一時的に保持する映像バッファ部と、
前記映像バッファ部から前記複数の映像を受け取り、前記時刻補正量に従って前記複数の映像それぞれを送出するタイミングを調整する映像同期部と
を備える請求項1から10のいずれか1項に記載の映像同期装置。
A video buffer unit that receives the plurality of videos and temporarily holds the received multiple videos.
The video synchronization according to any one of claims 1 to 10 , further comprising a video synchronization unit that receives the plurality of images from the video buffer unit and adjusts the timing of transmitting each of the plurality of images according to the time correction amount. Device.
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期方法であって、
特徴点抽出部が、前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出し、
動き量計算部が、前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求め、
時刻補正部が、前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める映像同期方法であって、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記時刻補正部は、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求める映像同期方法
A video synchronization method for synchronizing a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
The feature point extraction unit extracts at least one feature point among the feature points in each of the plurality of images.
The motion amount calculation unit obtains at least one motion amount indicating the amount of movement of each of the at least one feature point in each of the plurality of images.
A video synchronization method in which a time correction unit obtains a time correction amount used to synchronize the plurality of images based on time-series information of at least one movement amount in each of the plurality of images.
When the at least one feature point is a plurality of feature points, the time correction unit weights each of the plurality of movement amounts corresponding to the plurality of feature points, and the time correction amount is based on the weights. Video synchronization method to obtain .
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期方法であって、
特徴点抽出部が、前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出し、
動き量計算部が、前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求め、
時刻補正部が、前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求める映像同期方法であって、
前記時刻補正部は、
前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求め、
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価する映像同期方法
A video synchronization method for synchronizing a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
The feature point extraction unit extracts at least one feature point among the feature points in each of the plurality of images.
The motion amount calculation unit obtains at least one motion amount indicating the amount of movement of each of the at least one feature point in each of the plurality of images.
A video synchronization method in which a time correction unit obtains a time correction amount used to synchronize the plurality of images based on time-series information of at least one movement amount in each of the plurality of images.
The time correction unit
One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the movement amount of the reference video and the correction target Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. Ask for the amount,
In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. A video synchronization method for evaluating the time shift amount .
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期方法であって、
特徴点抽出部が、前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出し、
動き量計算部が、前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求め、
時刻補正部が、前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求め、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記時刻補正部は、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求める映像同期方法。
A video synchronization method for synchronizing a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
The feature point extraction unit extracts at least one feature point among the feature points in each of the plurality of images.
The motion amount calculation unit obtains at least one motion amount indicating the amount of movement of each of the at least one feature point in each of the plurality of images.
The time correction unit obtains a time correction amount used to synchronize the plurality of images based on the at least one movement amount in each of the plurality of images.
When the at least one feature point is a plurality of feature points, the time correction unit weights each of the plurality of movement amounts corresponding to the plurality of feature points, and the time correction amount is based on the weights. Video synchronization method to obtain.
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を同期する映像同期方法であって、
特徴点抽出部が、前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出し、
動き量計算部が、前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求め、
時刻補正部が、前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求め、
前記時刻補正部の時間シフト部が、前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求め、
前記時刻補正部の時間シフト量評価部が、前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価する映像同期方法。
A video synchronization method for synchronizing a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
The feature point extraction unit extracts at least one feature point among the feature points in each of the plurality of images.
The motion amount calculation unit obtains at least one motion amount indicating the amount of movement of each of the at least one feature point in each of the plurality of images.
The time correction unit obtains a time correction amount used to synchronize the plurality of images based on the at least one movement amount in each of the plurality of images.
The time shift unit of the time correction unit selects one video as a reference video from the plurality of videos, and in each of the correction target videos which are videos other than the reference video among the plurality of videos, the reference video is described. An amount used to synchronize each of the corrected images with the reference image based on at least one motion amount and the at least one motion amount of each of the corrected images, and the at least one motion. Find the time shift amount, which is the amount that shifts the amount over time.
The time shift amount evaluation unit of the time correction unit has at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images in each of the correction target images, and the reference. A video synchronization method for evaluating the time shift amount based on the at least one movement amount of the video.
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を記憶しているコンピュータに、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出させ、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求めさせ、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求めさせる映像同期プログラムであって、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求めさせる映像同期プログラム
A computer that stores a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, at least one feature point among the feature points is extracted.
In each of the plurality of images, at least one amount of movement indicating the amount of movement of each of the at least one feature point is obtained.
A video synchronization program for obtaining a time correction amount used for synchronizing the plurality of images based on the time-series information of the at least one motion amount in each of the plurality of images.
When the at least one feature point is a plurality of feature points, a video synchronization program that weights each of the plurality of movement amounts corresponding to each of the plurality of feature points and causes the time correction amount to be obtained based on the weight. ..
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を記憶しているコンピュータに、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出させ、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求めさせ、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量の時系列情報に基づいて前記複数の映像を同期することに用いられる時刻補正量を求めさせる映像同期プログラムであって、
前記複数の映像から1つの映像を基準映像として選択させ、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求めさせ、
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価させる映像同期プログラム
A computer that stores a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, at least one feature point among the feature points is extracted.
In each of the plurality of images, at least one amount of movement indicating the amount of movement of each of the at least one feature point is obtained.
A video synchronization program for obtaining a time correction amount used for synchronizing the plurality of images based on the time-series information of the at least one motion amount in each of the plurality of images.
One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the movement amount of the reference video and the correction target Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. Ask for the amount,
In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. A video synchronization program that evaluates the time shift amount .
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を記憶しているコンピュータに、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出させ、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求めさせ、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求めさせる映像同期プログラムであって、
前記少なくとも1つの特徴点が複数の特徴点である場合において、前記複数の特徴点それぞれに対応する複数の動き量それぞれに重みを付け、前記重みに基づいて前記時刻補正量を求めさせる映像同期プログラム。
A computer that stores a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, at least one feature point among the feature points is extracted.
In each of the plurality of images, at least one amount of movement indicating the amount of movement of each of the at least one feature point is obtained.
A video synchronization program for obtaining a time correction amount used for synchronizing the plurality of images based on at least one motion amount in each of the plurality of images.
When the at least one feature point is a plurality of feature points, a video synchronization program that weights each of the plurality of movement amounts corresponding to each of the plurality of feature points and causes the time correction amount to be obtained based on the weight. ..
被写体の動きに伴って座標が変化する位置を示す特徴点を含む前記被写体を互いに異なる複数の視点から撮影した複数の映像を記憶しているコンピュータに、
前記複数の映像それぞれにおいて、前記特徴点の内の少なくとも1つの特徴点を抽出させ、
前記複数の映像それぞれにおいて、前記少なくとも1つの特徴点それぞれが動いた量を示す少なくとも1つの動き量を求めさせ、
前記複数の映像それぞれにおいて、前記少なくとも1つの動き量に基づいて前記複数の映像を同期することに用いられる時刻補正量を求めさせる映像同期プログラムであって、
前記複数の映像から1つの映像を基準映像として選択し、前記複数の映像のうち前記基準映像以外の映像である補正対象映像それぞれにおいて、前記基準映像の前記少なくとも1つの動き量と、前記補正対象映像それぞれの前記少なくとも1つの動き量とに基づいて、前記補正対象映像それぞれを前記基準映像と同期することに用いられる量であって、前記少なくとも1つの動き量を時間シフトする量である時間シフト量を求めさせ、
前記補正対象映像それぞれにおいて、前記補正対象映像それぞれに対応する時間シフト量に従って前記少なくとも1つの動き量を時間シフトした少なくとも1つの動き量と、前記基準映像の前記少なくとも1つの動き量とに基づいて前記時間シフト量を評価させる映像同期プログラム。
A computer that stores a plurality of images of the subject taken from a plurality of different viewpoints, including a feature point indicating a position where the coordinates change with the movement of the subject.
In each of the plurality of images, at least one feature point among the feature points is extracted.
In each of the plurality of images, at least one amount of movement indicating the amount of movement of each of the at least one feature point is obtained.
A video synchronization program for obtaining a time correction amount used for synchronizing the plurality of images based on at least one motion amount in each of the plurality of images.
One video is selected as a reference video from the plurality of videos, and in each of the correction target videos that are videos other than the reference video among the plurality of videos, the movement amount of the reference video and the correction target Time shift, which is an amount used to synchronize each of the corrected images with the reference image based on the at least one motion amount of each image, and is an amount for time-shifting the at least one motion amount. Ask for the amount,
In each of the correction target images, based on at least one movement amount obtained by time-shifting the at least one movement amount according to the time shift amount corresponding to each of the correction target images, and the at least one movement amount of the reference image. A video synchronization program that evaluates the time shift amount.
JP2021522563A 2020-11-25 2020-11-25 Video synchronization device, video synchronization method, and video synchronization program Active JP6983364B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/043845 WO2022113212A1 (en) 2020-11-25 2020-11-25 Video synchronizing device, video synchronizing method, and video synchronizing program

Publications (2)

Publication Number Publication Date
JP6983364B1 true JP6983364B1 (en) 2021-12-17
JPWO2022113212A1 JPWO2022113212A1 (en) 2022-06-02

Family

ID=79170075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522563A Active JP6983364B1 (en) 2020-11-25 2020-11-25 Video synchronization device, video synchronization method, and video synchronization program

Country Status (2)

Country Link
JP (1) JP6983364B1 (en)
WO (1) WO2022113212A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319074A (en) * 1993-05-06 1994-11-15 Matsushita Electric Ind Co Ltd Motion vector detector for picture
JP2013179488A (en) * 2012-02-28 2013-09-09 Nikon Corp Imaging apparatus and program
JP2014064135A (en) * 2012-09-20 2014-04-10 Casio Comput Co Ltd Image pick-up controller, image pick-up control method, reproduction controller, reproduction control method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319074A (en) * 1993-05-06 1994-11-15 Matsushita Electric Ind Co Ltd Motion vector detector for picture
JP2013179488A (en) * 2012-02-28 2013-09-09 Nikon Corp Imaging apparatus and program
JP2014064135A (en) * 2012-09-20 2014-04-10 Casio Comput Co Ltd Image pick-up controller, image pick-up control method, reproduction controller, reproduction control method and program

Also Published As

Publication number Publication date
WO2022113212A1 (en) 2022-06-02
JPWO2022113212A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US11538232B2 (en) Tracker assisted image capture
CN107241544B (en) Video image stabilization method, device and camera shooting terminal
EP1670237A2 (en) Matching un-synchronized image portions
US9323785B2 (en) Method and system for mobile visual search using metadata and segmentation
US9852511B2 (en) Systems and methods for tracking and detecting a target object
JP6816058B2 (en) Parameter optimization device, parameter optimization method, program
JP5530399B2 (en) Image processing method, image processing apparatus, and image processing program
CN110807427B (en) Sight tracking method and device, computer equipment and storage medium
US20130033612A1 (en) Reduced latency video stabilization
CN110691259A (en) Video playing method, system, device, electronic equipment and storage medium
JP6384856B2 (en) Information device, program, and method for drawing AR object based on predicted camera posture in real time
JP6885474B2 (en) Image processing device, image processing method, and program
JP6983364B1 (en) Video synchronization device, video synchronization method, and video synchronization program
CN107145741B (en) Ear diagnosis data acquisition method and device based on image analysis
US10250809B2 (en) Video stabilization system and method
JP5404580B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
CN107464261B (en) Image data calibration training method and device, storage medium and server thereof
JP5436351B2 (en) State estimation device, state estimation method, and program
US20110141274A1 (en) Depth Detection Method and System Using Thereof
JP5639033B2 (en) Image processing method, image processing apparatus, and image processing program
JP2015179426A (en) Information processing apparatus, parameter determination method, and program
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
WO2020095708A1 (en) Eye information estimation device, eye information estimation method, and program
CN108446737B (en) Method and device for identifying objects
KR101515847B1 (en) Device and method for correcting motion data collected by nui device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150