JP3380937B2 - Method for identifying object in moving image and apparatus for identifying object in moving image - Google Patents

Method for identifying object in moving image and apparatus for identifying object in moving image

Info

Publication number
JP3380937B2
JP3380937B2 JP19071694A JP19071694A JP3380937B2 JP 3380937 B2 JP3380937 B2 JP 3380937B2 JP 19071694 A JP19071694 A JP 19071694A JP 19071694 A JP19071694 A JP 19071694A JP 3380937 B2 JP3380937 B2 JP 3380937B2
Authority
JP
Japan
Prior art keywords
moving image
search
image information
likelihood
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19071694A
Other languages
Japanese (ja)
Other versions
JPH0855131A (en
Inventor
精一 紺谷
潮 井上
哲司 佐藤
良治 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP19071694A priority Critical patent/JP3380937B2/en
Publication of JPH0855131A publication Critical patent/JPH0855131A/en
Application granted granted Critical
Publication of JP3380937B2 publication Critical patent/JP3380937B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像内の物体の同定
方法及び動画像内の物体の同定装置に係り、利用者が動
画像を見ながら指示した物体を同定する動画像内の物体
の同定方法及び動画像内の物体の同定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of identifying an object in a moving image and an apparatus for identifying an object in a moving image, and an object in a moving image for identifying an object designated by a user while looking at the moving image. And an apparatus for identifying an object in a moving image.

【0002】詳しくは、利用者が指示した動画像情報内
の物体に関する情報等を提示する動画像ナビゲーション
システム等において、利用者の指示した動画像情報内の
物体を正しく同定する動画像内の物体の同定方法及び動
画像内の物体の同定装置に関する。
More specifically, in a moving image navigation system or the like that presents information about an object in moving image information specified by a user, an object in a moving image that correctly identifies an object in moving image information specified by a user. And an apparatus for identifying an object in a moving image.

【0003】[0003]

【従来の技術】従来、動画像内の物体を同定する方法と
しては以下の方法がある。従来の方法は、動画像を二次
元の画像と時間軸からなる三次元の時空間としてとら
え、動画像内の物体毎に、当該物体を内包する領域を管
理情報として設定しておき、利用者が指示した画像の位
置と時間の組、即ち利用者が指示した動画像内の座標を
含む領域を持つ物体を管理情報を用いて選択することで
動画像内の物体を同定している(高野 元、的場 ひろ
し、原 良憲:“ビデオ・ハイパーメディアのナビゲー
ション方式”、8th Symposium on Human Interface,pp
607-612,Oct.21-23,1992)。
2. Description of the Related Art Conventionally, there have been the following methods for identifying an object in a moving image. The conventional method considers a moving image as a three-dimensional space-time consisting of a two-dimensional image and a time axis, sets an area containing the object as management information for each object in the moving image, and The object in the moving image is identified by using the management information to select an object having a position and time pair of the image specified by, that is, an object having a region including the coordinates in the moving image specified by the user (Takano Former, Hiroshi Matoba, Yoshinori Hara: “Navigation method of video and hypermedia”, 8th Symposium on Human Interface, pp
607-612, Oct. 21-23, 1992).

【0004】図10は、従来の方法を説明する図を示
す。図10(A)は、図10(B)に示す映像フレーム
10内を、図10(C)に示す三角形の物体20が、時
刻t0から時刻t4 (t0 <t4 )までの時間経過に伴
い映像フレーム10内を移動している様子を示してお
り、時刻t0 における映像フレーム10(座標(0,
0,0)、(x,0,t0 )、(x,y,t0 )、
(0,y,t0 )の4点を頂点とする四角形の領域)か
ら時刻t4 における映像フレーム10までの5枚の映像
フレーム10を、時刻の昇順に時間軸(t)方向に平行
に並べた例を示している。映像フレーム10内の物体2
0は、時刻t0 から時刻t4 への時間経過に伴い、各映
像フレーム10内を右下から左上に向かって移動してい
る、映像情報として記録されている物体20である。ま
た、各映像フレーム10内の物体20を内包する四角形
は、物体20を同定することが可能な領域を示してお
り、映像情報として記録されているものではなく上述の
管理情報として蓄積されている。図10(D)は、図1
0(A)に示す時刻t0 から時刻t4 までの各映像フレ
ーム10内で物体20を同定することが可能な領域を示
している。この、物体20を同定することが可能な領域
というのは、利用者が図10(A)に示す動画像を見な
がら当該動画像内の物体20を指示する際に、物体20
の内側の領域でなくても、物体20の周囲の四角形の領
域内を指示していれば、利用者が物体20を指示したも
のとして同定することが可能な領域のことである。映像
フレーム10内の物体20は時間の経過に伴ってその位
置を右下から左上へと変えているため、例えば、利用者
が時刻t2 の映像フレーム10内で物体20の右下を指
示したつもりでも、指示しようと考えてから実際に指示
するまでには多少の時間(仮に、Δt=t3 −t2 とす
る)を要する。そのため、指示した座標が入力された時
(t3=t2 +Δt)には、時刻t3 の映像フレーム1
0となってしまい、当該映像フレーム内の指示された座
標には既に物体20は存在していないという場合が考え
られ、利用者の意図した物体20を正しく指示すること
ができない場合がある。このような場合、特に物体20
の移動速度が速い場合や、物体20の大きさが小さい場
合などであっても利用者が物体20をできるだけ正しく
指示することができるように、映像フレーム10内の各
物体20毎に実際の物体20よりも広い範囲を当該物体
を同定することが可能な領域として予め設定しているの
である。
FIG. 10 shows a diagram for explaining a conventional method. 10A shows the time from the time t 0 to the time t 4 (t 0 <t 4 ) of the triangular object 20 shown in FIG. 10C in the video frame 10 shown in FIG. 10B. elapsed shows a state in which moving image frame 10 with the video frame 10 (coordinates (0 at time t 0,
0,0), (x, 0, t 0 ), (x, y, t 0 ),
Five video frames 10 from (quadrangle region having four points of (0, y, t 0 ) as vertices) to video frame 10 at time t 4 are arranged in parallel in the time axis (t) direction in ascending order of time. An example of arranging is shown. Object 2 in video frame 10
0 is an object 20 recorded as video information, which is moving from the lower right to the upper left in each video frame 10 as time elapses from time t 0 to time t 4 . Further, a quadrangle including the object 20 in each video frame 10 indicates a region in which the object 20 can be identified, and is not recorded as video information but is stored as the management information described above. . FIG. 10D is the same as FIG.
The area in which the object 20 can be identified is shown in each video frame 10 from time t 0 to time t 4 shown in 0 (A). This area in which the object 20 can be identified means that when the user points to the object 20 in the moving image while looking at the moving image shown in FIG.
Even if the area is not inside, the area can be identified by the user as having instructed the object 20 if the area within the rectangular area around the object 20 is instructed. Since the position of the object 20 in the video frame 10 changes from the lower right to the upper left with the passage of time, for example, the user instructs the lower right of the object 20 in the video frame 10 at time t 2 . Even if it is intentional, it takes some time (assuming Δt = t 3 −t 2 ) from the time of thinking to instruct to the time of actually instructing. Therefore, when the designated coordinates are input (t 3 = t 2 + Δt), the video frame 1 at time t 3
It may be 0, and the object 20 may not already exist at the specified coordinates in the video frame, and the object 20 intended by the user may not be correctly specified. In such a case, especially the object 20
In order to allow the user to indicate the object 20 as accurately as possible even when the moving speed of the object is fast or the size of the object 20 is small, the actual object for each object 20 in the video frame 10 A range wider than 20 is preset as a region in which the object can be identified.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の方法では、以下に示す4つの問題点がある。
However, the above-mentioned conventional method has the following four problems.

【0006】第1の問題点は、利用者が指示した映像フ
レーム10内の物体20をシステムに正しく同定させる
ためには、利用者が当該システムに予め設定されている
各物体20を同定することができる領域内を指示しなけ
ればならない点である。利用者が、予めシステムに設定
されている物体20を同定することができる領域に対し
て少しでも外側の座標を指示してしまうと、システムは
物体20を指示された物体20として正しく同定するこ
とはできないため、利用者は注意深く物体20を指示し
なければならない。
The first problem is that in order for the system to correctly identify the object 20 in the video frame 10 designated by the user, the user must identify each object 20 preset in the system. The point is that you must specify the area within which you can do it. When the user designates coordinates outside even for a region in which the object 20 set in the system can be identified in advance, the system correctly identifies the object 20 as the designated object 20. Therefore, the user must carefully point the object 20.

【0007】第2の問題点は、上記従来の方法では、第
1の問題点による影響を軽減するために、映像フレーム
10内に存在する物体の数が少ない場合には、個々の物
体を同定することができる領域をできるだけ広くとり、
また、映像フレーム10内に存在する物体の数が多い場
合には、個々の物体を同定することができる領域を狭く
とる等の調整を行なわなければならないという点であ
る。そのため、個々の物体に対する領域の設定に多大の
工程を要することになる。
The second problem is that in the above conventional method, in order to reduce the influence of the first problem, when the number of objects existing in the video frame 10 is small, individual objects are identified. Take as much area as you can
In addition, when the number of objects existing in the video frame 10 is large, it is necessary to make adjustments such as narrowing the area where each object can be identified. Therefore, a large number of steps are required to set the area for each object.

【0008】第3の問題点は、動きの速い物体を同定す
る場合、利用者が物体を指示する操作が物体の移動に追
いつかないことがあるため、物体を同定することができ
る領域を物体の移動速度を考慮した領域として設定して
おかなければならない点である。この場合にも設定に多
くの工程を要する。
A third problem is that when a fast-moving object is identified, the operation of pointing the object by the user may not catch up with the movement of the object. This is a point that must be set as an area considering the moving speed. Also in this case, many steps are required for setting.

【0009】第4の問題点は、動画像の再生速度が速い
場合などにも、上記第3の問題と同様の問題が発生する
ため、動画像の再生速度に応じて物体を同定することが
可能な領域を複数設定しておかなければならないという
点である。この問題も、上記第2の問題点、第3の問題
点と同様設定に多くの工程を要する。
A fourth problem is that the same problem as the third problem occurs even when the moving image reproducing speed is high, so that an object can be identified according to the moving image reproducing speed. The point is that multiple possible areas must be set. This problem also requires many steps for setting like the second problem and the third problem.

【0010】本発明は、上記の点に鑑みなされたもの
で、予め動画像情報内の個々の物体毎に、当該物体を同
定することができる領域を設定して管理情報として蓄積
しておくことなく、正しく物体を同定することが可能な
動画像内の物体の同定方法及び動画像内の物体の同定装
置を提供することを目的とする。
The present invention has been made in view of the above points. For each individual object in moving image information, an area in which the object can be identified is set in advance and stored as management information. It is an object of the present invention to provide a method for identifying an object in a moving image and an apparatus for identifying an object in a moving image that can correctly identify an object.

【0011】また、指示された座標が物体の外側であっ
たり、動画像情報内の物体の数が多い場合であっても、
利用者の意図した物体を正しく同定することが可能な動
画像内の物体の同定方法及び動画像内の物体の同定装置
を提供することを目的とする。
Further, even when the designated coordinates are outside the object or the number of objects in the moving image information is large,
An object of the present invention is to provide a method for identifying an object in a moving image and an apparatus for identifying an object in a moving image that can correctly identify an object intended by a user.

【0012】また、動画像情報内を移動する物体の移動
速度が速い場合や、動画像情報の再生速度が速い場合等
であっても、利用者の意図した物体を正しく同定するこ
とが可能な動画像内の物体の同定方法及び動画像内の物
体の同定装置を提供することを目的とする。
Further, even if the moving speed of the object moving in the moving image information is high, or the moving image information reproducing speed is high, the object intended by the user can be correctly identified. An object is to provide a method for identifying an object in a moving image and an apparatus for identifying an object in a moving image.

【0013】[0013]

【課題を解決するための手段】図1は、本発明の原理説
明図を示す。
FIG. 1 shows the principle of the present invention.

【0014】本発明の、動画像内の物体の同定方法は、
予め蓄積された動画像情報を表示し(ステップ1)、利
用者が表示された動画像情報を見ながら、当該動画像情
報内の座標を指示する(ステップ2)。
The method of identifying an object in a moving image according to the present invention is
The moving image information accumulated in advance is displayed (step 1), and the user indicates the coordinates in the moving image information while looking at the displayed moving image information (step 2).

【0015】利用者により動画像情報内の座標が指示さ
れると、予め蓄積された当該動画像情報内の物体の位置
情報から物体を検索する(ステップ3)。
When the user designates the coordinates in the moving image information, the object is searched from the position information of the object in the moving image information stored in advance (step 3).

【0016】利用者によって指示された座標と上記ステ
ップ3で検索された物体との尤度を計算し、計算された
尤度に基づいて利用者の指示した座標に対応する動画像
情報内の物体を同定する(ステップ4)。
The likelihood between the coordinate designated by the user and the object retrieved in step 3 is calculated, and the object in the moving image information corresponding to the coordinate designated by the user is calculated based on the calculated likelihood. Are identified (step 4).

【0017】図2は、本発明の原理構成図を示す。FIG. 2 shows the principle configuration of the present invention.

【0018】本発明の、動画像内の物体の同定装置10
0は、動画像情報を蓄積する画像蓄積手段110と、画
像蓄積手段110に蓄積された動画像情報を表示する画
像表示手段120と、画像表示手段120に表示された
動画像情報を見ながら動画像情報内の座標を指示する座
標指示手段130と、動画像情報内の個々の物体の位置
情報を蓄積する位置情報蓄積手段140と、位置情報蓄
積手段140の中から物体を検索する検索手段150
と、動画像情報内の各座標と個々の物体の位置情報の組
に対して実数を対応させて尤度とする尤度計算手段16
0と、指示された座標と該検索手段150により検索さ
れた物体の位置情報との組を、尤度計算手段160に出
力して尤度を計算し、計算された尤度に基づいて指示さ
れた座標に対応する物体を同定する同定手段170とを
有する。
An apparatus 10 for identifying an object in a moving image according to the present invention.
0 is a moving image while watching the image storage means 110 for storing the moving picture information, the image display means 120 for displaying the moving picture information stored in the image storage means 110, and the moving picture information displayed on the image display means 120. Coordinate pointing means 130 for pointing the coordinates in the image information, position information storage means 140 for storing the position information of each object in the moving image information, and search means 150 for searching the object from the position information storage means 140.
And a likelihood calculating means 16 for calculating a likelihood by associating a real number with a set of each coordinate in the moving image information and position information of an individual object.
A set of 0, the designated coordinate, and the position information of the object searched by the searching means 150 is output to the likelihood calculating means 160 to calculate the likelihood, and the instruction is made based on the calculated likelihood. Identification means 170 for identifying an object corresponding to the coordinate set.

【0019】上記検索手段150は、動画像情報内の各
座標に対して動画像情報内に検索領域を対応させて設定
する検索領域設定手段と、指示された座標を検索領域設
定手段に出力して、指示された座標に対する検索領域を
設定するとともに、位置情報蓄積手段140の中の検索
領域内に位置情報を有する物体を検索する検索領域内検
索手段とを有する。
The search means 150 outputs a search area setting means for setting a search area in the moving image information corresponding to each coordinate in the moving image information and the designated coordinates to the search area setting means. In addition, the search area in the search area for the designated coordinates is set, and the search area in the search area in the position information storage means 140 is searched for an object having position information.

【0020】上記検索領域設定手段は、指示された座標
に対して、動画像情報内の物体を確認してから指示する
までの遅延時間に基づいて、動画像情報内に検索領域を
設定する。
The search area setting means sets the search area in the moving image information based on the delay time from the confirmation of the object in the moving image information to the instruction at the designated coordinates.

【0021】上記尤度計算手段160は、指示された座
標と検索手段150によって検索された物体の位置情報
とから距離を計算し、計算された距離に基づいて尤度を
決定する。
The likelihood calculating means 160 calculates the distance from the designated coordinates and the position information of the object searched by the searching means 150, and determines the likelihood based on the calculated distance.

【0022】[0022]

【作用】本発明は、動画像情報内の指示された座標に基
づき物体を検索し、検索の結果に基づいて指示された物
体を同定することにより、予め動画像情報内の各物体毎
に、当該物体を同定することができる領域を設定して蓄
積していなくても、物体を同定することが可能となる。
According to the present invention, by searching for an object based on the designated coordinates in the moving image information and identifying the designated object based on the result of the search, each object in the moving image information is previously identified. It is possible to identify an object without setting and accumulating a region in which the object can be identified.

【0023】また、予め動画像情報内の各物体毎に、当
該動画像情報内における位置情報を蓄積しているため、
指示された座標に基づき全ての物体を検索することが可
能となる。
Further, since the position information in the moving image information is previously stored for each object in the moving image information,
It becomes possible to search for all objects based on the designated coordinates.

【0024】また、指示された座標に基づいて、動画像
情報内に物体を検索するための検索領域を設定して物体
を検索することにより、検索量、検索時間を短縮するこ
とが可能となる。
Further, by setting a search area for searching an object in the moving image information based on the designated coordinates and searching for the object, it is possible to shorten the search amount and the search time. .

【0025】また、表示された動画像情報内の物体を確
認してから実際に指示するまでの遅延時間を考慮し、動
画像情報内の物体を検索するための検索領域を当該遅延
時間に基づき設定することにより、動きの速い物体や、
再生速度の速い動画像情報等であっても、実際に座標が
指示された時刻の動画像情報内での物体の検索が可能と
なる。
Further, considering the delay time from the confirmation of the object in the displayed moving image information to the actual instruction, a search area for searching for the object in the moving image information is based on the delay time. By setting, fast moving objects,
Even with moving image information or the like having a high reproduction speed, it is possible to search for an object in the moving image information at the time when the coordinates are actually designated.

【0026】また、指示された座標と検索された各物体
の位置情報に基づき尤度を計算することで、利用者の指
示した物体を尤度に基づき一意に同定することが可能と
なる。
Further, by calculating the likelihood based on the designated coordinates and the position information of each retrieved object, the object designated by the user can be uniquely identified based on the likelihood.

【0027】[0027]

【実施例】以下、図面と共に本発明の実施例を詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0028】図3は、本発明の一実施例の構成図を示
す。同図に示す動画像内の物体の同定装置100は、画
像蓄積部110、画像表示部120、座標指示部13
0、位置情報蓄積部140、検索領域設定部180、尤
度計算部160、制御部200から構成される。
FIG. 3 shows a block diagram of an embodiment of the present invention. The apparatus 100 for identifying an object in a moving image shown in the figure includes an image storage unit 110, an image display unit 120, and a coordinate designating unit 13.
0, position information storage unit 140, search area setting unit 180, likelihood calculation unit 160, and control unit 200.

【0029】画像蓄積部110は、動画像情報を蓄積し
ているデータベースであり、x軸、y軸、t軸で指定さ
れる、0≦x≦X、0≦y≦Y、0≦t≦Tの範囲にあ
る動画像情報であり、x軸、y軸から構成される映像フ
レームを時刻(t)毎に蓄積している。
The image storage unit 110 is a database that stores moving image information, and is specified by the x-axis, y-axis, and t-axis, 0 ≦ x ≦ X, 0 ≦ y ≦ Y, 0 ≦ t ≦. This is moving image information in the range of T, and video frames composed of an x axis and ay axis are accumulated at each time (t).

【0030】画像表示部120は、画像蓄積部110に
蓄積されている動画像情報を表示するディスプレイであ
る。
The image display unit 120 is a display for displaying the moving image information stored in the image storage unit 110.

【0031】座標指示部130は、画像表示部120に
表示された動画像情報内の座標(x,y,t)を指示す
るマウスである。画像表示部120に表示された動画像
情報を見ながら、当該動画像情報内のある座標(x,
y)の位置で、当該位置を指示するためのボタンを押す
ことにより、ボタンを押した時刻tにおける動画像情報
内の座標として、座標(x,y,t)の指定をすること
ができる。以下、座標指示部130の指示する座標は、
(px,py,pt)と表記する。
The coordinate designating unit 130 is a mouse for designating coordinates (x, y, t) in the moving image information displayed on the image display unit 120. While watching the moving image information displayed on the image display unit 120, a certain coordinate (x,
By pressing the button for indicating the position at the position y), the coordinates (x, y, t) can be specified as the coordinates in the moving image information at the time t when the button is pressed. Hereinafter, the coordinates designated by the coordinate designating unit 130 are
Notated as (px, py, pt).

【0032】位置情報蓄積部140は、画像蓄積部11
0に蓄積される動画像情報内の各物体毎の代表点として
物体の中心の位置情報を蓄積している。各物体の位置情
報は、当該動画像情報内の各映像フレーム毎に、フレー
ム内の二次元の座標(x,y)と時刻tとからなる三次
元空間内の座標(x,y,t)として表現される、動画
像情報の再生に伴って描く軌跡として蓄積されている。
画像蓄積部110に蓄積されている動画像情報内の物体
iの位置情報を、
The position information storage unit 140 is the image storage unit 11.
Position information of the center of the object is stored as a representative point for each object in the moving image information stored in 0. The position information of each object is the coordinates (x, y, t) in the three-dimensional space consisting of the two-dimensional coordinates (x, y) in the frame and the time t for each video frame in the moving image information. Is stored as a locus drawn as the moving image information is reproduced.
The position information of the object i in the moving image information stored in the image storage unit 110 is

【0033】[0033]

【数1】 [Equation 1]

【0034】と表記し、物体iの時刻tにおける動画像
情報内のx座標とy座標はそれぞれ以下のように表記す
る。
The x coordinate and the y coordinate in the moving image information of the object i at time t are expressed as follows.

【0035】[0035]

【数2】 [Equation 2]

【0036】以下に、図を用いて物体iの位置情報につ
いて説明する。図4は、本発明の一実施例の物体iの時
刻tにおける位置を説明する図を示す。同図に示す太い
実線は物体iの時刻0から時刻tまでの映像フレーム内
の移動の軌跡を示しており、太い破線は物体iの時刻t
以後の移動の軌跡を示している。図中のAで示した太い
実線と太い破線との接続点(A)は、時刻tにおける座
標(X,0,t)、(X,Y,t)、(0,Y,t)、
(0,0,t)の4つの座標を頂点とする四角形で示さ
れる映像フレーム10内の物体iの位置を示している。
図5は、本発明の一実施例の位置情報蓄積部の蓄積例を
示す図である。同図に示す位置情報蓄積部140の蓄積
例は、画像蓄積部110に蓄積されている動画像情報と
対応しており、当該動画像情報内に存在する個々の物体
について、時刻、物体番号、物体番号に対応する物体の
代表点の位置情報としてx座標とy座標とを蓄積する例
である。時刻t1 における動画像情報内には、座標
(3,7)、(12,7)、(6,2)の位置に代表点
を持つ物体番号が21、22、23の3つの物体が表示
されていることを示している。
The position information of the object i will be described below with reference to the drawings. FIG. 4 is a diagram illustrating the position of the object i at time t according to the embodiment of the present invention. The thick solid line shown in the figure shows the locus of movement of the object i in the video frame from time 0 to time t, and the thick broken line shows the time t of the object i.
The locus of movement after that is shown. The connection point (A) between the thick solid line and the thick broken line indicated by A in the figure is the coordinates (X, 0, t), (X, Y, t), (0, Y, t) at time t,
The position of the object i in the video frame 10 indicated by a quadrangle having four coordinates (0, 0, t) as vertices is shown.
FIG. 5 is a diagram showing a storage example of the position information storage unit of the embodiment of the present invention. The accumulation example of the position information accumulation unit 140 shown in the figure corresponds to the moving image information accumulated in the image accumulation unit 110, and the time, object number, and This is an example of accumulating x-coordinates and y-coordinates as position information of the representative point of the object corresponding to the object number. In the moving image information at time t 1 , three objects with object numbers 21, 22, and 23 having representative points at the coordinates (3, 7), (12, 7), and (6, 2) are displayed. It has been shown that.

【0037】尤度計算部160は、座標指示部130に
より指示された座標と、物体iの位置情報とから、尤度
を計算する尤度計算器Lであり、
The likelihood calculator 160 is a likelihood calculator L that calculates a likelihood from the coordinates designated by the coordinate designating unit 130 and the position information of the object i.

【0038】[0038]

【数3】 [Equation 3]

【0039】と表記する。尤度計算器Lの計算式につい
ては、後述の具体例で示す。
Notated as The calculation formula of the likelihood calculator L will be shown in a specific example described later.

【0040】検索領域設定部180は、座標指示部13
0により指示された座標に基づき物体を検索するための
検索領域を動画像情報内に設定する検索領域設定器Rで
あり、 R(px,py,pt) と表記する。検索領域設定器Rの右辺については、後述
の具体例で示す。
The search area setting unit 180 includes a coordinate designating unit 13
A search area setting unit R that sets a search area for searching an object based on the coordinates designated by 0 in the moving image information, and is expressed as R (px, py, pt). The right side of the search area setting unit R will be shown in a specific example described later.

【0041】制御部200については、以下に図を用い
て詳しく説明する。図6は、本発明の一実施例の制御部
の構成図を示す。同図に示す制御部200は、検索領域
内検索部190、同定部170から構成される。検索領
域内検索部190は、画像蓄積部110から動画像情報
を読み出して画像表示部120に表示する。また、表示
された動画像情報を見ながら座標指示部130により動
画像情報内の座標が指示され、指示座標が入力される
と、指示座標を検索領域設定部180へ出力して、当該
指示座標に対応する動画像情報内の物体を検索するため
の検索領域を設定する。検索領域が設定されると、位置
情報蓄積部140の中の検索領域内の位置情報を有する
物体を検索して同定部170へ出力する。
The control unit 200 will be described in detail below with reference to the drawings. FIG. 6 is a block diagram of the control unit according to the embodiment of the present invention. The control unit 200 shown in the figure includes an in-search area search unit 190 and an identification unit 170. The search area search unit 190 reads the moving image information from the image storage unit 110 and displays it on the image display unit 120. Further, when the coordinates in the moving image information are instructed by the coordinate instructing unit 130 while watching the displayed moving image information and the instructed coordinates are input, the instructed coordinates are output to the search area setting unit 180, and the instructed coordinates A search area for searching for an object in the moving image information corresponding to is set. When the search area is set, the object having the position information in the search area in the position information storage unit 140 is searched and output to the identification unit 170.

【0042】同定部170は、指示座標と検索領域内検
索部190の出力する各物体の位置情報との組を尤度計
算部160へ出力して尤度を計算し、計算した結果の尤
度が最も大きい値の物体を、指示座標に対応する動画像
情報中の物体として同定し、同定結果を出力する。
The identification unit 170 outputs the set of the designated coordinates and the position information of each object output by the search area search unit 190 to the likelihood calculation unit 160 to calculate the likelihood, and the likelihood of the calculated result. The object with the largest value is identified as the object in the moving image information corresponding to the designated coordinates, and the identification result is output.

【0043】以下に、上記動画像内の物体の同定装置1
00の動作を図を用いて説明する。図7は、本発明の一
実施例の動作を示すフローチャートを示す。
Below, an apparatus 1 for identifying an object in the moving image is described.
The operation of 00 will be described with reference to the drawings. FIG. 7 is a flow chart showing the operation of the embodiment of the present invention.

【0044】(ステップ20) 制御部200の検索領
域内検索部190は、動画像蓄積部110から動画像情
報を読み出し画像表部120へ表示する。
(Step 20) The in-search area search unit 190 of the control unit 200 reads out moving image information from the moving image storage unit 110 and displays it on the image table unit 120.

【0045】(ステップ21) 検索領域内検索部19
0は、座標指示装置130により利用者が動画像情報を
見ながら当該動画像情報内の座標を指示したか否かをチ
ェックし、指示されていなければ上記ステップ20へ移
行する。
(Step 21) Retrieval area retrieval unit 19
In 0, it is checked whether or not the user has instructed the coordinates in the moving image information while watching the moving image information by the coordinate instruction device 130, and if not instructed, the process proceeds to step 20.

【0046】(ステップ22) 検索領域内検索部19
0は、上記ステップ21で、利用者が動画像情報内の座
標を指示した場合に、指示した座標(px,py,p
t)を検索領域設定部180へ出力し、検索領域設定器
Rで検索領域を設定する。
(Step 22) Retrieval area retrieval unit 19
0 is the coordinate (px, py, p) instructed when the user instructed the coordinate in the moving image information in step 21.
t) is output to the search area setting unit 180, and the search area setting unit R sets the search area.

【0047】(ステップ23) 検索領域内検索部19
0は、検索領域設定部180によって設定された検索領
域に基づいて、位置情報蓄積部160の中から当該検索
領域内の位置情報を有する物体を検索し、検索結果とし
て検索された物体の位置情報を同定部170へ出力す
る。
(Step 23) Search Area Search Unit 19
0 is a search area set by the search area setting unit 180, based on the search area, the position information storage unit 160 is searched for an object having position information in the search area, and the position information of the object searched as the search result. Is output to the identification unit 170.

【0048】(ステップ24) 制御部200の同定部
170は、検索領域内検索部190の出力する物体の位
置情報に基づいて、利用者の指示した座標(px,p
y,pt)と各物体の位置情報とを尤度計算部160へ
出力し、尤度計算器Lで尤度を計算する。
(Step 24) The identification unit 170 of the control unit 200, based on the position information of the object output by the in-search area search unit 190, coordinates (px, p) instructed by the user.
y, pt) and the position information of each object are output to the likelihood calculator 160, and the likelihood calculator L calculates the likelihood.

【0049】(ステップ25) 同定部170は、上記
ステップ23で検索領域内検索部190の出力した全て
の物体の位置情報に基づいて、ステップ24の尤度の計
算を行なったか否かをチェックし、尤度の計算を行なっ
ていない物体がある場合にはステップ24へ移行する。
(Step 25) The identification unit 170 checks whether or not the likelihood calculation of Step 24 has been performed based on the position information of all the objects output from the search area search unit 190 in Step 23. If there is an object for which likelihood calculation is not performed, the process proceeds to step 24.

【0050】(ステップ26) 同定部170は、上記
ステップ25で、全ての物体について尤度の計算が完了
した場合に、計算した物体の尤度の中から最も値の大き
な尤度の物体を選んで、選んだ物体を利用者の指示した
座標に対応する物体であると同定して、同定結果を出力
する。
(Step 26) When the likelihood calculation is completed for all the objects in step 25, the identifying section 170 selects the object having the largest likelihood from the calculated likelihoods of the objects. Then, the selected object is identified as the object corresponding to the coordinates designated by the user, and the identification result is output.

【0051】以下に、上記本発明の一実施例における、
動画像内の物体の同定装置100の具体的な例を説明す
る。以下の説明に際しては、領域設定部180の領域設
定器R及び尤度計算部160の尤度計算器Lを以下のも
のとする。
In the following, one embodiment of the present invention will be described.
A specific example of the apparatus 100 for identifying an object in a moving image will be described. In the following description, the area setter R of the area setting unit 180 and the likelihood calculator L of the likelihood calculation unit 160 will be described below.

【0052】 R(px,py,pt)={(rx,ry,rt)|0
≦rx≦X,0≦ry≦Y,rt=pt}
R (px, py, pt) = {(rx, ry, rt) | 0
≦ rx ≦ X, 0 ≦ ry ≦ Y, rt = pt}

【0053】[0053]

【数4】 [Equation 4]

【0054】また、本動画像内の物体の同定装置100
の利用者は動画像情報を見ながら、図8に示す動画像情
報が表示された時刻t1 に、座標指示装置130で図中
の太い矢印で示す座標指示カーソル11の位置を指示す
るものとし、指示された座標を(4、6、t1 )として
説明する。図8のr1、r2、r3は、指示された座標
と各物体21、22、23との距離を示しており、距離
に−1を乗じた値、−r1、−r2、−r3が尤度とな
る。
Further, the apparatus 100 for identifying an object in the main moving image.
While observing the moving image information, at time t 1 when the moving image information shown in FIG. 8 is displayed, it is assumed that the coordinate indicating device 130 indicates the position of the coordinate indicating cursor 11 indicated by the thick arrow in the figure. , The designated coordinates will be described as (4, 6, t 1 ). In FIG. 8, r1, r2, and r3 indicate the distance between the instructed coordinate and each of the objects 21, 22, and 23. The value obtained by multiplying the distance by -1, and -r1, -r2, and -r3 are likelihoods. Becomes

【0055】また、位置情報蓄積部140には、図5に
示した位置情報が蓄積されているものとする。
Further, it is assumed that the position information storage section 140 stores the position information shown in FIG.

【0056】制御部200の検索領域内検索部190
が、動画像蓄積部110から動画像情報を読み出し画像
表部120へ表示する(ステップ20)。
Search area search section 190 of control section 200
However, the moving image information is read from the moving image storage unit 110 and displayed on the image table unit 120 (step 20).

【0057】検索領域内検索部190が、座標指示装置
130により利用者が動画像情報を見ながら当該動画像
情報内の座標を指示したか否かをチェックすると、利用
者により座標、 (px,py,pt)=(4,6,t1 ) が指示されたので(ステップ21、YES)、検索領域
内検索部190は、利用者が指示した座標、 (px,py,pt)=(4,6,t1 ) を検索領域設定部180へ出力し、検索領域設定器R
で、 {(rx,ry,rt)|0≦rx≦X,0≦ry≦
Y,rt=t1 } の検索領域を設定する(ステップ22)。
When the in-search area search unit 190 checks whether or not the user has instructed the coordinates in the moving image information while looking at the moving image information by the coordinate instructing device 130, the coordinates of the user are (px, Since py, pt) = (4,6, t 1 ) has been instructed (step 21, YES), the search area retrieval unit 190 causes the user to instruct the coordinates, (px, py, pt) = (4 , 6, t 1 ) to the search area setting unit 180, and the search area setting unit R
Where {(rx, ry, rt) | 0 ≦ rx ≦ X, 0 ≦ ry ≦
A search area of Y, rt = t 1 } is set (step 22).

【0058】検索領域内検索部190は、検索領域設定
部180によって設定された検索領域、 {(rx,ry,rt)|0≦rx≦X,0≦ry≦
Y,rt=t1 } に基づいて、位置情報蓄積部160の中から当該検索領
域内の位置情報を有する物体を検索し、検索結果として
物体21、22、23の3つの物体の位置情報、
The in-search area search unit 190 uses the search area set by the search area setting unit 180 as follows: {(rx, ry, rt) | 0 ≦ rx ≦ X, 0 ≦ ry ≦
Y, rt = t 1 } based on Y, rt = t 1 }, an object having the position information in the search area is searched from the position information storage unit 160, and the position information of the three objects 21, 22, 23 is searched as the search result,

【0059】[0059]

【数5】 [Equation 5]

【0060】を取得し、取得した位置情報を同定部17
0へ出力する(ステップ23)。
The position information thus obtained is identified by the identification unit 17
It is output to 0 (step 23).

【0061】制御部200の同定部170は、検索領域
内検索部190の出力する物体の位置情報に基づいて、
利用者の指示した座標、 (px,py,pt)=(4,6,t1 ) と各物体21、22、23の位置情報とを尤度計算部1
60へ出力し、尤度計算器Lで各物体21、22、23
の尤度として下記の3つの計算結果を得る(ステップ2
4)。
The identification unit 170 of the control unit 200, based on the position information of the object output from the search area search unit 190,
The likelihood calculation unit 1 calculates the coordinates (px, py, pt) = (4, 6, t 1 ) specified by the user and the position information of each object 21, 22, 23.
60, and each of the objects 21, 22, 23 is calculated by the likelihood calculator L.
The following three calculation results are obtained as the likelihood of (step 2
4).

【0062】[0062]

【数6】 [Equation 6]

【0063】同定部170は、上記ステップ23で検索
領域内検索部190の出力した全ての物体の位置情報に
基づいて、ステップ24の尤度の計算を完了したので
(ステップ25、YES)、計算した物体の尤度の中か
ら最も値の大きな尤度の物体として物体21を選択し、
物体21を利用者の指示した座標に対応する物体として
と同定する(ステップ26)。
Since the identifying section 170 has completed the calculation of the likelihood in step 24 based on the position information of all the objects output by the in-search area searching section 190 in step 23 (step 25, YES), The object 21 is selected as the object having the largest likelihood from the likelihoods of the selected objects,
The object 21 is identified as an object corresponding to the coordinates designated by the user (step 26).

【0064】以下に、上記本発明の一実施例の動画像内
の物体の同定装置100において、領域設定部180の
領域設定器R及び、尤度計算部160の尤度計算器Lを
以下のものとする、他の実施例についての具体的な例を
説明する。領域設定部180の領域設定器Rを、 R(px,py,pt)={(rx,ry,rt)|0
≦rx≦X,0≦ry≦Y,rt=pt−Δt} とし、尤度計算部160の尤度計算器Lを、
In the apparatus 100 for identifying an object in a moving image according to one embodiment of the present invention, the area setting unit R of the area setting unit 180 and the likelihood calculator L of the likelihood calculating unit 160 will be described below. A specific example of another embodiment will be described. The area setting unit R of the area setting unit 180 is set to R (px, py, pt) = {(rx, ry, rt) | 0
≦ rx ≦ X, 0 ≦ ry ≦ Y, rt = pt−Δt}, and the likelihood calculator L of the likelihood calculator 160 is set to

【0065】[0065]

【数7】 [Equation 7]

【0066】とする。It is assumed that

【0067】また、本動画像内の物体の同定装置100
の利用者は動画像情報を見ながら、図9(A)に示す外
側の四角形で示す映像フレーム101 が表示された時刻
2に、座標指示装置130で図9(A)中の破線の矢
印で示す座標指示カーソル12の位置(8,5,t2
によって四角形の物体24を指示しようとしているもの
とする。しかし、同図に示す物体23、24は移動速度
が速く、利用者が図9(A)の映像フレーム101 内の
物体24を確認してから実際に座標指示部130を操作
し終わるまでの遅延時間(Δt)のうちに右方向へ移動
してしまい、実際に利用者が指示した結果は、図9
(B)に示す時刻t3 (t3 =t2 +Δt)における外
側の四角形で示す映像フレーム103 内の矢印で示す座
標指示カーソル13の位置となり、指示された座標は
(8,5,t2 )ではなく、(8,5,t3 )になるも
のとして説明する。
Further, the apparatus 100 for identifying an object in the main moving image.
9A while watching the moving image information, at time t 2 when the image frame 10 1 shown by the outer quadrangle shown in FIG. 9A is displayed, the coordinate pointing device 130 causes the broken line in FIG. Position of coordinate indication cursor 12 indicated by arrow (8, 5, t 2 )
It is assumed that a rectangular object 24 is to be pointed by. However, the objects 23 and 24 shown in the same figure have a high moving speed, and the time from when the user confirms the object 24 in the video frame 10 1 of FIG. As a result of the user actually instructing, the result of moving to the right within the delay time (Δt) is shown in FIG.
At time t 3 (t 3 = t 2 + Δt) shown in (B), the position is the position of the coordinate designating cursor 13 indicated by the arrow in the video frame 10 3 indicated by the outer quadrangle, and the designated coordinates are (8, 5, t). It will be described as (8, 5, t 3 ) instead of 2 ).

【0068】また、位置情報蓄積部140には、図5に
示した位置情報が蓄積されているものとする。
Further, it is assumed that the position information storage section 140 stores the position information shown in FIG.

【0069】制御部200の検索領域内検索部190
が、動画像蓄積部110から動画像情報を読み出し画像
表部120へ表示する(ステップ20)。
Search area search section 190 of control section 200
However, the moving image information is read from the moving image storage unit 110 and displayed on the image table unit 120 (step 20).

【0070】検索領域内検索部190が、座標指示装置
130により利用者が動画像情報を見ながら当該動画像
情報内の座標を指示したか否かをチェックすると、利用
者により座標、 (px,py,pt)=(8,5,t3 ) が指示されたので(ステップ21、YES)、検索領域
内検索部190は、利用者が指示した座標、 (px,py,pt)=(8,5,t3 ) を検索領域設定部180へ出力し、検索領域設定器R
で、 {(rx,ry,rt)|0≦rx≦X,0≦ry≦
Y,rt=t2 } の検索領域を設定する(ステップ22)。
When the in-search area search unit 190 checks whether or not the user has instructed the coordinates in the moving image information while looking at the moving image information by the coordinate instructing device 130, the coordinates of the user are (px, Since py, pt) = (8,5, t 3 ) is instructed (step 21, YES), the search area search unit 190 causes the search area search unit 190 to specify the coordinates (px, py, pt) = (8 , 5, t 3 ) to the search area setting unit 180, and the search area setting unit R
Where {(rx, ry, rt) | 0 ≦ rx ≦ X, 0 ≦ ry ≦
A search area of Y, rt = t 2 } is set (step 22).

【0071】検索領域内検索部190は、検索領域設定
部180によって設定された検索領域、 {(rx,ry,rt)|0≦rx≦X,0≦ry≦
Y,rt=t2 } に基づいて、位置情報蓄積部160の中から当該検索領
域内の位置情報を有する物体を検索し、検索結果として
物体23、24の2つの物体の位置情報、
The search area in-search section 190 has a search area set by the search area setting section 180: {(rx, ry, rt) | 0 ≦ rx ≦ X, 0 ≦ ry ≦
Y, rt = t 2 } based on Y, rt = t 2 }, the object having the position information in the search area is searched from the position information storage unit 160, and the position information of the two objects 23 and 24 is obtained as the search result.

【0072】[0072]

【数8】 [Equation 8]

【0073】を取得し、取得した位置情報を同定部17
0へ出力する(ステップ23)。
The position information thus obtained is identified by the identification unit 17
It is output to 0 (step 23).

【0074】制御部200の同定部170は、検索領域
内検索部190の出力する物体の位置情報に基づいて、
利用者の指示した座標、 (px,py,pt)=(8,5,t3 ) と各物体23、24の位置情報とを尤度計算部160へ
出力し、尤度計算器Lで各物体23、24の尤度として
下記の2つの計算結果を得る(ステップ24)。
The identification unit 170 of the control unit 200, based on the position information of the object output by the in-search area search unit 190,
The coordinates instructed by the user, (px, py, pt) = (8, 5, t 3 ) and the position information of each of the objects 23 and 24 are output to the likelihood calculation unit 160, and each of them is calculated by the likelihood calculator L. The following two calculation results are obtained as the likelihoods of the objects 23 and 24 (step 24).

【0075】[0075]

【数9】 [Equation 9]

【0076】同定部170は、上記ステップ23で検索
領域内検索部190の出力した全ての物体の位置情報に
基づいて、ステップ24の尤度の計算を完了したので
(ステップ25、YES)、計算した物体の尤度の中か
ら最も値の大きな尤度の物体として物体24を選択し、
物体24を利用者の指示した座標に対応する物体として
と同定する(ステップ26)。
Since the identifying section 170 has completed the calculation of the likelihood of step 24 based on the position information of all the objects output by the in-search area search section 190 in step 23 (step 25, YES), The object 24 is selected as the object having the largest likelihood from the likelihoods of the selected objects,
The object 24 is identified as an object corresponding to the coordinates designated by the user (step 26).

【0077】上記他の実施例のように動画像情報内の物
体の移動速度が速い場合、利用者が物体24を指示しよ
うとして座標指示部130を操作した結果の座標は、利
用者の意図した座標(8,5,t2 )ではなく、Δt遅
い、座標(8,5,t3 )となってしまうことがある。
しかし、上記他の実施例によれば、利用者が物体の移動
速度に追いつかずに、物体を指示しようとしてから実際
に指示するまでに遅延時間(Δt)がある場合であって
も、入力される指示座標(8,5,t3 )ではなく遅延
時間を考慮した(8,5,t2 )に基づく物体の同定が
可能となり、利用者の意図した物体を正しく同定するこ
とが可能となる。遅延時間Δtは、利用者、動画像情報
内の物体の移動速度や、動画像情報等の再生速度に応じ
て設定することが可能であり、それぞれのケースで最適
な値を使用することにより物体を正しく同定することが
可能となる。
When the moving speed of the object in the moving image information is high as in the other embodiments, the coordinates obtained as a result of the user operating the coordinate instructing section 130 to instruct the object 24 have the coordinates intended by the user. coordinates (8,5, t 2) rather than, Delta] t slow, sometimes becomes the coordinates (8,5, t 3).
However, according to the other embodiment described above, even when the user does not catch up with the moving speed of the object and there is a delay time (Δt) from when the user tries to instruct the object until when the user actually instructs the object, the input is performed. It becomes possible to identify the object based on (8,5, t 2 ) considering the delay time instead of the designated coordinate (8,5, t 3 ), and it is possible to correctly identify the object intended by the user. . The delay time Δt can be set according to the user, the moving speed of the object in the moving image information, the reproduction speed of the moving image information, and the like, and by using an optimum value in each case, the object Can be correctly identified.

【0078】また、上記他の実施例において動画像情報
の再生速度(表示速度)を変えた場合には、Δtに再生
速度の比を乗じることで物体を正しく同定することが可
能になる。
Further, when the reproduction speed (display speed) of the moving image information is changed in the other embodiment, the object can be correctly identified by multiplying Δt by the reproduction speed ratio.

【0079】また、上記実施例によれば、利用者の座標
の指示動作に遅れがある場合であっても尤度計算器Lを
変えることによって、利用者の指示する座標が動画像情
報中の物体付近であれば正しく物体を同定することが可
能となる。
Further, according to the above-described embodiment, even if the user's coordinate pointing operation is delayed, the user can change the likelihood calculator L so that the user's designated coordinates are included in the moving image information. It becomes possible to correctly identify the object in the vicinity of the object.

【0080】なお、上記実施例では位置情報蓄積部14
0に蓄積する個々の物体の位置情報として物体の1つの
代表点を蓄積しているが、1つの物体に対して複数の位
置情報を設定することにより、複数の物体が重なり合っ
ている場合であっても正しく同定することが可能とな
る。
In the above embodiment, the position information storage unit 14
One representative point of an object is stored as the position information of each object to be stored in 0. However, by setting a plurality of position information for one object, a plurality of objects may overlap each other. However, it is possible to identify correctly.

【0081】また、上記実施例の検索領域設定部180
の検索領域設定器Rでは、ある時刻における動画像情報
を検索領域として設定する例を示したが、時間軸方向に
幅を持つ検索領域を設定することにより動画像情報内を
特定の方向に移動する物体を選択的に同定することも可
能となる。
Further, the search area setting unit 180 of the above embodiment
In the search area setting device R, the example in which the moving image information at a certain time is set as the search area is shown. However, by setting the search area having a width in the time axis direction, the moving image information is moved in a specific direction. It is also possible to selectively identify an object that does.

【0082】また、上記実施例の尤度検査部160の尤
度計算器Lでは、指示された座標と物体との尤度をx
軸、y軸からなる二次元平面上での距離に基づき計算す
る例を示したが、x軸、y軸に更にt軸をも含めた三次
元空間内での距離に基づき計算することにより、時間軸
上に幅を有する検索領域が設定された場合であっても尤
度の計算に基づき物体を同定することが可能となる。
In the likelihood calculator L of the likelihood checking section 160 of the above embodiment, the likelihood between the designated coordinates and the object is x.
Although an example of calculating based on the distance on the two-dimensional plane composed of the axes and the y-axis has been shown, by calculating based on the distance in the three-dimensional space including the t-axis in addition to the x-axis and the y-axis, Even when a search area having a width on the time axis is set, it is possible to identify the object based on the calculation of the likelihood.

【0083】また、上記実施例では、座標指示部130
としてマウスを使用した例を示したが、画像表示部12
0に表示された動画像情報内の任意の座標を指示するこ
とが可能であれば、アイカメラのような利用者の視線を
基に座標を指示するものであってもよく、座標指示部1
30をマウスに限定するものではない。
Further, in the above embodiment, the coordinate designating section 130 is used.
As an example, a mouse is used as the image display unit 12.
If it is possible to instruct arbitrary coordinates in the moving image information displayed at 0, the coordinates may be instructed based on the line of sight of the user such as an eye camera.
30 is not limited to mice.

【0084】また、上記実施例では、各物体の位置情報
として当該物体の中心点を使用する例を示したが、当該
物体を代表する点として予め決めた点であれば中心点で
なくてもよく、位置情報を中心点に限定するものではな
い。
In the above embodiment, the center point of the object is used as the position information of each object. However, if the point is a predetermined point representative of the object, the center point may not be the center point. Of course, the position information is not limited to the center point.

【0085】また、上記実施例では、制御部200の検
索領域内検索部190に画像情報蓄積部110から動画
像情報を読み出し画像表示部130へ表示する機能を持
たせたが、制御部内に画像情報蓄積部110から動画像
情報を読み出し画像表示部130へ表示する動画像情報
再生部等を設ける事も可能であり、動画像情報の表示を
検索領域内検索部190が行なうことに限定するもので
はない。
Further, in the above embodiment, the in-search area search unit 190 of the control unit 200 is provided with the function of reading moving image information from the image information storage unit 110 and displaying it on the image display unit 130. It is also possible to provide a moving image information reproducing unit or the like for reading moving image information from the information storage unit 110 and displaying it on the image display unit 130, and it is limited to displaying the moving image information by the search area search unit 190. is not.

【0086】更に、本実施例では領域設定部180と尤
度計算部160に、特定の領域設定器R及び尤度計算器
Lを設定して物体の同定を行なう例を示したが、領域設
定部180と尤度計算部160に、それぞれ複数の領域
設定器R及び尤度計算器Lを設定して適宜選択して物体
の同定を行なうことも可能であり、領域設定部180と
尤度計算部160に設定する領域設定器R及び尤度計算
器Lを1つに限定するものではない。
Further, in the present embodiment, an example has been shown in which a specific area setter R and likelihood calculator L are set in the area setting section 180 and the likelihood calculating section 160 to identify an object. It is also possible to set a plurality of region setting units R and likelihood calculating units L in the unit 180 and the likelihood calculating unit 160, respectively, and select them appropriately to identify an object. The area setter R and the likelihood calculator L set in the unit 160 are not limited to one.

【0087】[0087]

【発明の効果】上述のように、本発明によれば、利用者
の指示した座標に基づき物体を検索し、検索された物体
の中から利用者の指示した座標に対応する物体を同定す
るため、予め動画像情報内の個々の物体毎に当該物体を
同定することができる領域を設定して蓄積しておかなく
ても利用者が物体の外側を指示した場合や動画像情報中
の物体の数が多い場合等であっても、利用者の指示する
座標に対応する物体を正しく同定することができる。
As described above, according to the present invention, the object is searched based on the coordinates designated by the user, and the object corresponding to the coordinates designated by the user is identified from the searched objects. , If the user indicates the outside of the object or the object in the moving image information without setting and accumulating the area in which the object can be identified for each individual object in the moving image information in advance. Even if the number is large, the object corresponding to the coordinates designated by the user can be correctly identified.

【0088】また、予め動画像情報内の各物体毎の当該
動画像情報内における位置情報を蓄積しているため、指
示された座標に基づく物体を高速かつ、確実に検索する
ことができ、利用者の指示する座標に対応する物体を精
度よく同定することが可能となる。
Further, since the position information in the moving image information for each object in the moving image information is stored in advance, the object based on the designated coordinates can be searched at high speed and reliably. It is possible to accurately identify the object corresponding to the coordinates designated by the person.

【0089】また、利用者の指示した座標に基づいて、
動画像情報中の物体を検索する検索領域を設定して検索
することにより、物体の検索量、検索時間を短縮するこ
とが可能となる。
Further, based on the coordinates designated by the user,
By setting a search area for searching an object in the moving image information and performing a search, it is possible to reduce the search amount and the search time of the object.

【0090】また、利用者が表示された動画像情報内の
物体を確認してから実際に指示するまでの遅延時間を考
慮し、物体の検索を行なう検索領域を遅延時間分だけ過
去の動画像情報に設定することにより、動きの速い物体
や、再生速度の速い動画像情報等であっても正しく物体
を同定することが可能となる。
Also, in consideration of the delay time from when the user confirms the object in the displayed moving image information until when the user actually gives an instruction, the search area for searching the object is moved past the moving image by the delay time. By setting the information, it is possible to correctly identify the object even if it is a fast-moving object or moving image information having a high reproduction speed.

【0091】また、指示された座標と検索された各物体
の位置情報とから距離を計算し、計算した距離に基づき
尤度を決定することにより、検索された複数の物体の中
から利用者の指示した物体として同定するに尤もな物体
を、尤度に基づいて同定することが可能となる。
Further, the distance is calculated from the instructed coordinates and the position information of each searched object, and the likelihood is determined based on the calculated distance. An object most likely to be identified as the instructed object can be identified based on the likelihood.

【0092】更に上記効果によって、予め動画像情報内
の物体を同定するための領域を、物体の大きさ、物体の
数、動画像情報の再生速度、利用者の反応速度等を考慮
して作成するといった多くの工程を省略することができ
るため、作成に要する時間、費用等を抑えることが可能
となる。
Further, with the above effect, an area for identifying an object in the moving image information is created in advance in consideration of the size of the object, the number of objects, the reproduction speed of the moving image information, the reaction speed of the user, and the like. Since it is possible to omit many steps such as the above, it is possible to reduce the time and cost required for the production.

【0093】また、動画像内の物体の同定装置を利用す
る人にとっては、動きの速い物体や小さな物体であって
も、物体を注意深く指示することなく目的とする物体を
容易に指示することが可能となる。
Further, for a person who uses the apparatus for identifying an object in a moving image, even if the object is a fast-moving object or a small object, it is possible to easily specify the target object without carefully instructing the object. It will be possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の原理構成図である。FIG. 2 is a principle configuration diagram of the present invention.

【図3】本発明の一実施例の構成図である。FIG. 3 is a configuration diagram of an embodiment of the present invention.

【図4】本発明の一実施例の物体iの時刻tにおける位
置を説明する図である。
FIG. 4 is a diagram illustrating a position of an object i at time t according to an embodiment of the present invention.

【図5】本発明の一実施例の位置情報蓄積部の蓄積例を
示す図である。
FIG. 5 is a diagram showing a storage example of a position information storage unit according to an embodiment of the present invention.

【図6】本発明の一実施例の制御部の構成図である。FIG. 6 is a configuration diagram of a control unit according to an embodiment of the present invention.

【図7】本発明の一実施例の動作を示すフローチャート
である。
FIG. 7 is a flowchart showing the operation of one embodiment of the present invention.

【図8】本発明の一実施例の物体の同定を説明する図
(1)である。
FIG. 8 is a diagram (1) illustrating identification of an object according to an embodiment of the present invention.

【図9】本発明の一実施例の物体の同定を説明する図
(2)である。
FIG. 9 is a diagram (2) explaining identification of an object according to an embodiment of the present invention.

【図10】従来の方法を説明する図である。FIG. 10 is a diagram illustrating a conventional method.

【符号の説明】[Explanation of symbols]

10 映像フレーム 11 座標指示カーソル 12 座標指示カーソル 13 座標指示カーソル 20 物体 21 物体 22 物体 23 物体 24 物体 30 領域 100 動画像内の物体の同定装置 110 画像蓄積手段、画像蓄積部 120 画像表示手段、画像表示部 130 座標指示手段、座標指示部 140 位置情報蓄積手段、位置情報蓄積部 150 検索手段 160 尤度計算手段、尤度計算部 170 同定手段、同定部 180 検索領域設定部 190 検索領域内検索部 200 制御部 10 video frames 11 Coordinate pointing cursor 12 Coordinate pointing cursor 13 Coordinate pointing cursor 20 objects 21 objects 22 objects 23 objects 24 objects 30 areas 100 Object identification device in moving image 110 image storage means, image storage section 120 image display means, image display section 130 Coordinate instruction means, coordinate instruction section 140 Position Information Storage Means, Position Information Storage Unit 150 Search method 160 Likelihood calculator, likelihood calculator 170 Identification means, identification section 180 Search area setting section 190 Search area search section 200 Control unit

フロントページの続き (72)発明者 片岡 良治 東京都千代田区内幸町1丁目1番6号 日本電信電話株式会社内 (56)参考文献 特開 平5−189153(JP,A) 特開 平4−352076(JP,A) 特開 平3−52070(JP,A) 片岡良治 他2名,視覚誘導情報獲得 モデルに基づくマルチメディア情報シス テム−VideoReality−,情 報処理学会研究報告(94−DBS− 97),日本,情報処理学会,1994年3月 18日,第94巻,第30号,PP.21−30 紺谷精一 他3名,マルチメディア情 報システムにおける動画像オブジェクト の管理モデル,情報処理学会第49回(平 成6年後期)全国大会講演論文集 (3),日本,情報処理学会,1994年9 月30日,331−332 原義憲 他7名,ハイパーメディアプ ラットホーム”雅(みやび)”の概要, 情報処理学会研究報告(92−DBS− 90),日本,情報処理学会,1992年9月 11日,第92巻,第71号,PP.29−38 佐藤哲司 他2名,ビデオリアリテ ィ:映像を用いた情報検索手法の高度 化,情報処理学会研究報告(94−DBS −99),日本,情報処理学会,1994年7 月22日,第94巻,62号,pp.281−286 (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 G06T 1/00 G06T 7/00 JICSTファイル(JOIS)Front page continuation (72) Inventor Ryoji Kataoka 1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Inside Nippon Telegraph and Telephone Corporation (56) Reference JP-A-5-189153 (JP, A) JP-A-4-352076 (JP, A) JP-A-3-52070 (JP, A) Ryoji Kataoka and 2 others, Multimedia Information System based on Visual Guidance Information Acquisition Model-VideoReality-, Information Processing Society Research Report (94-DBS-97 ), Japan, IPSJ, March 18, 1994, Volume 94, No. 30, PP. 21-30 Seiichi Konya and 3 others, Management model of moving image objects in multimedia information system, Proc. Of the 49th National Conference of IPSJ (6th semester) (3), Japan, IPSJ , September 30, 1994, 331-332 Yoshinori Hara and 7 others, Outline of hypermedia platform "Miyabi", Research Report of Information Processing Society of Japan (92-DBS-90), Japan, Information Processing Society of Japan, September 11, 1992, Vol. 92, No. 71, PP. 29-38 Tetsuji Sato and 2 others, Video Reality: Advanced Information Retrieval Method Using Video, Information Processing Society of Japan Research Report (94-DBS-99), Japan, Information Processing Society of Japan, July 22, 1994, Vol. 94, No. 62, pp. 281-286 (58) Fields surveyed (Int.Cl. 7 , DB name) G06F 17/30 G06T 1/00 G06T 7/00 JISST file (JOIS)

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 動画像内の物体の同定方法において、 予め蓄積された動画像情報を表示するステップと、 表示された該動画像情報を見ながら該動画像情報内の座
標を指示するステップと、 予め蓄積された該動画像情報内の物体の位置情報の中か
ら物体を検索する検索ステップと、 該指示された座標と該検索ステップにより検索された物
体との尤度を計算し、計算された該尤度に基づいて該指
示された座標に対応する物体を同定する同定ステップと
を有し、 前記検索ステップは、 前記指示された座標に基づいて前記動画像情報内に検索
領域を設定する検索領域設定ステップと、 前記予め蓄積された前記動画像情報内の物体の位置情報
のうち、該検索領域内に位置する物体を検索する検索領
域内検索ステップとを有 することを特徴とする動画像内
の物体の同定方法。
1.In the method of identifying an object in a moving image, A step of displaying the moving image information accumulated in advance, While watching the displayed moving image information, the position in the moving image information
The step of indicating the mark, Is the position information of the object in the moving image information stored in advance?
A search step to search for objects from The designated coordinates and the object retrieved by the retrieval step
The likelihood with the body is calculated, and the finger is calculated based on the calculated likelihood.
An identification step to identify the object corresponding to the indicated coordinates and
HaveThen The search step is Search in the moving image information based on the designated coordinates
Search area setting step to set the area, Position information of the object in the moving image information stored in advance
Search area that searches for objects located in the search area
With internal search step In a moving image characterized by
Method of object identification.
【請求項2】 前記検索領域は時間軸方向に所定の幅を
持つ領域である請求項1記載の動画像内の物体の同定方
法。
2. The search area has a predetermined width in the time axis direction.
The method for identifying an object in a moving image according to claim 1, which is an area to be held .
【請求項3】 前記検索領域設定ステップは、 前記指示された座標に基づいて、前記動画像情報内の物
体を確認してから指示するまでの遅延時間分だけ過去の
前記動画像情報を、前記検索領域として設定する請求項
記載の動画像内の物体の同定方法。
3. The search area setting step includes, based on the designated coordinates, the moving image information that is past by a delay time from when the object in the moving image information is confirmed to when the object is designated, Claim set as a search area
1. A method for identifying an object in a moving image according to 1 .
【請求項4】 前記同定ステップは、 前記指示された座標と前記検索の結果得られた物体の位
置情報との距離に基づいて前記尤度を計算し、 計算された前記尤度が最大となる物体を、前記指示され
た座標に対応する物体として同定する請求項1記載の動
画像内の物体の同定方法。
4. The identifying step calculates the likelihood based on a distance between the designated coordinates and position information of an object obtained as a result of the search, and the calculated likelihood becomes maximum. The method for identifying an object in a moving image according to claim 1, wherein the object is identified as an object corresponding to the designated coordinates.
【請求項5】 動画像内の物体の同定装置において、 動画像情報を蓄積する画像蓄積手段と、 該画像蓄積手段に蓄積された該動画像情報を表示する画
像表示手段と、 該画像表示手段に表示された該動画像情報を見ながら該
動画像情報内の座標を指示する座標指示手段と、 該動画像情報内の個々の物体の位置情報を蓄積する位置
情報蓄積手段と、 該位置情報蓄積手段の中から物体を検索する検索手段
と、 該動画像情報内の各座標と個々の物体の位置情報の組に
対して実数を対応させて尤度とする尤度計算手段と、 該指示された座標と該検索手段により検索された物体の
位置情報との組を、該尤度計算手段に出力して該尤度を
計算し、計算された該尤度に基づいて該指示された座標
に対応する物体を同定する同定手段とを有し、 前記検索手段は、 前記指示された座標に基づいて前記動画像情報内に検索
領域を設定する検索領域設定手段と、 前記位置情報蓄積手段の中の該検索領域内に位置情報を
有する物体を検索する検索領域内検索手段とを有 するこ
とを特徴とする動画像内の物体の同定装置。
5.In the identification device of the object in the moving image, An image storage means for storing moving image information, An image for displaying the moving image information stored in the image storage means.
Image display means, While watching the moving image information displayed on the image display means,
Coordinate indicating means for indicating the coordinates in the moving image information, Positions for accumulating position information of individual objects in the moving image information
Information storage means, Search means for searching an object from the position information storage means
When, In the set of each coordinate in the moving image information and the position information of each object
On the other hand, a likelihood calculating means that associates a real number with the likelihood, The designated coordinates and the object retrieved by the retrieval means
The pair with the position information is output to the likelihood calculation means to calculate the likelihood.
Calculated and the indicated coordinates based on the calculated likelihood
And an identification means for identifying an object corresponding toThen The search means is Search in the moving image information based on the designated coordinates
Search area setting means for setting an area, The position information is stored in the search area in the position information storage means.
A search area search means for searching an object To do
An apparatus for identifying an object in a moving image, characterized by.
【請求項6】 前記検索領域は、時間軸方向に所定の幅
を持つ領域である請求項5記載の動画像内の物体の同定
装置。
6. The search area has a predetermined width in the time axis direction.
The apparatus for identifying an object in a moving image according to claim 5, wherein the area is a region having a .
【請求項7】 前記検索領域設定手段は、 前記指示された座標に対して、前記動画像情報内の物体
を確認してから指示するまでの遅延時間に基づいて前記
動画像情報内に前記検索領域を設定する請求項記載の
動画像内の物体の同定装置。
7. The search area setting means is configured to perform the search in the moving image information based on a delay time from confirmation of an object in the moving image information to instruction of the specified coordinate. The apparatus for identifying an object in a moving image according to claim 5, wherein an area is set.
【請求項8】 前記尤度計算手段は、 前記指示された座標と前記検索手段によって検索された
物体の位置情報とから距離を計算し、計算された距離に
基づいて前記指示された座標に対する前記尤度を決定す
る請求項5記載の動画像内の物体の同定装置。
8. The likelihood calculating means calculates a distance from the designated coordinates and the position information of the object searched by the searching means, and the distance to the designated coordinates is calculated based on the calculated distance. The apparatus for identifying an object in a moving image according to claim 5, which determines the likelihood.
JP19071694A 1994-08-12 1994-08-12 Method for identifying object in moving image and apparatus for identifying object in moving image Expired - Fee Related JP3380937B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19071694A JP3380937B2 (en) 1994-08-12 1994-08-12 Method for identifying object in moving image and apparatus for identifying object in moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19071694A JP3380937B2 (en) 1994-08-12 1994-08-12 Method for identifying object in moving image and apparatus for identifying object in moving image

Publications (2)

Publication Number Publication Date
JPH0855131A JPH0855131A (en) 1996-02-27
JP3380937B2 true JP3380937B2 (en) 2003-02-24

Family

ID=16262641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19071694A Expired - Fee Related JP3380937B2 (en) 1994-08-12 1994-08-12 Method for identifying object in moving image and apparatus for identifying object in moving image

Country Status (1)

Country Link
JP (1) JP3380937B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8588583B2 (en) * 2007-08-22 2013-11-19 Adobe Systems Incorporated Systems and methods for interactive video frame selection
JP5612457B2 (en) * 2010-12-21 2014-10-22 日本電信電話株式会社 Moving image display device, moving image object search system, moving image display method and program
JPWO2013084422A1 (en) * 2011-12-08 2015-04-27 日本電気株式会社 Information processing apparatus, communication terminal, information retrieval method, and program
JP5870944B2 (en) * 2013-02-27 2016-03-01 ブラザー工業株式会社 Information processing apparatus and information processing method
JP2017091455A (en) * 2015-11-17 2017-05-25 株式会社東芝 Image processing device, image processing method and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image
JPH05189153A (en) * 1991-04-24 1993-07-30 Oki Electric Ind Co Ltd Moving image pointing system
JP2765270B2 (en) * 1991-05-29 1998-06-11 日本電気株式会社 Video presentation method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
佐藤哲司 他2名,ビデオリアリティ:映像を用いた情報検索手法の高度化,情報処理学会研究報告(94−DBS−99),日本,情報処理学会,1994年7月22日,第94巻,62号,pp.281−286
原義憲 他7名,ハイパーメディアプラットホーム"雅(みやび)"の概要,情報処理学会研究報告(92−DBS−90),日本,情報処理学会,1992年9月11日,第92巻,第71号,PP.29−38
片岡良治 他2名,視覚誘導情報獲得モデルに基づくマルチメディア情報システム−VideoReality−,情報処理学会研究報告(94−DBS−97),日本,情報処理学会,1994年3月18日,第94巻,第30号,PP.21−30
紺谷精一 他3名,マルチメディア情報システムにおける動画像オブジェクトの管理モデル,情報処理学会第49回(平成6年後期)全国大会講演論文集(3),日本,情報処理学会,1994年9月30日,331−332

Also Published As

Publication number Publication date
JPH0855131A (en) 1996-02-27

Similar Documents

Publication Publication Date Title
CN104754225B (en) Photographic device and image capture method
KR0184245B1 (en) Electronic camera and image reproducing device therefor
US7110592B2 (en) Image recording apparatus, image reproducing apparatus and methods therefor
US6339431B1 (en) Information presentation apparatus and method
US5963203A (en) Interactive video icon with designated viewing position
USRE38401E1 (en) Interactive video icon with designated viewing position
JP2000512410A (en) How to index image information using a reference model
CN1423796A (en) Pointing direction calibration in television conference and other camera-based system applications
JPH11259502A (en) Image information display device
JP2756073B2 (en) Data search method
CN109743438A (en) A kind of method and apparatus sending multimedia messages
KR100412932B1 (en) Method of displaying and evaluating motion data using in motion game apparatus
JP3380937B2 (en) Method for identifying object in moving image and apparatus for identifying object in moving image
JP3372096B2 (en) Image information access device
US20200334290A1 (en) Facilitating contextual video searching using user interactions with interactive computing environments
JP4376340B2 (en) Curve slider device
JP2981520B2 (en) Image data search method
JP3747800B2 (en) Skill improvement support device
JP2005267033A (en) Mixed reality video storage retrieval method and device
JP3511278B2 (en) Video anchor setting device
Kameda et al. A live video imaging method for capturing presentation information in distance learning
JPH11153430A (en) Taken image management device and its program recording medium
JPH0814932A (en) Navigation apparatus
JP2002133447A (en) Static image display system and electronic commodity catalog display system
JP2015177432A (en) Cue point control device and cue point control program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081220

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees