JP2007087150A - Image reproduction method, machine, and program - Google Patents

Image reproduction method, machine, and program Download PDF

Info

Publication number
JP2007087150A
JP2007087150A JP2005275734A JP2005275734A JP2007087150A JP 2007087150 A JP2007087150 A JP 2007087150A JP 2005275734 A JP2005275734 A JP 2005275734A JP 2005275734 A JP2005275734 A JP 2005275734A JP 2007087150 A JP2007087150 A JP 2007087150A
Authority
JP
Japan
Prior art keywords
image
predetermined
picture
flag
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005275734A
Other languages
Japanese (ja)
Inventor
Katsunao Takahashi
克直 高橋
Hiroaki Yoshio
宏明 由雄
Takayuki Matsukawa
隆行 松川
Kuniaki Isogai
邦昭 磯貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005275734A priority Critical patent/JP2007087150A/en
Publication of JP2007087150A publication Critical patent/JP2007087150A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To acquire a stable result without respect to search precision, which is reduced when it is greatly affected by influence of fluctuation in direction of a face and lighting in determination of a distance of face feature information, in person search using the face feature information. <P>SOLUTION: This image reproduction machine is provided with a predetermined image extraction part 102 extracting a predetermined image inside a picture, an identifier generation part 113 generating a predetermined identifier to be attached to the predetermined image inside a second picture, which is extracted by the predetermined image extraction part and satisfies a predetermined condition in relationship with the first predetermined image inside the first picture extracted by the predetermined image extraction part, and an authentication image flag generation part 1191 generating a predetermined flag to be attached to the first predetermined image inside the first picture and one of the predetermined image inside the second picture according to the predetermined identifier. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

対象の人物の行動軌跡を映像として再生する人物検索方法、行動軌跡修正方法に関する。   The present invention relates to a person search method and an action locus correction method for reproducing an action locus of a target person as a video.

従来は、監視対象人物の全映像を再生するために、監視映像に写る人物の特徴情報を抽出し、画像と共に人物の特徴情報をデータベースに蓄積していた。   Conventionally, in order to reproduce the entire video of the monitoring target person, the feature information of the person shown in the monitoring video is extracted, and the feature information of the person is stored in a database together with the image.

そして、検索したい特定の監視対象者の人物特徴情報を用いて、上記データベース中を検索し、同一人物として検索された画像を時系列に並べ、これを特定の監視対象者の時系列映像として再生することが行われていた。   Then, using the person characteristic information of a specific monitoring target person to be searched, the above database is searched, images searched as the same person are arranged in time series, and this is reproduced as time series video of the specific monitoring target person. It was done.

また、上記従来の技術における人物検索では、上記データベースに記憶されている顔画像の特徴である顔特徴情報を用いる顔画像検索により人物検索を行っていた(特許文献1)。
特開2002−183205号公報
In the person search in the conventional technique, the person search is performed by the face image search using the face feature information which is the feature of the face image stored in the database (Patent Document 1).
JP 2002-183205 A

しかしながら、従来の人物検索においては、以下のような課題がある。   However, the conventional person search has the following problems.

それは、顔特徴情報を用いた人物検索において、顔特徴情報の近さの判定は、顔向きや照明変動の影響を大きく受け、その検索精度が低くなるとともに安定した結果が得られないという課題である。   In human search using facial feature information, the determination of the proximity of facial feature information is greatly affected by face orientation and lighting fluctuations, and the search accuracy is lowered and stable results cannot be obtained. is there.

本願発明は、上記課題を解決したものであり、一定条件を満たす画像に識別子を付し、この画像を管理し、この識別子に従って画像の入れ替えを行うことで、確実に検索対象となる人物の時系列映像を再生することができる画像再生方法、画像再生機等に関するものである。   The invention of the present application solves the above-described problems, and assigns an identifier to an image satisfying a certain condition, manages the image, and replaces the image according to the identifier, so that the person who is a search target can be surely obtained. The present invention relates to an image reproducing method, an image reproducing device, and the like that can reproduce a series video.

本発明は、ピクチャ内の所定画像を抽出する所定画像抽出部と、前記所定画像抽出部により抽出される第1のピクチャ内の第1の所定画像との関係において所定条件を満たす画像である、前記所定画像抽出部により抽出される第2のピクチャ内の所定画像に対して付する所定識別子を生成する識別子生成部と、前記所定識別子に従って、前記第1のピクチャ内の第1の所定画像と前記第2のピクチャ内の所定画像の1つの画像とに付する所定フラグを生成する正当画像フラグ生成部と、を備える、画像再生機である。   The present invention is an image that satisfies a predetermined condition in a relationship between a predetermined image extracting unit that extracts a predetermined image in a picture and a first predetermined image in a first picture extracted by the predetermined image extracting unit. An identifier generating unit that generates a predetermined identifier to be attached to a predetermined image in a second picture extracted by the predetermined image extracting unit; and a first predetermined image in the first picture according to the predetermined identifier; And a legitimate image flag generation unit that generates a predetermined flag attached to one of the predetermined images in the second picture.

これにより、検索対象となる可能性がある画像に識別子を付して管理し、この識別子に従って画像の入れ替えを行うことができる。   As a result, it is possible to manage by assigning an identifier to an image that may be a search target, and to replace the image according to the identifier.

本発明の画像再生機により、検索対象となる画像を減らすことができるため、計算量を低減することができる。   Since the image playback device of the present invention can reduce the number of images to be searched, the amount of calculation can be reduced.

本実施例1又は実施例2に、本発明である画像再生機、画像再生方法、画像再生プログラムを記載する。   In the first embodiment or the second embodiment, an image playback device, an image playback method, and an image playback program according to the present invention are described.

本発明は、一定条件を満たす画像(例えば、人物画像)に対して、識別子を付し管理し、この識別子に従って画像の入れ替えを行う画像再生方法、画像再生機である。   The present invention is an image reproducing method and an image reproducing apparatus that manages an image (for example, a person image) that satisfies a certain condition by assigning an identifier and replacing the image according to the identifier.

これにより、任意の画像認識を用いて検索対象物であると認識され、時系列に並べられた検索対象物の時系列画像の途中に検索対象物以外の画像が混ざっているような誤りがあるときでも、確実に正しい検索対象物の時系列画像を得ることができる。   As a result, there is an error that an image other than the search target is mixed in the middle of the time-series image of the search target arranged in time series, which is recognized as a search target using arbitrary image recognition. Even at times, it is possible to reliably obtain a time-series image of a correct search object.

実施例1では、任意の画像認識を用いて検索対象物であると認識され、その後、時系列に並べられた検索対象物の時系列画像の途中に検索対象物以外の画像が混ざっている場合の画像再生機について記載する。   In the first embodiment, when an image is recognized as an object to be searched using arbitrary image recognition, and after that, images other than the object to be searched are mixed in the middle of the time-series images of the objects to be searched arranged in time series. The image player is described.

これにより、確実に正しい検索対象物の時系列画像を得ることができる。   Thereby, it is possible to reliably obtain a time-series image of a correct search object.

また、実施例2では、実施例1記載の画像再生機について、対象画像に付される識別子の更新方法について記載する。   In the second embodiment, an update method of an identifier attached to the target image will be described for the image playback device described in the first embodiment.

これにより、次に同一対象物に関する時系列画像を検索する場合、計算量、計算時間を削減することができる。   Thereby, when searching for the time series image regarding the same target object next, the calculation amount and the calculation time can be reduced.

本実施例に記載の発明は、任意の画像認識を用いて検索対象物であると認識された画像を時系列に並べ、この時系列の途中に検索対象物以外の画像が混ざっている場合の画像再生機等に関するものである。   The invention described in the present embodiment arranges images recognized as search objects using arbitrary image recognition in time series, and images other than the search object are mixed in the middle of this time series. The present invention relates to an image player or the like.

例えば、本実施例の一例として、複数の監視カメラが設置された場所において、不信人物を追跡するために、その対象となる人物の画像を時系列に並べて再生する再生機が考えられる。   For example, as an example of the present embodiment, in order to track an untrustworthy person at a place where a plurality of surveillance cameras are installed, a playback machine that plays back images of the target person in time series can be considered.

上記例は一例であるため、これに拘束されることなく、本発明の画像再生機は、検索対象物の時系列画像を取得する状況下において利用可能である。   Since the above example is an example, the image reproducing device of the present invention can be used in a situation where a time-series image of a search target is acquired without being restricted thereto.

そのため、画像を再生できる、テレビ、卓上ビデオ、DVD(Digital Versatile Disc)、デジタルカメラ、ビデオカメラ、モバイル機器、携帯電話等の再生機を有するものであれば、本発明を実施することができる。   Therefore, the present invention can be implemented as long as it has a playback device such as a television, a desktop video, a DVD (Digital Versatile Disc), a digital camera, a video camera, a mobile device, and a mobile phone that can play back images.

本実施例では、特に監視カメラにおいて撮影された画像に関する画像再生機について、図1から図13までを用いて、以下説明する。   In the present embodiment, an image reproducing device related to an image taken by a surveillance camera will be described below with reference to FIGS.

なお、本願明細書中で用いている検索とは、画像が記憶されている記憶部中から監視カメラに写る監視対象を検索するという意味で用いている。   The search used in the specification of the present application is used in the meaning of searching for a monitoring target reflected in a monitoring camera from a storage unit in which an image is stored.

図1は、本発明の第1の実施の形態における、画像再生機100の全体構成を示す概略ブロック図である。   FIG. 1 is a schematic block diagram showing the overall configuration of an image playback device 100 according to the first embodiment of the present invention.

図1において、画像再生機100は、監視カメラ101と、監視カメラ101から入力される監視映像に対し人物特徴情報を抽出する人物特徴抽出部102と、人物特徴情報を記憶する人物情報記憶部106と、監視映像を蓄積する映像記憶部107と、監視映像と人物特徴情報とを用いて人物検索を行う人物検索部114と、表示部111と、ユーザーの検索要求や軌跡の修正情報を入力するための入力部112と、検索対象物となりうる画像に付する識別子を生成する識別子生成部113とから構成される。   In FIG. 1, an image playback device 100 includes a monitoring camera 101, a person feature extraction unit 102 that extracts person feature information from a monitoring video input from the monitoring camera 101, and a person information storage unit 106 that stores person feature information. A video storage unit 107 for accumulating surveillance video, a person search unit 114 for performing a person search using the surveillance video and the person feature information, a display unit 111, and a user search request and locus correction information are input. And an identifier generating unit 113 that generates an identifier attached to an image that can be a search target.

監視カメラで撮影される画像は、たとえば、JPEG(Joint Photographic Experts Group)形式の画像である。   The image photographed by the surveillance camera is, for example, a JPEG (Joint Photographic Experts Group) format image.

監視カメラで撮影される画像は、JPEGやJPEG2000の様な圧縮形態の静止画像、非圧縮形態の静止画像(例えば、ピクチャ、フレーム等)や、MPEG1,2,4の様な圧縮形態の動画像、非圧縮形態の動画像でも良い。さらに独自形式の静止画像や動画像でも良い。   Images captured by the surveillance camera include still images in a compressed form such as JPEG and JPEG2000, still images in an uncompressed form (for example, pictures, frames, etc.), and moving images in a compressed form such as MPEG1, 2, 4 An uncompressed moving image may be used. Furthermore, a still image or a moving image of a unique format may be used.

以後、これらを総称して画像と呼ぶこととする。   Hereinafter, these are collectively referred to as an image.

上記人物特徴抽出部102は、監視映像の中の動領域を抽出する動領域抽出部103と、動領域情報を元に人物の軌跡を作成する行動軌跡抽出部104と、顔特徴を抽出する顔特徴抽出部105とから構成される。   The person feature extracting unit 102 includes a moving region extracting unit 103 that extracts a moving region in the monitoring video, an action locus extracting unit 104 that creates a person's locus based on the moving region information, and a face for extracting facial features. And a feature extraction unit 105.

上記人物検索部114は、画像記憶部107に蓄積される監視映像を再生するための映像再生部108と、入力部からの情報を基に映像再生部108で再生される映像を再構築する必要があるか否かを判定する映像再構築判定部110と、映像再構築判定部110の判定結果により、識別子生成部113により生成される識別子が付された画像を基に再生する画像を再構築する映像再構築部109とから構成される。   The person search unit 114 needs to reconstruct the video reproduction unit 108 for reproducing the monitoring video accumulated in the image storage unit 107 and the video reproduced by the video reproduction unit 108 based on information from the input unit. Based on the determination result of the video reconstruction determination unit 110 that determines whether or not there is an image and the identifier generated by the identifier generation unit 113, the image to be reproduced is reconstructed based on the determination result of the video reconstruction determination unit 110 And a video reconstruction unit 109.

なお、上記人物検索部114の構成、名称等は、例示であるため、人物検索部114の各構成要素と同一の作用、効果を発揮するものであれば、上記構成に拘束されない。   Note that the configuration, name, and the like of the person search unit 114 are merely examples, and are not limited to the above configuration as long as they exhibit the same operations and effects as the components of the person search unit 114.

また、本実施例で「映像」とは、上記のような「画像」を連続して再生したものである。以下、特にことわらないがきり「映像」とは上記定義で使用するものとする。   Further, in this embodiment, “video” is a continuous reproduction of the “image” as described above. In the following description, the term “video” is used in the above definition, unless otherwise specified.

以上のように構成される画像再生機100において、まず、図3、図4を用いて、上記表示部111に表示されるユーザーインターフェイスについて説明する。   In the image reproducing apparatus 100 configured as described above, first, a user interface displayed on the display unit 111 will be described with reference to FIGS.

図3の301は、表示部111により表示される監視映像再生画面を表している。   Reference numeral 301 in FIG. 3 represents a monitoring video reproduction screen displayed by the display unit 111.

また、表示部111は、人物検索のためのユーザーインターフェイスも兼ねている。   The display unit 111 also serves as a user interface for searching for people.

図3中において、302で示されるものは、監視映像中に現れる人物であり、人物特徴抽出部102によって特徴情報が抽出されている人物である。   In FIG. 3, what is indicated by 302 is a person who appears in the monitoring video, and is a person whose feature information has been extracted by the person feature extraction unit 102.

図3中において、303で示されるものは、検索対象の人物を選択するための、マウスなどにより操作可能なポインティングデバイスである。   In FIG. 3, reference numeral 303 denotes a pointing device that can be operated with a mouse or the like for selecting a person to be searched.

上記構成では、入力部112により上記ポインティングデバイス303を操作する。   In the above configuration, the pointing device 303 is operated by the input unit 112.

ポインティングデバイス303により、表示部111に表示される人物302の誰かを選択すると人物検索の動作がおこなわれる。   When someone pointing to the person 302 displayed on the display unit 111 is selected by the pointing device 303, a person search operation is performed.

上記動作は一例であるので、例えば、表示部111中の人物の誰かを選択すると、「人物検索を行いますか?」等の表示を出し、これに同意する場合のみ人物検索の動作に移行するようにしても良い。   Since the above operation is an example, for example, when a person of the person in the display unit 111 is selected, a message such as “Do you want to search for a person?” Is displayed, and only when you agree with this, the operation moves to the person search operation. You may do it.

以下、図4を用いて、上記ポインティングデバイス303で選択された人物を人物検索する際の画像再生機の動作について説明する。   Hereinafter, the operation of the image player when searching for a person selected by the pointing device 303 will be described with reference to FIG.

図4において、401は、表示部111に表示される画像修正画面を表している。   In FIG. 4, 401 represents an image correction screen displayed on the display unit 111.

402は、上記ポインティングデバイス303で選択された検索対象の人物の画像である。   Reference numeral 402 denotes an image of a search target person selected by the pointing device 303.

検索対象の人物の画像402の上方に、その画像が撮影された時刻が表示されている。   The time when the image was taken is displayed above the image 402 of the person to be searched.

ここで、検索対象の人物の画像420は、ポインティングデバイス303で指定された際のものである必要は必ずしもなく、検索対象の人物の画像であれば、どのような画像でも良い。   Here, the search target person image 420 does not necessarily have to be the one specified by the pointing device 303, and may be any image as long as it is the search target person image.

404は、検索対象の人物が監視カメラに撮影されている時間の時間軸を表している。   Reference numeral 404 denotes a time axis of time when the search target person is photographed by the surveillance camera.

時間軸中の網目模様で示される領域は、来店から退店までの時間の中で、検索対象者が他の人物と入替わる可能性のあるところを表している。   The area indicated by the mesh pattern on the time axis represents a place where the search target person may be replaced with another person during the time from visiting the store to leaving the store.

この入れ替わる可能性とは、複数の人物や物体が、検索対象者と、交差、接近、隠れなどすることにより起こりうる。   This possibility of switching may occur when a plurality of persons or objects cross, approach, hide, or the like from a search target person.

時間軸404の両端は図4の様に、画像再生機が該当の検索対象者の来店、あるいは退店したと判断された時の画像を示し、その画像の上方には、来店時間又は退店時間が示されている。   As shown in FIG. 4, both ends of the time axis 404 indicate images when it is determined that the image player has visited or left the corresponding search target person. Time is shown.

403には、401に示されるユーザーインターフェイスにおける、時間軸404のマークの意味が示されている。   Reference numeral 403 indicates the meaning of the mark on the time axis 404 in the user interface indicated by 401.

406は、時間軸404中の網目模様の時間において検索対象者とすれ違う等により、網目模様の時間後に、検索対象者と誤認する可能性のある人物の一覧を、検索対象者も含め、縦に表している。   406 indicates a list of persons that may be misidentified as a search target person after the time of the mesh pattern due to a mesh pattern time in the time axis 404, including the search target person. Represents.

監視者は人物の一覧406中の各ラインの中に検索対象者がいるかどうかを、人物画像をポインティングデバイス等(図示なし)で、選択することで入力する。   The monitor inputs whether or not there is a search target person in each line in the person list 406 by selecting a person image with a pointing device or the like (not shown).

上記ポインティングデバイスは、本実施例の構成である入力部112により操作される。   The pointing device is operated by the input unit 112 having the configuration of the present embodiment.

407は再検索ボタンを表しており、人物の一覧406の中の、監視者が検索したい対象人物の画像を人物の一覧406から入力部112を通じて選択した後に、再検索ボタン407を押すことで、映像の再構築が行われる。   Reference numeral 407 denotes a re-search button. By selecting an image of a target person to be searched by the supervisor from the person list 406 from the person list 406 through the input unit 112, the user presses the re-search button 407. Video reconstruction is performed.

このとき画像再生機100における映像再構築判定部110は、入力部112から人物の一覧406中の検索対象者を選ぶ信号が入力されたか否かを判定する。   At this time, the video reconstruction determination unit 110 in the image player 100 determines whether or not a signal for selecting a search target person in the person list 406 is input from the input unit 112.

判定の結果、検索対象者を選ぶ信号が入力されていれば、映像再構築部109で映像の再構築が行われる。この映像再構築については、後述する。   As a result of the determination, if a signal for selecting a search target person is input, the video reconstruction unit 109 reconstructs the video. This video reconstruction will be described later.

判定方法に関しては、当業者が普通に適用する判定方法であればなんでも良い。   Regarding the determination method, any determination method that is commonly applied by those skilled in the art may be used.

本実施例では、映像再構築判定部110は、入力部112から人物の一覧406中の検索対象者が選ばれたか否かが、その入力信号を検出することで判定されているが、これに拘束されることなく、たとえば過去の検索対象者の選択結果を記憶したデータベース中のデータを基に、入力がなくとも画像再生機が自動的に判定するようにしても良い。   In this embodiment, the video reconstruction determination unit 110 determines whether or not the search target person in the person list 406 has been selected from the input unit 112 by detecting the input signal. Without being constrained, for example, based on data in a database in which past search target person selection results are stored, the image player may automatically determine without input.

408は人物映像再生ボタンであり、この人物映像再生ボタン408を押すことで検索対象者の全映像を再生することが可能となる。   Reference numeral 408 denotes a person video playback button. By pressing the person video playback button 408, it is possible to play back all videos of the search target person.

ここで、上記図4中の時間軸404の網目模様で示される検索対象者の入れ替わりがどのようにして起きるかを説明し、このとき付される画像の信頼度(識別子)に関して図5を用いて説明する。   Here, description will be given of how the replacement of the search target indicated by the mesh pattern on the time axis 404 in FIG. 4 described above, and the reliability (identifier) of the image attached at this time will be described with reference to FIG. I will explain.

図5において、501は、本発明における人物情報を模式的に表している。   In FIG. 5, reference numeral 501 schematically represents person information in the present invention.

この場合、図5に示すように、AさんとBさんとがカメラにより撮影されている。   In this case, as shown in FIG. 5, Mr. A and Mr. B are photographed by the camera.

図5(a)は、t時における画像であり、図5(b)は、AさんとBさんとが交差した後の画像である、t+2時における画像を示している。   FIG. 5A shows an image at time t, and FIG. 5B shows an image at time t + 2, which is an image after Mr. A and Mr. B intersect.

上記t+2時の画像は、例示であり、AさんとBさんとが入れ替わった後の画像であれば他の時刻の画像でも良い。   The image at time t + 2 is an example, and an image at another time may be used as long as it is an image after A and B are switched.

502〜505は、フレーム間差分などで抽出可能な、特定個人を模式的に表している。   Reference numerals 502 to 505 schematically represent specific individuals that can be extracted by inter-frame differences or the like.

図5では、502、505はAさんの、503、504はBさんを模式的に表している。   In FIG. 5, 502 and 505 schematically represent Mr. A, and 503 and 504 schematically represent Mr. B.

506は、AさんとBさんとが交差したことを表しているが、その結果、502のAさんが、Aさん画像505とBさん画像504とのどちらであるかが分からなくなることが生じることがある。   506 indicates that Mr. A and Mr. B crossed. As a result, it may become difficult to know whether Mr. A of 502 is Mr. A's image 505 or Mr. B's image 504. There is.

これは、顔特徴情報を用いた人物検索において、顔特徴情報の近さの判定は、顔向きや照明変動の影響を大きく受けるためである。   This is because in the person search using the face feature information, the determination of the proximity of the face feature information is greatly affected by the face orientation and the illumination variation.

この様な場合には、交差した直後の画像の中で最もAさんに近いと認識された画像を交差する直前のAさん画像との関係において信頼度を高に設定し、その他の入替わる可能性のある相手(この場合Bさん画像)画像を交差する直前のAさん画像との関係において信頼度を低に設定し、人物特徴情報として人物情報記憶部106に記憶する。   In such a case, it is possible to set the reliability high in relation to the image of Mr. A immediately before intersecting the image recognized as being closest to Mr. A among the images immediately after the intersection, and other replacements are possible. The reliability is set to be low in relation to the image of Mr. A immediately before crossing the image of the other party (Mr. B image in this case), and is stored in the person information storage unit 106 as person characteristic information.

上記の認識の手法は、この分野の当業者が、画像認識の際に普通に用いる顔認識等の人物を認識できる認識手法であればなんでも良い。   The recognition method described above may be any recognition method that allows a person skilled in the art to recognize a person such as face recognition that is normally used for image recognition.

以上のように構成される画像再生機100の動作について、図2から図9を用いて、具体的例示を示しながら以下説明する。   The operation of the image playback device 100 configured as described above will be described below with reference to FIGS.

ここでは、ある店において、客の来店から退店までを撮影する複数の監視カメラによる画像を再生する画像再生機について考える。   Here, let us consider an image playback device that plays back images from a plurality of surveillance cameras that shoot from a customer's visit to a store exit in a certain store.

この複数のカメラは、互いに重複する場所は撮影しないものとし、この複数のカメラにより監視されている店内は、いずれかのカメラによりいずれの時刻においても隈なく撮影されているものとする。   It is assumed that the plurality of cameras do not shoot a place where they overlap each other, and that the inside of the store monitored by the plurality of cameras is photographed thoroughly at any time by any camera.

なお、複数のカメラによって重複する場所が撮影されるものであっても、本発明には問題はない。   Note that there is no problem in the present invention even if an overlapping place is photographed by a plurality of cameras.

また、店内を隈なく撮影することができるのであれば、複数のカメラでなくとも、1台のカメラでも良い。   In addition, a single camera may be used instead of a plurality of cameras as long as the inside of the store can be photographed without any problems.

なお、図1に示す本実施例の発明の構成図には、図示はしていないが、以下のような全体的な動作は制御部が行うものとし、この制御部により最適な制御がされているものとする。   Although not shown in the block diagram of the invention of the present embodiment shown in FIG. 1, the following overall operations are performed by the control unit, and optimal control is performed by this control unit. It shall be.

上記最適な制御を行う制御部(図示なし)とは、当業者が技術常識を加味した上で、通常適用する制御方法のうち、本実施例を実施する上で当然に適用しうる制御を行う制御部である。   The control unit (not shown) that performs the above optimal control performs control that can be naturally applied in carrying out the present embodiment, among the control methods that are usually applied by those skilled in the art in consideration of common technical knowledge. It is a control unit.

まず、図2のステップ201では、監視カメラ101で画像が撮影される。   First, in step 201 in FIG. 2, an image is taken by the monitoring camera 101.

ステップ202では、ステップ201で監視カメラ101により撮影された監視映像が、人物特徴抽出部102に入力される。   In step 202, the monitoring video imaged by the monitoring camera 101 in step 201 is input to the person feature extraction unit 102.

このステップ202で行われる人物特徴抽出は、以下のステップ203、ステップ204、ステップ205、ステップ218の流れで行われる。   The person feature extraction performed in step 202 is performed in the following steps 203, 204, 205, and 218.

ステップ203では、まず、動領域抽出部103において、フレーム間差分や背景差分などの手法により、人物が存在する場所として動領域を抽出する。   In step 203, first, the moving region extraction unit 103 extracts a moving region as a place where a person exists by a technique such as inter-frame difference or background difference.

次にステップ204では、行動軌跡抽出部104において、動領域抽出部103で得られた動領域に対して、経過時間や動領域の近さから、同一人物の軌跡として抽出する。   In step 204, the action trajectory extraction unit 104 extracts the trajectory of the same person from the elapsed time and the proximity of the motion area with respect to the motion area obtained by the motion area extraction unit 103.

次にステップ205では、顔特徴抽出部105において、動領域抽出部103で得られた動領域に対して、人物の顔領域を探索し、得られた顔領域に対して、顔特徴情報を抽出する。   In step 205, the face feature extraction unit 105 searches for a human face region with respect to the motion region obtained by the motion region extraction unit 103, and extracts face feature information for the obtained face region. To do.

ステップ218では、識別子生成部113は、上記ステップ202での情報を基に人物と軌跡情報の対応付けや、軌跡間の接続関係や、軌跡が入違う可能性がある場合には、その全ての接続の可能性の接続相手や、軌跡間の接続関係の確からしさを信頼度(識別子)として生成する。   In step 218, the identifier generation unit 113 associates the person with the trajectory information based on the information in the above step 202, the connection relationship between the trajectories, and if there is a possibility that the trajectories are different, The connection partner of the possibility of connection and the certainty of the connection relation between the trajectories are generated as reliability (identifier).

具体的には、上記信頼度は、識別子生成部113により生成され、図16に示すように対応する画像に付される。   Specifically, the reliability is generated by the identifier generation unit 113 and attached to the corresponding image as shown in FIG.

図16は、図5における場合の信頼度の例を示したものである。   FIG. 16 shows an example of reliability in the case of FIG.

例えば、AさんとBさんとが交差した後、画像認識等により人物画像505がAさんと認識されると、人物画像505は、信頼度高に設定される。   For example, after Mr. A and Mr. B intersect, if the person image 505 is recognized as Mr. A by image recognition or the like, the person image 505 is set to high reliability.

一方、Aさん画像と入れ替わる可能性のある人物画像504は、信頼度低に設定される。   On the other hand, the person image 504 that may be replaced with the Mr. A image is set to low reliability.

ステップ206では、図16に示すような信頼度等の情報が、人物特徴情報として人物情報記憶部106に蓄積される。   In step 206, information such as reliability as shown in FIG. 16 is accumulated in the person information storage unit 106 as person feature information.

また、図5に示すような人物画像502から人物画像505等の人物画像等は、映像記憶部107に記憶される。   In addition, person images such as the person image 502 to the person image 505 shown in FIG. 5 are stored in the video storage unit 107.

本実施例では、明示的に人物情報記憶部106と映像記憶部107というふうに記憶部を分けたが、分けることなく1つの記憶部でも良い。   In the present embodiment, the storage units are explicitly divided as the person information storage unit 106 and the video storage unit 107, but one storage unit may be used without division.

ステップ207では、終了判定が行われ、終了されない場合(S207でYesの場合)、監視映像撮影ステップ(S201)に戻り、その後、上記説明のステップが順次行われる。   In step 207, an end determination is made. If the end is not completed (Yes in S207), the process returns to the monitoring video capturing step (S201), and then the steps described above are sequentially performed.

これらの処理は、基本的には監視者が終了させない限り継続して行われるが、画像再生機の資源等を考慮して監視カメラから得られる全ての映像に対してこのような処理を施しても良い。   These processes are basically continued unless the observer ends, but such processes are performed on all the images obtained from the surveillance camera in consideration of the resources of the image player. Also good.

102の各ブロックは、本実施例では図1のように示したが本願のブロックに限定されず、本実施例の人物特徴抽出部102と同様の動作及び作用、効果が得られる物であれば、当業者が考え得る他の構成であっても良い。   Each block 102 is shown in FIG. 1 in the present embodiment, but is not limited to the block of the present application, and any block that can obtain the same operation, action, and effect as the human feature extraction unit 102 of the present embodiment. Other configurations that can be considered by those skilled in the art may be used.

また、識別子生成部113により識別子が付される情報は、軌跡情報と、軌跡間の接続関係の確からしさ(信頼度)と、処理精度により軌跡が入替わる可能性のある対象人物情報と、軌跡間の一致・不一致、または、似ている・似ていないなどを計算により算出できる情報が備わっていれば良い。   The information to which the identifier is added by the identifier generation unit 113 includes the trajectory information, the certainty (reliability) of the connection relationship between the trajectories, target person information whose trajectory may be changed depending on the processing accuracy, and the trajectory. It suffices to have information that can be calculated by calculating whether there is a match / mismatch between them, or whether they are similar or not.

次に、上記のように撮影された映像に対して、図1の映像再生機が行う人物検索の動作を、図2(b)を用いて以下説明する。   Next, a person search operation performed by the video player in FIG. 1 for the video imaged as described above will be described below with reference to FIG.

まず、ステップ208では、人物検索部114中の映像再生部108が、映像記憶部107に蓄積される監視映像を得る。   First, in step 208, the video playback unit 108 in the person search unit 114 obtains a monitoring video stored in the video storage unit 107.

ステップ209では、表示部111は、映像再生部108で再生される映像を図3の様に表示する。   In step 209, the display unit 111 displays the video reproduced by the video reproduction unit 108 as shown in FIG.

ステップ210では、入力部112を介して、検索対象人物が選択される。   In step 210, a search target person is selected via the input unit 112.

このとき、上述のように図3のポインティングデバイス303により検索対象人物が選択される。   At this time, as described above, the search target person is selected by the pointing device 303 of FIG.

ステップ211では、ステップ210で検索対象人物が選択されると、制御部(図示なし)が、検索対象として選択された時における検索対象人物の画像撮影時刻を中心として、その前後の一定時間分に関して、検索したい人物と入替わる可能性のある人物を人物情報記憶部106から見つけ出す。   In step 211, when a search target person is selected in step 210, a control unit (not shown) focuses on a predetermined time before and after the image shooting time of the search target person when the search target person is selected. Then, a person who is likely to be replaced with the person to be searched is found from the person information storage unit 106.

ここで、検索したい人物と入れ替わる可能性のある人物とは、識別子生成部113により信頼度(識別子)が付された人物である。   Here, the person who may be replaced with the person who wants to search is a person to whom reliability (identifier) is given by the identifier generation unit 113.

ステップ212では、制御部(図示なし)が図4の様な軌跡修正画面を作成し、表示する。   In step 212, a control unit (not shown) creates and displays a trajectory correction screen as shown in FIG.

この軌跡修正画面の作成フローは後程、詳述する。   The flow of creating the locus correction screen will be described in detail later.

ステップ213では、ユーザーが入力部112を介して、図4の人物の一覧406から検索対象人物を選択する。   In step 213, the user selects a search target person from the person list 406 in FIG. 4 via the input unit 112.

ステップ214では、図4中に現れる人物画像の内、1個以上の検索対象画像が人物の一覧406の中から選択される。   In step 214, one or more search target images among the person images appearing in FIG. 4 are selected from the person list 406.

この人物の一覧406は、横軸に並ぶ画像が、画像認識等により、現在同一人物として認識されているものの画像である。   This person list 406 is an image of images that are currently recognized as the same person by image recognition or the like on the horizontal axis.

例えば、人物の一覧406は、選択された人物402と入れ替わる可能性がある人物の画像とが画面下方向に向かい並べられている4つの人物の一覧406が存在するが、その各々の人物の一覧406の最上段画像がAさん、最上段から2段目の画像がBさんという風に認識されて並べえられている。   For example, the person list 406 includes four person lists 406 in which images of persons who may be replaced with the selected person 402 are arranged in the downward direction on the screen. The uppermost image 406 is recognized as A and the second image from the uppermost is recognized as Mr.B.

ステップ217では、図4の再検索ボタン407が選択されると(s214でYESの場合)、映像再構築部109により、映像の修正が行われる。   In step 217, when the re-search button 407 in FIG. 4 is selected (YES in s214), the video reconstruction unit 109 corrects the video.

この映像の修正に関しては、以下で詳述する。   This video correction will be described in detail below.

この場合、図4に示す人物の一覧406から検索対象者が選ばれていないと映像再構築判定部110により判定されると、再検索する必要がないため再検索は行われない。   In this case, if the video reconstruction determination unit 110 determines that no search target person is selected from the person list 406 shown in FIG.

その後、映像再構築部109において、再度、修正画面が作成され(S212)、表示され、順次、S212、S213、S214、S217のステップを実行されて行く。   Thereafter, in the video reconstruction unit 109, a correction screen is created again (S212) and displayed, and the steps of S212, S213, S214, and S217 are sequentially executed.

このときに、図4に表示される時間範囲を、徐々に広がる様にして、動作させても良い。   At this time, the time range displayed in FIG. 4 may be gradually expanded to be operated.

その後、ステップ216では、図4の人物再生ボタン408が選択されると、検索対象人物として、検索されている全軌跡の映像を再生し、処理を終える。   Thereafter, in step 216, when the person playback button 408 in FIG. 4 is selected, the video of all the searched trajectories is played back as the search target person, and the process ends.

次に、映像再構築部109の中で行われる上記ステップ217の処理内容について、説明する。   Next, the processing content of step 217 performed in the video reconstruction unit 109 will be described.

まず、図6は映像の再構築を模式的に表すものである。図6において、Aさんの軌跡は609で示されている。   First, FIG. 6 schematically shows video reconstruction. In FIG. 6, the locus of Mr. A is indicated by 609.

601、602は、例えばAさんとBさんとが交差する前のAさん、Bさんのそれぞれの画像を示す。   Reference numerals 601 and 602 indicate respective images of Mr. A and Mr. B before Mr. A and Mr. B intersect, for example.

また、603、604は、例えばAさんとBさんとが交差した後のAさん、Bさんのそれぞれの画像を示す。   Reference numerals 603 and 604 denote images of Mr. A and Mr. B after Mr. A and Mr. B intersect, for example.

本願発明の画像再生機では、609に示すように、例えばAさんとBさんとが交差した後、最もAさんであると認識されるものに対して、識別子生成部113は、信頼度(以下、識別子生成部113で生成される識別子を信頼度と呼ぶ。)が高に設定された識別子を生成する。   In the image reproducing device of the present invention, as shown at 609, for example, after Mr. A and Mr. B intersect, the identifier generating unit 113 determines the reliability (hereinafter referred to as Mr. A). The identifier generated by the identifier generation unit 113 is referred to as “reliability”).

信頼度とは、検索対象人物であるかどうかの確からしさであり、例えば、高(1)と低(0)の2値で表されるようにしたものである。   The reliability is the certainty of whether or not the person is a search target person, and is expressed by binary values of high (1) and low (0), for example.

そのため、Aさんと、例えば交差する可能性がある人物画像(図6については、Bさん画像)についてもなんらかの信頼度が付されることとなる。   For this reason, for example, a certain degree of reliability is given to a person image that may cross with Mr. A (for example, Mr. B image in FIG. 6).

図6の場合、例えばAさんとBさんとが交差した後、本願発明の画像再生機は、Bさんの画像603をAさん画像と認識する。   In the case of FIG. 6, for example, after Mr. A and Mr. B intersect, the image reproducing device of the present invention recognizes Mr. B's image 603 as Mr. A's image.

そうすると、Bさん画像603には、高い信頼度が関連付けられる。   Then, Mr. B's image 603 is associated with high reliability.

また、例えば、交差した後のAさん画像604は、Aさん画像として認識されないが、上記のように何らかの信頼度(例えば、低い信頼度)が付される。   Further, for example, the Mr. A image 604 after crossing is not recognized as the Mr. A image, but is given some reliability (for example, low reliability) as described above.

上記、Aさん画像603、Bさん画像604の内、Aさんを認識するための認識方法としては、顔の特徴部分を抽出して認識する顔認識以外にも、当業者であれば当然に適用する認識方法であれば、どのような方法を用いても良い。   As a recognition method for recognizing Mr. A out of Mr. A's image 603 and Mr. B's image 604, those skilled in the art naturally apply in addition to face recognition by extracting and recognizing a facial feature. Any method may be used as long as it is a recognition method.

また、上記交差する可能性のある人物に関しては、図示はしていないが、その動きベクトル等からAさんと交差する可能性がある人物を抽出する抽出部や、Aさんを中心とした半径数mの範囲にいる人物をAさんと交差する人物として抽出する抽出部が考え得る。   In addition, although not shown in the figure, there is an extraction unit that extracts a person who may cross Mr. A from the motion vector, etc. An extraction unit that extracts persons in the range of m as persons who intersect with Mr. A can be considered.

さらに、上記抽出方法を組み合わせ、よりAさんと交差する人物について抽出する抽出部も考え得る。   Furthermore, an extraction unit that combines the above extraction methods and extracts a person who crosses Mr. A can be considered.

上記抽出方法でなくとも、この人物抽出方法に関しては、当業者であれば当然に適用する人物抽出方法を実行する抽出部であれば、どのような抽出部を用いても良い。   Even if it is not the said extraction method, regarding this person extraction method, if it is an extraction part which performs the person extraction method applied naturally by those skilled in the art, what kind of extraction part may be used.

次に、図7から図13、図19、図20を用い、より具体的に映像再構築部109の中で行われる上記ステップ217の処理動作について説明する。   Next, the processing operation of step 217 performed in the video reconstruction unit 109 will be described more specifically with reference to FIGS. 7 to 13, 19, and 20.

なお、図8から図13までのアルファベット(A、B、C等)で示される人物画像をつなぐ実線は、実線でつながれた人物画像が、その一つ前の人物画像(図6でいうと、画像603に対する画像601)に対し、最も信頼度が高い画像であることを示し、破線は一つ前の人物画像に対する信頼度が低い画像であることを示す。   It should be noted that the solid line connecting the person images indicated by the alphabets (A, B, C, etc.) from FIG. 8 to FIG. 13 is the person image connected by the solid line is the previous person image (in FIG. 6, The image 601) with respect to the image 603 indicates an image with the highest reliability, and the broken line indicates an image with a low reliability with respect to the previous person image.

また、図8から図13までの図は、カメラにより撮影された、Aさん、Bさん、Cさんの画像を時系列に並べたもので、この実施例を含む明細書中では、「軌跡」という表現を用いている。   8 to 13 show images of Mr. A, Mr. B, and Mr. C taken by the camera in time series. In the specification including this embodiment, “trajectory” is used. The expression is used.

まず、図19に示される映像再構築部109の構成要素について説明する。   First, the components of the video reconstruction unit 109 shown in FIG. 19 will be described.

画像間接続関係判定部1192は、検索対象人物の軌跡の中で、画像間に関連性がないものがあるか否かを判定する。   The inter-image connection relationship determination unit 1192 determines whether there is any unrelated relationship between images in the trajectory of the search target person.

例えば、図10において、1001の上段、Aさん軌跡の真ん中の画像と右端の画像とは、実線、又は、点線で接続されていない。   For example, in FIG. 10, the upper image of 1001, the middle image of Mr. A's trajectory and the rightmost image are not connected by a solid line or a dotted line.

そのため、画像間接続関係判定部1192は、この2つの画像間には何の関係もないと判定する。   For this reason, the inter-image connection relationship determination unit 1192 determines that there is no relationship between the two images.

上記は、模式的な説明であり、現実的には、画像間接続関係判定部は図16に示すように記憶されているデータにより隣り合う時系列画像に何らかの関連性があるか否かを判定する。   The above is a schematic explanation. Actually, the inter-image connection relation determination unit determines whether there is any relationship between adjacent time-series images based on the stored data as shown in FIG. To do.

上記のように判定されていた画像は、実際は、正当画像フラグ生成部1991により、正当画像フラグが付され、図20のように管理される。   The image determined as described above is actually provided with a valid image flag by the valid image flag generation unit 1991 and managed as shown in FIG.

この明細書中で「画像を入れ替える」というのは、実際は所定の判断がされた後の画像に、上記正当画像フラグ生成部1991がフラグを付すことを意味するが、理解を容易にするために、図面では模式的に画像を入れ替える様子を示す。   In this specification, “replace the image” means that the legitimate image flag generation unit 1991 actually adds a flag to the image after a predetermined determination is made. The drawings schematically show how images are exchanged.

例えば、図20(a)のように、図6のAさん、Bさん軌跡が判断されているとする。   For example, as shown in FIG. 20A, the locus of Mr. A and Mr. B in FIG. 6 is determined.

本実施例の画像再生機により、図6に示されるようなAさん軌跡は、Aさん画像601とBさん画像603とからなる軌跡から、Aさん画像601とAさん画像604とからなる軌跡へ、入れ替えられる。   By the image reproducing apparatus of the present embodiment, the Mr. A trajectory as shown in FIG. 6 is changed from the trajectory composed of the Mr. A image 601 and the Mr. B image 603 to the trajectory composed of the Mr. A image 601 and the Mr. A image 604. Is replaced.

このとき図20(b)に示すように、Aさん軌跡中の画像には、正当画像フラグが付される。図20(b)では、Aさん画像601とAさん画像604とに、Aさんの正当画像フラグありとされている。   At this time, as shown in FIG. 20B, a legitimate image flag is attached to the image in the locus of Mr. A. In FIG. 20B, it is assumed that Mr. A's image 601 and Mr. A's image 604 have Mr. A's legitimate image flag.

一方、Bさん画像603にはAさんの正当画像フラグはなしとされる。   On the other hand, Mr. A's legitimate image flag is not included in Mr. B's image 603.

図20(b)では、フラグのあり、なししか記載されていないが、実際は、Aさんの正当画像フラグ、Bさんの正当画像フラグとの区別がされている。   In FIG. 20 (b), only the flag is provided and the flag is not shown, but in actuality, a distinction is made between Mr. A's legitimate image flag and Mr. B's legitimate image flag.

次に、映像再構築部109の動作を説明する。   Next, the operation of the video reconstruction unit 109 will be described.

検索対象人物であるAさんと交差する可能性がある人物を抽出する抽出部(図示なし)により、図9に示すように、Aさん、Bさん、Cさんの3人の人物が抽出された場合に、ユーザーは、図9の901に示す2つの画像をAさんとして入力部112から入力する。   As shown in FIG. 9, three persons, Mr. A, Mr. B, and Mr. C, were extracted by an extraction unit (not shown) that extracts a person who may intersect with the search target person A. In this case, the user inputs two images indicated by reference numeral 901 in FIG.

入力された信号は、図19に示す入力信号記憶部1993に記憶される。   The input signal is stored in the input signal storage unit 1993 shown in FIG.

上記図9を用いた説明は、模式的な図による説明であり、実際のユーザーインターフェイスについては、図4の様に、各軌跡(信頼度高でつながる軌跡)が代表静止画で表されている。   The above description using FIG. 9 is a schematic diagram. In the actual user interface, as shown in FIG. 4, each locus (trajectory connected with high reliability) is represented by a representative still image. .

そのため、図9で901に示す2つの軌跡を入力する行為は、人物の一覧406の中で正しい検索対象者(図9の場合Aさん)を選択する動作に当たる。   Therefore, the act of inputting two trajectories 901 in FIG. 9 corresponds to an operation of selecting a correct search target person (Mr. A in FIG. 9) in the person list 406.

例えば、図9と人物の並び方が違うため適切な例ではないが、図4でいうと、画面に向かって左から2番目の人物の一覧406の上段の画像と、4番目の人物の一覧406三段目の画像とを選ぶ感じである。   For example, this is not an appropriate example because the arrangement of persons is different from that in FIG. 9, but in FIG. 4, the upper image of the second person list 406 from the left and the fourth person list 406 from the left on the screen. It feels like choosing a third-tier image.

上記のように検索対象者が選択されると、映像再構築判定部110により映像の再構築を行うと判定される。   When the search target person is selected as described above, the video reconstruction determination unit 110 determines to reconstruct the video.

図7のステップ701では、図9に示すように選択された画像がAさんの画像として、Cさんの画像とが入れ替えられる。   In step 701 of FIG. 7, the selected image is replaced with the image of Mr. C as the image of Mr. A as shown in FIG.

図9においては、矢印902で示されるようにAさんの軌跡を示す上段の右端のCさん画像とCさんの軌跡を示す下段の右端のAさん画像とが入れ替えられる。   In FIG. 9, as indicated by an arrow 902, the upper right Mr. C image showing Mr. A's trajectory and the lower right Mr. A image showing Mr. C's trajectory are interchanged.

ステップ702では、再構築された軌跡の時間的前後画像が信頼度で接続されていない、異なる人物の画像と接続されているか否かが画像間接続関係判定部1992によって判定される。   In step 702, the inter-image connection relationship determination unit 1992 determines whether or not the images before and after the reconstructed trajectory are connected to images of different persons that are not connected with reliability.

上記のように映像再構築部109で入れ替えられた結果、図10に示すようになるが、1003に示す様に、BさんとCさんの間には、接続関係が存在しない。   As a result of the replacement by the video reconstruction unit 109 as described above, as shown in FIG. 10, there is no connection relationship between Mr. B and Mr. C as indicated by 1003.

ここで接続関係が存在しないというのは、図8の2段目のBさん軌跡においてBさんと認識されたBさん画像(左)とCさん画像(右)との間に、実線又は点線で示すような接続がないことをいう。   Here, there is no connection relationship between the image of Mr. B (left) and the image of Mr. C (right) that are recognized as Mr. B in the second-stage B's locus in FIG. It means that there is no connection as shown.

つまり、何らかの信頼度による接続がないということは、図8のBさん軌跡中のCさん画像(右)は、並べられているBさん軌跡のBさん画像(左)とは何ら関連性がないことを意味する。   In other words, the fact that there is no connection due to some degree of reliability means that Mr. C's image (right) in Mr. B's trajectory in Fig. 8 has nothing to do with the B's image of Mr. B's trajectory arranged (left). Means that.

信頼度による接続関係が図10の上段のAさんの軌跡の中央Cさん画像と右端のAさん画像との間にはないにもかかわらず、同じ人物の軌跡とされてしまい、矛盾が生じている(S702でYES)。   Even though the connection relationship by reliability is not between the center C image and the right A image of Mr. A's trajectory in the upper part of FIG. Yes (YES in S702).

また、1002が示すように、Cさんの軌跡の中央Bさん画像と右端のCさん画像との間にも同様に矛盾が生じてしまっている(S702でYES)。   In addition, as indicated by 1002, there is a similar contradiction between the image of the center B of Mr. C and the image of Mr. C at the right end (YES in S702).

これを解消すべく、ステップ703では、図10の矢印1004に示す様にAさんの軌跡の中央Cさん画像とCさんの軌跡の中央Bさん画像とが入れ替えられる。   In order to eliminate this, in step 703, as indicated by an arrow 1004 in FIG. 10, the center C image of the locus of A and the center B image of the locus of C are switched.

その結果、図11の様になるが、1103に示す様に、図11上段に示すAさんの軌跡の左端のAさん画像と、そのAさんの軌跡の中央のBさん画像との間には、接続関係が存在しないにも関わらず、同じ人物の軌跡とされてしまい、矛盾が生じている(S702でYES)。   As a result, as shown in FIG. 11, as shown in 1103, there is a gap between the image of Mr. A at the left end of Mr. A's trajectory and the image of Mr. B at the center of the trajectory of Mr. A. Even though there is no connection relationship, the trajectory is the same person, and there is a contradiction (YES in S702).

同様に1102に示す様に図11の下段に示すCさんの軌跡の左端のBさん画像と、そのCさんの軌跡の中央のCさん画像との間にも矛盾が生じてしまっている(S702でYES)。   Similarly, as shown in 1102, there is a contradiction between the image of B at the left end of the locus of C shown in the lower part of FIG. 11 and the image of Mr. C at the center of the locus of Mr. C (S702). YES)

これを解消すべく、ステップ703では、1104に示す様に図11の中段に示すBさんの軌跡の左端のCさん画像と下段に示すCさんの軌跡の左端のBさん画像とが入れ替えられる。   In order to solve this problem, in step 703, as shown at 1104, the left C image of the B's locus shown in the middle of FIG. 11 and the left B image of the C's locus shown in the lower row are switched.

その結果、図12の様になるが、1202に示す様に、図12の上段のAさんの軌跡の左端のAさん画像と、そのAさん軌跡の中央のBさん画像との間には、接続関係が存在しないにも関わらず、同じ人物の軌跡とされてしまい、矛盾が生じたままになっている(S702でYES)。   As a result, as shown in FIG. 12, as shown in 1202, between the A image at the left end of the trajectory of A in the upper part of FIG. Even though there is no connection relationship, the trajectory is the same person, and a contradiction remains (YES in S702).

これを解消すべく、ステップ703では、1202に示す様に、図12の上段のAさんの軌跡の左端のBさん画像とAさんの軌跡の中央のAさん画像とが入れ替えられる。   In order to solve this problem, in step 703, as shown at 1202, the left B image of the A's locus in the upper part of FIG. 12 and the A's image at the center of the A's locus are switched.

その結果、図12に示す様に、Aさん、Bさん、Cさん、いずれの軌跡も何かしらの接続関係がある状態に落ち着き、映像再構築部109による処理は終了する。   As a result, as shown in FIG. 12, the trajectories of Mr. A, Mr. B, and Mr. C all settle down to have some connection relationship, and the processing by the video reconstruction unit 109 ends.

その後、最終的に落ち着いた画像に対して、正当画像フラグ生成部1991により、正当画像フラグが付され人物情報記憶部106で管理される。   Thereafter, a legitimate image flag generation unit 1991 adds a legitimate image flag to the finally settled image, and the person information storage unit 106 manages the image.

上記構成を有する画像再生機による動作により、視覚的にどのようになるかを示したものが図17と図18である。   FIG. 17 and FIG. 18 show what is visually achieved by the operation of the image reproducing apparatus having the above configuration.

図17と図18とに示す6つの画面は、それぞれの画面の左上に付された番号順に時系列に再生される画像を示している。   The six screens shown in FIG. 17 and FIG. 18 show images that are reproduced in time series in the numerical order given to the upper left of each screen.

それぞれの画面中には、複数の人物が撮影されており、太枠で囲まれている人物が監視対象人物である。   A plurality of persons are photographed in each screen, and a person surrounded by a thick frame is a monitoring target person.

この例では、監視対象人物を太枠で囲んでいるが、これに拘束されることなく、例えば、監視対象人物上部に矢印等の印をつけるなど、他の人物と見分けがつくようにすれば良い。   In this example, the person to be monitored is surrounded by a thick frame, but without being restricted by this, for example, by marking the upper part of the person to be monitored with an arrow or the like, it can be distinguished from other persons. good.

例えば、図17におけるAさんをポインティングデバイス等で選択する。   For example, Mr. A in FIG. 17 is selected with a pointing device or the like.

その後、ポインティングデバイス等で選択されたAさんであると画像再生機により認識された人物の映像が再生される。   Thereafter, the video of the person recognized by the image player as being Mr. A selected by the pointing device or the like is reproduced.

図17がそれに当たるが、図17の画面2でAさんはBさんを途中で追い抜いたところで、画像再生機がBさんをAさんと誤認識しているため、その後の映像は、Bさんの映像となっている。   FIG. 17 corresponds to this, but in the screen 2 of FIG. 17, when Mr. A overcame Mr. B on the way, the video player misrecognizes Mr. B as Mr. A. It is a video.

正しいAさん映像を取得するため、本実施例記載の画像再生機における上述の動作を行う。   In order to acquire the correct Mr. A video, the above-described operation in the image reproducing apparatus described in the present embodiment is performed.

これにより、図18に示すような、正しいAさん映像を再生することができる。   Accordingly, the correct Mr. A video as shown in FIG. 18 can be reproduced.

以上のような構成を有する画像再生機により、検索対象となる可能性がある画像に識別子を付して管理することができる。   With the image playback device having the above-described configuration, it is possible to manage an image that may be a search target with an identifier.

これにより、顔特徴情報を用いた人物検索において、顔特徴情報の近さの判定を行う際に、顔向きや照明変動の影響を受け、全く違う他人が検索対象人物と判定された場合であっても、上記のように識別子が付された検索対象となる可能性がある画像との入れ替えを行うことができるため、検索対象人物の検索精度の低下を抑えることができ、安定した検索結果を得ることができる。   As a result, in the person search using the face feature information, when the proximity of the face feature information is determined, a completely different person is determined as the search target person due to the influence of the face direction and lighting fluctuation. However, since it can be replaced with an image that may be a search target with an identifier as described above, it is possible to suppress a decrease in search accuracy of the search target person, and to obtain a stable search result. Obtainable.

さらに、上記のように検索対象となる可能性がある画像に識別子を付して管理しているため、顔特徴情報を用いた人物検索において、全く違う他人が検索対象人物と判定された場合であっても、記憶されている全ての画像の検索を要せず、識別子が付されていた検索対象となる可能性がある人物の画像のみを検索すれば良いため、従来よりも検索対象となる画像を減らすことができる。   Further, as described above, since an image that may be a search target is managed with an identifier, when a person search using face feature information determines that a completely different person is a search target person. Even if it is, it is not necessary to search all the stored images, and it is only necessary to search for an image of a person who may be a search target with an identifier. Images can be reduced.

これにより、画像再生機における計算量を低減することができる。   Thereby, the calculation amount in the image reproducing device can be reduced.

また、本実施例記載の発明は、画像再生機の計算量を低減できることから、例えば、物理的なメモリ容量が他の機器に比べ制限される、携帯電話、モバイル等の端末に関しては、さらに有効である。   In addition, since the invention described in the present embodiment can reduce the amount of calculation of the image player, it is more effective for terminals such as mobile phones and mobile devices where the physical memory capacity is limited compared to other devices. It is.

また、上記で説明のように、検索対象者以外の軌跡も修正されるという効果も得られる。   In addition, as described above, there is an effect that the locus other than the search target person is also corrected.

なお、映像再構築部109において、正解軌跡情報を人物単位に保持しておき、軌跡修正ステップS217において、監視対象者の軌跡の接続関係を再計算しても良い。   Note that the video reconstructing unit 109 may store correct trajectory information for each person, and recalculate the connection relationship of the trajectory of the monitoring target person in the trajectory correction step S217.

監視対象者に関する正しい人物特徴情報が複数になるため、精度が向上することになる。また、図4の時間軸404で示された、時間範囲以外の接続関係の精度も向上する効果がある。   Since there are a plurality of pieces of correct person characteristic information related to the monitoring target person, the accuracy is improved. In addition, there is an effect of improving the accuracy of connection relations other than the time range indicated by the time axis 404 in FIG.

同様に、検索対象人物として、選択されなかった軌跡情報を、監視対象者の不正解情報として、保持しておいても良い。   Similarly, trajectory information that has not been selected as a search target person may be held as incorrect answer information of the monitoring target person.

これにより、検索対象外の人物を含めた軌跡の接続関係を再計算することができ、精度が向上することになる。   Thereby, the connection relation of the trajectory including the person who is not the search target can be recalculated, and the accuracy is improved.

また、本実施例では、信頼度は、高と低としたが、例えば、画像認識により高い認識率を持つものを信頼度高とし、近接フレーム間中の複数の動物体のうちで、交差、接近、隠れなどをして、軌跡が重なったり途切れたりする可能性のあるものを、信頼度中とし、その他を信頼度低にする等も考え得る。   Further, in this embodiment, the reliability is high and low. For example, the one having a high recognition rate by image recognition is set as a high reliability, and among a plurality of moving objects between adjacent frames, It can be considered that the reliability is set for those that may be close or hidden due to approach or hiding, and the other is set to be low in reliability.

本実施例の信頼度は例示であるため、これに拘束されることなく、画像を識別する識別子であれば、他のものでもよい。   Since the reliability of the present embodiment is an exemplification, other identifiers may be used as long as they are identifiers for identifying an image without being restricted thereto.

なお、本実施例では、画像再生機について説明したが、本実施例で説明した画像再生機の各構成要素が協働することにより奏される作用、効果を得ることができる映像再生方法についても考え得る。   In the present embodiment, the image reproducing device has been described. However, an image reproducing method capable of obtaining the effects and effects achieved by the cooperation of the components of the image reproducing device described in the present embodiment is also described. I can think.

また、従来の一般的な画像再生機に組み込むことで、本実施例で説明した画像再生機の各構成要素が協働することにより奏される作用、効果を得ることができるプログラムについても考え得る。   In addition, a program that can obtain the functions and effects achieved by the cooperation of the components of the image playback device described in the present embodiment by being incorporated in a conventional general image playback device can be considered. .

また、従来の一般的な画像再生機を制御することで、本実施例で説明した画像再生機の各構成要素が協働することにより奏される作用、効果を得ることができる集積回路についても考え得る。   Also, an integrated circuit that can obtain the functions and effects achieved by the cooperation of the components of the image player described in this embodiment by controlling a conventional general image player. I can think.

なお、本実施例では、検索対象人物についての画像再生装置に関して説明したが、人物に限ることなく検索対象が物や他の生物の画像である場合も、本実施例の画像再生装置を用いることができる。   In the present embodiment, the image reproducing apparatus for the search target person has been described. However, the image reproducing apparatus of the present embodiment is also used when the search target is an image of an object or another living body, without being limited to a person. Can do.

本実施例では、実施例1記載の画像再生機について、対象画像に付される識別子の更新方法について記載する。   In this embodiment, a method for updating an identifier attached to a target image for the image playback device described in the first embodiment will be described.

実施例1と同様に、画像を再生できる、テレビ、卓上ビデオ、DVD(Digital Versatile Disc)、デジタルカメラ、ビデオカメラ、モバイル機器、携帯電話等の再生機を有するものであれば、本発明を実施することができる。   As in the first embodiment, the present invention is implemented as long as it has a playback device such as a TV, a desktop video, a DVD (Digital Versatile Disc), a digital camera, a video camera, a mobile device, and a mobile phone that can play back images. can do.

識別子の更新方法以外は、実施例1と同じであるため、ここでは詳述しない。   Since the method other than the method for updating the identifier is the same as that in the first embodiment, it will not be described in detail here.

本実施例では、特に監視カメラにおいて撮影された画像に関する画像再生機について、図14、図15を用いて、以下説明する。   In the present embodiment, an image playback device related to an image taken by a surveillance camera will be described below with reference to FIGS.

上述の実施例1で説明したように、映像再構築部109において、信頼度による接続関係を基に画像の入れ替えを行い、接続関係に矛盾がなくなるまで画像間の入れ替えを行う。図15の1501がそれに当たる。   As described in the first embodiment, the image reconstruction unit 109 performs image replacement based on the connection relationship based on the reliability, and performs image replacement until there is no contradiction in the connection relationship. This corresponds to 1501 in FIG.

入れ替えの結果、例えば、1501上段のAさん軌跡中の点線で示すような信頼度低の接続により結ばれる画像がAさんの軌跡になっている。   As a result of the replacement, for example, an image connected by a low-reliability connection as indicated by a dotted line in the upper A's locus of 1501 is Mr. A's trajectory.

このとき、1502に示されるように、Aさんの軌跡とみなされた画像の接続は、図14に示す識別子入替部1415により信頼度高の接続(実線)に更新され、その他の画像の接続は、信頼度中の接続(点線)に更新される。   At this time, as shown in 1502, the connection of the image regarded as the locus of Mr. A is updated to a highly reliable connection (solid line) by the identifier replacement unit 1415 shown in FIG. , Updated to the connection (dotted line) in the reliability.

実際は、図16に示されるようなデータが更新される。   Actually, data as shown in FIG. 16 is updated.

これにより、次に同一対象物に関する時系列画像を検索する場合、計算量、計算時間を削減することができる。   Thereby, when searching for the time series image regarding the same target object next, the calculation amount and the calculation time can be reduced.

なお、本実施例では、画像再生機について説明したが、本実施例で説明した画像再生機の各構成要素が協働することにより奏される作用、効果を得ることができる映像再生方法についても考え得る。   In the present embodiment, the image reproducing device has been described. However, an image reproducing method capable of obtaining the effects and effects achieved by the cooperation of the components of the image reproducing device described in the present embodiment is also described. I can think.

また、従来の一般的な画像再生機に組み込むことで、本実施例で説明した画像再生機の各構成要素が協働することにより奏される作用、効果を得ることができるプログラムについても考え得る。   In addition, a program that can obtain the functions and effects achieved by the cooperation of the components of the image playback device described in the present embodiment by being incorporated in a conventional general image playback device can be considered. .

また、従来の一般的な画像再生機を制御することで、本実施例で説明した画像再生機の各構成要素が協働することにより奏される作用、効果を得ることができる集積回路についても考え得る。   Also, an integrated circuit that can obtain the functions and effects achieved by the cooperation of the components of the image player described in this embodiment by controlling a conventional general image player. I can think.

なお、上記実施例1又は実施例2に示す本願発明の画像再生機の構成は、一例であるため、本発明はかかる上記実施例に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。   The configuration of the image reproducing apparatus of the present invention shown in the first embodiment or the second embodiment is an example, and the present invention is not limited to the above-described embodiment, and departs from the scope of the present invention. Various modifications or corrections are possible.

本発明によって、映像再構築に際し、検索対象となる画像を減らすことができる画像再生機を提供することができる。   According to the present invention, it is possible to provide an image playback device that can reduce the number of images to be searched in video reconstruction.

本実施例1記載の画像再生機の構成図Configuration diagram of an image playback device described in the first embodiment (a)本実施例1記載の画像再生機の映像撮影動作フロー図(b)本実施例1記載の画像再生機の映像再構築動作フロー図(A) Flow chart of video image capturing operation of the image player described in the first embodiment (b) Flow chart of video reconstruction operation of the image player described in the first embodiment 本実施例1記載の画像再生機のユーザーインターフェイス図(1)User interface diagram of the image player described in the first embodiment (1) 本実施例1記載の画像再生機のユーザーインターフェイス図(2)User interface diagram of the image player described in the first embodiment (2) (a)本実施例1記載の検索対象人物入れ替わり前の模式図(b)本実施例1記載の検索対象人物入れ替わり後の模式図(A) Schematic diagram before replacement of search target person described in the first embodiment (b) Schematic diagram after replacement of search target person described in the first embodiment 本実施例1記載の人物軌跡の図(1)Figure (1) of human trajectory described in the first embodiment 本実施例1記載の映像再構築の動作図Operational diagram of video reconstruction described in the first embodiment 本実施例1記載の人物軌跡の図(2)Figure (2) of human locus described in the first embodiment 本実施例1記載の人物軌跡の入替図(1)Person locus replacement diagram described in the first embodiment (1) 本実施例1記載の人物軌跡の入替図(2)Person locus replacement diagram described in the first embodiment (2) 本実施例1記載の人物軌跡の入替図(3)Person locus replacement diagram described in the first embodiment (3) 本実施例1記載の人物軌跡の入替図(4)Person locus replacement diagram described in the first embodiment (4) 本実施例1記載の人物軌跡の入替図(5)Person locus replacement diagram described in the first embodiment (5) 本実施例2記載の画像再生機の構成図Configuration diagram of an image playback device described in the second embodiment 本実施例2記載の人物軌跡の信頼度更新図(1)Person locus reliability update diagram described in the second embodiment (1) 本実施例1記載の画像と信頼度との対応図Correspondence diagram between image and reliability described in the first embodiment 本実施例1記載の画像再生機による、映像再構築前の再生映像図Playback video diagram before video reconstruction by the image playback device described in the first embodiment 本実施例1記載の画像再生機による、映像再構築後の再生映像図Playback video diagram after video reconstruction by the image playback device described in the first embodiment 本実施例1記載の画像再生機における映像再構築部の構成図Configuration diagram of a video reconstruction unit in the image playback device described in the first embodiment (a)本実施例1記載の画像と信頼度との対応図(b)本実施例1記載の画像と正当画像フラグとの対応図(A) Correspondence diagram between images and reliability described in the first embodiment (b) Correspondence diagram between images described in the first embodiment and valid image flags

符号の説明Explanation of symbols

101 監視カメラ
102 人物特徴抽出部
103 動領域抽出部
104 行動軌跡抽出部
105 顔特徴抽出部
106 人物情報記憶部
107 映像記憶部
108 映像再生部
109 映像再構築部
110 映像再構築判定部
111 表示部
112 入力部
113 識別子生成部
114 人物検索部
DESCRIPTION OF SYMBOLS 101 Surveillance camera 102 Person feature extraction part 103 Motion area extraction part 104 Action locus extraction part 105 Face feature extraction part 106 Person information storage part 107 Video storage part 108 Video reproduction part 109 Video reconstruction part 110 Video reconstruction determination part 111 Display part 112 Input unit 113 Identifier generation unit 114 Person search unit

Claims (11)

ピクチャ内の所定画像を抽出する所定画像抽出部と、
前記所定画像抽出部により抽出される第1のピクチャ内の第1の所定画像との関係において所定条件を満たす画像である、前記所定画像抽出部により抽出される第2のピクチャ内の所定画像に対して付する所定識別子を生成する識別子生成部と、
前記所定識別子に従って、前記第1のピクチャ内の第1の所定画像と前記第2のピクチャ内の所定画像の1つの画像とに付する所定フラグを生成する正当画像フラグ生成部と、
を備える、画像再生機。
A predetermined image extraction unit for extracting a predetermined image in a picture;
A predetermined image in the second picture extracted by the predetermined image extraction unit, which is an image satisfying a predetermined condition in relation to the first predetermined image in the first picture extracted by the predetermined image extraction unit. An identifier generating unit that generates a predetermined identifier to be attached to,
A legitimate image flag generating unit that generates a predetermined flag attached to a first predetermined image in the first picture and one of the predetermined images in the second picture according to the predetermined identifier;
An image playback device comprising:
前記正当画像フラグ生成部は、前記第2のピクチャ内の所定画像の中で前記所定識別子によって示される値が一番大きい前記所定識別子が付された画像に対して前記所定フラグを付す、請求項1記載の画像再生機。 The legitimate image flag generation unit attaches the predetermined flag to an image with the predetermined identifier having the largest value indicated by the predetermined identifier among predetermined images in the second picture. The image reproducing machine according to 1. さらに、前記第2のピクチャ内の所定画像の中で前記所定フラグが付された画像である第1のフラグ画像が第1の所定条件を満たすか否かを判定する映像再構築判定部を備え、
前記第1のフラグ画像が前記第1の所定条件を満たさないと前記映像再構築判定部により判定されるとき、
前記正当画像フラグ生成部は、前記第1のフラグ画像に替え、前記第1の所定条件を満たす画像であり、前記第2のピクチャ内の所定画像の1つの画像である第2のフラグ画像に付する所定フラグを生成する、請求項1又は2記載の画像再生機。
And a video reconstruction determination unit that determines whether or not a first flag image, which is an image to which the predetermined flag is added, among predetermined images in the second picture satisfies a first predetermined condition. ,
When the video reconstruction determination unit determines that the first flag image does not satisfy the first predetermined condition,
The legitimate image flag generation unit replaces the first flag image with an image satisfying the first predetermined condition, and adds a second flag image that is one image of the predetermined image in the second picture. The image reproducing device according to claim 1 or 2, wherein a predetermined flag to be attached is generated.
さらに、前記第1のフラグ画像に付される第1の識別子で示される値と前記第2のフラグ画像に付される第2の識別子で示される値とを入れ替える識別子入替部を備える、請求項3記載の画像再生機。 The information processing apparatus further includes an identifier replacement unit that replaces a value indicated by a first identifier attached to the first flag image with a value indicated by a second identifier attached to the second flag image. 3. The image reproducing machine according to 3. 前記第1の所定条件は、前記第1のピクチャ内の第1のフラグ画像と前記第2のピクチャ内の1つの画像である第2のフラグ画像とが同一対象物画像であると認識されるという条件である、請求項3又は請求項4記載の画像再生機。 In the first predetermined condition, it is recognized that a first flag image in the first picture and a second flag image that is one image in the second picture are the same object image. The image reproducing apparatus according to claim 3 or 4, wherein the condition is as follows. さらに、前記第1の所定条件が入力される入力部を備える、請求項3から請求項5までのいずれかに記載の画像再生機。 The image playback device according to claim 3, further comprising an input unit to which the first predetermined condition is input. さらに、前記第2のピクチャ内の画像に前記所定識別子が付されているか否かを判定する画像間接続関係判定部を備え、
前記所定フラグが付された前記第2のピクチャ内の画像である第3のフラグ画像に、前記所定識別子が付されていないと前記画像間接続関係判定部により判定されるとき、
前記正当画像フラグ生成部は、前記第3のフラグ画像に変え、前記識別子生成部により生成される第2の所定識別子が付された画像である前記第2のピクチャ内の第4のフラグ画像に対して付す所定フラグを生成する、請求項1記載の画像再生機。
And an inter-image connection relationship determining unit that determines whether or not the predetermined identifier is attached to an image in the second picture,
When the inter-image connection relation determining unit determines that the predetermined identifier is not attached to a third flag image that is an image in the second picture to which the predetermined flag is attached,
The legitimate image flag generation unit replaces the third flag image with a fourth flag image in the second picture, which is an image with a second predetermined identifier generated by the identifier generation unit. The image reproducing device according to claim 1, wherein a predetermined flag attached to the image generating device is generated.
さらに、前記第2のピクチャは、前記第1のピクチャよりも後の時刻に表示される、請求項1から請求項7までのいずれかに記載の画像再生機。 The image playback device according to any one of claims 1 to 7, wherein the second picture is displayed at a time later than the first picture. 前記第2のピクチャが表示される場合において、
前記第2のピクチャ内の所定画像は、前記第1のピクチャ内の第1の所定画像である第1の対象物画像の近辺に位置する対象物画像である、請求項1から請求項8までのいずれかに記載の画像再生機。
When the second picture is displayed,
The predetermined image in the second picture is an object image located in the vicinity of the first object image which is the first predetermined image in the first picture. An image playback device according to any one of the above.
ピクチャ内の所定画像を抽出する所定画像抽出ステップと、
前記所定画像抽出部により抽出される第1のピクチャ内の第1の所定画像との関係において所定条件を満たす所定画像である、前記所定画像抽出部により抽出される第2のピクチャ内の所定画像に対して付する所定識別子を生成する識別子生成ステップと、
前記所定識別子に従って、前記第1のピクチャ内の第1の所定画像と前記第2のピクチャ内の所定画像の1つの画像とに所定フラグを付する正当画像フラグ生成ステップと、
からなる画像再生方法。
A predetermined image extraction step for extracting a predetermined image in the picture;
The predetermined image in the second picture extracted by the predetermined image extraction unit, which is a predetermined image that satisfies a predetermined condition in relation to the first predetermined image in the first picture extracted by the predetermined image extraction unit An identifier generating step for generating a predetermined identifier to be attached to
A legitimate image flag generating step of attaching a predetermined flag to the first predetermined image in the first picture and one of the predetermined images in the second picture according to the predetermined identifier;
An image reproduction method comprising:
ピクチャ内の所定画像を抽出する所定画像抽出ステップと、
前記所定画像抽出部により抽出される第1のピクチャ内の第1の所定画像との関係において所定条件を満たす所定画像である、前記所定画像抽出部により抽出される第2のピクチャ内の所定画像に対して付する所定識別子を生成する識別子生成ステップと、
前記所定識別子に従って、前記第1のピクチャ内の第1の所定画像と前記第2のピクチャ内の所定画像の1つの画像とに所定フラグを付する正当画像フラグ生成ステップと、
を実行させるプログラム。
A predetermined image extraction step for extracting a predetermined image in the picture;
The predetermined image in the second picture extracted by the predetermined image extraction unit, which is a predetermined image that satisfies a predetermined condition in relation to the first predetermined image in the first picture extracted by the predetermined image extraction unit An identifier generating step for generating a predetermined identifier to be attached to
A legitimate image flag generating step of attaching a predetermined flag to the first predetermined image in the first picture and one of the predetermined images in the second picture according to the predetermined identifier;
A program that executes
JP2005275734A 2005-09-22 2005-09-22 Image reproduction method, machine, and program Pending JP2007087150A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005275734A JP2007087150A (en) 2005-09-22 2005-09-22 Image reproduction method, machine, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005275734A JP2007087150A (en) 2005-09-22 2005-09-22 Image reproduction method, machine, and program

Publications (1)

Publication Number Publication Date
JP2007087150A true JP2007087150A (en) 2007-04-05

Family

ID=37974064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005275734A Pending JP2007087150A (en) 2005-09-22 2005-09-22 Image reproduction method, machine, and program

Country Status (1)

Country Link
JP (1) JP2007087150A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075802A (en) * 2007-09-20 2009-04-09 Giken Torasutemu Kk Personal activity retrieving apparatus
WO2011021588A1 (en) * 2009-08-20 2011-02-24 日本電気株式会社 Mobile body trajectory identification system
GB2475584A (en) * 2009-11-23 2011-05-25 Intel Corp Searching and extracting digital images from digital video files
JP2018036870A (en) * 2016-08-31 2018-03-08 富士ゼロックス株式会社 Image processing device, and program
JP2019185615A (en) * 2018-04-16 2019-10-24 Kddi株式会社 Device, method and program for managing flow line

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075802A (en) * 2007-09-20 2009-04-09 Giken Torasutemu Kk Personal activity retrieving apparatus
WO2011021588A1 (en) * 2009-08-20 2011-02-24 日本電気株式会社 Mobile body trajectory identification system
JP5682563B2 (en) * 2009-08-20 2015-03-11 日本電気株式会社 Moving object locus identification system, moving object locus identification method, and moving object locus identification program
US8989438B2 (en) 2009-08-20 2015-03-24 Nec Corporation Mobile body track identification system
GB2475584A (en) * 2009-11-23 2011-05-25 Intel Corp Searching and extracting digital images from digital video files
GB2475584B (en) * 2009-11-23 2013-08-28 Intel Corp Searching and extracting digital images from digital video files
JP2018036870A (en) * 2016-08-31 2018-03-08 富士ゼロックス株式会社 Image processing device, and program
CN107798285A (en) * 2016-08-31 2018-03-13 富士施乐株式会社 Image processing apparatus and image processing method
JP2019185615A (en) * 2018-04-16 2019-10-24 Kddi株式会社 Device, method and program for managing flow line
JP7013313B2 (en) 2018-04-16 2022-01-31 Kddi株式会社 Flow line management device, flow line management method and flow line management program

Similar Documents

Publication Publication Date Title
US7589760B2 (en) Distributed presentations employing inputs from multiple video cameras located at multiple sites and customizable display screen configurations
JP4539048B2 (en) Moving image display system and program
CN107645655B (en) System and method for performing in video using performance data associated with a person
CN108369816A (en) For the device and method from omnidirectional&#39;s video creation video clipping
US20120294531A1 (en) Human image retrieval system
CN106797498A (en) Message processing device, information processing method and program
US20090141936A1 (en) Object-Tracking Computer Program Product, Object-Tracking Device, and Camera
JP2001086507A (en) Image coder, image coding method, image decoder, image decoding method, medium and image processor
JP2007241496A (en) Image processor, image processing method, and program
JP5506324B2 (en) Similar image search system and similar image search method
JP2014139681A (en) Method and device for adaptive video presentation
JP2007087150A (en) Image reproduction method, machine, and program
CN102630003B (en) Image data recording apparatus and control method thereof
KR20160103557A (en) Facilitating television based interaction with social networking tools
BR112021011817A2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND PROGRAM
JP6882634B2 (en) Reproduction device and reproduction method and information generation device and information generation method
CN103155002B (en) For the method and apparatus identifying virtual vision information in the picture
JP2009246917A (en) Video display device, and video processing apparatus
JP6292872B2 (en) Image processing apparatus, image processing method, and program
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP5163605B2 (en) Moving picture reproducing apparatus and moving picture reproducing method
JP5868145B2 (en) Image processing apparatus and control method thereof
JP2006101075A (en) Image compression apparatus
JP6110731B2 (en) Command input recognition system by gesture
JP2016072787A (en) Video editing device and video editing method