JP2000251450A - Picture detecting method - Google Patents

Picture detecting method

Info

Publication number
JP2000251450A
JP2000251450A JP11054441A JP5444199A JP2000251450A JP 2000251450 A JP2000251450 A JP 2000251450A JP 11054441 A JP11054441 A JP 11054441A JP 5444199 A JP5444199 A JP 5444199A JP 2000251450 A JP2000251450 A JP 2000251450A
Authority
JP
Japan
Prior art keywords
image
detection
icon
frame
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11054441A
Other languages
Japanese (ja)
Other versions
JP3838805B2 (en
Inventor
Tsutomu Ito
励 伊藤
Hirotada Ueda
博唯 上田
Masanori Sumiyoshi
正紀 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Denshi KK
Original Assignee
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Denshi KK filed Critical Hitachi Denshi KK
Priority to JP05444199A priority Critical patent/JP3838805B2/en
Priority to DE60025406T priority patent/DE60025406T2/en
Priority to EP00103460A priority patent/EP1033718B1/en
Priority to US09/517,173 priority patent/US6983420B1/en
Publication of JP2000251450A publication Critical patent/JP2000251450A/en
Application granted granted Critical
Publication of JP3838805B2 publication Critical patent/JP3838805B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate the generation of an IDX icon and to clearly indicate an M-icon, which has conducted a detection process, and an M-icon, which has not conducted the process, by storing detection information relative to a specific person stored in the data structure of an IDX icon into the data structure of an M-icon. SOLUTION: A detction process is conducted for a person A in an ID window and the resulting data are stored in a data structure corresponding to an attached M-icon, Moreover, an M-icon, which becomes a detection object, is changed while conducting a detection process for a person B and a person C. Having completed the detection process for the persons B and C, an M-icon is attached again and an IDX window is opened. The portion of nondetected segments 250 to 252 represents the frame information of an M-icon for which no detection process is conducted. Thus, the M-icon, which has conducted a detection process against a person who is a detection object, and the M-icon, vhich has not conducted the process, are displayed on an ID window.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像編集装置に
関わり、特に、ディスプレイ画面上における操作によっ
て編集を行なう場合に使用する画像検出方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image editing apparatus, and more particularly to an image detecting method used when editing by operation on a display screen.

【0002】[0002]

【従来の技術】近年、コンピュータの高速化、高機能化
に相俟って、ソフトウエアの多様化、高機能化が急速に
進展している。これらコンピュータ、ソフトウエアを使
用することで、テレビジョン放送番組やビデオ番組を制
作する制作設備の高機能化が進められている。
2. Description of the Related Art In recent years, diversification and enhancement of software have been rapidly progressing along with the increase in speed and function of computers. By using these computers and software, production facilities for producing television broadcast programs and video programs are becoming more sophisticated.

【0003】特に、近年の番組制作は、ビデオテープレ
コーダによって、テープカウンタを頼りに、早送り、巻
き戻しを繰り返すような映像編集方法ではなく、ランダ
ムアクセスが可能な情報記憶装置(例えば、取扱いや保
存が容易で廉価なハードディスク)を有する動画像編集
装置を使用して、映像情報の編集を行なっている。この
ような動画像編集装置に、さらに、高機能化、多様化し
ているコンピュータ、ソフトウエアを採用することで、
ますます動画像編集装置の高機能化が進められている。
ここで、映像情報とは音声を含む映像に関するすべての
情報のことである。
[0003] In particular, in recent program production, a video tape recorder relied on a tape counter instead of a video editing method of repeating fast-forwarding and rewinding, but an information storage device capable of random access (eg, handling and storage). Video information is edited using a moving image editing apparatus having an easy and inexpensive hard disk. By adopting more sophisticated and diversified computers and software for such moving image editing devices,
Increasingly sophisticated moving picture editing devices are being developed.
Here, the video information is all information relating to video including audio.

【0004】図3は動画像編集装置の一構成例を示すブ
ロック図である。3010はCPU(Central Processing Uni
t:中央演算処理装置)、3020はメモリ、3030はカット
変化点検出部、3040は画像再生装置、3050はビデオイン
ターフェース、3060は情報記憶装置、3070はフレームバ
ッファ、3080はモニタ、3090は入力装置、3100はバス、
3110は画像信号出力端子である。この動画像編集装置
は、ソフトウエア(プログラム)の制御により動画像編
集装置を構成する各装置の制御および編集を行なうCPU3
010と、CPU3010の制御情報や、動画像、シーン画像、カ
ット画像および編集状況を表す階層構造(ツリー構造)
の情報など、編集に関する情報を表示するモニタ3080
と、モニタ3080の画面上に表示されている情報を選択し
てCPU3010へのコマンドの入力を行なうマウスやキーボ
ード等の入力装置3090と、モニタ3080に表示するための
画像情報を記憶するフレームバッファメモリ3070と、編
集に使用する動画像の画像信号を記録媒体から再生しビ
デオインタフェース3050へ出力する画像再生装置(例え
ば、VTR:ビデオテープレコーダ)3040と、画像再生装
置3040から入力される動画像の画像信号を動画像編集装
置で扱うフォーマットの画像情報に変換し情報記憶装置
(例えば、ハードディスク等の磁気記憶装置)3060とカ
ット変化点検出部3030とメモリ3020とへ出力し、かつ動
画像編集装置で扱うフォーマットで編集され情報記憶装
置3060から出力される動画像の画像情報を画像信号に変
換し画像信号出力端子3110から出力するビデオインタフ
ェース3050と、動画像を構成するフレーム画像の隣接す
るフレーム画像を比較してフレーム画像間の差の画像情
報が所定量を越えて変化している場合には隣接するフレ
ーム画像は異なるカット画像に属すると判定し分割する
カット変化点検出部3030と、CPU3010の制御ソフトウエ
アを記憶するとともに、動画像編集装置で使用されるさ
まざまな制御情報(一連の動画像のフレーム番号、検出
したカット変化点のフレーム番号、モニタ3080の画面に
表示される画像サイズを縮小した表示用画像(M-アイコ
ン:Moving Icon)、M-アイコンファイル名、カット画
像に順次シリアルに付与されているカット画像番号、複
数のカット画像の順序を表すシーケンス番号等)などを
一時記憶するメモリ3020と、画像再生装置3040から再生
されビデオインタフェース3050で所要フォーマットに変
換された編集に使用する動画像の画像情報を記憶すると
ともに、メモリ3020で一時記憶した動画像編集装置で使
用される編集情報や制御情報、例えばM-アイコンなどを
記憶するランダムアクセス可能な、例えばハードディス
クを使用した情報記憶装置3060と、動画像編集装置内の
各装置間のディジタル情報伝送に使用されるバス3100
と、動画像の画像情報を出力する画像信号出力端子3110
を備えている。
FIG. 3 is a block diagram showing an example of the configuration of a moving image editing apparatus. 3010 is a CPU (Central Processing Uni
t: central processing unit), 3020 is a memory, 3030 is a cut change point detector, 3040 is an image reproducing device, 3050 is a video interface, 3060 is an information storage device, 3070 is a frame buffer, 3080 is a monitor, and 3090 is an input device. , 3100 is a bus,
Reference numeral 3110 denotes an image signal output terminal. This moving image editing apparatus has a CPU 3 that controls and edits each device constituting the moving image editing apparatus under the control of software (program).
010 and a hierarchical structure (tree structure) representing control information of the CPU 3010, moving images, scene images, cut images, and editing status
Monitor 3080 that displays information about editing, such as
And an input device 3090 such as a mouse or a keyboard for selecting information displayed on the screen of the monitor 3080 and inputting a command to the CPU 3010, and a frame buffer memory for storing image information to be displayed on the monitor 3080. 3070, an image reproducing device (for example, VTR: Video Tape Recorder) 3040 for reproducing an image signal of a moving image used for editing from a recording medium and outputting the signal to a video interface 3050, and a moving image input from the image reproducing device 3040. The image signal is converted into image information in a format handled by the moving image editing device, and output to an information storage device (for example, a magnetic storage device such as a hard disk) 3060, a cut change point detecting unit 3030 and a memory 3020, and the moving image editing device A video output from a video signal output terminal 3110 which converts image information of a moving image edited in a format handled by The video interface 3050 compares the adjacent frame images of the frame images constituting the moving image, and if the image information of the difference between the frame images changes by more than a predetermined amount, the adjacent frame images are different cut images. The cut change point detection unit 3030, which determines and belongs to the group, stores control software for the CPU 3010, and stores various control information (frame numbers of a series of moving images, detected cut change The frame number of the point, the display image (M-Icon: Moving Icon) in which the image size displayed on the screen of the monitor 3080 is reduced, the M-icon file name, the cut image number sequentially assigned to the cut image in order, A memory 3020 for temporarily storing sequence numbers indicating the order of a plurality of cut images, etc.) and a video interface reproduced from the image reproducing device 3040. The image information of the moving image used for editing converted to the required format in the memory 3050 is stored, and the editing information and control information used by the moving image editing device temporarily stored in the memory 3020, such as an M-icon, are stored. An information storage device 3060 using, for example, a hard disk that is randomly accessible, and a bus 3100 used for digital information transmission between devices in the moving image editing device.
And an image signal output terminal 3110 for outputting image information of a moving image.
It has.

【0005】なお、バス3100には、動画像編集装置を構
成する前記各装置のCPU3010、メモリ3020、カット変化
点検出部3030、ビデオインタフェース3050、情報記憶装
置3060、フレームバッファメモリ3070、モニタ3080、入
力装置3090が接続されており、CPU3010はこれら装置と
各種信号を送受し合い、これら装置はCPU3010からのア
クセス信号により制御される。また、CPU3010への指示
は、マウスあるいはキーボードなどの入力装置3090から
入力される。
The bus 3100 includes a CPU 3010, a memory 3020, a cut change point detecting unit 3030, a video interface 3050, an information storage device 3060, a frame buffer memory 3070, a monitor 3080, and a CPU 3010 of each device constituting the moving image editing device. An input device 3090 is connected, and the CPU 3010 sends and receives various signals to and from these devices, and these devices are controlled by access signals from the CPU 3010. The instruction to the CPU 3010 is input from an input device 3090 such as a mouse or a keyboard.

【0006】上述のように構成され、所要のソフトウエ
アをメモリ3020に備えている動画像編集装置を使用する
ことにより、編集する動画像の画像情報をメモリ3020さ
らに情報記憶装置3060に記憶し管理することができる。
またさらに動画像編集装置は、モニタ3080の画面上に、
メモリ3020および情報記憶装置3060に記憶している動画
像のカット画像やシーン画像を縮小したM-アイコンとし
て表示し、カット画像やシーン画像を単位としたツリー
構造を形成することにより動画像の編集作業を行なうこ
とができる。
[0006] By using the moving picture editing apparatus having the above-mentioned structure and having the required software in the memory 3020, the image information of the moving picture to be edited is stored and managed in the memory 3020 and the information storage device 3060. can do.
Still further, the moving image editing device displays on the screen of the monitor 3080,
Editing of moving images by displaying cut images and scene images of moving images stored in the memory 3020 and the information storage device 3060 as reduced M-icons and forming a tree structure in units of cut images and scene images Can work.

【0007】ここでカット画像、シーン画像、M-アイコ
ン等の説明をする。カット画像は、テレビジョンカメラ
による1回の撮影開始から終了までの間に撮影されたフ
レーム画像の集合である。また、「シーン画像」は、所
定の撮影対象を撮影した複数のカット画像を集合したも
のであり、情報記憶装置3060などに記憶される動画像を
構成する画像データは、複数のシーン画像の集合であ
る。複数のシーン画像は、さらに特定の撮影テーマのも
とにまとめることにより、編集された特定の撮影テーマ
の動画像(番組)とすることができる。
Here, a cut image, a scene image, an M-icon, and the like will be described. A cut image is a set of frame images shot from the start to the end of one shot by a television camera. Further, a “scene image” is a set of a plurality of cut images obtained by shooting a predetermined shooting target, and image data constituting a moving image stored in the information storage device 3060 or the like is a set of a plurality of scene images. It is. A plurality of scene images can be further compiled under a specific shooting theme to create an edited moving image (program) of the specific shooting theme.

【0008】このように特定の撮影テーマのもとに編集
される動画像は、画像素材である複数のカット画像の中
から、特定の撮影テーマに合せて選択したいくつかのカ
ット画像と、この選択したいくつかのカット画像をまと
めたシーン画像と、このシーン画像を特定の撮影テーマ
のもとにまとめた撮影テーマ(あるいは題名)を有する
動画像というように、階層構造(ツリー構造)の画像デ
ータとして整理することができる。また、このツリー構
造には、一連の動画像のフレーム番号、検出したカット
変化点の画像のフレーム番号、カット画像に順次シリア
ルに付与されているカット画像番号、シーン画像を構成
する複数のカット画像の順序を表すシーケンス番号のデ
ータが整理配置されており、上述の制御情報はこれらの
階層構造情報を含んでいる。M-アイコンとは、1回の撮
像開始から終了までのフレーム画像の集合(カット画
像)と1対1に対応するGUI(Graphical User Interfac
e:グラフィックスを使用したユーザインタフェース)
部品である。このM-アイコンは、画像のサイズを所要の
比率で縮小した表示用画像であり、複数のフレーム画像
からなる動画像全体または一部、あるいはシーン画像を
高速で表示して見る場合(高速表示用)や、あるいはカ
ット画像の代表画像として表示される。
[0008] As described above, a moving image edited under a specific shooting theme includes several cut images selected from a plurality of cut images, which are image materials, according to the specific shooting theme, and a plurality of cut images. An image having a hierarchical structure (tree structure) such as a scene image in which several selected cut images are grouped together and a moving image having a shooting theme (or title) in which the scene images are grouped under a specific shooting theme. It can be organized as data. In addition, the tree structure includes a frame number of a series of moving images, a frame number of an image of a detected cut change point, a cut image number serially assigned to the cut image, and a plurality of cut images constituting a scene image. Are arranged and arranged, and the above-described control information includes the hierarchical structure information. An M-icon is a GUI (Graphical User Interface) corresponding to a set (cut image) of frame images from the start to the end of one imaging operation.
e: User interface using graphics)
Parts. The M-icon is a display image obtained by reducing the size of the image at a required ratio, and is used when displaying the whole or a part of a moving image including a plurality of frame images or a scene image at a high speed (for high-speed display). ) Or as a representative image of the cut image.

【0009】モニタ3080の表示画面は、動画像編集に使
用するカット画像、シーン画像および編集状態を表すツ
リー構造などの編集情報を表示するGUI画面である。編
集者は、入力装置(例えば、マウス)3090を使用して、
この編集情報を表示するモニタ3080の画面の編集情報を
選択することで動画像編集装置に指示を与えることがで
きる。
The display screen of the monitor 3080 is a GUI screen for displaying editing information such as a cut image used for editing a moving image, a scene image, and a tree structure indicating an editing state. The editor uses an input device (eg, a mouse) 3090 to
An instruction can be given to the moving image editing apparatus by selecting the editing information on the screen of the monitor 3080 that displays the editing information.

【0010】このように前述の動画像編集装置は、編集
する動画像をツリー構造として記憶し管理することで番
組を作成することができ、カット画像やシーン画像を単
位とした編集作業ができるようになっている。
As described above, the moving image editing apparatus described above can create a program by storing and managing moving images to be edited as a tree structure, and can perform editing work in units of cut images and scene images. It has become.

【0011】図4は、上述した図3の動画像編集装置に
おいて、具体例として、編集素材にニュース番組を仮定
して、その内容毎に別のニュース番組を作成する(例え
ば、ダイジェストを作成するような)場合にモニタ3080
の画面に表示される編集用ウィンドウの一例を示す図で
ある。1000は編集用ウィンドウ、1010は編集エリア、10
20は素材エリア、1030,1031,1032,1033,‥‥‥,10
3K,103M,103N,‥‥‥は素材エリア1020に表示されて
いる画像素材のM-アイコン(ただし、K,M,Nは自然数
で、K=N-2、M=N-1)、1040は編集された動画像の編集
内容を表すM-アイコンで構成するツリー構造、1050は編
集作業に使用する各種制御機能を選択する編集機能ボタ
ン群、1051は登場人物検出ボタン、1052はツリー構造作
成ボタン、1070は編集エリア1010の表示画面を横方向に
スライドさせるスライダ、1080は編集エリア1010の表示
画面を縦方向にスライドさせるスライダ、1090は素材エ
リア1020の表示画面を縦方向にスライドさせるスライ
ダ、1210は編集エリア1010に登録されたカット画像を表
すM-アイコン、1220は1つまたは複数のカット画像で構
成したシーン画像を表すM-アイコン、1230は1つ以上の
シーン画像で構成したM-アイコン、1240はテーマに合せ
編集された動画像(番組)を表すM-アイコン、810はマ
ウス等のポインティングデバイスによってGUI操作を行
う時にGUI画面上に表示されるマウスポインタである。
なお、M-アイコンの表面には、対応する縮小表示用画像
が表示されているが、煩雑なので、本明細書では特に必
要にない限り省略する。
FIG. 4 shows a specific example of the moving picture editing apparatus shown in FIG. 3 in which a news program is assumed as an editing material and another news program is created for each content (for example, a digest is created). Monitor 3080 if you like)
FIG. 7 is a diagram showing an example of an editing window displayed on the screen of FIG. 1000 is an editing window, 1010 is an editing area, 10
20 is the material area, 1030, 1031, 1032, 1033, ‥‥‥, 10
3K, 103M, 103N, and ‥‥‥ are M-icons of the image material displayed in the material area 1020 (however, K, M, and N are natural numbers, K = N-2, M = N-1), 1040 Is a tree structure composed of M-icons representing the edited contents of the edited moving image, 1050 is an editing function button group for selecting various control functions used for editing work, 1051 is a character detection button, 1052 is a tree structure creation Button, 1070 is a slider that slides the display screen of the editing area 1010 in the horizontal direction, 1080 is a slider that slides the display screen of the editing area 1010 in the vertical direction, 1090 is a slider that slides the display screen of the material area 1020 in the vertical direction, Reference numeral 1210 denotes an M-icon representing a cut image registered in the editing area 1010, reference numeral 1220 denotes an M-icon representing a scene image constituted by one or a plurality of cut images, and reference numeral 1230 denotes an M-icon constituted by one or more scene images. Icon, 1240 is edited according to the theme Moving image representing the (program) M- icon 810 is a mouse pointer displayed on the GUI screen when performing GUI operations using a pointing device such as a mouse.
Although the corresponding reduced display image is displayed on the surface of the M-icon, it is complicated, and therefore is omitted in this specification unless otherwise required.

【0012】図4において、編集エリア1010の中のM-ア
イコンで構成されるツリー構造1040は、編集のために選
択したカット画像を表すM-アイコン1210が1個または複
数個集合して、その階層の上部にシーン画像を表すM-ア
イコン1220を構成し、さらに、このシーン画像を表すM-
アイコン1220が1個または複数個集合して、その階層の
上部に特定のシーン画像の集合を表すM-アイコン1230を
構成し、最後に特定のシーン画像の集合を表すM-アイコ
ン1230が複数個集合してテーマに合せ編集された番組を
表すM-アイコン1240を構成している。
Referring to FIG. 4, a tree structure 1040 composed of M-icons in an editing area 1010 is composed of one or more M-icons 1210 representing cut images selected for editing. At the top of the hierarchy, an M-icon 1220 representing a scene image is configured, and further, an M-
One or more icons 1220 are grouped together to form an M-icon 1230 representing a set of specific scene images at the top of the hierarchy, and finally a plurality of M-icons 1230 representing a set of specific scene images. M-icons 1240 representing programs that are gathered and edited according to the theme are configured.

【0013】ツリー構造1040の階層数は任意であり、さ
らに上部に階層が構成することができることはもちろん
である。編集エリア1010の画面の大きさに限りがあるた
め、図4ではツリー構造1040の全体が表示されていな
い。この表示されていない部分を表示させるためには、
入力装置3090(図3)によって、スライダ1070、あるい
はスライダ1080を操作して、所要の横方向、あるいは縦
方向に表示を移動させることによってツリー構造1040の
全体を見る。
The number of hierarchies of the tree structure 1040 is arbitrary, and it is needless to say that hierarchies can be formed further above. Since the size of the screen of the editing area 1010 is limited, the entire tree structure 1040 is not displayed in FIG. In order to display this part that is not displayed,
By operating the slider 1070 or the slider 1080 with the input device 3090 (FIG. 3), the entire tree structure 1040 is viewed by moving the display in the required horizontal or vertical direction.

【0014】また素材エリア1020には、図3のカット変
化点検出部3030によって検出された異なるカット画像か
ら作成されたM-アイコンが、編集に使用する画像素材M-
アイコン1030,1031,1032,1033,‥‥‥,103K,103
M,103N,‥‥‥として一時的に置かれ、一覧できるよ
うに表示されている。編集作業が進み、画像の呼出しを
行ないM-アイコン1030,1031,1032,1033,‥‥‥,10
3K,103M,103N,‥‥‥が作成され表示された段階で
は、M-アイコン1030,1031,1032,1033,‥‥‥,103
K,103M,103N,‥‥‥は、素材エリア1020に時系列順
に左から右、上から下に向かって表示される。
In the material area 1020, M-icons created from different cut images detected by the cut change point detection unit 3030 in FIG.
Icons 1030, 1031, 1032, 1033, ‥‥‥, 103K, 103
It is temporarily placed as M, 103N, @, and is displayed so that it can be viewed. Editing work proceeds, images are called, and M-icons 1030, 1031, 1032, 1033,.
At the stage when 3K, 103M, 103N, and 作成 are created and displayed, M-icons 1030, 1031, 1032, 1033, ‥‥‥, and 103 are displayed.
K, 103M, 103N, and ‥‥‥ are displayed in the material area 1020 in chronological order from left to right and from top to bottom.

【0015】この素材エリア1020の中のM-アイコン103
0,1031,1032,1033,‥‥‥,103K,103M,103N,‥
‥‥についても、編集エリア1010と同様に、M-アイコン
の数が多くて画面に一度に表示されていない場合は、入
力装置3090によってスライダ1090を操作し、縦方向に表
示を移動させることによってすべてのM-アイコンを見
る。
The M-icon 103 in the material area 1020
0, 1031, 1032, 1033, ‥‥‥, 103K, 103M, 103N, ‥
As for ‥‥, similarly to the editing area 1010, when the number of M-icons is large and is not displayed on the screen at one time, the slider 1090 is operated by the input device 3090 to move the display in the vertical direction. View all M-icons.

【0016】編集を行うためには、この素材エリア1020
の中から編集に必要なM-アイコンを選択し、次に機能ボ
タン群1050中のツリー構造作成ボタン1052を押す。これ
によって、選択されたM-アイコン1030は編集エリア1010
へ移動、あるいはコピーされる。このように、ツリー構
造1040を構成して編集を進める。なお、図4では編集が
ある程度進んでおり、すでに編集エリア1010にツリー構
造1040ができており、さらに、素材エリア1020のM-アイ
コン1030,1031,1032,1033,‥‥‥,103K,103M,10
3N,‥‥‥の中から所望のM-アイコンを選択して、図4
から編集を継続する状態である。また、素材エリア1020
と編集エリア1010の中に表示されるM-アイコンは、図面
上では1枚のカードとして描かれているが、これは省略
図であって、実際のモニタ3080の表示画面上では、M-ア
イコンのそれぞれは、M-アイコンがそれぞれ持つフレー
ム画像の枚数の重なった形状で表示される。
In order to perform editing, this material area 1020
, Select the M-icon required for editing, and then press the tree structure creation button 1052 in the function button group 1050. As a result, the selected M-icon 1030 is displayed in the editing area 1010.
Moved or copied to In this way, the editing is advanced by configuring the tree structure 1040. In FIG. 4, the editing has progressed to some extent, a tree structure 1040 has already been formed in the editing area 1010, and the M-icons 1030, 1031, 1032, 1033, ‥‥‥, 103K, 103M, Ten
Select the desired M- icon from 3N and ‥‥‥
This is the state where editing is continued from. Also, material area 1020
And the M-icon displayed in the editing area 1010 are drawn as one card in the drawing, but this is an abbreviated drawing, and the M-icon is displayed on the display screen of the actual monitor 3080. Are displayed in a shape in which the number of frame images included in each of the M-icons overlaps.

【0017】以上のようにして動画像の編集を進める
が、実際に番組作成に必要な画像素材は、図3の情報記
憶装置3060に記憶された画像情報(カット画像、あるい
は1つの動画像のファイルとして読出された一連の動画
像)のすべてであることは少ない。即ち、素材エリア10
20に表示されている複数のM-アイコン1030,1031,103
2,1033,‥‥‥,103K,103M,103N,‥‥‥のすべて
が必要となることはなく、編集目的、あるいは撮像テー
マにより選択した一部のM-アイコンに関連付けられた画
像素材だけが番組に使用される。また、画像素材には通
常複数のシーンが含まれているので、情報記憶装置3060
から読出した画像素材あるいは画像情報に含まれる多く
のM-アイコン1030,1031,1032,1033,‥‥‥,103K,
103M,103N,‥‥‥の中から編集に必要なM-アイコンを
探すことになる。
The editing of the moving image proceeds as described above. The image material that is actually required for creating the program includes the image information (cut image or one moving image) stored in the information storage device 3060 in FIG. It is unlikely that all of a series of moving images read as a file). That is, material area 10
Multiple M-icons 1030, 1031, 103 displayed on 20
All of 2,1033, ‥‥‥, 103K, 103M, 103N, ‥‥‥ are not required, only the image material associated with some M-icons selected for editing purpose or imaging theme. Used for programs. Further, since the image material usually includes a plurality of scenes, the information storage device 3060
Many M-icons 1030, 1031, 1032, 1033, ‥‥‥, 103K, included in the image material or image information read from
The M-icon required for editing is searched from 103M, 103N, and ‥‥‥.

【0018】上述の従来の動画像編集方法による動画像
編集装置の動作や、M-アイコンを使用して、ツリー構造
を作成しながら動画像の編集を行なう方法は、例えば特
開平10−51733号公報に開示されている。また、
カット画像の変化点を検出する手段としては、例えば、
動画像の照度、音量、色調などを解析して、これらの変
化の著しい部分をカット画像の変化点として検出する技
術が、特開平2−184181号公報に開示されてい
る。
The operation of the moving picture editing apparatus according to the above-described conventional moving picture editing method and the method of editing a moving picture while creating a tree structure using M-icons are described in, for example, JP-A-10-51733. It is disclosed in the gazette. Also,
As means for detecting a change point of a cut image, for example,
Japanese Patent Application Laid-Open No. 2-184181 discloses a technique of analyzing illuminance, volume, color tone, and the like of a moving image and detecting a portion where these changes are remarkable as a change point of the cut image.

【0019】ところで、上述のように動画像編集を行う
ためには、素材エリア1020に表示されている複数のM-ア
イコン1030,1031,1032,1033,‥‥‥,103K,103M,
103N,‥‥‥の中から、編集に必要なM-アイコンを探す
ことが必要である。この必要なM-アイコンを探すサポー
トをする機能が登場人物検出機能である。この登場人物
検出機能は、画像素材または複数のカットやシーンの中
から特定の人物を検出する機能を持っている。この特定
の人物を仮に“X”とする。
By the way, in order to edit a moving image as described above, a plurality of M-icons 1030, 1031, 1032, 1033,..., 103K, 103M,
It is necessary to find the M-icon required for editing from 103N, ‥‥‥. The function to support searching for the necessary M-icon is the character detection function. This character detection function has a function of detecting a specific person from image materials or a plurality of cuts or scenes. This particular person is temporarily assumed to be “X”.

【0020】この登場人物検出機能は、素材または複数
のカットまたはシーン、つまり被検出区間の中にいる人
物“X”が持つ特徴を組合わせてオペレータが選択し、
その色の組合わせに合致したフレームとその画素領域
を、画像認識技術を用いて見つけ出すものである。
This character detection function is selected by the operator by combining the features of a material or a plurality of cuts or scenes, that is, the characteristics of the person “X” in the detected section.
A frame and a pixel region corresponding to the combination of the colors are found using an image recognition technique.

【0021】オペレータは、選択した一連のM-アイコン
(即ち、登場人物が存在すると思われる被検出区間)の
中で、検出しようとする人物(例えば人物“X”)につ
いて、その特徴(例えば、髪の色,肌の色,服の色)の
組合せを指定する。これによって、動画像編集装置は指
定した色の組合せに合致した映像領域を画像処理により
検出し、合致した映像領域とそのフレームの情報をGUI
画面に表示する。
The operator selects a feature (for example, a person “X”) of a person (for example, a person “X”) to be detected in a series of selected M-icons (that is, a detected section in which a character appears to be present). Specify the combination of hair color, skin color, and clothing color). As a result, the moving image editing apparatus detects a video area that matches the specified color combination by image processing, and displays the information of the matched video area and its frame using the GUI.
Display on the screen.

【0022】この登場人物検出機能の操作手順を図4と
図2と図13を用いて説明する。
The operation procedure of the character detection function will be described with reference to FIGS. 4, 2 and 13.

【0023】図4は従来のノンリニア編集装置における
モニタ3080(図3)に表示された編集用ウインドウの一
例を示す図で、既に説明した。
FIG. 4 shows an example of the editing window displayed on the monitor 3080 (FIG. 3) in the conventional nonlinear editing apparatus, which has already been described.

【0024】図4において、オペレータは人物(例え
ば、人物“X”)を検出するため、被検出対象となるカ
ットまたはシーンに対応するM-アイコンを編集エリア10
10または素材エリア1020の中からマウスポインタ810で
選択し、マウスをクリックする。このときM-アイコンが
選択された状態となり、このようにM-アイコンを選択状
態にすることをアタッチという。この選択された状態の
表示は、例えば選択されたM-アイコンを太枠で囲む、M-
アイコンの表示色を変える、M-アイコンを点滅させる、
等の方法がある。
In FIG. 4, the operator sets an M-icon corresponding to the cut or scene to be detected in the editing area 10 in order to detect a person (for example, a person "X").
Select with the mouse pointer 810 from 10 or the material area 1020 and click the mouse. At this time, the M-icon is selected, and setting the M-icon to the selected state in this way is called attachment. This display of the selected state is performed by, for example, enclosing the selected M-icon with a thick frame,
Change the display color of the icon, blink the M-icon,
And so on.

【0025】例えば、素材エリア1020内にあるM-アイコ
ン1031〜1033をアタッチし、続いて編集機能ボタン群10
50の中の登場人物検出ボタン1051をクリックする。その
結果、モニタ3080には図2に示したウィンドウが表示さ
れる。このウィンドウ上で人物“X”の検出処理を行
う。図2は人物検出を行う時に検出したい人物の特徴を
定めて人物検出を行うを説明するための図である。300
はIDウインドウ、301はOKボタン、302はキャンセルボタ
ン、303はスライダーつまみ、304はスライドカーソル、
305は拡大表示画像、306は拡大表示エリア、307はオブ
ジェクトボタン、308は色指定枠、309はサーチボタン、
311は静止画ビュースライダー、312はオブジェクト名記
入欄、313はオブジェクト枠調整ボタン、314は検出区間
追加ボタン、315は検出区間削除ボタン、321〜330はフ
レーム画像、809はフィルムイメージ、810はマウスポイ
ンタである。
For example, the M-icons 1031 to 1033 in the material area 1020 are attached, and then the editing function button group 10
The character detection button 1051 in 50 is clicked. As a result, the window shown in FIG. 2 is displayed on the monitor 3080. On this window, the process of detecting the person “X” is performed. FIG. 2 is a diagram for explaining how to determine a feature of a person to be detected when performing person detection and perform person detection. 300
Is the ID window, 301 is the OK button, 302 is the Cancel button, 303 is the slider knob, 304 is the slide cursor,
305 is an enlarged display image, 306 is an enlarged display area, 307 is an object button, 308 is a color designation frame, 309 is a search button,
311 is a still image view slider, 312 is an object name entry field, 313 is an object frame adjustment button, 314 is a detection section addition button, 315 is a detection section deletion button, 321 to 330 are frame images, 809 is a film image, and 810 is a mouse It is a pointer.

【0026】図2において、フィルムイメージ809に
は、アタッチしたM-アイコン1031〜1033内に含まれるフ
レーム画像321〜330が表示される。フレーム画像321〜3
30は時間軸に沿って順番に並べられており、画面の左右
の表示されていない部分は静止画ビュースライダー311
のスライダつまみ303を左右にスクロール処理すること
によって、表示するフレーム画像をスライドさせて見る
ことができる。このスクロール処理は、例えばマウスポ
インタ810をスライダつまみ303に移動させ、マウスでド
ラッグする、または、スライドカーソル304の矢印部を
アタッチすることによって操作可能である。またIDウイ
ンドウ300の左下部の拡大表示エリア306内には拡大フレ
ーム画像305が表示される。この拡大フレーム画像305は
フィルムイメージ809にあるフレーム画像321〜330のう
ち、一番左端にあるフレーム画像321を拡大表示したも
のである。人物“X”を検出処理するために、この拡大
表示画像305を用いて人物“X”として検出する特徴を定
める。この一番左端に表示されているフレーム画像321
と拡大表示画像305とは連動しているため、オペレータ
はフィルムイメージ809中のフレーム画像をスクロール
することによって、人物“X”の検出処理に用いるため
の拡大表示画像305として拡大表示エリア306に表示させ
ることができる。オペレータはフィルムイメージ809中
のフレーム画像をスクロールして拡大表示画像305を見
ながら、人物“X”の検出処理に関して最適と考えるフ
レーム画像を選択する。次にこの拡大表示画像305から
人物“X”が持っている特徴的な色の組合せを指定す
る。フレーム画像321〜330のうち、フレーム画像321は
簡単な画像の表示をしているが、他のフレーム画像322
〜330については画像の表示を省略している。
In FIG. 2, frame images 321-330 included in the attached M-icons 1031-1033 are displayed on the film image 809. Frame images 321-2
30 are arranged in order along the time axis, the left and right parts of the screen that are not displayed are the still image view slider 311
By scrolling the slider knob 303 to the left or right, the displayed frame image can be slid and viewed. This scroll processing can be operated by, for example, moving the mouse pointer 810 to the slider knob 303 and dragging with the mouse, or attaching the arrow portion of the slide cursor 304. An enlarged frame image 305 is displayed in an enlarged display area 306 at the lower left of the ID window 300. The enlarged frame image 305 is an enlarged display of the leftmost frame image 321 among the frame images 321 to 330 in the film image 809. In order to detect the person "X", the feature to be detected as the person "X" is determined using the enlarged display image 305. The frame image 321 displayed on the far left
Is linked with the enlarged display image 305, the operator scrolls the frame image in the film image 809 to display the enlarged image 305 in the enlarged display area 306 as an enlarged display image 305 for use in the detection processing of the person "X". Can be done. The operator scrolls the frame image in the film image 809 and looks at the enlarged display image 305 to select a frame image that is considered to be optimal for the process of detecting the person “X”. Next, a characteristic color combination possessed by the person “X” is designated from the enlarged display image 305. Of the frame images 321 to 330, the frame image 321 displays a simple image, but the other frame images 322
The display of images is omitted for items # 330.

【0027】特徴的な色の組合せを指定する方法は、オ
ブジェクトボタン307をクリックしてから、特徴的な色
を指定するための範囲を定める色指定枠308を拡大表示
画像305の中から指定して行う。色指定枠308の指定は、
パーソナルコンピュータ等の描画において四角の枠を作
成する方法と同様であり、もちろん、指定した後、色指
定枠308の移動及び大きさの変更も可能である。色指定
枠308に囲まれた部分の色が人物“X”(フレーム画像中
で人物“X”が占めている画素領域)が持つ特徴的な色
となる。図2の例では人物“X”が着ている服の色を指
定しているが、その他、例えば、髪の色、肌の色、服の
色等を指定する。この色の組合せのデータが検出処理に
用いられる。上述のような登場人物検出機能は、例え
ば、特開平6−223179号公報に開示されている。
To specify a characteristic color combination, click the object button 307, and then specify a color specification frame 308 that defines a range for specifying a characteristic color from the enlarged display image 305. Do it. The specification of the color specification frame 308 is
This is the same as the method of creating a rectangular frame in drawing on a personal computer or the like. Needless to say, after designation, the color designation frame 308 can be moved and its size can be changed. The color of the portion surrounded by the color designation frame 308 is the characteristic color of the person “X” (the pixel area occupied by the person “X” in the frame image). In the example of FIG. 2, the color of the clothes worn by the person “X” is specified, but in addition, for example, a hair color, a skin color, a clothes color, and the like are specified. The data of this color combination is used for the detection processing. The above-described character detection function is disclosed in, for example, Japanese Patent Application Laid-Open No. 6-223179.

【0028】色の指定が終了した後、サーチボタン309
をクリックするとM-アイコン1031〜1033に対して検出処
理を行う。検出処理を行った後、IDウインドウ300上に
は人物“X”に対する検出結果が図13のように表示さ
れる(図13の説明は後述する)。検出結果を保持する
時はOKボタン301をクリックすることでIDウインドウを
閉じ、検出結果を保持しない時はキャンセルボタン302
をクリックすることでIDウインドウを閉じる。
After the color designation is completed, a search button 309
When the button is clicked, detection processing is performed on the M-icons 1031 to 1033. After performing the detection process, the detection result for the person “X” is displayed on the ID window 300 as shown in FIG. 13 (the description of FIG. 13 will be described later). Click the OK button 301 to close the ID window to keep the detection results, or click the Cancel button 302 to not keep the detection results.
Click to close the ID window.

【0029】この登場人物検出機能によって2つの結果
が得られる。一つは人物“X”が画像素材またはカット
の中のどこからどこまでに存在するのかを示す検出区間
の情報であり、もう一つは検出区間内のフレーム画像の
どの位置(例えば、左側、中央部右側、上部、左下側
等)に人物“X”が存在しているのかを示すポジション
情報である。
Two results are obtained by this character detection function. One is information on a detection section indicating where the person "X" exists in the image material or the cut, and the other is at what position (for example, left, center, etc.) of the frame image in the detection section. Position information indicating whether a person “X” exists at the right, upper, lower left, etc.).

【0030】しかし、現状の登場人物検出の機能は、認
識の精度の問題から、誤検出や見逃しが発生し易い。し
たがって、IDウインドウを見てオペレータがマウスを使
って手動で確認や修正を行う必要がある。
However, in the current character detection function, erroneous detection or oversight is likely to occur due to the problem of recognition accuracy. Therefore, it is necessary for the operator to check and correct the ID window manually using a mouse while looking at the ID window.

【0031】しかし、現状の登場人物検出の機能は、認
識の精度の問題から、誤検出や見逃しが発生し易い。し
たがって、IDウインドウを見てオペレータがマウスを使
って手動で確認や修正を行う必要がある。
However, in the current character detection function, erroneous detection or oversight is likely to occur due to the problem of recognition accuracy. Therefore, it is necessary for the operator to check and correct the ID window manually using a mouse while looking at the ID window.

【0032】図8は図4において、M-アイコン1031,10
32,1033を選択し、前述のとおり登場人物検出を行った
結果の編集ウインドウの例である。ここで、図4と同じ
ものには同じ符号が付せられており、その他に、12,1
3,14はIDXアイコンである。
FIG. 8 shows the M-icons 1031 and 10 shown in FIG.
This is an example of an edit window of the result of selecting characters 32 and 1033 and performing character detection as described above. Here, the same components as those in FIG. 4 are denoted by the same reference numerals.
3 and 14 are IDX icons.

【0033】登場人物検出を行った後、図2に示したID
ウインドウ300のOKボタン301をアタッチすると、検出結
果を保持したままIDウインドウ300が閉じ、編集ウイン
ドウ1000の素材エリア1020の下部にIDXアイコン12が表
示される。また、別のM-アイコンを選択して登場人物検
出を行う都度、さらにIDXアイコン13,14,‥‥‥と表
示が増えていく。
After performing the character detection, the ID shown in FIG.
When the OK button 301 of the window 300 is attached, the ID window 300 is closed while retaining the detection result, and the IDX icon 12 is displayed below the material area 1020 of the editing window 1000. Further, each time a character is detected by selecting another M-icon, the display of the IDX icons 13, 14, and さ ら に further increases.

【0034】次に、人物検出結果の確認や修正に関する
従来のGUI操作の例を図13によって説明する。図13
は、人物検出結果の確認や修正を行う場合のIDウインド
ウの表示例である。図2と同一のものには同一の符号を
付した。その他に、80はIDウインドウ、800,801,80
2,802′,803は検出矢印、804,805,806,807,808は
オブジェクト枠、809′はフィルムイメージ、811,812
は検出区間、813,814,823,824はフィルムイメージ80
9′の中に画面左から時間軸に沿って順番に並んでいる
フレーム画像、817,818,820,821,822は人物“X”が
それぞれのフレーム画像において占有している画素領域
である。図13のIDウインドウ80において、フィルムイ
メージ809′の上側に表示されている検出矢印800〜803
は検出区間の始りと終りを示す矢印である。検出矢印80
0と検出矢印802は検出された先頭であり、ビギン点と呼
ぶ。また、検出矢印801と検出矢印803は検出された終点
であり、エンド点と呼ぶ。ビギン点の検出矢印800とエ
ンド点の検出検出矢印801に挟まれた区間が検出区間812
であり、ビギン点の検出矢印802とエンド点の検出検出
矢印803に挟まれた区間が検出区間811である。検出区間
811と検出区間812のそれぞれに属するフレーム画像に表
示されているオブジェクト枠804〜808は人物“X”がフ
レーム画像のどの位置に存在しているかを示すポジショ
ンを示し、登場人物検出が行われた結果として表示され
る。
Next, an example of a conventional GUI operation related to confirmation and correction of a person detection result will be described with reference to FIG. FIG.
9 is an example of a display of an ID window when a person detection result is confirmed or corrected. The same components as those in FIG. 2 are denoted by the same reference numerals. In addition, 80 is an ID window, 800, 801, 80
2, 802 ', 803 are detection arrows, 804, 805, 806, 807, 808 are object frames, 809' is a film image, 811, 812
Is the detection section, 813, 814, 823, 824 is the film image 80
Frame images arranged in order along the time axis from the left of the screen in 9 ', and 817, 818, 820, 821, and 822 are pixel regions occupied by the person "X" in each frame image. In the ID window 80 of FIG. 13, the detection arrows 800 to 803 displayed above the film image 809 '.
Are arrows indicating the start and end of the detection section. Detection arrow 80
0 and the detection arrow 802 indicate the detected head, which is called a begin point. Further, the detection arrows 801 and 803 are the detected end points, and are called end points. The section between the detection arrow 800 of the begin point and the detection arrow 801 of the end point is a detection section 812.
The section between the begin point detection arrow 802 and the end point detection detection arrow 803 is a detection section 811. Detection interval
Object frames 804 to 808 displayed on the frame images belonging to 811 and the detection section 812 indicate positions indicating the position of the person “X” in the frame image, and the character detection has been performed. Displayed as a result.

【0035】検出区間およびオブジェクト枠の修正は以
下のように行う。最初に検出区間の修正について述べ
る。図13において、検出矢印802のビギン点を1フレー
ム左のフレーム813に移動して、検出区間811の延長を行
う場合について説明する。マウスポインタ810はマウス
(図示しない)によって表示画面上を移動することがで
きるGUI部品で、マウスの他、一般的なポインティング
デバイスによっても操作することができる。まず、マウ
スポインタ810をビギンボタン815に移動してマウスをク
リックする。そして次に、フレーム813にマウスポイン
タ810を移動してマウスをクリックする。すると新規の
ビギン点を表す検出矢印802′が表示される。その後元
のビギン点である検出矢印802をクリックすることによ
り、元のビギン点を表す検出矢印802が消える。この結
果、検出区間811が左へ1フレーム延長される。同様
に、エンド点の修正もエンドボタン816をクリックし、
エンド点にしたいフレームをクリックした後もとエンド
点の検出矢印をクリックしてエンド点の変更を行う。
The correction of the detection section and the object frame is performed as follows. First, the correction of the detection section will be described. In FIG. 13, a case will be described in which the begin point of the detection arrow 802 is moved to the frame 813 one frame to the left to extend the detection section 811. The mouse pointer 810 is a GUI component that can be moved on the display screen by a mouse (not shown), and can be operated by a general pointing device in addition to the mouse. First, the user moves the mouse pointer 810 to the begin button 815 and clicks the mouse. Next, the mouse pointer 810 is moved to the frame 813 and the mouse is clicked. Then, a detection arrow 802 'indicating a new begin point is displayed. Then, by clicking the detection arrow 802 which is the original begin point, the detection arrow 802 representing the original begin point disappears. As a result, the detection section 811 is extended one frame to the left. Similarly, to modify the end point, click the end button 816,
After clicking the frame to be the end point, click the end point detection arrow to change the end point.

【0036】次にオブジェクト枠の修正について述べ
る。この修正もマウスポインタ810を使用して行う。図
13において、フレーム画像814のオブジェクト枠806を
修正する場合を例にとる。図13において、フレーム画
像824のオブジェクト枠805が人物“X”を示す画素領域8
18の大きさと位置がほぼ一致しているのに比べ、フレー
ム画像814のオブジェクト枠806は人物“X”の画素領域8
20よりもやや大きめで中央よりの位置に表示されてい
る。この場合、オペレータがこのフレーム画像814を見
た時、オブジェクト枠806の位置にまどわされ、人物
“X”の画素領域がフレームの中央部にいると誤認して
しまうので、オブジェクト枠806を人物“X”の画素領域
820に合せるためオブジェクト枠806の大きさや位置を修
正する必要がある。オブジェクト枠804,805,806,80
7,808の大きさや位置の修正は、現在のオブジェクト枠
を削除して新規に設定する方法の他、例えば、Microsof
t社のOS(OperatingSystem)の1つであるWindows95に
おける画面操作やオブジェクト操作等、周知の方法で実
行できる。
Next, the modification of the object frame will be described. This correction is also performed using the mouse pointer 810. In FIG. 13, a case where the object frame 806 of the frame image 814 is modified is taken as an example. In FIG. 13, an object frame 805 of a frame image 824 is a pixel region 8 indicating a person “X”.
The object frame 806 of the frame image 814 has a pixel area 8
It is slightly larger than 20, and is displayed at a position from the center. In this case, when the operator looks at the frame image 814, the position is shifted to the position of the object frame 806, and the pixel region of the person “X” is erroneously recognized as being at the center of the frame. X "pixel area
It is necessary to correct the size and position of the object frame 806 in order to match with 820. Object frame 804, 805, 806, 80
Modification of the size and position of 7,808, other than the method of deleting the current object frame and newly setting, for example, Microsof
It can be executed by a well-known method such as screen operation and object operation in Windows 95, which is one of the operating systems (OS) of the company t.

【0037】なお、オブジェクト枠806を人物“X”の画
素領域820に合せて修正する操作を行った場合には、オ
ブジェクト枠806以降にあるすべてのオブジェクト枠に
ついての人物“X”の画素領域(例えば、オブジェクト
枠807,808における人物“X”の画素領域821及び822)
もまたオブジェクト枠806と同じ大きさと位置とに修正
される。
When the operation of correcting the object frame 806 to the pixel area 820 of the person “X” is performed, the pixel area of the person “X” for all the object frames after the object frame 806 ( For example, the pixel areas 821 and 822 of the person “X” in the object frames 807 and 808)
Is also corrected to the same size and position as the object frame 806.

【0038】登場人物検出の途中または終了後、図2に
示したキャンセルボタン302をアタッチすると、検出結
果をキャンセルしてIDウインドウ300が閉じる。また、I
Dウインドウ300のOKボタン301をアタッチすると、検出
結果を保持したままIDウインドウ300が閉じ、図8に示
すように、編集ウインドウ1000の素材エリア1020の下部
にIDXアイコン12が表示される。そして、このIDXアイコ
ン12のデータ構造の中に人物“X”に対する検出処理の
結果に関する情報が格納されている。また、このような
IDXアイコンは、人物検出するために編集ウインドウ100
0内で同時にアタッチしたM-アイコンのすべてに対して
一つ作成される。即ち、毎回違うM-アイコンをアタッチ
して人物検出処理をすると、新しいIDXアイコン13,1
4,‥‥‥が次々と作成される。IDXアイコン12をマウス
でダブルクリックするか、または選択してIDX情報ボタ
ン1053をアタッチすると、図6に示すような、IDX情報
を示すIDXウインドウがポップアップ表示される。
When the cancel button 302 shown in FIG. 2 is attached during or after the detection of the characters, the detection result is canceled and the ID window 300 is closed. Also, I
When the OK button 301 of the D window 300 is attached, the ID window 300 is closed while retaining the detection result, and the IDX icon 12 is displayed below the material area 1020 of the editing window 1000 as shown in FIG. In the data structure of the IDX icon 12, information on the result of the detection process for the person "X" is stored. Also like this
The IDX icon appears in the edit window 100 to detect people.
Within 0, one is created for all M-icons attached at the same time. That is, every time a different M-icon is attached to perform the person detection process, a new IDX icon 13,1
4 and ‥‥‥ are created one after another. When the IDX information button 1053 is attached by double-clicking or selecting the IDX icon 12 with a mouse, an IDX window showing IDX information as shown in FIG.

【0039】図6はIDXウインドウの表示例を示す図
で,人物“A”,“B”,“C”それぞれについての検出
結果が表示されている。これは上述した同一のM-アイコ
ン群1031〜1033について、別々の人物について検出処理
をした結果である。600はIDXウインドウ、603は検出範
囲表示エリア、604,605,606は領域、611はターゲット
表示欄、614は検出区間、616は非検出区間、631,632,
633はターゲットイメージ、634,635,636は人名、63
7,638,639は検出区間グラフ、650は検出結果表示欄、
640は検出結果表示欄650の表示を横方向にスライドさせ
るスライダ、641は検出結果表示欄650の表示を縦方向に
スライドさせるスライダ、810はマウスポインタ、241は
クローズボタンである。
FIG. 6 is a diagram showing a display example of the IDX window, in which the detection results for each of the persons "A", "B", and "C" are displayed. This is a result of performing detection processing on the same M-icon groups 1031 to 1033 described above for different persons. 600 is an IDX window, 603 is a detection range display area, 604, 605, and 606 are areas, 611 is a target display field, 614 is a detection section, 616 is a non-detection section, 631, 632,
633 is the target image, 634, 635, and 636 are personal names, 63
7, 638, 639 are detection section graphs, 650 is a detection result display column,
Reference numeral 640 denotes a slider for sliding the display of the detection result display column 650 in the horizontal direction, reference numeral 641 denotes a slider for sliding the display of the detection result display column 650 in the vertical direction, reference numeral 810 denotes a mouse pointer, and reference numeral 241 denotes a close button.

【0040】図6において、IDXウインドウ600上の検出
範囲表示エリア603は横方向を時系列沿って表示されて
いる。またさらに、検出範囲表示エリア603は今3つの
領域604〜606に分かれている。この領域604〜606はオペ
レータがアタッチしたM-アイコン1031〜1033のカットの
長さ(=フレーム数)に応じて区切られている。即ち、
M-アイコン1031のフレーム数と領域604のフレーム数は
対応しており、M-アイコン1032と領域605のフレーム
数、M-アイコン1033と領域606のフレーム数もまた対応
している。また、ターゲット表示欄611には、検出した
人物のターゲットイメージ631,632,633とその人名63
4,635,636とが縦方向に表示される。例えば、人物
“A”を検出した場合にはターゲットイメージ631と人名
634とがターゲット表示欄611に表示され、かつその右横
の検出結果表示欄650に検出区間グラフ637が表示され
る。さらに人物“B”を検出した場合には、人物“A”の
下側のターゲット表示欄611にターゲットイメージ632と
人名635が表示され、かつその右横の検出結果表示欄650
に検出区間グラフ638が表示される。同様に、人物“C”
を検出したときにはターゲットイメージ633と人名636が
ターゲット表示欄611の下側に表示され、かつその右横
の検出結果表示欄650に検出区間グラフ639が表示され
る。これらのターゲットイメージ631,632,633は、人
物“A”,“B”,“C”をそれぞれ検出するために特徴
的な色を取得するために使用した拡大表示画像のフレー
ム画像(例えば、図2のフレーム画像304)である。タ
ーゲットイメージ631〜633の下の人名634〜636にはそれ
ぞれの検出対象名が表示される。検出区間グラフ637,6
38,639の表示欄は有限であるので、検出領域が広く一
度に全ての検出領域が表示できない場合がある。その場
合は、スライダ640を操作して、表示を横方向にスクロ
ールさせる。また、検出した人物の数が多い場合にも一
度に検出した人物の全てを表示できない(図6の例では
一度に表示できる数は3人)。この場合には、スライダ
641を操作して表示を縦方向にスクロールさせる。以上
述べたように、検出区間グラフ637〜639の領域には、カ
ット即ちM-アイコン1031〜1033に対して実行された人物
“A”,“B”,“C”の検出結果が示されている。
In FIG. 6, the detection range display area 603 on the IDX window 600 is displayed in chronological order in the horizontal direction. Furthermore, the detection range display area 603 is now divided into three areas 604 to 606. The areas 604 to 606 are divided according to the cut length (= the number of frames) of the M-icons 1031 to 1033 attached by the operator. That is,
The number of frames of the M-icon 1031 and the number of frames of the area 604 correspond, and the number of frames of the M-icon 1032 and the area 605 and the number of frames of the M-icon 1033 and the area 606 also correspond. In the target display column 611, target images 631, 632, 633 of the detected person and their names 631 are displayed.
4,635,636 are displayed vertically. For example, if the person “A” is detected, the target image 631 and the person name
634 is displayed in the target display column 611, and the detection section graph 637 is displayed in the detection result display column 650 on the right side thereof. Further, when the person “B” is detected, a target image 632 and a person name 635 are displayed in a target display column 611 below the person “A”, and a detection result display column 650 on the right side thereof.
, A detection section graph 638 is displayed. Similarly, the person "C"
Is detected, a target image 633 and a person's name 636 are displayed below the target display column 611, and a detection section graph 639 is displayed in a detection result display column 650 on the right side thereof. These target images 631, 632, and 633 are frame images of an enlarged display image used to acquire a characteristic color for detecting the persons “A”, “B”, and “C” (for example, FIG. 2 frame image 304). Each detection target name is displayed in the person names 634 to 636 below the target images 631 to 633. Detection interval graph 637, 6
Since the display fields of 38 and 639 are finite, the detection area may be large and not all the detection areas may be displayed at once. In that case, the display is scrolled in the horizontal direction by operating the slider 640. Further, even when the number of detected persons is large, all of the detected persons cannot be displayed at one time (in the example of FIG. 6, the number of persons that can be displayed at one time is three). In this case, the slider
Use 641 to scroll the display vertically. As described above, in the areas of the detection section graphs 637 to 639, the detection results of the persons “A”, “B”, and “C” executed for the cut, that is, the M-icons 1031 to 1033 are shown. I have.

【0041】次に、検出結果を、検出区間グラフ637を
例にして説明する。検出区間614は、M-アイコン1031〜1
033について、領域604,605,606の間で人物“A”が検
出された区間を示しており、非検出区間616は検出され
なかった区間を示している。例えば、領域604はM-アイ
コン1031に関連付けられたフレーム画像の集合について
時間的に並べたものであり、領域605はM-アイコン1032
に関連付けられたフレーム画像の集合について時間的に
並べたものであり、領域606はM-アイコン1033に関連付
けられたフレーム画像の集合について時間的に並べたも
のである。また、1つのフレーム画像についてそれぞれ
所定の幅を持たせて表示しており、図6では検出区間61
4を斜線パターンとし、非検出区間616を白色として区別
して表示している。この検出・非検出の表示は区別がつ
けばどんな表示でもよく、例えば検出区間614はオレン
ジ色で表示し、検出されなかった非検出区間616は灰色
で表示することでもよいし、どちらか一方を点滅させて
もよい。
Next, the detection result will be described using the detection section graph 637 as an example. The detection section 614 includes the M-icons 1031-1.
Regarding 033, a section where the person “A” is detected is shown between the areas 604, 605 and 606, and a non-detection section 616 is a section where no person is detected. For example, the area 604 is a time-series arrangement of a set of frame images associated with the M-icon 1031, and the area 605 is an M-icon 1032
Are arranged in time with respect to the set of frame images associated with the M-icon 1033. The area 606 is arranged in time with respect to the set of frame images associated with the M-icon 1033. In addition, one frame image is displayed with a predetermined width, and in FIG.
4 is a diagonal pattern, and the non-detection section 616 is displayed as being distinguished as white. This display of detection / non-detection may be any display as long as it can be distinguished.For example, the detection section 614 may be displayed in orange, and the non-detection section 616 that has not been detected may be displayed in gray. You may make it blink.

【0042】この検出区間614及び非検出区間616は、図
8のM-アイコン1031〜1033の側面にも表示される(図示
しない)。図12(a),(b),(c)は、図8のM-アイコン1
031〜1033の側面に、人物検出の結果が表示されている
ことを示す図である。図6と同様に、領域604はM-アイ
コン1031の領域、領域605はM-アイコン1032の領域、領
域606はM-アイコン1033の領域をそれぞれ示す。M-アイ
コンの側面の幅はそのM-アイコン自身のフレーム数(1
つのフレーム画像についてそれぞれ一定の厚みを持たせ
て表示)を示しているので、検出区間614としてそのフ
レームの数に相当する分だけM-アイコン1031〜1033の側
面を斜線で表示する。また、非検出区間616としてその
フレームの数に相当する分だけM-アイコン1031〜1033の
側面に白色で表示する。この表示は、検出結果として常
に表示する設定でもよいが、通常はターゲットイメージ
631をオペレータがアタッチした場合に行うとしてもよ
く。また、どちらか一方を表示してもよい。なお、図1
2(a),(b),(c)に示したM-アイコン1031〜1033は、そ
れぞれに関連付けられた画像を縮小した表示用画像が実
際には表示されているが、図12では省略している。
The detected section 614 and the non-detected section 616 are also displayed on the side of the M-icons 1031 to 1033 in FIG. 8 (not shown). FIGS. 12A, 12B and 12C show the M-icon 1 in FIG.
It is a figure showing that the result of person detection is displayed on the side of 031-1033. As in FIG. 6, the area 604 indicates the area of the M-icon 1031, the area 605 indicates the area of the M-icon 1032, and the area 606 indicates the area of the M-icon 1033. The width of the side of the M-icon is the number of frames (1
(Displayed with a certain thickness for each of the three frame images), so that the side of the M-icons 1031 to 1033 is displayed as oblique lines as much as the number of frames as the detection section 614. Also, the non-detection section 616 is displayed in white on the side surfaces of the M-icons 1031 to 1033 by an amount corresponding to the number of the frames. This display may be set so that it is always displayed as a detection result.
It may be performed when the operator attaches 631. Alternatively, either one may be displayed. FIG.
In the M-icons 1031 to 1033 shown in 2 (a), (b), and (c), display images obtained by reducing the images associated with the respective M-icons are actually displayed, but are omitted in FIG. ing.

【0043】また検出区間614のうち、例えば領域605に
ある検出区間614をアタッチすると、検出区間グラフ637
のその領域605が所属する検出区間の表示の模様や色
が、例えば紫色に変化し、そこから領域605を意味するM
-アイコン1032(図8)に向けて、紫色のスポットライ
トが照射されるような表示がなされる。この機能によっ
て、どの検出区間がどのM-アイコンに属しているのか見
つけ易くなる。なお、図6のIDXウインドウ600を閉じる
場合は、クローズボタン241をクリックする。
When the detection section 614 in the area 605 of the detection sections 614 is attached, for example, the detection section graph 637 is obtained.
The pattern or color of the display of the detection section to which the area 605 belongs changes from, for example, purple,
-A display is made such that a purple spotlight is irradiated toward the icon 1032 (FIG. 8). With this function, it is easy to find which detection section belongs to which M-icon. To close the IDX window 600 in FIG. 6, the user clicks the close button 241.

【0044】[0044]

【発明が解決しようとする課題】前述の従来技術には、
以下のような欠点がある。
The above-mentioned prior art includes the following:
There are the following disadvantages.

【0045】 従来の登場人物検出機能ではアタッチ
したM-アイコンに対して一つのIDXアイコンが素材エリ
アに作成された。つまり、毎回違うM-アイコンをアタッ
チして検出処理をすると、新しいIDXアイコンが素材エ
リアに次々に作成されてしまうので、素材エリアが見難
くかった。
In the conventional character detection function, one IDX icon is created in the material area for the attached M-icon. In other words, every time a different M-icon is attached and detected, new IDX icons are created one after another in the material area, making it difficult to see the material area.

【0046】 IDXアイコンにはどのM-アイコンにど
ういう人物の検出処理を行ったかという情報が表示され
ないため、オペレータはIDXアイコンに対応したIDXウイ
ンドウを開いて確認する必要があり、確認に手間がかか
った。
Since the IDX icon does not display information on which M-icon has performed what kind of person detection processing, the operator needs to open the IDX window corresponding to the IDX icon to check, and it takes time to check. Was.

【0047】 IDXウインドウの検出結果の人物ごと
に表示された段を削除する機能がないために、必要のな
い検出結果などを削除することができなかった。
Since there is no function of deleting a row displayed for each person in the IDX window detection result, unnecessary detection results and the like cannot be deleted.

【0048】 人物“A”、“B”、“C”の検出処理
に用いた色の組合せのデータがIDXアイコンのデータ構
造に保存されていないため、既に検出処理に用いた色の
組合せを別のM-アイコンの検出処理に使用できなかっ
た。
Since the data of the color combination used in the detection processing of the persons “A”, “B”, and “C” is not stored in the data structure of the IDX icon, the color combination already used in the detection processing is different. Could not be used to detect M-icons.

【0049】本発明の目的は、上記のような欠点を除去
し、簡単な画面操作が可能で、より高機能の画像検出方
法を提供することにある。
An object of the present invention is to provide a more sophisticated image detecting method which eliminates the above-mentioned drawbacks, enables simple screen operations, and has a higher function.

【0050】[0050]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の画像検出方法は、IDXアイコンのデータ
構造に格納されていた特定の人物に関する検出情報を、
M-アイコンのデータ構造に格納する様にする。これによ
ってIDXアイコンを作成する必要がない。
In order to achieve the above object, an image detection method according to the present invention uses detection information on a specific person stored in a data structure of an IDX icon.
Store in the data structure of M-icon. This eliminates the need to create IDX icons.

【0051】そして、IDXウィンドウの表示をM-アイコ
ンのデータ構造に格納された検出情報に基いて行う。但
し、アタッチしたM-アイコンの中には特定の画像に関し
て検出処理を行っていないものも含まれるため、検出処
理をしているM-アイコンなのか否かを区別する表示を行
った。更に検出区間のみを表示していたM-アイコンの側
面にもこの検出処理をしたか否かの表示を追加した。
The IDX window is displayed based on the detection information stored in the data structure of the M-icon. However, since some of the attached M-icons have not been subjected to the detection processing with respect to the specific image, a display for distinguishing whether or not the M-icon has been subjected to the detection processing is performed. In addition, an indication of whether or not this detection processing has been performed has been added to the side of the M-icon that has only displayed the detection section.

【0052】また、特定の対象画像ごとに表示された検
出結果を削除する機能を新たに追加した。
Further, a function for deleting a detection result displayed for each specific target image is newly added.

【0053】さらにまた、様々な対象について検出処理
を行ったうち、同一の対象について別々の色情報(例え
ば服の色が違う場合など)での検出結果を一つにまとめ
るコンバイン(結合)機能を設けた。またこれとは逆
に、コンバインされた検出結果を元に戻すアンコンバイ
ン(結合解除)機能も設けた。
Further, a combine function for combining detection results of different color information (for example, when the color of clothes is different) for the same object during detection processing for various objects is provided. Provided. On the contrary, an uncombining (unbinding) function for restoring the combined detection result is also provided.

【0054】さらに、検出処理によって得られた検出区
間だけを動画像で再生するプレビュー機能と、検出結果
に対して検出処理を行った画像の情報などを付加し、デ
ータ構造に格納するインフォメーション機能とを設け
た。
Further, a preview function for reproducing only a detection section obtained by the detection processing as a moving image, and an information function for adding information of an image obtained by performing a detection processing on a detection result and storing the information in a data structure are provided. Was provided.

【0055】また、検出範囲表示エリアの時系列の幅を
自由に設定できる機能も設ける。これにより検出区間な
どの表示の幅を自由に調節できる。
Further, a function for freely setting the time-series width of the detection range display area is also provided. Thereby, the width of the display such as the detection section can be freely adjusted.

【0056】更にそれぞれの検出対象画像について、そ
れぞれの検出処理に用いた色の組合せのデータをM-アイ
コンのデータ構造に保存しておき、再利用できるように
した。
Further, for each image to be detected, the data of the combination of colors used for each detection process is stored in the data structure of the M-icon so that it can be reused.

【0057】[0057]

【発明の実施の形態】本発明の一実施例を以下に説明す
る。検出処理が一度も行われていない状態から順を追っ
て操作手順を図4〜10によって説明する。図4は図3の
動画像編集装置においてモニタ3080の画面に表示される
編集用ウィンドウの一例を示す図で従来技術で既に説明
した。まずオペレータは、人物“A”を検出するため、
被検出対象となるカットまたはシーンに対応するM-アイ
コン1031〜1033をアタッチする。そして、編集機能ボタ
ン群1050の登場人物検出ボタン1051をアタッチする。そ
の結果、モニタ3080には図5に示すIDXウインドウが表
示される。図5は人物検出処理がまだ実行されていない
状態(初期状態)のIDXウインドウの一例である。6000
はIDXウインドウ、237,238,239は検出結果表示欄、24
0は新規ボタン、241はクローズボタン、242はサーチボ
タン、243は結合ボタン、244は結合解除ボタン、245は
プレビューボタン、246はインフォメーションボタン、2
47は可視範囲調整スライダー、248は修正ボタンであ
る。その他の符号は図6と同じである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. The operation procedure will be described with reference to FIGS. 4 to 10 in order from the state in which the detection processing has never been performed. FIG. 4 is a diagram showing an example of an editing window displayed on the screen of the monitor 3080 in the moving picture editing apparatus of FIG. 3, which has been described in the prior art. First, the operator detects the person "A"
Attach M-icons 1031 to 1033 corresponding to cuts or scenes to be detected. Then, the character detection button 1051 of the editing function button group 1050 is attached. As a result, the IDX window shown in FIG. 5 is displayed on the monitor 3080. FIG. 5 shows an example of the IDX window in a state where the person detection processing has not been executed yet (initial state). 6000
Is the IDX window, 237, 238, 239 are the detection result display columns, 24
0 is a new button, 241 is a close button, 242 is a search button, 243 is a join button, 244 is a unlink button, 245 is a preview button, 246 is an information button, 2
47 is a visible range adjustment slider, and 248 is a correction button. Other symbols are the same as those in FIG.

【0058】この段階ではM-アイコン1031〜1033には検
出処理が一度も行われていない状態なので、IDXウイン
ドウ6000は図5のように、ターゲット表示欄611にも検
出結果表示欄237,238,239にも何もデータがない表示
になる。これが初期状態である。
At this stage, since no detection processing has been performed on the M-icons 1031 to 1033, the IDX window 6000 also displays the detection result display columns 237, 238, and 237 in the target display column 611 as shown in FIG. 239 is displayed without any data. This is the initial state.

【0059】まず人物“A”について検出処理を開始す
る。オペレータが新規ボタン240をクリックすると、モ
ニタ3080には図2に示すIDウインドウ300が表示され
る。このIDウインドウ300においてオペレータは人物
“A”の検出処理を行う。なお、この検出処理の操作に
ついての詳細は従来の技術と同様であるので説明を省略
する。検出処理を行った後、IDウインドウ300上には人
物“A”に対する検出結果が図13のように表示され
る。そして必要があれば、その検出結果にオペレータが
修正を加える。検出結果の修正を終えた後、OKボタン30
1をクリックするとIDウインドウ300が閉じる。OKボタン
301がクリックされた時点で、人物“A”に対する検出結
果のデータはアタッチしたM-アイコン1031〜1033に対応
するデータ構造に格納される。但し、ツリー構造の上位
層、例えばM-アイコン1220“イ”をアタッチした場合
は、ツリーの最下層のM-アイコン1210“ロ”,“ハ”,
“ニ”に対応するデータ構造に検出結果のデータが格納
される。このように、検出結果のデータは常に最下位の
M-アイコンに格納するのは、検出結果のデータが編集エ
リア1010内の編集操作に左右されることをなくすためで
ある。即ち、ツリー構造の上位層のM-アイコン1220
“イ”に最下層のM−アイコン1210“ロ”,“ハ”,
“ニ”に関する検出結果のデータを格納すると、M-アイ
コン1210“ハ”をツリー構造からはずしたときなどは検
出結果のデータを変更しなければならなくなるからであ
る。
First, detection processing is started for the person "A". When the operator clicks the new button 240, an ID window 300 shown in FIG. 2 is displayed on the monitor 3080. In the ID window 300, the operator performs a process of detecting the person "A". The details of the operation of this detection processing are the same as those of the prior art, and thus the description thereof is omitted. After performing the detection process, the detection result for the person “A” is displayed on the ID window 300 as shown in FIG. If necessary, the operator corrects the detection result. After correcting the detection result, click the OK button 30
Clicking 1 closes the ID window 300. OK button
When 301 is clicked, the data of the detection result for the person “A” is stored in the data structure corresponding to the attached M-icons 1031 to 1033. However, when the upper layer of the tree structure, for example, the M-icon 1220 “i” is attached, the M-icon 1210 “b”, “c”,
The data of the detection result is stored in the data structure corresponding to “d”. In this way, the detection result data is always
The reason why the data is stored in the M-icon is to prevent the data of the detection result from being influenced by the editing operation in the editing area 1010. That is, the M-icon 1220 in the upper layer of the tree structure
"I" is the lowermost M-icon 1210 "B", "C",
If the data of the detection result regarding “d” is stored, it is necessary to change the data of the detection result when the M-icon 1210 “c” is removed from the tree structure.

【0060】IDウインドウ300を閉じると、再びIDXウイ
ンドウ表示に戻る。この場合、IDXウインドウには人物
“A”に関する検出結果のみが図7に示すように表示され
る。図7は人物“A”に関する検出結果のみを表示したI
DXウインドウである。6001はIDXウインドウ、631は人物
“A”のターゲットイメージ、634は人名、637は検出区
間グラフであり、その他の符号は図5と同じである。ク
ローズボタン241をクリックするとIDXウインドウ6001が
閉じ、図4の編集用ウィンドウ1000の状態に戻る。
When the ID window 300 is closed, the display returns to the IDX window display again. In this case, only the detection result regarding the person “A” is displayed in the IDX window as shown in FIG. FIG. 7 shows only the detection result regarding the person “A”.
It is a DX window. Reference numeral 6001 denotes an IDX window, 631 denotes a target image of the person “A”, 634 denotes a person name, 637 denotes a detection section graph, and other symbols are the same as those in FIG. Clicking the close button 241 closes the IDX window 6001 and returns to the state of the editing window 1000 in FIG.

【0061】更に人物“B”及び“C”についても検出処
理を行う。但し被検出対象となるM-アイコンを変える。
例として、人物“B”を検出処理するときはM-アイコン1
031と1033をアタッチし、人物“C”を検出するときはM-
アイコン1032のみをアタッチすることを考える。この検
出処理の操作についても従来の技術と同様であるので説
明を省略する。人物“B”及び“C”についての検出処理
を終了した後、再びM-アイコン1031〜1033をアタッチ
し、IDXウインドウを開く。その結果の例を図1に示
す。図1はIDXウインドウの一実施例を示す図で、図7
と同じ機能のものには同じ番号を付している。その他、
600′はIDXウインドウ、250,251,252は人物検出の処
理を行っていない領域を表す未検出区間である。未検出
区間250〜252の部分が検出処理を行っていないM-アイコ
ンのフレーム情報を表している。すなわち未検出区間25
1は、M-アイコン1031(検出区間604)については人物
“C”に対して検出処理を行っていないことを示してい
る。以下この状態を検出未処理と呼ぶ。これに対して既
に検出処理を行っていることを検出処理済みと呼ぶ。同
様に未検出区間250はM-アイコン1032(検出区間605)の
人物“B”に対して検出未処理であり、未検出区間252は
M-アイコン1033(検出区間606)の人物“C”に対して検
出未処理であることを示している。これによって、検出
の対象となる人物に関して検出処理が行われたM-アイコ
ンと行われていないM-アイコンの表示がIDXウインドウ
上で可能になる。
Further, detection processing is performed on the persons "B" and "C". However, the M-icon to be detected is changed.
For example, when detecting the person "B", the M-icon 1
If you attach 031 and 1033 and detect the person "C", use M-
Consider attaching only icon 1032. The operation of this detection processing is also the same as that of the conventional technique, and thus the description is omitted. After the detection process for the persons “B” and “C” is completed, the M-icons 1031 to 1033 are attached again, and the IDX window is opened. FIG. 1 shows an example of the result. FIG. 1 shows an embodiment of the IDX window.
The same numbers are assigned to the same functions. Others
Reference numeral 600 'denotes an IDX window, and reference numerals 250, 251, and 252 denote undetected sections indicating regions in which no person detection processing has been performed. Undetected sections 250 to 252 represent frame information of M-icons for which no detection processing has been performed. That is, undetected section 25
1 indicates that the detection process is not performed on the person “C” for the M-icon 1031 (detection section 604). Hereinafter, this state is referred to as detection unprocessed. On the other hand, the fact that the detection processing has already been performed is referred to as detection processing completed. Similarly, the undetected section 250 has not been detected for the person “B” in the M-icon 1032 (detected section 605), and the undetected section 252 has
This indicates that detection has not been performed on the person “C” in the M-icon 1033 (detection section 606). As a result, it is possible to display, on the IDX window, the M-icon that has been subjected to the detection processing and the M-icon that has not been subjected to the detection process for the person to be detected.

【0062】またこの検出未処理の表示は、アタッチを
したM-アイコンの側面にも反映される。例えば、人物
“B”についての検出結果を考える。操作はターゲット
イメージ632をアタッチすることで実行する。ターゲッ
トイメージ632をアタッチすると、M-アイコン1032につ
いては人物“B”に対して検出未処理であり、またM-ア
イコンの側面の幅はそのM-アイコン自身のフレーム数を
示しているので、検出未処理の未検出期間250を示す色
が図9のようにM-アイコン1032の側面の全面に表示され
る。図9 (a),(b),(c)は、図1のM-アイコン1031〜10
33の側面に、人物“B”についての検出結果が表示され
ていることを示す図である。図6と同様に、領域604はM
-アイコン1031の領域、領域605はM-アイコン1032の領
域、領域606はM-アイコン1033の領域をそれぞれ示す。
The display of the unprocessed state of detection is also reflected on the side of the attached M-icon. For example, consider the detection result for person "B". The operation is performed by attaching the target image 632. When the target image 632 is attached, the M-icon 1032 has not been detected for the person “B”, and the width of the side of the M-icon indicates the number of frames of the M-icon itself. A color indicating the unprocessed undetected period 250 is displayed on the entire side surface of the M-icon 1032 as shown in FIG. FIGS. 9A, 9B and 9C show the M-icons 1031 to 1031 in FIG.
FIG. 35 is a diagram showing that a detection result of a person “B” is displayed on the side of 33. As in FIG. 6, the area 604 is M
The area of the icon 1031, the area 605 indicates the area of the M-icon 1032, and the area 606 indicates the area of the M-icon 1033.

【0063】これにより検出未処理のM-アイコンの明示
が編集用ウィンドウ上1000でも可能となる。
As a result, the undetected M-icon can be specified even on the editing window 1000.

【0064】更に、人物“A”,“B”,“C”の検出処
理に用いた色の組合せのデータがM-アイコンのデータ構
造に保存してあるので、検出未処理のM-アイコン部分に
これを適用することが可能となる。例えば,人物“C”
について未検出区間251と252が示す検出未処理の区間、
すなわちM-アイコン1031と1033に検出処理を行う場合を
次に述べる。まずターゲットイメージ633をアタッチ
し、それから検出ボタン242をクリックする。その結
果、M-アイコン1031と1033とが人物“C”の検出処理で
用いられた色の組合せデータで検出処理される。
Further, since the data of the color combination used in the detection processing of the persons "A", "B", and "C" is stored in the data structure of the M-icon, the unprocessed M-icon portion is not detected. This can be applied to For example, the person "C"
Undetected sections indicated by undetected sections 251 and 252,
That is, the case where the detection processing is performed on the M-icons 1031 and 1033 will be described below. First, the target image 633 is attached, and then the detection button 242 is clicked. As a result, the M-icons 1031 and 1033 are detected using the color combination data used in the detection process of the person “C”.

【0065】以上述べた検出結果の例を図10に示す。
図10は、本発明のIDXウインドウの一実施例を示す図
である。図1と同じものには同じ番号を付してある。そ
の他、6003はIDXウインドウ、280は新たに検出された部
分を表す検出区間、282は新たな非検出区間である。こ
のように、図10には検出区間280と検出されない非検
出区間282が新たに追加されている。
FIG. 10 shows an example of the detection result described above.
FIG. 10 is a diagram showing one embodiment of the IDX window of the present invention. The same components as those in FIG. 1 are denoted by the same reference numerals. In addition, 6003 is an IDX window, 280 is a detection section indicating a newly detected portion, and 282 is a new non-detection section. As described above, a detection section 280 and a non-detection section 282 that is not detected are newly added to FIG.

【0066】この機能には以下の様な長所がある。まず
人物“C”の検出処理をM-アイコン1031と1033に対して
行うとき、再度色の組合せを指定する必要がない。また
保存された色の組合せデータをそのまま使うため、M-ア
イコン1032と同じ条件で検出処理を行うことができる。
更にM-アイコンごとに検出結果のデータが格納されてい
るので、人物“C”に関する検出結果が存在しないM-ア
イコン1031と1033だけを見つけ出して、そのM-アイコン
のみ検出処理を行うことも可能となる。これによって検
出処理の時間短縮が図ることができる。
This function has the following advantages. First, when the process of detecting the person “C” is performed on the M-icons 1031 and 1033, there is no need to specify a color combination again. Further, since the stored color combination data is used as it is, detection processing can be performed under the same conditions as for the M-icon 1032.
Furthermore, since the detection result data is stored for each M-icon, it is also possible to find out only the M-icons 1031 and 1033 that do not have the detection result regarding the person “C”, and perform the detection processing only on the M-icon. Becomes As a result, the time for the detection process can be reduced.

【0067】次にIDXウィンドウの機能向上について述
べる。まず、検出結果のコンバイン(結合)機能であ
る。この機能は、例えば人物“A”と人物“B”が友人同
士だったとして、二人の検出結果を友人同士という枠組
で、1つにまとめて扱いたい場合などに用いる。まとめ
て扱う方法として、人物“A”か人物“B”どちらか一方
でもいるフレームを新たな検出区間とするか、人物
“A”と人物“B”が一緒にいるフレームを検出区間とす
るかの2通りの方法がある。操作は人物“A”のターゲ
ットイメージ631と人物“B”ターゲットイメージ632を
アタッチした後、結合ボタン243をクリックすることで
行う。図11はコンバインの一実施例を説明する図であ
る。図10と同じものには同じ番号を付している。その
他、6002はIDXウインドウ、380は検出区間、383は非検
出区間、387はコンバインマーク、661は人物“A”と人
物“B”とがどちらか一方がいるフレームの検出結果を
表すを検出区間グラフ、663はターゲットイメージであ
る。
Next, the function improvement of the IDX window will be described. The first is the function of combining detection results. This function is used, for example, when it is assumed that the person "A" and the person "B" are friends, and the detection results of the two persons are to be handled together in a framework of friends. As a collective method, a frame in which either the person “A” or the person “B” is present is set as a new detection section, or a frame in which the person “A” and the person “B” are together is set as a detection section. There are two methods. The operation is performed by attaching the target image 631 of the person “A” and the target image 632 of the person “B” and then clicking the join button 243. FIG. 11 is a view for explaining an embodiment of the combine. The same components as those in FIG. 10 are denoted by the same reference numerals. In addition, 6002 is an IDX window, 380 is a detection section, 383 is a non-detection section, 387 is a combine mark, and 661 is a detection section showing the detection result of a frame in which either the person “A” or the person “B” exists. The graph, 663, is the target image.

【0068】図11において、検出区間グラフ661に
は、人物“A”か人物“B”どちらか一方でもいるフレー
ムを新たな検出区間とする場合の検出区間380が表示さ
れている。またターゲットイメージ663は、アタッチし
た内で最も上に位置している人物“A”のターゲットイ
メージ631が表示され、ターゲットイメージの左上部分
に結合を表すコンバインマーク387(例えば、“C”)が
付加される。なお人物“C”の検出結果については、そ
の表示が一つ上の段に詰めて表示される。
In FIG. 11, a detection section graph 661 displays a detection section 380 when a frame having one of the person “A” and the person “B” is set as a new detection section. In the target image 663, the target image 631 of the person “A” located at the top among the attached images is displayed, and a combine mark 387 (for example, “C”) indicating the combination is added to the upper left portion of the target image. Is done. Note that the detection result of the person “C” is displayed in the upper row.

【0069】またこれとは逆のアンコンバイン(結合解
除)機能も設ける。これはコンバインされた検出結果を
元に戻す機能である。操作はコンバインされたターゲッ
トイメージ663をアタッチした後、結合解除ボタン244を
マウスでクリックすることで行う。その結果、図1の状
態に戻る。
Further, an uncombining (unbinding) function reverse to this is also provided. This is a function for restoring the combined detection result. The operation is performed by attaching the combined target image 663 and then clicking the unbinding button 244 with a mouse. As a result, the state returns to the state of FIG.

【0070】この結合・結合解除機能によって、それぞ
れの人物で分けられていた検出結果を「友人同士」など
の抽象的な内容で整理・統合することが可能となる。
By the combining / unbinding function, it is possible to arrange and integrate the detection results divided by each person into abstract contents such as “friends”.

【0071】次に検出結果の削除機能について述べる。
これは必要が無くなった検出結果をM-アイコンのデータ
構造から削除する機能である。操作は、例えば人物
“A”の検出結果を削除する場合、ターゲットイメージ6
31をアタッチした後、キーボード3090のデリートキーを
押す。この結果、人物“A”に関する検出結果はM-アイ
コンのデータ構造から削除され、IDXウィンドウ上から
も消去される。そして残りの人物“B”と“C”に関する
検出結果が上に詰められてIDXウィンドウ上に表示され
る。
Next, the function of deleting the detection result will be described.
This is a function to delete the detection result that is no longer needed from the data structure of the M-icon. The operation is performed, for example, when deleting the detection result of the person “A”, the target image 6
After attaching 31, press the delete key on the keyboard 3090. As a result, the detection result regarding the person “A” is deleted from the data structure of the M-icon, and is deleted from the IDX window. Then, the detection results for the remaining persons "B" and "C" are packed at the top and displayed on the IDX window.

【0072】次に、プレビュー機能について述べる。プ
レビュー機能とは検出処理によって得られた検出区間だ
けをムービー再生する機能である。操作は、例えば人物
“A”の検出区間をプレビューする場合、人物“A”のタ
ーゲットイメージ631をアタッチした後、プレビューボ
タン245をクリックすることで行う。この結果動画像再
生ウィンドウが編集用ウィンドウ1000に表示され、再生
をすると検出区間214〜215のフレームのみがプレビュー
される。これによって、検出区間を動画像で確認するこ
とができる。
Next, the preview function will be described. The preview function is a function of playing back a movie only in the detection section obtained by the detection processing. The operation is performed by, for example, clicking the preview button 245 after attaching the target image 631 of the person “A” when previewing the detection section of the person “A”. As a result, a moving image playback window is displayed in the editing window 1000, and when playback is performed, only the frames in the detection sections 214 to 215 are previewed. Thus, the detection section can be confirmed by the moving image.

【0073】次にインフォメーション機能について述べ
る。インフォメーション機能とは、検出結果に対して検
出処理を行った人物の情報などをM-アイコンのデータ構
造に格納する機能である。操作は、例えば人物“A”に
関する情報を見たい場合もしくは記録したい場合、人物
“A”のターゲットイメージ631をアタッチした後、イン
フォメーションボタン246をクリックすることで行う。
これによって、人物"A"についての検出結果に人物“A”
に対する情報(例えば氏名、生年月日など)を付加する
ことができる。
Next, the information function will be described. The information function is a function of storing information of a person who has performed a detection process on a detection result in the data structure of the M-icon. The operation is performed by attaching the target image 631 of the person "A" and then clicking the information button 246, for example, when the user wants to view or record information on the person "A".
As a result, the detection result for the person “A” is added to the person “A”.
(For example, name, date of birth, etc.) can be added.

【0074】次に検出結果の修正操作は、例えば人物
“A”の検出結果について修正をしたい場合は、人物
“A”のターゲットイメージ631をアタッチした後、修正
ボタン248をクリックすることで行う。
Next, the correction operation of the detection result is performed, for example, by correcting the detection result of the person “A” by attaching the target image 631 of the person “A” and then clicking the correction button 248.

【0075】最後に、検出区間グラフ内に表示される検
出結果の可視範囲を調節する機能について述べる。この
検出結果の可視範囲の調整は可視範囲調整スライダー24
7をドラッグすることで行う。可視範囲調整スライダー2
47に表示されている数字が1の場合、検出区間グラフの
可視範囲は1秒、即ち、30フレームになる。この可視範
囲調整スライダー247を動かすことによって、検出区間
やM-アイコンのフレーム数の表示幅を自由に変化させる
ことができる。この機能を用いると、どんなに長いフレ
ーム数を有するM-アイコンの表示でも表示幅を縮小して
一覧表示ができるし、またわずか1フレームの検出区間
でも表示幅を拡大して表示できるのである。可視範囲調
整スライダー247に表示されている数字の単位は、任意
に設定でき、例えば、フレーム数であってもよい。
Finally, a function of adjusting the visible range of the detection result displayed in the detection section graph will be described. To adjust the visible range of this detection result, adjust the visible range slider 24.
Do this by dragging 7. View range adjustment slider 2
When the number displayed in 47 is 1, the visible range of the detection section graph is 1 second, that is, 30 frames. By moving the visible range adjustment slider 247, the display width of the detection section and the number of frames of the M-icon can be freely changed. By using this function, the display width can be reduced and displayed as a list even when displaying M-icons having any long number of frames, and the display width can be enlarged and displayed even in a detection section of only one frame. The unit of the number displayed on the visible range adjustment slider 247 can be set arbitrarily, and may be, for example, the number of frames.

【0076】上述の実施例では、画像検出方法を説明す
る一例として、登場する人物を検出する例をあげた。し
かし、特徴的な色の組合せを指定することにより、人物
以外を対象とした画像を検出することができることは自
明であり、また、上記で説明した以外の検出方法であっ
ても、本発明の適用が可能であることは言うまでもな
い。
In the above-described embodiment, an example of detecting an appearing person has been described as an example for explaining the image detecting method. However, it is obvious that an image targeting a person other than a person can be detected by specifying a characteristic color combination, and even if a detection method other than that described above is used, the present invention It goes without saying that the application is possible.

【0077】[0077]

【発明の効果】以上のように本発明によれば、検出処理
の結果をM-アイコンのデータ構造に格納することによっ
て、検出処理が行われたM-アイコンと行われていないM-
アイコンの明示がIDXウィンドウ上及びM-アイコンの側
面で可能となる。
As described above, according to the present invention, by storing the result of the detection processing in the data structure of the M-icon, the M-icon that has been subjected to the detection processing and the M-icon that has not been subjected to the detection processing are stored.
Icons can be specified on the IDX window and on the side of the M-icon.

【0078】本発明の第二の効果としては、検出処理に
用いた色の組み合わせのデータをM-アイコンのデータ構
造に保存しておくことによって、別の未検出処理のM-ア
イコンだけを検出処理することが可能となる。
As a second effect of the present invention, by storing the data of the color combination used in the detection processing in the data structure of the M-icon, only the M-icon of another undetected processing can be detected. It can be processed.

【0079】本発明の第三に効果として、検出結果に対
するコンバイン・アンコンバイン機能、削除機能、プレ
ビュー機能、インフォメーション機能、及び可視範囲調
節機能を新たに追加することによってIDXウィンドウ上
の高機能化が図れた。
As a third effect of the present invention, by adding a combine / uncombine function, a delete function, a preview function, an information function, and a visible range adjustment function for the detection result, the function on the IDX window can be enhanced. It was planned.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明のIDXウインドウの一実施例を示す
図。
FIG. 1 is a diagram showing one embodiment of an IDX window of the present invention.

【図2】 従来の人物検出を説明するIDウインドウを示
す図。
FIG. 2 is a diagram showing an ID window for explaining conventional person detection.

【図3】 動画像編集装置の一構成例を示すブロック
図。
FIG. 3 is a block diagram illustrating a configuration example of a moving image editing device.

【図4】 編集用ウィンドウの一表示例を示す図。FIG. 4 is a diagram showing a display example of an editing window.

【図5】 本発明のIDXウインドウの一実施例を示す
図。
FIG. 5 is a diagram showing one embodiment of an IDX window of the present invention.

【図6】 従来のIDXウインドウの表示例を示す図。FIG. 6 is a diagram showing a display example of a conventional IDX window.

【図7】 本発明のIDXウインドウの一実施例を示す
図。
FIG. 7 is a diagram showing one embodiment of an IDX window of the present invention.

【図8】 従来の編集用ウインドウの一例を示す図。FIG. 8 is a diagram showing an example of a conventional editing window.

【図9】 M-アイコンの側面に人物検出の結果が表示さ
れていることを示す図。
FIG. 9 is a view showing that a result of person detection is displayed on the side of the M-icon.

【図10】 本発明のIDXウインドウの一実施例を示す
図。
FIG. 10 is a diagram showing an embodiment of an IDX window of the present invention.

【図11】 本発明のIDXウインドウの一実施例を示す
図。
FIG. 11 is a diagram showing an embodiment of an IDX window of the present invention.

【図12】 M-アイコンの側面に人物検出の結果が表示
されていることを示す図。
FIG. 12 is a view showing that a result of person detection is displayed on the side of the M-icon.

【図13】 従来の人物検出結果の確認や修正を行うID
ウインドウの表示例を示す図。
FIG. 13 shows a conventional ID for confirming and correcting the result of human detection.
The figure which shows the example of a display of a window.

【符号の説明】[Explanation of symbols]

12,13,14:IDXアイコン、 80:IDウインドウ、 23
7,238,239:検出結果表示欄、 240:新規ボタン、
241:クローズボタン、 242:検出ボタン、243:結合
ボタン、 244:結合解除ボタン、 245:プレビューボ
タン、 246:インフォメーションボタン、 247:可視
範囲調整スライダー、 248:修正ボタン、 250,25
1,252:未検出区間、 280:検出区間、 282:非検出
区間、300:IDウインドウ、 301:OKボタン、 302:
キャンセルボタン、 303:スライダーつまみ、 304:
スライドカーソル、 305:拡大表示画像、 306:拡大
表示エリア、 307:オブジェクトボタン、 308:色指
定枠、 309:サーチボタン、 311:静止画ビュースラ
イダー、 312:オブジェクト名記入欄、 313:オブジ
ェクト枠調整ボタン、 314:検出区間追加ボタン、 3
15:検出区間削除ボタン、 321〜330:フレーム画像、
380:検出区間、 383:非検出区間、 809:フィル
ムイメージ、 600,600′:IDXウインドウ、 603:検
出範囲表示エリア、 604,605,606:領域、 611:タ
ーゲット表示欄、 614:検出区間、 616:非検出区
間、 631,632,633:ターゲットイメージ、 634,63
5,636:人名、 637,638,639:検出区間グラフ、 6
40, 641:スライダ、 650:検出結果表示欄、 800,
801,802,802′,803:検出矢印、 804,805,806,8
07,808:オブジェクト枠、 809,809′:フィルムイ
メージ、 810:マウスポインタ、 811,812:検出区
間、 813,814,823,824:フレーム画像、815:ビギ
ンボタン、 816:エンドボタン、 817,818,820,82
1,822:画素領域、 1000:編集用ウィンドウ、 101
0:編集エリア、 1020:素材エリア、 1030,1031,1
032,1033,‥‥‥,103K,103M,103N,‥‥‥: M-ア
イコン、 1040:ツリー構造、 1050:編集機能ボタン
群、 1051:登場人物検出ボタン、 1052:ツリー構造
作成ボタン、 1070:,1080, 1090:スライダ、 121
0: M-アイコン、 1220:シーン画像を表すM-アイコ
ン、 1230:1つ以上のシーン画像で構成したM-アイコ
ン、 1240:動画像(番組)を表すM-アイコン、3010:
CPU、 3020:メモリ、 3030:カット変化点検出部、
3040:画像再生装置、 3050:ビデオインターフェー
ス、 3060:情報記憶装置、 3070:フレームバッフ
ァ、 3080:モニタ、 3090:入力装置、 3100:バ
ス、 3110:画像信号出力端子、 6000,6001,6002,
6003:IDXウインドウ、
12, 13, 14: IDX icon, 80: ID window, 23
7, 238, 239: Detection result display column, 240: New button,
241: Close button, 242: Detect button, 243: Merge button, 244: Unmerge button, 245: Preview button, 246: Information button, 247: Visibility adjustment slider, 248: Modify button, 250, 25
1,252: undetected section, 280: detected section, 282: non-detected section, 300: ID window, 301: OK button, 302:
Cancel button, 303: slider knob, 304:
Slide cursor, 305: enlarged display image, 306: enlarged display area, 307: object button, 308: color designation frame, 309: search button, 311: still image view slider, 312: object name entry field, 313: object frame adjustment Button, 314: Detection section addition button, 3
15: Detection section delete button, 321-330: Frame image,
380: detection section, 383: non-detection section, 809: film image, 600, 600 ': IDX window, 603: detection range display area, 604, 605, 606: area, 611: target display section, 614: detection section, 616: Non-detection section, 631, 632, 633: Target image, 634, 63
5,636: person name, 637, 638, 639: detection section graph, 6
40, 641: slider, 650: detection result display field, 800,
801, 802, 802 ', 803: detection arrows, 804, 805, 806, 8
07, 808: Object frame, 809, 809 ': Film image, 810: Mouse pointer, 811, 812: Detection section, 813, 814, 823, 824: Frame image, 815: Begin button, 816: End button, 817, 818,820,82
1,822: Pixel area, 1000: Editing window, 101
0: Editing area, 1020: Material area, 1030, 1031, 1
032, 1033, ‥‥‥, 103K, 103M, 103N, ‥‥‥: M-icon, 1040: Tree structure, 1050: Edit function button group, 1051: Character detection button, 1052: Tree structure creation button, 1070: , 1080, 1090: slider, 121
0: M-icon, 1220: M-icon representing a scene image, 1230: M-icon composed of one or more scene images, 1240: M-icon representing a moving image (program), 3010:
CPU, 3020: Memory, 3030: Cut change point detector,
3040: Image playback device, 3050: Video interface, 3060: Information storage device, 3070: Frame buffer, 3080: Monitor, 3090: Input device, 3100: Bus, 3110: Image signal output terminal, 6000, 6001, 6002,
6003: IDX window,

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D110 AA04 AA13 BB20 CA42 CA43 CA46 CC01 CC02 CC04 FA02 FA09  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5D110 AA04 AA13 BB20 CA42 CA43 CA46 CC01 CC02 CC04 FA02 FA09

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 動画像を構成する複数のフレーム画像を
代表する代表画像のGUI(Graphical User Interface)
画面操作によって、編集画面に階層構造状を構成して編
集する動画像編集装置において、 前記代表画像に含まれる複数のフレーム画像の中から、
所望の画像が存在するフレーム画像を検出し、 該検出された前記所望の画像の存在するフレーム画像の
情報を、検出結果表示画面として表示し、 該表示された検出結果表示画面に、前記特定の画像につ
いてまだ検出処理を行っていないフレーム画像の情報を
表示したことを特徴とする画像検出方法。
1. A GUI (Graphical User Interface) of a representative image representing a plurality of frame images constituting a moving image.
In a moving image editing apparatus that configures and edits a hierarchical structure on an editing screen by screen operation, from among a plurality of frame images included in the representative image,
Detecting a frame image in which a desired image is present; displaying information of the detected frame image in which the desired image is present as a detection result display screen; and displaying the specific information on the displayed detection result display screen. An image detection method characterized by displaying information of a frame image for which detection processing has not been performed on an image.
【請求項2】 動画像を構成する複数のフレーム画像を
代表する代表画像のGUI(Graphical User Interface)
画面操作によって、編集画面に階層構造状に構成して編
集する動画像編集装置において、 前記代表画像の少なくとも1つを選択し、 該選択された代表画像に含まれる複数のフレーム画像の
中から、所望の画像が存在するフレーム画像を検出し、 該検出された前記所望の画像の存在するフレーム画像と
存在していないフレーム画像の情報と前記所望の画像と
して選択したフレーム画像を縮小表示した縮小表示画像
と並べて、検出結果表示画面として表示し、 該表示された検出結果表示画面に、前記所望の画像につ
いてまだ検出処理を行っていないフレーム画像の情報を
表示したことを特徴とする画像検出方法。
2. A GUI (Graphical User Interface) of a representative image representing a plurality of frame images constituting a moving image.
In a moving image editing apparatus configured and edited in a hierarchical structure on an editing screen by screen operation, at least one of the representative images is selected, and a plurality of frame images included in the selected representative image are selected. A reduced display in which a frame image in which a desired image exists is detected, and information of the detected frame image in which the desired image exists and a frame image in which the desired image does not exist, and a frame image selected as the desired image are reduced. An image detection method comprising: displaying a detection result display screen alongside an image; and displaying information on a frame image on which the detection processing has not been performed on the desired image on the displayed detection result display screen.
【請求項3】 請求項1または請求項2記載の画像検出
方法において、 前記検出に用いられた前記所望の画像の特徴を保持し、 該保持した前記所望の画像の特徴によって、まだ検出処
理を行っていないフレーム画像について画像検出を行う
ことを特徴とする画像検出方法。
3. The image detecting method according to claim 1, wherein the feature of the desired image used for the detection is retained, and the detection process is still performed by the retained feature of the desired image. An image detection method, wherein image detection is performed on a frame image that has not been performed.
【請求項4】 請求項1〜請求項3記載の画像検出方法
において、前記所望の画像が前記動画像に登場する人物
であることを特徴とする画像検出方法。
4. The image detection method according to claim 1, wherein the desired image is a person appearing in the moving image.
【請求項5】 請求項1〜請求項4記載の画像検出方法
において、 前記検出結果表示画面上で、前記検出結果を削除するこ
とを特徴とする登場人物検出方法。
5. The image detection method according to claim 1, wherein the detection result is deleted on the detection result display screen.
【請求項6】 請求項1〜請求項5記載の画像検出方法
において、 前記検出結果表示画面上で、複数の検出結果を結合する
ことを特徴とする画像検出方法。
6. The image detection method according to claim 1, wherein a plurality of detection results are combined on the detection result display screen.
【請求項7】 請求項6記載の画像検出方法において前
記結合された複数の検出結果を元の状態に戻すことを特
徴とする画像検出方法。
7. The image detection method according to claim 6, wherein the plurality of combined detection results are returned to an original state.
【請求項8】 請求項1〜請求項5記載の画像検出方法
において、 前記検出結果表示画面上で、前記画像を検出したフレー
ム画像のみをプレビューすることを特徴とする画像検出
方法。
8. The image detection method according to claim 1, wherein only a frame image in which the image is detected is previewed on the detection result display screen.
【請求項9】 請求項1〜請求項5記載の画像検出方法
において、 前記検出結果表示画面上で、検出処理の結果に関する情
報を表示することを特徴とする画像検出方法。
9. The image detection method according to claim 1, wherein information relating to a result of the detection processing is displayed on the detection result display screen.
【請求項10】 請求項1〜請求項5記載の画像検出方
法において、 前記検出結果表示画面上で、表示する前記フレーム画像
情報の表示幅を変化させることを特徴とする画像検出方
法。
10. The image detection method according to claim 1, wherein a display width of the frame image information to be displayed is changed on the detection result display screen.
【請求項11】 請求項1〜請求項5記載の画像検出方
法において、 前記代表画像は前記複数の画像からなるカットを代表
し、 該カットを前記編集画面上にGUI操作によって階層構造
に構成して編集し、 前記編集画面上の前記カットを選択し、 該選択したカットを構成するフレーム画像の中から、所
望の画像の存在するフレーム画像を検出し、 該検出した情報を前記階層構造の最下位に位置する前記
カットのデータ構造に格納することを特徴とする画像検
出方法。
11. The image detection method according to claim 1, wherein the representative image represents a cut composed of the plurality of images, and the cut is configured in a hierarchical structure on the editing screen by GUI operation. Select the cut on the edit screen, detect a frame image where a desired image is present from among the frame images constituting the selected cut, and place the detected information in the top of the hierarchical structure. An image detection method, wherein the image data is stored in a data structure of the lower cut.
【請求項12】 請求項1〜請求項5記載の画像検出方
法において、 前記代表画像の側面に、前記検出処理の結果を表示する
ことを特徴とする画像検出方法。
12. The image detection method according to claim 1, wherein a result of the detection processing is displayed on a side face of the representative image.
JP05444199A 1999-03-02 1999-03-02 Image detection method Expired - Fee Related JP3838805B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP05444199A JP3838805B2 (en) 1999-03-02 1999-03-02 Image detection method
DE60025406T DE60025406T2 (en) 1999-03-02 2000-02-29 Motion picture information display method and apparatus
EP00103460A EP1033718B1 (en) 1999-03-02 2000-02-29 Motion picture information displaying method and apparatus
US09/517,173 US6983420B1 (en) 1999-03-02 2000-03-02 Motion picture information displaying method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05444199A JP3838805B2 (en) 1999-03-02 1999-03-02 Image detection method

Publications (2)

Publication Number Publication Date
JP2000251450A true JP2000251450A (en) 2000-09-14
JP3838805B2 JP3838805B2 (en) 2006-10-25

Family

ID=12970806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05444199A Expired - Fee Related JP3838805B2 (en) 1999-03-02 1999-03-02 Image detection method

Country Status (1)

Country Link
JP (1) JP3838805B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017041A (en) * 2006-07-04 2008-01-24 Sony Corp Information processing apparatus and method, and program
JP2011223327A (en) * 2010-04-09 2011-11-04 Sony Corp Content retrieval device and method, and program therefor
JP2012060646A (en) * 2011-10-14 2012-03-22 Toshiba Corp Electronic apparatus and image display method
JP2020166683A (en) * 2019-03-29 2020-10-08 キヤノン株式会社 Information processing device, method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017041A (en) * 2006-07-04 2008-01-24 Sony Corp Information processing apparatus and method, and program
US8782563B2 (en) 2006-07-04 2014-07-15 Sony Corporation Information processing apparatus and method, and program
JP2011223327A (en) * 2010-04-09 2011-11-04 Sony Corp Content retrieval device and method, and program therefor
US8971633B2 (en) 2010-04-09 2015-03-03 Sony Corporation Content retrieval to facilitate recognizing content details of a moving image
JP2012060646A (en) * 2011-10-14 2012-03-22 Toshiba Corp Electronic apparatus and image display method
JP2020166683A (en) * 2019-03-29 2020-10-08 キヤノン株式会社 Information processing device, method, and program
JP7313862B2 (en) 2019-03-29 2023-07-25 キヤノン株式会社 Information processing device, method, and program

Also Published As

Publication number Publication date
JP3838805B2 (en) 2006-10-25

Similar Documents

Publication Publication Date Title
US11157154B2 (en) Media-editing application with novel editing tools
US6400378B1 (en) Home movie maker
US5682326A (en) Desktop digital video processing system
EP1033718B1 (en) Motion picture information displaying method and apparatus
US8250490B2 (en) Display image control apparatus
US6204840B1 (en) Non-timeline, non-linear digital multimedia composition method and system
US5513306A (en) Temporal event viewing and editing system
JP3185505B2 (en) Meeting record creation support device
US5999173A (en) Method and apparatus for video editing with video clip representations displayed along a time line
US7644364B2 (en) Photo and video collage effects
JP2994177B2 (en) System and method for locating boundaries between video segments
JP5552769B2 (en) Image editing apparatus, image editing method and program
US6650826B1 (en) Editing apparatus and method, and image material selection apparatus and method
US20030146915A1 (en) Interactive animation of sprites in a video production
US20020178450A1 (en) Video searching method, apparatus, and program product, producing a group image file from images extracted at predetermined intervals
JP2016105597A (en) Generation of multimedia clip
US20070250899A1 (en) Nondestructive self-publishing video editing system
US11747972B2 (en) Media-editing application with novel editing tools
JP2007235610A (en) Display device, display program and display method
US11721365B2 (en) Video editing or media management system
EP0916136B1 (en) Graphical user interface for a motion video planning and editing system for a computer
JP2000312310A (en) Editing method for dynamic image
JP3838805B2 (en) Image detection method
JP3595871B2 (en) Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof
JP4309819B2 (en) Video editing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060801

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100811

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110811

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130811

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees