JP2019092025A - Editing system - Google Patents
Editing system Download PDFInfo
- Publication number
- JP2019092025A JP2019092025A JP2017219011A JP2017219011A JP2019092025A JP 2019092025 A JP2019092025 A JP 2019092025A JP 2017219011 A JP2017219011 A JP 2017219011A JP 2017219011 A JP2017219011 A JP 2017219011A JP 2019092025 A JP2019092025 A JP 2019092025A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face image
- editing
- search
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、編集システムに係り、例えば、映像を蓄積している放送局において、祝賀番組や追悼番組などを制作するために、過去の映像の中から特定の出演者の出演シーンを検出して、番組制作のための編集を補助する機能を有する編集システムに関する。 The present invention relates to an editing system, for example, in a broadcast station storing video, in order to produce a celebration program or a memorial program, a appearance scene of a specific performer is detected from the video in the past. , And an editing system having a function of assisting editing for program production.
従来、過去の映像資産はVTRテープに記録されており、膨大な数のVTRテープが倉庫に保管されていた。各VTRテープにはテープ番号が貼られ、テープ番号とともに、そのテープに記録されている番組名や出演者、番組内容概略の情報が管理されていた。そのため、特定の出演者の映像が欲しい場合、放送局の担当者はVTRテープの管理情報を元に、その出演者が出演している番組が記録されているVTRテープを特定していた。 Conventionally, past video assets have been recorded on VTR tapes, and a huge number of VTR tapes have been stored in a warehouse. A tape number is attached to each VTR tape, and together with the tape number, information of a program name, a cast, and a program content summary recorded on the tape is managed. Therefore, when a video of a specific performer is desired, the person in charge of the broadcast station specified the VTR tape in which the program in which the performer appears is recorded based on the management information of the VTR tape.
例えば、特許文献1では、同じ番組編集技術として、編集用元素材と編集済素材との関係を抜き出した情報である元素材情報データを作成し、再び編集する場合には、編集済素材とプロジェクトデータと元素材情報データとを使用して編集する技術が提案されている。 For example, in Patent Document 1, as the same program editing technology, in the case of creating original material information data which is information extracted the relationship between the editing original material and the edited material, and editing again, the edited material and the project Techniques for editing using data and original material information data have been proposed.
ところで、従来では、VTRテープのどのシーンに出演しているかを特定するためには、VTRテープをVTR装置にかけて再生させ、目視でその出演者の出演シーンを探す必要があり、出演シーンが見つかった場合、出演シーンのタイムコード情報をメモして、編集に使用しており、作業効率や精度の観点から対策の新たな技術が求められていた。 By the way, conventionally, in order to specify which scene of VTR tape has appeared, it is necessary to reproduce the VTR tape through the VTR device and visually look for the appearance scene of the performer, and the appearance scene is found In this case, the time code information of the appearance scene is noted and used for editing, and a new technology of measures is required from the viewpoint of work efficiency and accuracy.
近年、映像資産をVTRテープからLTOテープ等の磁気メディアやブルーレイディスク(登録商標)等の光学メディアにダビングして、これらのメディア内で映像ファイルとして保管する方式に変わりつつある。しかし、出演シーンを探し出すためには、これらのメディア内の映像ファイルを再生して目視する必要があることには変わりはなく、同様の課題があった。 In recent years, a method of dubbing video assets from VTR tapes to magnetic media such as LTO tapes and optical media such as Blu-ray Disc (registered trademark) has been changed to a method of storing as video files in these media. However, there is no change in that it is necessary to play back and view video files in these media in order to find out the appearance scene, and there is a similar problem.
また、番組の編集が完了してから放送直前に出演者が問題を起こしたことにより、その出演者の放送が不可になった場合は、その出演者にモザイクをかけるか、または出演シーンをカットするための再編集を行う必要がある。再編集するために出演シーンを探し出すためには、編集完了後の映像を再生させて、編集者が目視で出演シーンを探し出す必要があった。この点でも、同様の課題があった。 In addition, if the cast has a problem just before the broadcast after editing of the program is completed and the cast of the cast is not available, the cast will be mosaicted or the cast scene cut Need to re-edit to In order to find out the appearance scene for re-editing, it is necessary to reproduce the video after the editing is completed and the editor visually finds out the appearance scene. This point also has the same problem.
本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。 The present invention has been made in view of such a situation, and an object thereof is to solve the above-mentioned problems.
本発明は、放送に用いられる映像ファイルを編集する編集装置を備えた編集システムであって、前記映像ファイルに含まれる出演者の顔画像を取得し、前記顔画像と各出演者の出演映像のタイムコード情報とを関連付けて記録する顔画像蓄積サーバと、前記顔画像蓄積サーバに記録されている顔画像と、特定番組の映像ファイルに含まれる検索対象となる顔画像とを比較し、前記特定番組における出演映像を検出する出演映像検出部と、前記出演映像検出部が検出した出演映像に基づいて、前記特定番組において前記検索対象となる顔画像の人物が出演している他の出演映像を類似顔画像検索により検出し、検出した出演映像のタイムコード情報を前記検索対象となった出演者情報と関連付けて前記編集装置に通知する類似顔画像検出装置と、を備え、前記編集装置は、前記タイムコード情報を用いて前記特定番組の映像ファイルを編集する。
また、前記編集装置は、前記映像ファイルの編集の際に、出演者の前記映像ファイルが前記類似顔画像検出装置の処理対象の記録装置に保存されている場合は、前記記録装置の映像ファイルを再生することで出演映像の映像確認を可能に表示してもよい。
また、前記編集装置は、低解像度映像を使用して検出した出演映像を再生してもよい。
また、前記顔画像蓄積サーバは、検出対象の顔画像を顔の種別と関連付けて保存可能であり、前記類似顔画像検出装置は、前記顔種別に応じて類似顔画像検索を行ってもよい。
The present invention is an editing system provided with an editing apparatus for editing a video file used for broadcasting, which acquires a face image of a performer included in the video file, and the face image and the appearance video of each performer The face image storage server for recording in association with time code information, the face image stored in the face image storage server, and the face image to be searched included in the video file of a specific program are compared, Based on the appearance video detection unit for detecting appearance video in a program and the appearance video detected by the appearance video detection unit, other appearance videos in which a person of the face image to be searched for in the specific program is appearance A similar face image detection device that detects time code information of a detected appearance video detected by similar face image search, associates the detected time code information of the appearance video with the performer information that is the search target, and notifies the editing device Wherein the editing device edits the video file of the specific program by using the time code information.
In addition, when editing the video file, if the video file of the performer is stored in the recording device to be processed by the similar face image detection device, the editing device may use the video file of the recording device. It may be possible to display the video confirmation of the appearance video by playing back.
Further, the editing apparatus may reproduce the appearance video detected using the low resolution image.
The face image storage server may store a face image to be detected in association with a face type, and the similar face image detection device may perform a similar face image search according to the face type.
本発明よれば、番組中(映像データ中)の検索対象の人物の顔画像の検出を容易にし、モザイク処理等の編集を効果的に行う技術を提供できる。 According to the present invention, it is possible to provide a technique for facilitating detection of a face image of a person to be searched for in a program (in video data) and effectively performing editing such as mosaic processing.
以下、本発明の実施形態について図面を参照して詳細に説明する。
本実施形態の概要は次の通りである。
(1)放送局に蓄積された膨大な過去映像の中から、可能な限り全ての出演者の顔画像のみを切出して出演シーンのタイムコード情報とともに顔画像蓄積サーバに保存しておく。
(2)蓄積された顔画像と目的の出演者の顔画像を比較して、その出演者の出演シーンを検出する。
(3)検出した結果の出演シーンの顔画像を用いて、類似顔画像検出処理によって類似した出演シーンを絞り込む。
(4)検出した出演シーンのタイムコード情報を編集機に渡すことで、その出演者が出演している特集番組の制作を容易にする。
(5)低解像度映像を使用して検出した出演シーンを簡易に再生する。
(6)放送直前に出演者の映像が放送不可になった場合、その出演者が出演しているシーンを特定して、編集(モザイク、カット等)する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
The outline of the present embodiment is as follows.
(1) From the huge past video accumulated in the broadcasting station, only the face images of all the performers are cut out and stored in the face image storage server together with time code information of appearance scenes.
(2) The appearance image of the performer is detected by comparing the accumulated face image and the face image of the target performer.
(3) Using the face image of the appearance scene of the detected result, narrow down the appearance scene similar by the similar face image detection processing.
(4) By passing the time code information of the detected appearance scene to the editing machine, it facilitates the production of a feature program in which the performer appears.
(5) The appearance scene detected using the low resolution video is simply reproduced.
(6) If the video of the performer becomes not available immediately before the broadcast, identify the scene in which the performer is performing and edit (mosaic, cut, etc.).
図1は、本実施形態に係る映像編集システム1の概略構成を示すブロック図である。映像編集システム1は、カメラ10と、収録装置11と、記録装置12(ビデオサーバ)と、自動編集情報作成装置13と、編集装置14と、管理端末17と、送出サーバ18と、システム制御部15とを備え、それらはLAN回線や所定の通信回線等のネットワーク2で接続されている。システム制御部15は、映像編集システム1全体を統括的に制御するものであって、単独で構成されてもよいし、他装置(記録装置12や編集装置14など)と同一に含まれて構成されてもよい。
FIG. 1 is a block diagram showing a schematic configuration of a video editing system 1 according to the present embodiment. The video editing system 1 includes a
カメラ10は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等で撮像した画像にデジタル変換処理を施し、変換結果の画像データ(例えば、HD−SDI規格の素材映像データ)を、収録装置11を用いて、ネットワーク2を介して記録装置12へ出力する。記録装置12(ビデオサーバ)は、これを記憶する。記録装置12には、ネットワーク2を介して自動編集情報作成装置13が接続され、素材映像データは自動編集情報作成装置13に入力されてから、記録装置12に記憶される。ただし、素材映像データは、自動編集情報作成装置13を介さずに記録装置12に直接入力され記憶されてもよい。
The
図2は、記録装置12の概略構成を示すブロック図である。記録装置12は、録画機能及び類似顔画像検出機能(類似顔画像検出装置16)と、データ保存機能(121〜127)を備える。
FIG. 2 is a block diagram showing a schematic configuration of the
記録装置12のデータ保存機能について説明する。記録装置12は、素材映像データを記録する素材映像データ部121と、編集済み映像データを記録する編集済み映像データ部122と、自動編集済み映像データを記録する自動編集済み映像データ部123と、最終編集情報を記録する最終編集情報部124と、自動編集情報を記録する自動編集情報部125と、低解像度ファイルを記録する低解像度サーバ126と、映像中に含まれる顔画像を記録し蓄積する顔画像蓄積サーバ127と、を備える。
The data storage function of the
低解像度サーバ126を設ける理由は次の通りである。すなわち、一般に、メディア5(光学メディア5a、磁気メディア5b、VTRテープ5c)内の映像ファイルは高画質で保存する必要があるため、映像ファイルサイズが大きくなる。すなわち、常にアクセス可能なHDDストレージに保存しておくことはできない。低解像度ファイルであれば、ファイルサイズが小さいため常にアクセス可能なHDDストレージに映像ファイルを保存して試写することが可能である。そこで、メディア5をダビングする場合は、低解像度映像(低解像度ファイル)を同時に作成して、低解像度サーバ126に記録する。
The reason for providing the
つづいて、記録装置12の録画機能及び類似顔画像検出機能を実現する類似顔画像検出装置16について図3を参照して説明する。
Subsequently, the similar face
図3は、類似顔画像検出装置16の概略構成を示すブロック図である。類似顔画像検出装置16は、画像送受信部210と、画像記録部211と、再生制御部212と、人物領域検出部213と、人物特徴量抽出部214と、人物特徴量記録部215と、属性情報記録部216と、要求受信部217と、類似人物検索部218と、登場イベント検索部219と、検索結果送信部220と、キーワード記録部110と、キーワード検索部111とを有する。
FIG. 3 is a block diagram showing a schematic configuration of the similar face
画像送受信部210は、装置外部からの画像の入出力を行う処理部であり、カメラ10や他の装置からの入力画像データの受信、他装置(編集装置14等)への出力画像データの送信を行う。
The image transmission /
画像記録部211は、入力画像データの記録媒体へ書込みや出力画像データの記録媒体からの読出し(VTRテープ5cの場合はメディア再生装置19に接続される)を行う。書込みの際には、画像データに加え、画像データを読出す際の情報となる画像ID(画像の識別情報)も併せて記録する。再生制御部212は、編集装置14への映像再生を制御する。
The
人物領域検出部213は、入力画像データに対し画像認識技術を用いた人物検出を行い、画像中の人物の存在判定をし、人物が存在する場合には、その領域の座標算出を行う。また、人物領域検出部213は、人物の「顔」の領域を特定し、その領域を含む顔画像を抽出し、顔画像蓄積サーバ127に記録する。
The person
人物特徴量抽出部214は、人物領域検出部213で検出した領域に対して画像認識技術を用いて特徴量算出を行う。ここで算出する人物特徴量とは、例えば、人物の輪郭の形状や方向、皮膚の色、歩容(どの脚をどのようにどんなタイミングで動かすかといった脚の捌き方)、或いは、人物を特定する代表的な部位である顔の輪郭の形状や方向、目や鼻、口といった主要構成要素の大きさ、形状、配置関係等が挙げられるが、本実施形態においては、使用する特徴量の種類や数はいずれであってもよい。人物特徴量抽出部214は、顔種別(正面、横顔、斜め顔、後ろ顔、笑った顔、怒った顔等)を特徴量の種類として判別することができ、検出対象の顔画像とそのような特徴量を関連づけることができる。
The person feature
人物特徴量記録部215は、人物特徴量抽出部214で算出した特徴量の記録媒体への書込みと読出しを行う。このとき、人物特徴量は、人物領域検出部213が抽出した顔画像を顔画像蓄積サーバ127に記録する際に関連付けられる。顔画像には、所定のタイミング(ユーザによる入力または類似顔画像検索による自動付与)で人物の名前と関連付けられる。
The person feature
画像記録部211における画像データの記録媒体と本処理部における人物特徴量の記録媒体とは同一であっても別個であってもよい。
The recording medium of the image data in the
属性情報記録部216は、画像データに関連する属性情報の記録媒体への書込みと読出しを行う。属性情報とは、例えば、画像の撮影時刻や撮像装置番号等である。
The attribute
要求受信部217は、編集装置14からの検索要求やキーワード付与要求の受信を行う。検索要求には、類似顔画像検索要求と、登場イベント検索要求がある。
The
類似人物検索部218は、要求受信部217にて受信した要求が類似人物検索要求であった場合に、類似顔画像検索を行う。
The similar
登場イベント検索部219は、要求受信部にて受信した要求が登場イベント検索要求であった場合に、登場イベント検索を行う。
The appearance
検索結果送信部220は、類似人物検索部218や登場イベント検索部219から得た類似人物検索結果や登場イベント検索結果の編集装置14への送信を行う。
The search
キーワード記録部110は、要求受信部217にて受信したキーワード付与要求に基づくキーワードの記録媒体への書込みと読出しを行う。
The
キーワード検索部111は、要求受信部217にて受信した検索要求データ中にキーワードが含まれていた場合に、キーワード検索を行う。
When the search request data received by the
つづいて、図4を参照して編集装置14(編集機)を説明する。図4は、編集装置14の概略構成を示すブロック図である。編集装置14は、素材映像データに対して実際にレンダリング処理等を施す編集処理を行う。
Subsequently, the editing device 14 (editing machine) will be described with reference to FIG. FIG. 4 is a block diagram showing a schematic configuration of the
編集装置14は、実際にこの編集作業を行うプロセッサを具備する編集制御部(編集手段)141と、素材映像データ、及びこれに編集が施された後の映像データに基づく映像を表示させる表示部142(ディスプレイ)と、その画像や音声における各部分を選択する、あるいは指示を入力するための操作パネル143(操作手段)と、類似顔画像検出操作部103とを備える。表示部142と操作パネル143とが一体化されたタッチパネルディスプレイ144として設けられてもよい。
The
編集制御部141は、素材映像データと上記の自動編集情報を記録装置12(自動編集情報部125)から読み出し、自動編集情報に基づいて素材映像データを編集した新たな映像データ(自動編集済み映像データ)を作成し、自動編集済み映像データを記録装置12(自動編集済み映像データ部123)に記憶させる。
The
ただし、編集装置14においては、この自動編集済み映像データに基づく画像をユーザが表示部142で確認した上で、操作パネル143を操作して、自動編集済み映像データにおいて処理が施された部分のうち、適切でないと認識された部分の処理を解除するための指示を編集制御部141に出し、この処理の解除を行うこともできる。この場合には、素材映像データを参照することもできる。
However, in the
同様に、編集制御部141は、自動編集済み映像データに対して、更に追加の処理を施すこともできる。この際に新たに処理の対象となる部分は、ユーザによって指定される。この際にも、ユーザは、自動編集済み映像データに基づく映像を表示部142で確認した上で、操作パネル143を操作して、この操作を行うことができる。こうしたユーザによる操作によって、前記の自動編集情報が書き換えられた最終編集情報が生成される。この最終編集情報は素材映像データに対する編集処理に反映されると共に、後述されるように、処理対象情報の更新に利用される。
Similarly, the
同様に、編集制御部141は、記録装置12から素材映像データを直接読み込み、この素材映像データに基づく画像を表示部142でユーザに確認させた上で操作パネル143を操作させ、前記の自動編集情報を用いずに、処理の対象となる部分を指定し、レンダリング処理を施す操作を行うこともできる。この操作においては、ユーザは、自動編集情報とは無関係に、素材映像データに対してレンダリング処理を行うことができる。
Similarly, the
編集制御部141は、このように、自動編集情報に基づいて編集された自動編集済み映像データ、ユーザによって自動編集済み映像データ又は素材映像データが編集された編集済み映像データを、記録装置12に記録させることができる。
Thus, the
類似顔画像検出操作部103は、機能構成として、検索要求送信部221、検索結果受信部222、検索結果表示部223、再生画像表示部224、画面操作検知部225、キーワード付与要求送信部112、複数検索キー選択部113の各処理部を有する。
The similar face image
検索要求送信部221は、検索要求の記録装置12への送信を行う。類似人物検索の場合、検索要求データには、類似人物検索の検索キーとして、人物の名前、検索キー画像(特に顔画像)或いはその特徴量が含まれる。また、検索要求データには、絞込みパラメータを含めることも可能である。
The search
検索結果受信部222は、検索結果の記録装置12(類似顔画像検出装置16)からの受信を行う。検索結果として受信するデータには、記録装置12(類似顔画像検出装置16)において、類似人物検索、或いは、登場イベント検索を実施して得られた画像の集合が含まれる。集合を構成する個々の画像は、記録装置12(類似顔画像検出装置16)に記録された映像から画像サイズ縮小処理等を施して生成される。以下、この個々の画像を「検索結果画像」、検索結果として送受信するデータを「検索結果データ」ともいう。
The search
検索結果表示部223は、検索結果受信部222にて受信した検索結果の画面表示を行う。表示される画面例については後述する。
再生画像表示部224は、記録装置12(類似顔画像検出装置16)から入力された画像データの画面への連続動画表示を行う。
画面操作検知部225は、ユーザによる操作内容の検知及び取得を行う。
キーワード付与要求送信部112は、キーワード付与要求の記録装置12(類似顔画像検出装置16)への送信を行う。
複数検索キー選択部113は、検索キー画像の候補が複数選択されたときに、より少ない数の検索キー画像を適切に選択する処理を行う。
The search
The reproduction
The screen
The keyword assignment
The multiple search
図5は、自動編集情報作成装置13の機能ブロックである。自動編集情報作成装置13は、処理対象認識部131と、情報記憶部132とを備える。情報記憶部132は、最終編集情報部124と、自動編集情報部125と、処理対象情報部128とを備える。最終編集情報部124、自動編集情報部125は、記録装置12に設けられるものと同一であってもよいし、別に設けられてもよい。
FIG. 5 is a functional block of the automatic editing
自動編集情報作成装置13は、この素材映像データを読み込み、処理対象認識部131で、レンダリング処理を施す部分を認識する。この際、処理対象認識部131におけるプロセッサは、情報記憶部132に記憶された処理対象情報を基にして、この認識を行い、このように処理の対象となる部分とその処理についての情報(自動編集情報)を記録装置12に記憶させる。
The automatic editing
自動編集情報の内容における処理の対象となる部分に関する情報としては、具体的には、処理対象となる部分の映像フレーム位置(タイムコード情報)、映像上の座標、あるいは処理対象が音声の場合には音声サンプルの位置の範囲、処理の内容等がある。処理の内容としては、処理対象が映像の場合にはモザイク処理、ブラー処理、映像カット、輝度の増減処理、処理対象が音声の場合にはミュート処理、音量調整等がある。また、処理の対象とする理由(例えば放送禁止に該当する、特定企業名である等)も処理対象情報に含まれる。 More specifically, the information on the portion to be processed in the contents of the automatic editing information includes the video frame position (time code information) of the portion to be processed, the coordinates on the video, or the case where the processing target is audio. Are the range of the position of the audio sample, the contents of the processing, and the like. The contents of the process include mosaic process, blur process, video cut, increase / decrease process of luminance when the process object is video, mute process, volume adjustment, etc. when the process object is audio. The processing target information also includes the reason for the processing (for example, the name of a specific company that corresponds to a broadcast prohibition, etc.).
処理対象情報としては、例えば映像の配信先(目的)等に応じ、複数のものを設定することができる。これに応じて、例えばある一つの配信先に対しては処理の対象とならない部分を他の配信先に対しては処理の対象とすること、上記の処理の内容を配信先に応じて変える、等の操作が可能となる。こうした場合には、処理対象情報がユーザによって選択される構成とされる。 As the processing target information, for example, a plurality of pieces of information can be set according to the delivery destination (purpose) of the video. In response to this, for example, a part not to be processed for one distribution destination is to be processed for another distribution destination, and the contents of the above processing are changed according to the distribution destination. Such operations are possible. In such a case, the processing target information is selected by the user.
また、後述するように、最終的に素材映像データに対して編集が行われる際には、処理対象となった部分や処理の内容は、ユーザによって確認された後に、修正が施される。こうした最終的な編集情報(最終編集情報)あるいは最終編集情報と自動編集情報との違いに関する情報も、情報記憶部132に記憶される。
Further, as described later, when the editing is finally performed on the material video data, the portion to be processed and the content of the process are corrected after being confirmed by the user. Information on the difference between the final editing information (final editing information) or the final editing information and the automatic editing information is also stored in the
以上の構成による動作例を説明する。
まず、図6〜10を参照して編集処理例を説明し、次に図11〜13を参照して類似人物検索処理(特に類似顔検出処理)について説明し、さらに図14〜16を参照して類似顔検出処理を編集処理に適用した処理例を説明する。
An operation example with the above configuration will be described.
First, an example of editing processing will be described with reference to FIGS. 6 to 10, and then similar person search processing (particularly, similar face detection processing) will be described with reference to FIGS. A processing example in which the similar face detection processing is applied to the editing processing will be described.
図6は、システム制御部15が行わせる具体的な動作を示すフローチャートの一例である。ここでは、単純化のために、編集装置14を用いてユーザによって指定された処理は行われないものとする。また、図1において、素材映像データは自動編集情報作成装置13を介してのみ記録装置12に入力する(記憶される)ものとする。
FIG. 6 is an example of a flowchart showing a specific operation performed by the
まず、収録装置11は、素材映像データを入手する(S1)。自動編集情報作成装置13は、この素材映像データを入手し、素材映像データ中の画像において処理対象となる部分があるかを解析する(S2)。ここでは、処理対象認識部131が、情報記憶部132中の情報を参照し、素材映像データ中の画像において処理対象となる部分があるかを認識し、この部分が認識された場合には、この部分に対する処理も、情報記憶部132中の情報に基づき、決定する(S3)。これによって、自動編集情報が作成される。処理の対象となる部分が認識されなかった場合(S4のNo)には、素材映像データがそのまま記録装置12に記憶される(S5)。
First, the
処理の対象となる部分が認識された場合(S4のYes)、システム制御部15は、素材映像データを記憶するか否かをユーザに問い合わせる(S6)。記憶しない場合(S6のNo)、前記の通り、編集装置14を用いて、この素材映像データに対して自動編集情報に基づく編集を行わせた自動編集済み映像データを作成し(S7)、この自動編集済み映像データと自動編集情報とを記録装置12に記憶させる(S8)。この場合には、記録装置12に記憶される映像データは、編集後の自動編集済み映像データのみとなる、あるいは、素材映像データが記録装置12に記憶されていた場合には、素材映像データは自動編集済み映像データに置き換えられる。
When the part to be processed is recognized (Yes in S4), the
素材映像データを記憶する場合(S6のYes)、システム制御部15は、素材映像データと自動編集情報を記録装置12に記憶させた後(S9)、ユーザに対して、自動編集を行うか否かの確認を行う(S10)。自動編集を行わない場合(S10のNo)、処理は終了する。この場合には、記録装置12には編集前の素材映像データと自動編集情報が記憶される。このため、この時点では自動編集済み映像データは存在しないが、編集装置14を用いて、後で容易に自動編集済み映像データを作成することができる。
When the material video data is stored (Yes in S6), the
自動編集を行う場合(S10のYes)、システム制御部15は、編集装置14に自動編集済み映像データを作成させ(S11)、これを記録装置12に記憶させる(S12)。この場合、記録装置12には、元となった素材映像データ、自動編集情報、自動編集済み映像データの全てが記憶される。このため、例えば、上記のように複数の処理対象情報が設定された場合において、同一の素材映像データに対して他の処理対象情報を用いた処理を後で行うことが容易となる。
When the automatic editing is performed (Yes in S10), the
なお、記録装置12が収録装置11から素材映像データを直接受信してこれを記憶する場合には、上記のS6〜S8の工程は不要となる。ただし、自動編集済み映像データが記憶された(S12)後に、素材映像データを削除してもよい。
When the
図6のフローチャートにおいては、素材映像データの入力があった後におけるシステム制御部15の動作が示された。一方、素材映像データが記録装置12に予め記憶されている状態でシステム制御部15に対して映像の配信(出力)要求があり、これに応じて素材映像データが編集された後の映像データを出力させる場合もある。
The flowchart of FIG. 6 shows the operation of the
図7は、こうした場合におけるシステム制御部15の動作の一例を示すフローチャートである。ここでは、少なくとも素材映像データは記録装置12に記憶されているものとする。
FIG. 7 is a flowchart showing an example of the operation of the
まず、システム制御部15は、配信の要求があった場合(S21)、記録装置12に自動編集済み映像データが記憶されているか否かを確認する(S22)。自動編集済み映像データが記憶されていなかった場合(S22のNo)、自動編集情報が記憶されているか否かを確認する(S23)。
First, when there is a distribution request (S21), the
自動編集情報が存在する場合(S23のYes)、システム制御部15は、前記のように編集装置14を用いて自動編集済み映像データを作成し、これを記録装置12に記憶させる(S24)。自動編集情報が存在しない場合(S23のNo)、システム制御部15は、自動編集情報作成装置13を用いて自動編集情報を作成し(S25)、同様に編集装置14を用いて自動編集済み映像データを作成し、これを記録装置12に記憶させる(S24)。これによって、自動編集済み映像データが記憶されていなかった場合(S22のNo)、自動編集済み映像データが新たに作成されて記録装置12に記憶される。
If the automatic editing information exists (Yes in S23), the
自動編集済み映像データが記憶されていた場合(S22のYes)、あるいは上記のように新たに自動編集済み映像データが作成・記憶された場合(S24)、システム制御部15は、この自動編集済み映像データに基づく画像を編集装置14(表示部142)で表示させ(S26)、この内容で配信してよいか否かをユーザに問い合わせる(S27)。
When the automatically edited video data is stored (Yes in S22), or when the newly edited video data is newly created and stored as described above (S24), the
この内容で配信してよい場合(S27のYes)、この自動編集済み映像データを、配信が許可された編集済み映像データと設定する(S28)。一方、この内容からの変更を希望する場合(S27のNo)、システム制御部15は、編集装置14を用いて自動編集済み映像データを更に編集させ(S29)、この編集後の映像データを、配信が許可された編集済み映像データと設定し、記録装置12に記憶させる(S30)。この際、前記の通り最終編集情報も作成し、記憶させる。
If the contents may be distributed with this content (Yes in S27), the automatically edited video data is set as the edited video data for which distribution is permitted (S28). On the other hand, when a change from this content is desired (No in S27), the
その後、システム制御部15は、上記のように記録装置12に記憶された編集済み映像データを配信させる(S31)。
Thereafter, the
また、自動編集情報が作成されてもこれを適用して自動編集済み映像データを作成するのには時間を要し、記録装置12に様々な映像データを記憶させるのにも時間を要する。このため、配信において不要となることが明らかな映像データを記憶させない、作成しないことが好ましい。更に、処理の時間を短縮するために、ユーザが他の装置を用いて同時に映像を確認する場合もある。
Also, even if the automatic editing information is created, it takes time to apply it to create the automatically edited video data, and it also takes time to store various video data in the
図8は、こうした点を考慮したシステム制御部15の動作を示すフローチャートの一例である。
FIG. 8 is an example of a flowchart showing the operation of the
ここでは、収録装置11が素材映像データを入手したら(S41)、この素材映像データをそのまま記録装置12に記憶するか否かが判断される(S42)。素材映像データの記憶が不要であると認識された場合(S42のNo)、前記の通りに自動編集処理が行われて自動編集済み映像データが作成され(S43)、この自動編集済み映像データを配信用の映像データであるとして記録装置12に記憶する(S44)。この場合においては、記録装置12に記録される映像データは自動編集済み映像データのみである。
Here, when the
素材映像データの記憶をすると認識された場合(S42のYes)、素材映像データが記録装置12に記憶される(S45)。その後、他装置も用いて素材映像データの解析を行うか否かが問い合わせられる(S46)。他装置も用いて素材映像データの解析を行う場合(S46のYes)、ユーザは、他装置を用いて素材映像データの解析を行い(S47)、その上で編集装置14を用いた以降の処理を開始させることができる。この解析結果を、以下の判定(S50、S56)に利用できる。
If it is recognized that the material video data is stored (Yes in S42), the material video data is stored in the recording device 12 (S45). Thereafter, it is inquired whether or not to analyze the material video data using another device (S46). When analyzing the material video data using another device (Yes in S46), the user analyzes the material video data using the other device (S47), and the process thereafter using the
その後、自動編集を直ちに行うか否かが問い合わせられ(S48)、直ちに行わない場合(S48のNo)、自動編集情報作成装置13によって自動編集情報が作成され(S49)、その後で編集装置14は、この自動編集情報の内容でよいか否かを問い合わせる(S50)。 Thereafter, it is inquired whether or not automatic editing is to be performed immediately (S48), and if it is not to be performed immediately (No in S48), automatic editing information is created by the automatic editing information creation device 13 (S49). Inquiring whether or not the contents of the automatic editing information are acceptable (S50).
この問い合わせを行う際には、実際に自動編集済み映像データは作成されていないが、ユーザは、この自動編集情報に基づく編集後の内容を確認するために、前記の通り、ある一時点での静止画像を用いて、この確認をすることが可能である。 When this inquiry is made, the automatically edited video data is not actually created, but as described above, the user can confirm the content after editing based on the automatic editing information. It is possible to do this verification using a still image.
この内容を変更したい場合(S50のNo)、編集装置14は、ユーザにその修正を行わせる(S51)。その後、内容の変更がない場合(S50のYes)、そのままの自動編集情報に基づいて、素材映像データに対する実際の編集作業が行われた編集済み映像データが作成される(S52)。この編集済み映像データが、配信用の映像データとして記録装置12に記憶される(S53)。この場合には、最終的に内容が確定するまで編集済み映像データは作成されない。
If it is desired to change this content (No in S50), the
自動編集を直ちに行う場合(S48のYes)、直ちに自動編集情報とこれに基づいた自動編集済み映像データが作成され(S54)、自動編集済み映像データを表示部142で表示させる(S55)。この場合には、ユーザは、自動編集済み映像データの全ての時点で、この編集内容が適正か否かを詳細に確認することができる(S56)。 When the automatic editing is immediately performed (Yes in S48), the automatic editing information and the automatically edited video data based on the automatic editing information are created (S54), and the automatically edited video data is displayed on the display unit 142 (S55). In this case, the user can check in detail whether or not the edited content is appropriate at all time points of the automatically edited video data (S56).
その後、この編集内容の修正を望む場合(S56のNo)には、上記と同様にその修正作業、確認が行われ(S57)、その後に再びこの修正後の編集情報に基づき新たな映像データ(編集済み映像データ)が作成され(S58)、この編集済み映像データが配信用の映像データとして記録装置12に記憶される(S59)。この際に作成された最終編集情報も同時に記憶される。
After that, when it is desired to correct this editing content (No in S56), the correction work and confirmation are performed in the same manner as described above (S57), and thereafter new video data (based on the corrected editing information) The edited video data is created (S58), and the edited video data is stored in the
自動編集情報に基づく編集が適正であると認められた場合(S56のYes)には、既に作成された自動編集済み映像データが、配信用の映像データとして記録装置12に記憶される(S60)。
If it is determined that the editing based on the automatic editing information is appropriate (Yes in S56), the automatically edited video data that has already been created is stored in the
上記の動作においては、素材映像データに対して実際に編集処理を施すことを必要最小限に留めることによって処理時間を短くし、かつユーザによる編集処理が適正か否かのチェックを確実に行うことができ、その修正も行われる。 In the above operation, the processing time can be shortened by minimizing the necessity of actually performing the editing process on the material video data, and the user can surely check whether the editing process is appropriate or not. And their corrections will be made.
次に、素材映像データにおける処理の対象となる部分を認識するために情報記憶部132に記憶される処理対象情報について説明する。こうした処理の対象となる部分としては、前記のような時刻表示、映り込んだ自動車の登録ナンバー、企業名、映り込んだ人物の顔等がある。時刻表示や登録ナンバーは、数字をパターン認識することによって認識することができ、企業名は文字のパターン認識によって認識することができ、顔もパターン認識手法によって認識することができる。
Next, processing target information stored in the
前記の通り、上記の編集装置14においては、ユーザ自身が操作パネル143を操作することによって、こうした処理の対象となる部分を設定することもでき、その後にこの操作が反映された最終編集情報が作成される。この場合、この最終編集情報を処理対象認識部131が認識して、処理対象情報を更新(あるいは作成)することもできる。この場合、処理対象認識部131は、処理対象情報をより好ましい内容に更新する処理対象情報改変手段として機能する。
As described above, in the
図9は、処理対象認識部131におけるこうした動作の流れを示す図である。
まず、初期状態(初期設定)の処理対象情報は、ユーザによって作成される(P1)。ここでは、例えば、処理の対象として必要最小限でありかつ認識が比較的容易なもののみが対象として選定される。また例えば、前記のような画像中の時刻表示を、こうした対象とすることができる。この処理対象情報を用いて、前記のようにこの映像編集システム1が繰り返し用いられる。この際、前記のように、自動編集情報による編集に加え、あるいはこの編集に代わり、ユーザによっても編集作業が行われ、最終的に素材映像データに対して適用された最終編集情報が作成され、この最終編集情報も情報記憶部132に記憶される。
FIG. 9 is a diagram showing the flow of such an operation in the process
First, processing target information in the initial state (initial setting) is created by the user (P1). Here, for example, only those that are minimally necessary for processing and relatively easy to recognize are selected as targets. Also, for example, time display in an image as described above can be such an object. The video editing system 1 is repeatedly used as described above using the processing target information. At this time, as described above, in addition to or in place of the editing by the automatic editing information, the editing work is also performed by the user, and finally the final editing information applied to the material video data is created. The final editing information is also stored in the
このため、処理対象認識部131は、自動編集済み映像データの基となった自動編集情報と、その後に生成された最終編集情報とを比較することによって、自動編集情報の基となり情報記憶部132に記憶された処理対象情報を改変することができる。例えば、画像中のある文字列が処理対象情報における処理の対象に含まなかったために自動編集情報においては処理の対象とされていなかったが、ユーザによって後で指定されて最終編集情報においては処理の対象とされた場合には、この文字列を処理の対象として追加するように処理対象情報を改変することができる。逆に、画像中のある文字列が処理対象情報における処理の対象に含まれたために自動編集情報においては処理の対象とされたが、ユーザによって後でこの指定が解除されて最終編集情報においては処理の対象とされなかった場合には、この文字列を処理の対象から削除するように処理対象情報を改変することができる。処理対象情報における処理の内容(ブラー処理等)についても、同様に改変することができる。こうした作業は、例えば画像中の顔認識を用いれば、特定の人物を処理の対象とする場合においても同様に行うことができる。
Therefore, the processing
また、このように処理の対象として選択されたか否かという単純な判断を用いずに、処理対象認識部131は、記録された複数の最終編集情報における統計的処理に基づいて、処理対象情報を改変することもできる。この際、例えば、最終編集情報と自動編集情報との相違点の各々を数値評価してその数値の総計を点数として算出し、この数値に基づき、処理対象情報を改変することもできる。例えば、この点数が大きかった(違いが大きかった)最終編集情報を抽出し、これらの中で共通の処理対象とされ処理対象情報に含まれなかったものを、新たに処理対象情報に取り入れることができる。
In addition, the processing
このため、図9のフローにおいては、初期状態の処理対象情報(P1)を用いてこの映像編集システム1が用いられ、この際に、ユーザの操作により最終編集情報が作成され、情報記憶部132に記憶される(P2)。その後、上記のように、最終編集情報と自動編集情報の違いが数値化されて評価される(P3)。この数値に基づき、総合的解析として、現在の処理対象情報を書き換えることが好ましいか、あるいはどのように書き換えるかが判定され(P4)、最終的に処理対象情報が更新される(P5)。ここで、図9に示されるように、最終的な判定(P4)に際しては、上記のような最終編集情報と自動編集情報の違いだけでなく、編集装置14におけるユーザによる編集作業の傾向(例えばあるユーザにおいては編集作業が多く、他のあるユーザでは編集作業が少ない)や、初期設定(P1)後に新たに発生した事情によって追加された画像に対する条件、等も考慮することができる。 Therefore, in the flow of FIG. 9, this video editing system 1 is used using the processing object information (P1) in the initial state, and at this time, the final editing information is created by the operation of the user. Are stored (P2). Thereafter, as described above, the difference between the final editing information and the automatic editing information is quantified and evaluated (P3). Based on this numerical value, it is determined whether or not it is preferable to rewrite the current processing target information as a comprehensive analysis (P4), and the processing target information is finally updated (P5). Here, as shown in FIG. 9, in the final determination (P4), not only the difference between the final editing information and the automatic editing information as described above, but also the tendency of the editing work by the user in the editing apparatus 14 (for example, It is also possible to consider conditions for an image added due to circumstances newly generated after initial setting (P1), etc., because there are many editing operations for some users and few editing operations for other users.
このような処理対象情報の改変作業は、この映像編集システム1が使用されて最終編集情報が作成される度に繰り返してもよく、周期的に行ってもよい。また、上記の点数を用いる場合には、この点数の累積値に応じて行ってもよい。 Such modification work of the processing target information may be repeated every time the video editing system 1 is used and the final editing information is created, or may be performed periodically. Moreover, when using said score, you may carry out according to the cumulative value of this score.
このように、処理対象情報を、多数の最終編集情報を基にして改変する作業は、周知の機械学習手法(ディープラーニング)等を用いても行うことができる。前記のように、映像の配信先等に応じて複数の処理対象情報が設定される場合には、これらの作業も処理対象情報毎に行うことができる。 As described above, the operation of modifying the processing target information based on a large number of final editing information can also be performed using a well-known machine learning method (deep learning) or the like. As described above, in the case where a plurality of pieces of processing target information are set according to the delivery destination of the video, etc., these tasks can also be performed for each piece of processing target information.
ユーザ自身が自動編集済み映像データに対する評価を入力できる設定とするための問い合わせ、入力は、編集装置14における表示部142、操作パネル143(タッチパネルディスプレイ144)を用いて行うことができる。
The user can use the
図10は、こうした表示の一例である。ここでは、表示Kにおいて、自動編集情報(処理の対象となる部分の各々及びそれぞれにおける処理の内容)の説明及びその適用の可否が行われ、上側の表示Lで、この際の自動編集情報の評価がユーザによって入力される。その後で下側の表示Mを操作することによって、自動編集情報が表示Kの操作を反映して改変された最終編集情報を用いた編集処理が実行される。 FIG. 10 is an example of such a display. Here, on the display K, the description of the automatic editing information (the contents of the processing in each of the portions to be processed and the respective portions) and the availability of the application thereof are performed. A rating is entered by the user. Thereafter, by operating the lower display M, editing processing is performed using the final editing information in which the automatic editing information has been modified to reflect the operation of the display K.
素材映像データには様々な種類のものがあり、場合によっては、一般的ではない特殊部分に対して処理を施す場合もある。こうした場合においては、自動編集情報と最終編集情報の違いが大きくなった場合でも、この場合の最終編集情報は、一般的に用いられる処理対象情報の改変に用いないことが好ましい。図10に示されたように、この場合の自動編集情報を評価の対象としないことを選択した場合には、このように特殊な場合の最終編集情報は処理対象情報の改変には使用されない。 There are various types of material video data, and in some cases, processing may be performed on an uncommon special part. In such a case, even if the difference between the automatic editing information and the final editing information becomes large, it is preferable that the final editing information in this case is not used to modify the generally used processing target information. As shown in FIG. 10, when it is selected that the automatic editing information in this case is not targeted for evaluation, the final editing information in such a special case is not used for modifying the processing object information.
このように、新たに作成された最終編集情報をフィードバックして処理対象情報を更新する方法として、上記の他にも、様々な手法が適用可能である。 As described above, various methods other than the above can be applied as a method of feeding back the newly created final editing information and updating the processing target information.
また、例えば、上記の処理の対象となりうる部分としては、映り込んだ人物の顔があり、処理対象認識部131は画像中における顔を認識することが可能である。ここで、例えば、映り込んだ人物が複数おり、ある特定の人物の顔のみに対して処理を適用したい場合、あるいは逆にこの特定の人物以外の全ての人物の顔に処理を施したい場合がある。こうした場合には、処理対象情報において、人物の顔を上記の第1のレベルに設定すれば、前記の放送禁止用語の場合と同様に、警告のみを発し、この警告が解除されない限り、自動編集済み映像データを作成せず、かつ素材映像データも配信しない構成とすればよい。その後、ユーザは、映り込んだ全ての顔のうち、特定の人物の顔のみに処理を行う、あるいは逆に特定の人物の顔のみに処理を行わないように、操作パネル143を制御して最終編集情報を作成し、この最終編集情報に応じて編集済み映像データを作成した後に、これを配信させることができる。
Also, for example, as a part that can be the target of the above-described processing, there is a face of a person who is reflected, and the processing
なお、上述の構成においては、記録装置12(ビデオサーバ)に、処理対象認識部(処理対象認識手段、処理対象情報改変手段)131、情報記憶部(情報記憶手段)132を具備する自動編集情報作成装置13と、編集制御部(編集手段)141、表示部(表示手段)142、操作パネル(操作手段)143を具備する編集装置14が接続され、上記の動作が行われた。しかしながら、上記と同様の機能をもつ処理対象認識手段、処理対象情報改変手段、情報記憶手段、編集手段、表示手段等が素材映像データに関わって設けられ、自動編集済み映像データ、自動編集情報、最終編集情報等を作成することができる限りにおいて、具体的な装置の構成は任意である。すなわち、使用される各装置において上記の各手段がどのように設けられるかは任意であり、上記の各手段が全て単一の装置内に設けられていてもよい。
In the above configuration, the automatic editing information includes the processing target recognition unit (processing target recognition unit, processing target information modification unit) 131 and the information storage unit (information storage unit) 132 in the recording device 12 (video server). The
次に図11〜18を参照して類似人物検索処理(特に類似顔検出処理)について説明する。当該処理は、類似顔画像検出装置16や編集装置14(特に類似顔画像検出操作部103)の機能により実行されるもので、特開2013−101431号公報に開示の技術を顔画像の認識処理に適用したものである。以下では、開示されている主要部分を例示する。
Next, similar person search processing (in particular, similar face detection processing) will be described with reference to FIGS. The processing is executed by the functions of the similar face
図11(a)〜(g)には、本実施例において、類似人物検索を実施する手順に沿って、検索キー画像の候補となった画像の特徴量を例示している。図12には、類似人物検索(類似顔検出処理)を実施する手順を例示している。 FIGS. 11A to 11G illustrate feature amounts of images that have become candidates for search key images along the procedure of performing similar person search in the present embodiment. FIG. 12 exemplifies a procedure for performing similar person search (similar face detection processing).
まず、最初のキー画像による検索処理6001では、ユーザが選択した最初の検索キー画像によって最初の検索が行われる。ここでは、最初の検索キー画像に選択された画像の特徴量(本例では、画像中の人物の特徴量)と距離が近い特徴量を有する画像を記録装置12内の類似人物検索部218を通じて検索し、その結果、例えば10件の画像が検索される。
First, in the search processing by the first
図11(a)には、最初の検索キー画像の特徴量を「○」で示してある。ここでは、説明の分かり易さのために画像の特徴量を2次元で表現しているが、実際には、画像の特徴量は例えば数百次元といった非常に多くの次元数を持つ場合が多い。 In FIG. 11A, the feature quantities of the first search key image are indicated by "o". Here, the feature quantities of the image are expressed in two dimensions for easy understanding of the explanation, but in practice, the feature quantities of the image often have a very large number of dimensions, for example, several hundred dimensions. .
ここで、検索結果である10件の画像のうち3件が最初の検索キー画像と同一の対象であるとする。検索結果から同一人物を選択する処理6002では、10件の検索結果画像から目的の3件の画像を選択する。具体的には、例えば、ユーザが編集装置14の操作パネル143やマウス(図示せず)を操作して目的の画像を選択する。なお、画像の特徴量について閾値を設け、最初の検索キー画像の特徴量と検索結果画像の特徴量との距離が閾値以下なら同一の対象(同一人物)であると判断し、該当する検索結果画像を自動選択する方法としてもよい。
Here, it is assumed that three out of ten images as search results are the same as the first search key image. In
図11(b)には、図11(a)の内容に加え、検索結果から同一人物を選択する処理6002によって選択された画像の特徴量を「△」で示してある。このような処理によって選択された画像は、新たな検索キー画像の候補となる。
In FIG. 11B, in addition to the contents of FIG. 11A, the feature amount of the image selected by the
ここで、検索結果画像が動画を形成する連続的な画像のうちの1枚であるとすると、その動画における検索結果画像の前後にも同一人物の画像が含まれている場合が多い。検索結果前後の同一人物を選択する処理6003では、検索結果画像が抽出された動画における検索結果画像の前又は後の所定長の時間帯に含まれる複数の画像から、人物の位置や進行速度等に基づいて検索結果画像の人物と同一人物(すなわち、検索キー画像の人物と同一人物)と判定される画像を自動的に選択する。なお、ユーザが指定できるようにしてもよい。 Here, if it is assumed that the search result image is one of continuous images forming a moving image, the images of the same person are often included before and after the search result image in the moving image. In a process 6003 for selecting the same person before and after the search result, the position, the traveling speed, etc. of the person from a plurality of images included in a predetermined time slot before or after the search result image in the moving image from which the search result image is extracted. And automatically select an image determined to be the same person as the person in the search result image (ie, the same person as the person in the search key image). The user may be able to specify.
図11(c)には、図11(b)の内容に加え、検索結果前後の同一人物を選択する処理6003によって選択された画像の特徴量を「□」で示してある。このような処理によって選択された画像は、新たな検索キー画像の候補となる。 In addition to the content of FIG.11 (b), the feature-value of the image selected by the process 6003 which selects the same person before and behind a search result is shown by FIG.11 (c) by "(square). An image selected by such processing becomes a candidate for a new search key image.
マスクを付加する画像処理6004では、これまでの処理で新たな検索キー画像の候補とした人物の画像に対し、画像処理で鼻や口を覆うマスクを付加した画像を生成し、新たな検索キー画像の候補に追加する処理を行う。なお、これとは逆に、画像処理前の人物の画像が鼻や口を覆うマスクをしている場合に、画像処理でマスクを外すようにする処理を行ってもよい。また、マスクの画像は複数種類の画像を準備してもよい。 In the image processing 6004 for adding a mask, an image is generated by adding a mask for covering the nose and the mouth by image processing to the image of a person who is a candidate for a new search key image in the processing up to this point, and a new search key Perform processing to add to image candidates. In contrast to this, when the image of the person before the image processing has a mask covering the nose and the mouth, processing may be performed to remove the mask in the image processing. Moreover, the image of a mask may prepare several types of images.
サングラスや眼鏡を付加する画像処理6005では、これまでの処理で新たな検索キー画像の候補とした人物の画像に対し、画像処理でサングラスや眼鏡を付加した画像を生成し、新たな検索キー画像の候補に追加する処理を行う。なお、これとは逆に、画像処理前の人物の画像がサングラスや眼鏡をかけている場合に、画像処理でサングラスや眼鏡を外すようにする処理を行ってもよい。また、サングラスや眼鏡の画像は複数種類の画像を準備してもよい。 The image processing 6005 for adding sunglasses and glasses generates an image in which the sunglasses and glasses are added by image processing to the image of a person who is a candidate of a new search key image by the processing so far, and a new search key image Perform processing to be added to the candidate of. In contrast to this, when the image of the person before image processing wears sunglasses or glasses, processing may be performed to remove the sunglasses or glasses in the image processing. In addition, images of sunglasses and glasses may be prepared with multiple types of images.
人物の向きを変更する画像処理6006では、これまでの処理で新たな検索キー画像の候補とした人物の画像に対し、画像処理で人物の向きを変更した画像を生成し、新たな検索キー画像の候補に追加する処理を行う。人物の向きは通常複数であるが、単純な左右反転であってもよい。
The
図11(d)には、図11(c)の内容に加え、マスクを付加する画像処理6004、サングラスや眼鏡を付加する画像処理6005、人物の向きを変更する画像処理6006の結果生成された複数の画像の特徴量を「×」で示してある。このような処理によって生成された画像は、新たな検索キー画像の候補として追加される。
In FIG. 11D, in addition to the contents of FIG. 11C, an image processing 6004 for adding a mask, an image processing 6005 for adding sunglasses and glasses, and an
なお、マスクを付加する画像処理6004、サングラスや眼鏡を付加する画像処理6005、人物の向きを変更する画像処理6006は、最初の検索キー画像、検索結果から同一人物を選択する処理6002の結果の画像、検索結果前後の同一人物を選択する処理6003の結果の画像のいずれを対象にして施してもよい。また、対象の画像に対していずれか1つの画像処理を施してもよく、任意の2つの画像処理を施してもよく、3つの画像処理を全て施してもよい。また、対象の画像の明暗を変える画像処理など、上記以外の画像処理を施してもよい。
Note that the image processing 6004 for adding a mask, the image processing 6005 for adding sunglasses and glasses, and the
次に、クラスタリング処理6007では、これまでの処理6001〜6006により検索キー画像の候補とされた複数の画像をクラスタリングして、各クラスタを代表する画像(或いはその特徴量)を求める。クラスタリング方法としては、k−means法などの公知の技術を用いることができる。各クラスタを代表する画像としては、例えば、そのクラスタに含まれる画像の特徴量の平均に最も近い画像が用いられ、その画像の特徴量が新たな検索キーとされる。なお、クラスタに含まれる画像の特徴量の平均をそのまま新たな検索キーとしてもよい。
Next, in the
図11(e)には、これまでの処理6001〜6006によって得られた新たな検索キー画像の候補がクラスタリング処理6007によってクラスタに分けられた様子と、各クラスタを代表する画像の特徴量を例示してある。図11(e)では、3つのクラスタを枠線で囲って示してあり、各クラスタを代表する画像の特徴量として、各クラスタの重心に最も近い画像の特徴量P11、P12、P13がそれぞれ選択されている。
FIG. 11E illustrates how new search key image candidates obtained by the
代表する検索キーによる検索処理6008では、クラスタリング処理6007によって得られた各クラスタを代表する画像の特徴量を新たな検索キーに用いて類似画像検索を行い、結果を出力する。
In search processing 6008 using a representative search key, similar image search is performed using the feature amount of the image representative of each cluster obtained by the
ここで、図11(e)の例では、最初の検索キー画像に関連する画像(処理6001〜6006により得られた画像)は29枚あるため、従来であれば、これらの画像の特徴量を新たな検索キーとした検索を29回繰り返していたところ、本実施例においては、クラスタリング処理6007によって得られた各クラスタを代表する3つの画像の特徴量を用いて類似顔画像検索を行うことで、特徴量のバランスをとりつつ3回の検索で済むようにしている。ここでは、クラスタの数を3としたが、これは設定によって変えることができる。
Here, in the example of FIG. 11E, since there are 29 images (images obtained by the
次に、図13を参照して編集装置14の類似顔画像検出操作部103の画面について説明する。図13には、本例の類似顔画像検索システムに使用可能な検索画面を例示してある。
Next, the screen of the similar face image
検索画面は、再生画像表示領域3001、画像再生操作領域3003、検索キー画像指定領域3004、検索絞込パラメータ指定領域3008、検索実行領域3017、検索結果表示領域3020を有する。
The search screen has a reproduction
再生画像表示領域3001は、(類似顔画像検出装置16や)記録装置12に記録された画像を動画像として表示する領域である。また、再生画像表示領域3001の動画3002は、記録装置12に記録された画像を動画像として表示するものである。
The reproduction
画像再生操作領域3003は、記録装置12に記録された画像を再生操作する領域である。本領域3003を構成する各ボタンには、それぞれ固有の再生種類が割当てられている。本図においては、巻戻し、逆再生、再生停止、順再生、早送りの再生種類が左から順に割当てられている例を示している。ユーザが各ボタンをマウス282で適宜押下することにより、動画3002がボタンに割当てられた再生種類に切り替る。
The image
検索キー画像指定領域3004は、検索キー画像の指定と表示を行う領域である。本領域3004は、検索キー画像3005と、映像指定ボタン3006、ファイル指定ボタン3007を有する。
A search key
検索キー画像3005は、類似検索のための最初の検索キー画像とする画像である。初期状態においては、検索キー画像は、未指定であるので、画像表示はされていない状態となる。なお、未指定の場合に、別途用意した未指定状態を示す画像を表示する等、未指定である旨の表記をするようにしてもよい。
The search
映像指定ボタン3006は、押下時に再生画像表示領域3001に表示されている画像を、検索キー画像3005として指定するボタンである。
The image designation button 3006 is a button for designating, as a search
ファイル指定ボタン3007は、記録装置12に記録されている画像以外の画像、例えば、デジタルスチルカメラで撮影した画像やスキャナで取込んだ画像等を、検索キー画像3005として指定するボタンである。このボタン3007を押下すると、それらの画像をファイル指定するダイアログボックスが表示され、ユーザはそこで所望の画像を指定することができる。
The file designation button 3007 is a button for designating, as a search
検索絞込パラメータ指定領域3008は、検索の際の絞込パラメータの種類とその値(範囲)を指定する領域である。本領域3008は、撮像装置指定チェックボックス3009、3010、3011、3012と、タイムコード指定チェックボックス3013、3014と、タイムコード指定欄3015、3016を有する。
The search refinement
撮像装置指定チェックボックス3009、3010、3011、3012は、検索の際に検索対象とする撮像装置(カメラ10等)を指定するチェックボックスである。本チェックボックス3009、3010、3011、3012は、押下すると選ばれたことを示すチェックマークがそれぞれ表示される。このマークは再押下すると非表示となり、押下で表示・非表示を繰り返す。
The imaging device
タイムコード指定チェックボックス3013、3014は、検索の際に検索対象とする時刻範囲を指定するチェックボックスである。表示の態様については本チェックボックスも他のチェックボックスと同様である。タイムコード指定チェックボックス3013を選択状態にした場合には時刻範囲に先頭時刻を与える。非選択状態にした場合には、時刻範囲に先頭時刻を与えない、すなわち、記録装置12に記録された最も古い時刻の画像までを検索対象範囲とすることを意味する。
The time code
同様にタイムコード指定チェックボックス3014を選択状態にした場合には時刻範囲に末尾時刻を与える。非選択状態にした場合には、時刻範囲に末尾時刻を与えない、すなわち、記録装置12に記録された最も新しい時刻の画像までを検索対象範囲とすることを意味する。
Similarly, when the time code
タイムコード指定欄3015、3016は、上述の先頭時刻と末尾時刻の値を指定する入力欄である。初期状態においては、全時間帯を検索対象とするため、タイムコード指定チェックボックス3013、3014は全て非選択状態、タイムコード指定欄3015、3016は空欄とする。
The time
検索実行領域3017は、検索実行を指示する領域である。本領域3017は、類似人物検索ボタン3018、登場イベント検索ボタン3019に加え、検索結果からの類似人物検索ボタン3300、同一シーンチェックボックス3201、マスクチェックボックス3202、サングラスチェックボックス3203、異なる角度チェックボックス3204を有する。
The
類似人物検索ボタン3018は、検索キー画像3005による類似人物検索(最初のキー画像による検索処理6001)の実行を指示するボタンである。検索絞込パラメータ指定領域3008にてパラメータが指定されている場合には、指定されたパラメータに従って類似人物検索の実行を指示する。
The similar
登場イベント検索ボタン3019は、登場イベント検索の実行を指示するボタンである。検索絞込パラメータ指定領域3008にてパラメータが指定されている場合には、指定されたパラメータに従って登場イベント検索の実行を指示する。
The appearance
検索結果表示領域3020は、検索結果を表示する領域である。検索結果の表示は、検索結果画像を一覧表示することにより実施する。初期状態においては、検索結果表示領域3020には何も表示されない。
The search
ここで、ユーザが、映像指定ボタン3006を押下し、また、撮像装置指定チェックボックス3009、3010、3012を押下し、更に、タイムコード指定チェックボックス3013、3014を押下し、タイムコード指定欄3015、3016にそれぞれ「15:30:20:17」、「12:30:20:17」と入力したとする。
Here, the user presses the image designation button 3006, presses the imaging device
これにより、図13に示すように、検索キー画像3005には、動画3002に表示された人物「Aさん」の画像が検索キー画像として指定され、また、検索対象としたい撮像装置201として「カメラ1」、「カメラ2」、「カメラ4」の3つが指定され、検索対象としたい時刻範囲として「15:30:20:17から12:30:20:17まで」が指定される。
Thereby, as shown in FIG. 13, in the search
その後、ユーザが、類似人物検索ボタン3018を押下したとする。すると、検索結果表示領域3020には、検索キー画像3005を用いて類似人物検索を実行して得られた検索結果が表示される。図13は、この状態における検索画面の一例を示したものである。検索結果の表示は、検索結果画像(本例では、検索結果画像3031〜3141)を一覧表示することにより実施する。
Thereafter, it is assumed that the user presses the similar
検索結果画像3031〜3141は、例えば、最上段左から右へ、次に2段目左から右へと検索キー画像3005に対する類似度順に表示する。この表示例においては、検索結果画像3031が検索キー画像3005に対し最も類似度が高く、検索結果画像3141が最も類似度が低いということを示している。
For example, the search result images 3031 to 3141 are displayed in order of similarity with the search
この図に示された例の表記において、検索結果表示領域3020内の検索結果画像3031〜3141上に図示した円とアルファベットは、人物の顔と人物名称を簡略表示したものであり、例えば、検索結果画像3031には、人物「Aさん」が登場することを示している。この簡略表示している部分には、もちろん、実際のシステムでの表示では実画像が表示される。
In the notation of the example shown in this figure, the circle and the alphabet illustrated on the search result images 3031 to 3141 in the search
検索結果画像3031の周辺には、頭出し再生ボタン3032、検索キー画像指定ボタン3033、検索対象チェックボックス3301を備える。他の検索結果画像3041〜3141も同様である。
Around the search result image 3031, a
頭出し再生ボタン3032は、検索結果画像3031を先頭とした連続動画再生開始を指示するボタンである。例えば、頭出し再生ボタン3032を押下すると動画3002が検索結果画像3031に切り替り、その検索結果画像3031を先頭として始まる動画をユーザは、視聴することができる。
The
検索キー画像指定ボタン3033は、検索結果画像3031を新たな検索キー画像に指定するボタンである。例えば、検索キー画像指定ボタン3033を押下すると、検索結果画像3031が検索キー画像3005に表示される。これにより、検索結果画像3031を使って再検索を実施することができる。
The search key image designation button 3033 is a button for designating the search result image 3031 as a new search key image. For example, when the search key image designation button 3033 is pressed, the search result image 3031 is displayed on the search
検索対象チェックボックス3301は、検索結果からの類似人物検索ボタン3300を押下した場合に新たな検索キー画像(或いはその候補)として検索結果画像3031を指定するチェックボックスである。例えば、検索結果に出てきた「Aさん」の画像(本例では、検索結果画像2031〜3061、3081、3091、3121、3141)を全てチェックして、検索結果からの類似人物検索ボタン3300を押すことで、様々なパターンの「Aさん」を検索することが可能である。
The search target check box 3301 is a check box for specifying the search result image 3031 as a new search key image (or its candidate) when the similar
検索結果からの類似人物検索ボタン3300は、検索キー画像3005による類似人物検索の結果に基づく再度の類似人物検索(代表する検索キーによる検索処理6008)の実行を指示するボタンである。再度の類似人物検索では、検索結果表示領域3020の表示(最初のキー画像による検索処理6001の結果)の中からユーザに選択された(検索対象チェックボックスがチェックされた)画像を新たな検索キー画像(或いはその候補)として類似人物検索を再実行する。
The similar
同一シーンチェックボックス3201は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にして検索結果前後の同一人物を選択する処理6003を実行し、その結果の画像(対象の画像中の人物と同一人物を映した前後の画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
The same
尚、マスクチェックボックス3202は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にしてマスクを付加する画像処理6004を実行し、その結果の画像(対象の画像中の人物にマスクを付加した画像或いは当該人物からマスクを外した画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
Note that the mask check box 3202 executes the image processing 6004 for adding a mask to an image selected by the user from the display of the search
また、サングラスチェックボックス3203は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にしてサングラスや眼鏡を付加する画像処理6005を実行し、その結果の画像(対象の画像中の人物にサングラス等を付加した画像或いは当該人物からサングラス等を外した画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
In addition, the sunglasses check box 3203 executes an image processing 6005 for adding sunglasses or glasses to an image selected by the user from the display of the search
異なる角度チェックボックス3204は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にして人物の向きを変更する画像処理6006を実行し、その結果の画像(対象の画像中の人物の向きを変更した画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
The different
これらのチェックボックス3201〜3204の1以上がチェックされた状態で検索結果からの類似人物検索ボタン3300が押下された場合には、検索結果表示領域3020の表示の中からユーザに選択された各々の画像を対象にして、チェックされた状態のチェックボックスに対応する画像処理を実行し、その結果生成された画像を新たな検索キー画像の候補を追加し、その後、新たな検索キー画像の候補に対してクラスタリング処理6007を実行して各クラスタを代表する検索キー画像を求め、各クラスタを代表する画像の特徴量を検索キーとして用いて類似画像検索を実行する。
When the similar
以上のように、上記の例では、検索キーの候補である複数の画像の特徴量に基づいて、検索キーとする画像の特徴量を決定する検索キー決定手段と、検索キー決定手段により検索キーに決定された画像の特徴量に類似する特徴量を有する画像を検索する検索手段と、を備えた構成において、検索キー決定手段が、検索キーの候補である複数の画像の特徴量をクラスタリングし、クラスタ毎にそのクラスタを代表する画像の特徴量を検索キーとして決定し、検索手段が、検索キー決定手段により決定されたクラスタ毎の検索キーをそれぞれ用いて検索を行うように構成した。 As described above, in the above example, search key determination means for determining the feature amount of the image to be the search key based on the feature amounts of the plurality of images as search key candidates, and the search key by the search key determination means And retrieval means for retrieving an image having a feature amount similar to the feature amount of the image determined in step b), the search key determination means clusters feature amounts of a plurality of images as search key candidates. The feature amount of the image representing the cluster is determined as the search key for each cluster, and the search means is configured to perform the search using the search key for each cluster determined by the search key determination means.
なお、本例では、編集装置14の類似顔画像検出操作部103の複数検索キー選択部113の機能により検索キー決定手段を実現し、類似顔画像検出装置16の類似人物検索部218の機能により検索手段を実現しているが、他の態様により検索キー決定手段及び検索手段を実現しても構わない。
In this example, the search key determination unit is realized by the function of the multiple search
次に、図14〜16を参照して上述した類似人物検索処理(類似顔検出処理)を編集処理に適用した処理例を説明する。 Next, a processing example in which the similar person search processing (similar face detection processing) described above is applied to the editing processing will be described with reference to FIGS.
上述の様に、従来から行われている出演者の出演シーン(出演映像)を探し出すまでのフローでは、担当者(編集者等)は管理端末で出演者の情報を検索すると、その出演者が出演している番組及び、その番組が記録されているVTRテープ番号の一覧が表示される。その後、担当者は出力されたテープ番号のVTRテープを棚から取り出し、VTR再生機にかけて再生する。そして、再生映像を目視して出演シーンを探し、出演シーンのタイムコード情報を記録していた。このようなフローでは、作業効率や精度の観点から、改善が必要とされていた。そこで、次の様なフローによる技術を導入する。 As described above, in the flow until the cast scene (cast video) of the cast performed conventionally is searched, if the person in charge (editor etc.) searches the information of the cast on the management terminal, the cast A list of appearing programs and VTR tape numbers in which the programs are recorded is displayed. After that, the person in charge takes out the VTR tape of the output tape number from the shelf and reproduces it by the VTR reproducing machine. Then, the reproduction video was visually observed to search for a cast scene, and the time code information of the cast scene was recorded. In such a flow, improvement has been required from the viewpoint of work efficiency and accuracy. Therefore, we introduce the following flow technology.
図14は元の映像が、メディア5(光学メディア5a、磁気メディア5b及びVTRテープ5c)に記録されている場合に、顔画像蓄積サーバ127に顔画像を蓄積する手順を示す。メディア5を探し出すまでの手順は、従来通りである。
FIG. 14 shows a procedure for storing a face image in the face
元の映像が光学メディア5aや磁気メディア5bに記録されている場合は、探し出したメディア(光学メディア5aや磁気メディア5b)から映像ファイルを取り出し、類似顔画像検出装置16で映像ファイルを再生し、上述の類似人物検索処理の技術を用いて、再生映像から顔部分の映像のみを切出して、切出した顔画像をタイムコード情報と共に顔画像蓄積サーバ127に保存する。
When the original video is recorded on the
蓄積される顔画像は、1種類(一般には正面の顔)のみでなく、顔種別(正面、横顔、斜め顔、後ろ顔、笑った顔、怒った顔等)を検出対象の顔画像として複数登録して保存可能であり、顔画像とその顔種別が関連付けられて記録される。検出対象とする顔画像を複数、特に種別の異なる顔画像を複数、準備しておくことにより、特定の出演者が出演している映像をより精度よく検出することが可能となると共に、特定の出演者の映像の中でも特に欲しい状況(笑った顔の映像が欲しい等)を検出することができる。また、顔画像の蓄積の際に、出演者の名前が特定できている場合には、その名前も登録されてもよい。また、同一出演者について複数の顔画像が顔画像蓄積サーバ127に記録される場合に、基準となる顔画像(基準顔画像)が指定されてもよい。基準顔画像は、一つに限る趣旨では無いが、作業性の観点から、顔種別毎に1つや、所定の出演時期(例えば5年間)に一つといった程度に設定されうる。
The face images to be stored are not only one type (generally a frontal face) but a plurality of face types (front, side, diagonal, back, laughing, angry, etc.) as face images to be detected. It can be registered and saved, and a face image and its face type are associated and recorded. By preparing a plurality of face images to be detected, in particular a plurality of face images of different types, it becomes possible to more accurately detect a video on which a specific performer has appeared, and It is possible to detect a particularly desired situation (such as wanting a video of a smiling face) in the video of a performer. When the face image is stored, if the names of the performers can be identified, the names may also be registered. When a plurality of face images of the same performer are recorded in the face
元の映像がVTRテープ5cに記録されている場合は、探し出したVTRテープ5cをVTR再生装置(メディア再生装置19)で再生し、類似顔画像検出装置16に取り込む。類似顔画像検出装置16は、取り込んだ再生映像から、光学メディア5aや磁気メディア5bの場合と同様に、類似人物検索処理の技術を用いて、顔部分の映像のみを切出して、切出した顔画像をタイムコード情報と共に顔画像蓄積サーバ127に保存する。
When the original video is recorded on the
図15は元の映像が低解像度サーバ126に記録されている場合に、顔画像蓄積サーバ127に顔画像を蓄積する手順を示す。
FIG. 15 shows a procedure for storing a face image in the face
元の映像が低解像度サーバ126に記録されている場合、担当者が管理端末17上で出演者の情報を検索すると、その出演者が出演している番組及び、その番組が記録されている低解像度サーバ126内の映像ファイル名が出力される。その情報をそのままオンラインで、すなわちネットワーク2を介して類似顔画像検出装置16に渡される。その結果、低解像度サーバ126から映像ファイルを取り出し、類似顔画像検出装置16で映像ファイルを再生することで再生映像から顔部分の映像のみを切出して、切出した顔画像をタイムコード情報と共に顔画像蓄積サーバ127に保存する。
When the original video is recorded on the
図16は目的の出演者の顔画像を検出対象として顔画像蓄積サーバ127から類似顔検出した図である。
FIG. 16 is a diagram in which a similar face is detected from the face
編集者は目的の出演者の顔画像ファイル(検出対象顔画像)を類似顔画像検出装置16に読み込ませる。検出対象顔画像は、編集対象の映像ファイルから代表的な顔画像として抽出された画像でもよいし、顔画像蓄積サーバ127に含まれる顔画像から選択された顔画像でもよいし、ウェブ上の画像から取り込んだ画像でもよい。類似顔画像検出装置16は、検出対象顔画像と顔画像蓄積サーバ127内の顔画像とを比較し、同じ顔の出演者が出演するシーンの顔画像及び、タイムコード情報が検索される。
The editor causes the similar face
ここで検出した出演シーンのタイムコード情報が編集装置14に渡される。編集者は目的の出演者が出演しているシーンを探し出す手間がなく、出演者の特集番組を制作したり出演者にモザイクをかけることが可能となる。
The time code information of the appearance scene detected here is passed to the
また、検出した出演シーンについて、編集装置14を使用せずに試写したい場合は、低解像度サーバ126内の映像ファイルを再生することで、出演シーン試写が容易に可能となる。
In addition, if it is desired to make a preview of the detected appearance scene without using the
このような類似顔検出処理をすることで、例えば、放送局の厖大な過去映像の中から目的の出演者が出演しているシーンを探し出す場合に、類似顔画像検出装置16が自動的に出演シーンを検出してくれる。その結果、編集者はメディア5(光学メディア5a、磁気メディア5b、VTRテープ5c)の映像を注視している必要がなくなる。その間に編集者は他の仕事をすることが可能となり、編集者の業務効率を大幅に向上させることができる。
By performing such a similar face detection process, the similar face
また、編集装置14の数には限りがあるため、編集装置14を使用できない場合は事前に目的の出演者の出演シーンを探して、低解像度サーバ126の映像ファイルを使用して出演シーンを事前に試写しておくことで、編集前の事前作業が可能となる。
In addition, since the number of
また、番組編集を完了して放送直前に出演者が問題を起こしたことにより、その出演者の放送が不可になった場合には、上述の技術によって、容易に目的の出演者の出演シーンを探し、その出演者にモザイクをかける処理や、または出演シーンをカットする処理が可能となり、スポンサーや視聴者からのクレーム防止になる。 In addition, when the cast has a problem just before the broadcast is completed, and the cast of the cast becomes impossible, the above-mentioned technology makes it easy for the cast scene of the desired cast to appear. It becomes possible to perform processing for applying mosaics to the performers, or for processing to cut out the appearance scenes, thereby preventing claims from sponsors and viewers.
上記処理では、放送局の過去の映像から出演者を検出する。しかし、映像収録から数十年経つと出演者の顔も変化していくため、目的の出演者の現在の顔画像を検出対象とすると、検出の精度が落ちる可能性が高くなる。それを解決するために、一度、現在の顔画像を検出対象として検出した結果の顔画像(検出精度の落ちた過去の顔画像)に替えて、検出対象の顔画像として新たに再登録し、再度類似顔画像検出することで検出精度を向上させることができる。すなわち、2ステップの検出(基準顔(基準顔画像)の新情報再登録→類似顔画像検索)による検出精度向上が期待できる。 In the above process, a performer is detected from the past video of the broadcast station. However, since the face of the performer changes several decades after the video recording, if the current face image of the target performer is targeted for detection, the accuracy of the detection may be low. In order to solve that, once, it replaces with the face image (the face image of the past which detection accuracy fell) of a result detected as the detection object of the present face image again, and registers it newly as a face image of detection object, The detection accuracy can be improved by detecting similar face images again. That is, improvement in detection accuracy can be expected by two-step detection (new information re-registration of reference face (reference face image) → similar face image search).
そして、検出した出演映像のタイムコード情報を編集機に渡すことで、編集者はその出演者が出演している映像にモザイクをかけたり、または出演映像をカットすることが可能となる。 Then, by passing the time code information of the detected appearance video to the editing machine, the editor can mosaic the video on which the cast appears, or cut the appearance video.
また、出演時期(撮影時期)が近い顔画像であれば、同じような特徴量が現れると考えられるため、同じような特徴量を辿りながら出演時期が開いている顔画像も検出することができる。また、同様に横顔の映像が欲しい場合は、横顔を検出対象の顔画像として再登録し、類似顔画像検出することで、より絞った出演シーンの検出が可能となる。 Also, if the appearance time (shooting time) is a face image that is close, similar feature quantities are considered to appear, so it is possible to detect face images with appearance times open while following similar feature quantities. . Similarly, when a side face image is desired, the side face is re-registered as a face image to be detected, and similar face image detection enables detection of a more narrow appearance scene.
そして、検出した出演シーンのタイムコード情報を編集機に渡すことで、編集者はその出演者が出演しているシーンのみを纏めた特集番組を作成することが可能となる。 Then, by passing the time code information of the detected appearance scene to the editing machine, the editor can create a special program in which only the scene in which the performer appears.
現在の放送局では、編集完了した映像(編集済み映像)を光学メディア5aで記録し、それを再生装置にかけて放送出力するか、または、その光学メディア5aから送出サーバ18に取り込んで放送出力する運用が多い。そのため、光学メディア5aから映像ファイルを取り出し、類似顔画像検出装置16(類似顔検出装置)内で映像ファイルを再生させ、再生映像から顔の映像のみ切出して、切出した顔画像をタイムコードと共に顔画像蓄積サーバ127に保存しておき、目的の出演者の顔画像を検出対象として類似顔検出することで担当者は映像を目視しなくても出演シーンを探すことが可能となる。ここで、検出対象とする顔画像を正面顔、横顔、斜め顔等複数準備しておくことにより、探したい出演者が出演しているシーンをより精度よく検出することが可能となる。
At the present broadcasting station, the edited video (edited video) is recorded on the
以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of the respective constituent elements, and such modifications are also within the scope of the present invention.
1 映像編集システム
2 ネットワーク
5 メディア
5a 光学メディア
5b 磁気メディア
5c VTRテープ
10 カメラ
11 収録装置
12 記録装置
13 自動編集情報作成装置
14 編集装置
15 システム制御部
16 類似顔画像検出装置
17 管理端末
18 送出サーバ
19 メディア再生装置
103 類似顔画像検出操作部
110 キーワード記録部
111 キーワード検索部
112 キーワード付与要求送信部
113 複数検索キー選択部
121 素材映像データ部
122 編集済み映像データ部
123 自動編集済み映像データ部
124 最終編集情報部
125 自動編集情報部
126 低解像度サーバ
127 顔画像蓄積サーバ
128 処理対象情報部
131 処理対象認識部
132 情報記憶部
141 編集制御部
142 表示部
143 操作パネル
144 タッチパネルディスプレイ
210 画像送受信部
211 画像記録部
212 再生制御部
213 人物領域検出部
214 人物特徴量抽出部
215 人物特徴量記録部
216 属性情報記録部
217 要求受信部
218 類似人物検索部
219 登場イベント検索部
220 検索結果送信部
221 検索要求送信部
222 検索結果受信部
223 検索結果表示部
224 再生画像表示部
225 画面操作検知部
1
Claims (4)
前記映像ファイルに含まれる出演者の顔画像を取得し、前記顔画像と各出演者の出演映像のタイムコード情報とを関連付けて記録する顔画像蓄積サーバと、
前記顔画像蓄積サーバに記録されている顔画像と、特定番組の映像ファイルに含まれる検索対象となる顔画像とを比較し、前記特定番組における出演映像を検出する出演映像検出部と、
前記出演映像検出部が検出した出演映像に基づいて、前記特定番組において前記検索対象となる顔画像の人物が出演している他の出演映像を類似顔画像検索により検出し、検出した出演映像のタイムコード情報を前記検索対象となった出演者情報と関連付けて前記編集装置に通知する類似顔画像検出装置と、を備え、
前記編集装置は、前記タイムコード情報を用いて前記特定番組の映像ファイルを編集することを特徴とする編集システム。 An editing system provided with an editing apparatus for editing a video file used for broadcasting, comprising:
A face image storage server for acquiring the face image of the performer included in the video file and associating the face image with time code information of the appearance video of each performer;
A cast video detection unit that detects a cast video in the specific program by comparing the face image recorded in the face image storage server with the face image to be searched included in the video file of the specific program;
Based on the appearance video detected by the appearance video detection unit, another appearance video in which a person of the face image to be searched for appears in the specific program is detected by similar face image search, and And a similar face image detection device for notifying the editing device of time code information in association with the performer information as the search target,
The editing system is characterized in that the video file of the specific program is edited using the time code information.
前記類似顔画像検出装置は、前記顔種別に応じて類似顔画像検索を行うことを特徴とする請求項1から3までのいずれかに記載の編集システム。 The face image storage server can store a face image to be detected in association with the type of face, and
The editing system according to any one of claims 1 to 3, wherein the similar face image detection device performs a similar face image search according to the face type.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017219011A JP6934402B2 (en) | 2017-11-14 | 2017-11-14 | Editing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017219011A JP6934402B2 (en) | 2017-11-14 | 2017-11-14 | Editing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019092025A true JP2019092025A (en) | 2019-06-13 |
JP6934402B2 JP6934402B2 (en) | 2021-09-15 |
Family
ID=66837511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017219011A Active JP6934402B2 (en) | 2017-11-14 | 2017-11-14 | Editing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6934402B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102188991B1 (en) * | 2020-03-31 | 2020-12-09 | (주)케이넷 이엔지 | Apparatus and method for converting of face image |
CN112672102A (en) * | 2019-10-15 | 2021-04-16 | 杭州海康威视数字技术股份有限公司 | Video generation method and device |
KR20210045746A (en) * | 2019-10-17 | 2021-04-27 | 서울여자대학교 산학협력단 | System that selectively transmit characters in real-time video |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09237282A (en) * | 1996-03-01 | 1997-09-09 | Ricoh Co Ltd | Document image database retrieval method, image feature vector extraction method, document image perusal system, medium which can be machine-read and image display method |
JP2004289718A (en) * | 2003-03-25 | 2004-10-14 | Nippon Hoso Kyokai <Nhk> | Photographed video editing method and apparatus therefor |
JP2007082088A (en) * | 2005-09-16 | 2007-03-29 | Matsushita Electric Ind Co Ltd | Contents and meta data recording and reproducing device and contents processing device and program |
JP2008283486A (en) * | 2007-05-10 | 2008-11-20 | Sony Corp | Information processor, information processing method, and program |
JP2012034218A (en) * | 2010-07-30 | 2012-02-16 | Hitachi Kokusai Electric Inc | Program edit and transmit system |
JP2013101431A (en) * | 2011-11-07 | 2013-05-23 | Hitachi Kokusai Electric Inc | Similar image search system |
WO2014024475A1 (en) * | 2012-08-10 | 2014-02-13 | パナソニック株式会社 | Video provision method, transmission device, and reception device |
-
2017
- 2017-11-14 JP JP2017219011A patent/JP6934402B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09237282A (en) * | 1996-03-01 | 1997-09-09 | Ricoh Co Ltd | Document image database retrieval method, image feature vector extraction method, document image perusal system, medium which can be machine-read and image display method |
JP2004289718A (en) * | 2003-03-25 | 2004-10-14 | Nippon Hoso Kyokai <Nhk> | Photographed video editing method and apparatus therefor |
JP2007082088A (en) * | 2005-09-16 | 2007-03-29 | Matsushita Electric Ind Co Ltd | Contents and meta data recording and reproducing device and contents processing device and program |
JP2008283486A (en) * | 2007-05-10 | 2008-11-20 | Sony Corp | Information processor, information processing method, and program |
JP2012034218A (en) * | 2010-07-30 | 2012-02-16 | Hitachi Kokusai Electric Inc | Program edit and transmit system |
JP2013101431A (en) * | 2011-11-07 | 2013-05-23 | Hitachi Kokusai Electric Inc | Similar image search system |
WO2014024475A1 (en) * | 2012-08-10 | 2014-02-13 | パナソニック株式会社 | Video provision method, transmission device, and reception device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672102A (en) * | 2019-10-15 | 2021-04-16 | 杭州海康威视数字技术股份有限公司 | Video generation method and device |
CN112672102B (en) * | 2019-10-15 | 2023-03-24 | 杭州海康威视数字技术股份有限公司 | Video generation method and device |
KR20210045746A (en) * | 2019-10-17 | 2021-04-27 | 서울여자대학교 산학협력단 | System that selectively transmit characters in real-time video |
KR102247719B1 (en) * | 2019-10-17 | 2021-04-30 | 서울여자대학교 산학협력단 | System that selectively transmit characters in real-time video |
KR102188991B1 (en) * | 2020-03-31 | 2020-12-09 | (주)케이넷 이엔지 | Apparatus and method for converting of face image |
Also Published As
Publication number | Publication date |
---|---|
JP6934402B2 (en) | 2021-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8773555B2 (en) | Video bit stream extension by video information annotation | |
JP3780623B2 (en) | Video description method | |
US6970639B1 (en) | System and method for editing source content to produce an edited content sequence | |
US7432940B2 (en) | Interactive animation of sprites in a video production | |
US8644683B2 (en) | Moving image data processing apparatus and method | |
CN108605115B (en) | Tracking assistance device, tracking assistance system, and tracking assistance method | |
CN101110930B (en) | Recording control device and recording control method | |
JP2007049387A (en) | Image output device and image output method | |
JP6934402B2 (en) | Editing system | |
JP4536940B2 (en) | Image processing apparatus, image processing method, storage medium, and computer program | |
JP4197014B2 (en) | Video search method and apparatus | |
CN104821001A (en) | Content management system, management content generation method, management content reproduction method, program and recording medium | |
JPH0390968A (en) | Automatic production system for animation image digest | |
EP1134984A2 (en) | Object region data generating method, object region data generating apparatus, approximation polygon generating method, and approximation polygon generating apparatus | |
KR20160123647A (en) | Apparatus and method for providing additional information usung object tracking | |
US7844163B2 (en) | Information editing device, information editing method, and computer product | |
JP4333808B2 (en) | Video search method and apparatus | |
JP5004140B2 (en) | Movie editing apparatus and method, and computer program | |
JP3907344B2 (en) | Movie anchor setting device | |
US10360221B2 (en) | Method, system, and client for content management | |
JP2012221322A (en) | Authoring support device and authoring support method and program | |
JP2003224791A (en) | Method and device for retrieving video | |
CN101325679B (en) | Information processing apparatus, information processing method | |
JP4519805B2 (en) | Video editing method and apparatus | |
WO2016203469A1 (en) | A digital media reviewing system and methods thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |