JP6934402B2 - Editing system - Google Patents
Editing system Download PDFInfo
- Publication number
- JP6934402B2 JP6934402B2 JP2017219011A JP2017219011A JP6934402B2 JP 6934402 B2 JP6934402 B2 JP 6934402B2 JP 2017219011 A JP2017219011 A JP 2017219011A JP 2017219011 A JP2017219011 A JP 2017219011A JP 6934402 B2 JP6934402 B2 JP 6934402B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face image
- editing
- search
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、編集システムに係り、例えば、映像を蓄積している放送局において、祝賀番組や追悼番組などを制作するために、過去の映像の中から特定の出演者の出演シーンを検出して、番組制作のための編集を補助する機能を有する編集システムに関する。 The present invention relates to an editing system, for example, in a broadcasting station accumulating images, in order to produce a celebration program, a memorial program, or the like, the appearance scene of a specific performer is detected from the past images. , Regarding an editing system having a function of assisting editing for program production.
従来、過去の映像資産はVTRテープに記録されており、膨大な数のVTRテープが倉庫に保管されていた。各VTRテープにはテープ番号が貼られ、テープ番号とともに、そのテープに記録されている番組名や出演者、番組内容概略の情報が管理されていた。そのため、特定の出演者の映像が欲しい場合、放送局の担当者はVTRテープの管理情報を元に、その出演者が出演している番組が記録されているVTRテープを特定していた。 Traditionally, past video assets have been recorded on VTR tapes, and a huge number of VTR tapes have been stored in warehouses. A tape number was attached to each VTR tape, and along with the tape number, information on the program name, performers, and program content outline recorded on the tape was managed. Therefore, when a video of a specific performer is desired, the person in charge of the broadcasting station identifies the VTR tape on which the program in which the performer is appearing is recorded based on the management information of the VTR tape.
例えば、特許文献1では、同じ番組編集技術として、編集用元素材と編集済素材との関係を抜き出した情報である元素材情報データを作成し、再び編集する場合には、編集済素材とプロジェクトデータと元素材情報データとを使用して編集する技術が提案されている。 For example, in Patent Document 1, as the same program editing technique, when the original material information data which is the information extracted from the relationship between the original material for editing and the edited material is created and edited again, the edited material and the project A technique for editing using data and original material information data has been proposed.
ところで、従来では、VTRテープのどのシーンに出演しているかを特定するためには、VTRテープをVTR装置にかけて再生させ、目視でその出演者の出演シーンを探す必要があり、出演シーンが見つかった場合、出演シーンのタイムコード情報をメモして、編集に使用しており、作業効率や精度の観点から対策の新たな技術が求められていた。 By the way, conventionally, in order to identify which scene of a VTR tape is appearing, it is necessary to play the VTR tape on a VTR device and visually search for the appearance scene of the performer, and the appearance scene is found. In this case, the time code information of the appearance scene is written down and used for editing, and a new technology for countermeasures is required from the viewpoint of work efficiency and accuracy.
近年、映像資産をVTRテープからLTOテープ等の磁気メディアやブルーレイディスク(登録商標)等の光学メディアにダビングして、これらのメディア内で映像ファイルとして保管する方式に変わりつつある。しかし、出演シーンを探し出すためには、これらのメディア内の映像ファイルを再生して目視する必要があることには変わりはなく、同様の課題があった。 In recent years, there has been a change in the method of dubbing video assets from VTR tapes to magnetic media such as LTO tapes and optical media such as Blu-ray discs (registered trademarks) and storing them as video files in these media. However, in order to find out the appearance scene, it is still necessary to reproduce and visually inspect the video files in these media, and there is a similar problem.
また、番組の編集が完了してから放送直前に出演者が問題を起こしたことにより、その出演者の放送が不可になった場合は、その出演者にモザイクをかけるか、または出演シーンをカットするための再編集を行う必要がある。再編集するために出演シーンを探し出すためには、編集完了後の映像を再生させて、編集者が目視で出演シーンを探し出す必要があった。この点でも、同様の課題があった。 In addition, if the performer's broadcast becomes impossible due to a problem caused by the performer immediately before the broadcast after the program editing is completed, the performer is mosaicked or the appearance scene is cut. Need to be re-edited to do. In order to find the appearance scene for re-editing, it was necessary for the editor to visually find the appearance scene by playing back the video after the editing was completed. In this respect as well, there was a similar problem.
本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to solve the above problems.
本発明は、放送に用いられる映像ファイルを編集する編集装置を備えた編集システムであって、前記映像ファイルに含まれる出演者の顔画像を取得し、前記顔画像と各出演者の出演映像のタイムコード情報とを関連付けて記録する顔画像蓄積サーバと、前記顔画像蓄積サーバに記録されている顔画像と、特定番組の映像ファイルに含まれる検索対象となる顔画像とを比較し、前記特定番組における出演映像を検出する出演映像検出部と、前記出演映像検出部が検出した出演映像に基づいて、前記特定番組において前記検索対象となる顔画像の人物が出演している前記特定番組以外の出演映像の顔画像と、前記特定番組における人物の顔画像との間の特徴量の距離が予め設けた閾値よりも近い場合に、同一の人物と判断する類似顔画像検索により、前記検索対象となる顔画像の人物が出演している前記特定番組以外の出演映像を検出し、検出した出演映像のタイムコード情報を前記検索対象となった出演者情報と関連付けて前記編集装置に通知する類似顔画像検出装置と、を備え、前記編集装置は、前記タイムコード情報を用いて前記特定番組の映像ファイルを編集する。
また、前記編集装置は、前記映像ファイルの編集の際に、出演者の前記映像ファイルが前記類似顔画像検出装置の処理対象の記録装置に保存されている場合は、前記記録装置の映像ファイルを再生することで出演映像の映像確認を可能に表示してもよい。
また、前記編集装置は、低解像度映像を使用して検出した出演映像を再生してもよい。
また、前記顔画像蓄積サーバは、検出対象の顔画像を顔の種別と関連付けて保存可能であり、前記類似顔画像検出装置は、前記顔種別に応じて類似顔画像検索を行ってもよい。
The present invention is an editing system provided with an editing device for editing a video file used for broadcasting, and acquires a face image of a performer included in the video file, and obtains the face image and the appearance video of each performer. The face image storage server that records in association with the time code information, the face image recorded in the face image storage server, and the face image to be searched included in the video file of the specific program are compared and specified. Other than the specific program in which the person with the face image to be searched appears in the specific program based on the appearance image detection unit that detects the appearance image in the program and the appearance image detected by the appearance image detection unit. When the distance of the feature amount between the face image of the appearance video and the face image of the person in the specific program is closer than the preset threshold , the search target is obtained by the similar face image search for determining the same person. A similar face that detects an appearance video other than the specific program in which a person with a face image is appearing , associates the time code information of the detected appearance video with the performer information to be searched, and notifies the editing device. An image detection device is provided, and the editing device edits a video file of the specific program using the time code information.
In addition, when editing the video file, the editing device captures the video file of the recording device when the video file of the performer is stored in the recording device to be processed by the similar face image detection device. By playing back, the video confirmation of the appearance video may be displayed.
In addition, the editing device may reproduce the appearance video detected by using the low-resolution video.
Further, the face image storage server can save the face image to be detected in association with the face type, and the similar face image detection device may perform a similar face image search according to the face type.
本発明よれば、番組中(映像データ中)の検索対象の人物の顔画像の検出を容易にし、モザイク処理等の編集を効果的に行う技術を提供できる。 According to the present invention, it is possible to provide a technique for facilitating the detection of a face image of a person to be searched during a program (in video data) and effectively performing editing such as mosaic processing.
以下、本発明の実施形態について図面を参照して詳細に説明する。
本実施形態の概要は次の通りである。
(1)放送局に蓄積された膨大な過去映像の中から、可能な限り全ての出演者の顔画像のみを切出して出演シーンのタイムコード情報とともに顔画像蓄積サーバに保存しておく。
(2)蓄積された顔画像と目的の出演者の顔画像を比較して、その出演者の出演シーンを検出する。
(3)検出した結果の出演シーンの顔画像を用いて、類似顔画像検出処理によって類似した出演シーンを絞り込む。
(4)検出した出演シーンのタイムコード情報を編集機に渡すことで、その出演者が出演している特集番組の制作を容易にする。
(5)低解像度映像を使用して検出した出演シーンを簡易に再生する。
(6)放送直前に出演者の映像が放送不可になった場合、その出演者が出演しているシーンを特定して、編集(モザイク、カット等)する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
The outline of this embodiment is as follows.
(1) From the huge amount of past images stored in the broadcasting station, only the face images of all the performers are cut out as much as possible and saved in the face image storage server together with the time code information of the appearance scenes.
(2) The accumulated face image is compared with the face image of the target performer, and the appearance scene of the performer is detected.
(3) Using the face image of the appearance scene as a result of detection, the similar appearance scene is narrowed down by the similar face image detection process.
(4) By passing the time code information of the detected appearance scene to the editing machine, it is easy to produce a special program in which the performer is appearing.
(5) The appearance scene detected by using the low-resolution video is easily reproduced.
(6) If the video of a performer becomes unbroadcast immediately before broadcasting, the scene in which the performer is appearing is specified and edited (mosaic, cut, etc.).
図1は、本実施形態に係る映像編集システム1の概略構成を示すブロック図である。映像編集システム1は、カメラ10と、収録装置11と、記録装置12(ビデオサーバ)と、自動編集情報作成装置13と、編集装置14と、管理端末17と、送出サーバ18と、システム制御部15とを備え、それらはLAN回線や所定の通信回線等のネットワーク2で接続されている。システム制御部15は、映像編集システム1全体を統括的に制御するものであって、単独で構成されてもよいし、他装置(記録装置12や編集装置14など)と同一に含まれて構成されてもよい。
FIG. 1 is a block diagram showing a schematic configuration of a video editing system 1 according to the present embodiment. The video editing system 1 includes a
カメラ10は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等で撮像した画像にデジタル変換処理を施し、変換結果の画像データ(例えば、HD−SDI規格の素材映像データ)を、収録装置11を用いて、ネットワーク2を介して記録装置12へ出力する。記録装置12(ビデオサーバ)は、これを記憶する。記録装置12には、ネットワーク2を介して自動編集情報作成装置13が接続され、素材映像データは自動編集情報作成装置13に入力されてから、記録装置12に記憶される。ただし、素材映像データは、自動編集情報作成装置13を介さずに記録装置12に直接入力され記憶されてもよい。
The
図2は、記録装置12の概略構成を示すブロック図である。記録装置12は、録画機能及び類似顔画像検出機能(類似顔画像検出装置16)と、データ保存機能(121〜127)を備える。
FIG. 2 is a block diagram showing a schematic configuration of the
記録装置12のデータ保存機能について説明する。記録装置12は、素材映像データを記録する素材映像データ部121と、編集済み映像データを記録する編集済み映像データ部122と、自動編集済み映像データを記録する自動編集済み映像データ部123と、最終編集情報を記録する最終編集情報部124と、自動編集情報を記録する自動編集情報部125と、低解像度ファイルを記録する低解像度サーバ126と、映像中に含まれる顔画像を記録し蓄積する顔画像蓄積サーバ127と、を備える。
The data storage function of the
低解像度サーバ126を設ける理由は次の通りである。すなわち、一般に、メディア5(光学メディア5a、磁気メディア5b、VTRテープ5c)内の映像ファイルは高画質で保存する必要があるため、映像ファイルサイズが大きくなる。すなわち、常にアクセス可能なHDDストレージに保存しておくことはできない。低解像度ファイルであれば、ファイルサイズが小さいため常にアクセス可能なHDDストレージに映像ファイルを保存して試写することが可能である。そこで、メディア5をダビングする場合は、低解像度映像(低解像度ファイル)を同時に作成して、低解像度サーバ126に記録する。
The reason for providing the
つづいて、記録装置12の録画機能及び類似顔画像検出機能を実現する類似顔画像検出装置16について図3を参照して説明する。
Subsequently, the similar face
図3は、類似顔画像検出装置16の概略構成を示すブロック図である。類似顔画像検出装置16は、画像送受信部210と、画像記録部211と、再生制御部212と、人物領域検出部213と、人物特徴量抽出部214と、人物特徴量記録部215と、属性情報記録部216と、要求受信部217と、類似人物検索部218と、登場イベント検索部219と、検索結果送信部220と、キーワード記録部110と、キーワード検索部111とを有する。
FIG. 3 is a block diagram showing a schematic configuration of the similar face
画像送受信部210は、装置外部からの画像の入出力を行う処理部であり、カメラ10や他の装置からの入力画像データの受信、他装置(編集装置14等)への出力画像データの送信を行う。
The image transmission /
画像記録部211は、入力画像データの記録媒体へ書込みや出力画像データの記録媒体からの読出し(VTRテープ5cの場合はメディア再生装置19に接続される)を行う。書込みの際には、画像データに加え、画像データを読出す際の情報となる画像ID(画像の識別情報)も併せて記録する。再生制御部212は、編集装置14への映像再生を制御する。
The
人物領域検出部213は、入力画像データに対し画像認識技術を用いた人物検出を行い、画像中の人物の存在判定をし、人物が存在する場合には、その領域の座標算出を行う。また、人物領域検出部213は、人物の「顔」の領域を特定し、その領域を含む顔画像を抽出し、顔画像蓄積サーバ127に記録する。
The person
人物特徴量抽出部214は、人物領域検出部213で検出した領域に対して画像認識技術を用いて特徴量算出を行う。ここで算出する人物特徴量とは、例えば、人物の輪郭の形状や方向、皮膚の色、歩容(どの脚をどのようにどんなタイミングで動かすかといった脚の捌き方)、或いは、人物を特定する代表的な部位である顔の輪郭の形状や方向、目や鼻、口といった主要構成要素の大きさ、形状、配置関係等が挙げられるが、本実施形態においては、使用する特徴量の種類や数はいずれであってもよい。人物特徴量抽出部214は、顔種別(正面、横顔、斜め顔、後ろ顔、笑った顔、怒った顔等)を特徴量の種類として判別することができ、検出対象の顔画像とそのような特徴量を関連づけることができる。
The person feature
人物特徴量記録部215は、人物特徴量抽出部214で算出した特徴量の記録媒体への書込みと読出しを行う。このとき、人物特徴量は、人物領域検出部213が抽出した顔画像を顔画像蓄積サーバ127に記録する際に関連付けられる。顔画像には、所定のタイミング(ユーザによる入力または類似顔画像検索による自動付与)で人物の名前と関連付けられる。
The person feature
画像記録部211における画像データの記録媒体と本処理部における人物特徴量の記録媒体とは同一であっても別個であってもよい。
The image data recording medium in the
属性情報記録部216は、画像データに関連する属性情報の記録媒体への書込みと読出しを行う。属性情報とは、例えば、画像の撮影時刻や撮像装置番号等である。
The attribute
要求受信部217は、編集装置14からの検索要求やキーワード付与要求の受信を行う。検索要求には、類似顔画像検索要求と、登場イベント検索要求がある。
The
類似人物検索部218は、要求受信部217にて受信した要求が類似人物検索要求であった場合に、類似顔画像検索を行う。
The similar
登場イベント検索部219は、要求受信部にて受信した要求が登場イベント検索要求であった場合に、登場イベント検索を行う。
The appearance
検索結果送信部220は、類似人物検索部218や登場イベント検索部219から得た類似人物検索結果や登場イベント検索結果の編集装置14への送信を行う。
The search
キーワード記録部110は、要求受信部217にて受信したキーワード付与要求に基づくキーワードの記録媒体への書込みと読出しを行う。
The
キーワード検索部111は、要求受信部217にて受信した検索要求データ中にキーワードが含まれていた場合に、キーワード検索を行う。
The
つづいて、図4を参照して編集装置14(編集機)を説明する。図4は、編集装置14の概略構成を示すブロック図である。編集装置14は、素材映像データに対して実際にレンダリング処理等を施す編集処理を行う。
Subsequently, the editing device 14 (editing machine) will be described with reference to FIG. FIG. 4 is a block diagram showing a schematic configuration of the
編集装置14は、実際にこの編集作業を行うプロセッサを具備する編集制御部(編集手段)141と、素材映像データ、及びこれに編集が施された後の映像データに基づく映像を表示させる表示部142(ディスプレイ)と、その画像や音声における各部分を選択する、あるいは指示を入力するための操作パネル143(操作手段)と、類似顔画像検出操作部103とを備える。表示部142と操作パネル143とが一体化されたタッチパネルディスプレイ144として設けられてもよい。
The
編集制御部141は、素材映像データと上記の自動編集情報を記録装置12(自動編集情報部125)から読み出し、自動編集情報に基づいて素材映像データを編集した新たな映像データ(自動編集済み映像データ)を作成し、自動編集済み映像データを記録装置12(自動編集済み映像データ部123)に記憶させる。
The
ただし、編集装置14においては、この自動編集済み映像データに基づく画像をユーザが表示部142で確認した上で、操作パネル143を操作して、自動編集済み映像データにおいて処理が施された部分のうち、適切でないと認識された部分の処理を解除するための指示を編集制御部141に出し、この処理の解除を行うこともできる。この場合には、素材映像データを参照することもできる。
However, in the
同様に、編集制御部141は、自動編集済み映像データに対して、更に追加の処理を施すこともできる。この際に新たに処理の対象となる部分は、ユーザによって指定される。この際にも、ユーザは、自動編集済み映像データに基づく映像を表示部142で確認した上で、操作パネル143を操作して、この操作を行うことができる。こうしたユーザによる操作によって、前記の自動編集情報が書き換えられた最終編集情報が生成される。この最終編集情報は素材映像データに対する編集処理に反映されると共に、後述されるように、処理対象情報の更新に利用される。
Similarly, the
同様に、編集制御部141は、記録装置12から素材映像データを直接読み込み、この素材映像データに基づく画像を表示部142でユーザに確認させた上で操作パネル143を操作させ、前記の自動編集情報を用いずに、処理の対象となる部分を指定し、レンダリング処理を施す操作を行うこともできる。この操作においては、ユーザは、自動編集情報とは無関係に、素材映像データに対してレンダリング処理を行うことができる。
Similarly, the
編集制御部141は、このように、自動編集情報に基づいて編集された自動編集済み映像データ、ユーザによって自動編集済み映像データ又は素材映像データが編集された編集済み映像データを、記録装置12に記録させることができる。
The
類似顔画像検出操作部103は、機能構成として、検索要求送信部221、検索結果受信部222、検索結果表示部223、再生画像表示部224、画面操作検知部225、キーワード付与要求送信部112、複数検索キー選択部113の各処理部を有する。
The similar face image
検索要求送信部221は、検索要求の記録装置12への送信を行う。類似人物検索の場合、検索要求データには、類似人物検索の検索キーとして、人物の名前、検索キー画像(特に顔画像)或いはその特徴量が含まれる。また、検索要求データには、絞込みパラメータを含めることも可能である。
The search
検索結果受信部222は、検索結果の記録装置12(類似顔画像検出装置16)からの受信を行う。検索結果として受信するデータには、記録装置12(類似顔画像検出装置16)において、類似人物検索、或いは、登場イベント検索を実施して得られた画像の集合が含まれる。集合を構成する個々の画像は、記録装置12(類似顔画像検出装置16)に記録された映像から画像サイズ縮小処理等を施して生成される。以下、この個々の画像を「検索結果画像」、検索結果として送受信するデータを「検索結果データ」ともいう。
The search
検索結果表示部223は、検索結果受信部222にて受信した検索結果の画面表示を行う。表示される画面例については後述する。
再生画像表示部224は、記録装置12(類似顔画像検出装置16)から入力された画像データの画面への連続動画表示を行う。
画面操作検知部225は、ユーザによる操作内容の検知及び取得を行う。
キーワード付与要求送信部112は、キーワード付与要求の記録装置12(類似顔画像検出装置16)への送信を行う。
複数検索キー選択部113は、検索キー画像の候補が複数選択されたときに、より少ない数の検索キー画像を適切に選択する処理を行う。
The search
The reproduced
The screen
The keyword assignment
The multiple search
図5は、自動編集情報作成装置13の機能ブロックである。自動編集情報作成装置13は、処理対象認識部131と、情報記憶部132とを備える。情報記憶部132は、最終編集情報部124と、自動編集情報部125と、処理対象情報部128とを備える。最終編集情報部124、自動編集情報部125は、記録装置12に設けられるものと同一であってもよいし、別に設けられてもよい。
FIG. 5 is a functional block of the automatic editing
自動編集情報作成装置13は、この素材映像データを読み込み、処理対象認識部131で、レンダリング処理を施す部分を認識する。この際、処理対象認識部131におけるプロセッサは、情報記憶部132に記憶された処理対象情報を基にして、この認識を行い、このように処理の対象となる部分とその処理についての情報(自動編集情報)を記録装置12に記憶させる。
The automatic editing
自動編集情報の内容における処理の対象となる部分に関する情報としては、具体的には、処理対象となる部分の映像フレーム位置(タイムコード情報)、映像上の座標、あるいは処理対象が音声の場合には音声サンプルの位置の範囲、処理の内容等がある。処理の内容としては、処理対象が映像の場合にはモザイク処理、ブラー処理、映像カット、輝度の増減処理、処理対象が音声の場合にはミュート処理、音量調整等がある。また、処理の対象とする理由(例えば放送禁止に該当する、特定企業名である等)も処理対象情報に含まれる。 The information about the part to be processed in the content of the automatic editing information is specifically, the video frame position (time code information) of the part to be processed, the coordinates on the video, or when the processing target is audio. Has the range of audio sample positions, the content of processing, and so on. The contents of the processing include mosaic processing, blur processing, video cut, brightness increase / decrease processing when the processing target is video, mute processing, volume adjustment and the like when the processing target is audio. In addition, the reason for processing (for example, broadcasting ban, specific company name, etc.) is also included in the processing target information.
処理対象情報としては、例えば映像の配信先(目的)等に応じ、複数のものを設定することができる。これに応じて、例えばある一つの配信先に対しては処理の対象とならない部分を他の配信先に対しては処理の対象とすること、上記の処理の内容を配信先に応じて変える、等の操作が可能となる。こうした場合には、処理対象情報がユーザによって選択される構成とされる。 As the processing target information, for example, a plurality of information can be set according to the video distribution destination (purpose) and the like. According to this, for example, the part that is not the target of processing for one delivery destination is the target of processing for other delivery destinations, and the content of the above processing is changed according to the delivery destination. Etc. can be operated. In such a case, the processing target information is selected by the user.
また、後述するように、最終的に素材映像データに対して編集が行われる際には、処理対象となった部分や処理の内容は、ユーザによって確認された後に、修正が施される。こうした最終的な編集情報(最終編集情報)あるいは最終編集情報と自動編集情報との違いに関する情報も、情報記憶部132に記憶される。
Further, as will be described later, when the material video data is finally edited, the portion to be processed and the content of the processing are corrected after being confirmed by the user. Such final editing information (final editing information) or information regarding the difference between the final editing information and the automatic editing information is also stored in the
以上の構成による動作例を説明する。
まず、図6〜10を参照して編集処理例を説明し、次に図11〜13を参照して類似人物検索処理(特に類似顔検出処理)について説明し、さらに図14〜16を参照して類似顔検出処理を編集処理に適用した処理例を説明する。
An operation example with the above configuration will be described.
First, an example of editing processing will be described with reference to FIGS. 6 to 10, then a similar person search processing (particularly similar face detection processing) will be described with reference to FIGS. 11 to 13, and further with reference to FIGS. 14 to 16. A processing example in which the similar face detection processing is applied to the editing processing will be described.
図6は、システム制御部15が行わせる具体的な動作を示すフローチャートの一例である。ここでは、単純化のために、編集装置14を用いてユーザによって指定された処理は行われないものとする。また、図1において、素材映像データは自動編集情報作成装置13を介してのみ記録装置12に入力する(記憶される)ものとする。
FIG. 6 is an example of a flowchart showing a specific operation performed by the
まず、収録装置11は、素材映像データを入手する(S1)。自動編集情報作成装置13は、この素材映像データを入手し、素材映像データ中の画像において処理対象となる部分があるかを解析する(S2)。ここでは、処理対象認識部131が、情報記憶部132中の情報を参照し、素材映像データ中の画像において処理対象となる部分があるかを認識し、この部分が認識された場合には、この部分に対する処理も、情報記憶部132中の情報に基づき、決定する(S3)。これによって、自動編集情報が作成される。処理の対象となる部分が認識されなかった場合(S4のNo)には、素材映像データがそのまま記録装置12に記憶される(S5)。
First, the
処理の対象となる部分が認識された場合(S4のYes)、システム制御部15は、素材映像データを記憶するか否かをユーザに問い合わせる(S6)。記憶しない場合(S6のNo)、前記の通り、編集装置14を用いて、この素材映像データに対して自動編集情報に基づく編集を行わせた自動編集済み映像データを作成し(S7)、この自動編集済み映像データと自動編集情報とを記録装置12に記憶させる(S8)。この場合には、記録装置12に記憶される映像データは、編集後の自動編集済み映像データのみとなる、あるいは、素材映像データが記録装置12に記憶されていた場合には、素材映像データは自動編集済み映像データに置き換えられる。
When the portion to be processed is recognized (Yes in S4), the
素材映像データを記憶する場合(S6のYes)、システム制御部15は、素材映像データと自動編集情報を記録装置12に記憶させた後(S9)、ユーザに対して、自動編集を行うか否かの確認を行う(S10)。自動編集を行わない場合(S10のNo)、処理は終了する。この場合には、記録装置12には編集前の素材映像データと自動編集情報が記憶される。このため、この時点では自動編集済み映像データは存在しないが、編集装置14を用いて、後で容易に自動編集済み映像データを作成することができる。
When storing the material video data (Yes in S6), the
自動編集を行う場合(S10のYes)、システム制御部15は、編集装置14に自動編集済み映像データを作成させ(S11)、これを記録装置12に記憶させる(S12)。この場合、記録装置12には、元となった素材映像データ、自動編集情報、自動編集済み映像データの全てが記憶される。このため、例えば、上記のように複数の処理対象情報が設定された場合において、同一の素材映像データに対して他の処理対象情報を用いた処理を後で行うことが容易となる。
When performing automatic editing (Yes in S10), the
なお、記録装置12が収録装置11から素材映像データを直接受信してこれを記憶する場合には、上記のS6〜S8の工程は不要となる。ただし、自動編集済み映像データが記憶された(S12)後に、素材映像データを削除してもよい。
When the
図6のフローチャートにおいては、素材映像データの入力があった後におけるシステム制御部15の動作が示された。一方、素材映像データが記録装置12に予め記憶されている状態でシステム制御部15に対して映像の配信(出力)要求があり、これに応じて素材映像データが編集された後の映像データを出力させる場合もある。
In the flowchart of FIG. 6, the operation of the
図7は、こうした場合におけるシステム制御部15の動作の一例を示すフローチャートである。ここでは、少なくとも素材映像データは記録装置12に記憶されているものとする。
FIG. 7 is a flowchart showing an example of the operation of the
まず、システム制御部15は、配信の要求があった場合(S21)、記録装置12に自動編集済み映像データが記憶されているか否かを確認する(S22)。自動編集済み映像データが記憶されていなかった場合(S22のNo)、自動編集情報が記憶されているか否かを確認する(S23)。
First, when there is a distribution request (S21), the
自動編集情報が存在する場合(S23のYes)、システム制御部15は、前記のように編集装置14を用いて自動編集済み映像データを作成し、これを記録装置12に記憶させる(S24)。自動編集情報が存在しない場合(S23のNo)、システム制御部15は、自動編集情報作成装置13を用いて自動編集情報を作成し(S25)、同様に編集装置14を用いて自動編集済み映像データを作成し、これを記録装置12に記憶させる(S24)。これによって、自動編集済み映像データが記憶されていなかった場合(S22のNo)、自動編集済み映像データが新たに作成されて記録装置12に記憶される。
When the automatic editing information exists (Yes in S23), the
自動編集済み映像データが記憶されていた場合(S22のYes)、あるいは上記のように新たに自動編集済み映像データが作成・記憶された場合(S24)、システム制御部15は、この自動編集済み映像データに基づく画像を編集装置14(表示部142)で表示させ(S26)、この内容で配信してよいか否かをユーザに問い合わせる(S27)。
When the automatically edited video data is stored (Yes in S22), or when a new automatically edited video data is created and stored as described above (S24), the
この内容で配信してよい場合(S27のYes)、この自動編集済み映像データを、配信が許可された編集済み映像データと設定する(S28)。一方、この内容からの変更を希望する場合(S27のNo)、システム制御部15は、編集装置14を用いて自動編集済み映像データを更に編集させ(S29)、この編集後の映像データを、配信が許可された編集済み映像データと設定し、記録装置12に記憶させる(S30)。この際、前記の通り最終編集情報も作成し、記憶させる。
When the content may be distributed (Yes in S27), the automatically edited video data is set as the edited video data for which distribution is permitted (S28). On the other hand, when it is desired to change from this content (No in S27), the
その後、システム制御部15は、上記のように記録装置12に記憶された編集済み映像データを配信させる(S31)。
After that, the
また、自動編集情報が作成されてもこれを適用して自動編集済み映像データを作成するのには時間を要し、記録装置12に様々な映像データを記憶させるのにも時間を要する。このため、配信において不要となることが明らかな映像データを記憶させない、作成しないことが好ましい。更に、処理の時間を短縮するために、ユーザが他の装置を用いて同時に映像を確認する場合もある。
Further, even if the automatic editing information is created, it takes time to apply the automatic editing information to create the automatically edited video data, and it also takes time to store various video data in the
図8は、こうした点を考慮したシステム制御部15の動作を示すフローチャートの一例である。
FIG. 8 is an example of a flowchart showing the operation of the
ここでは、収録装置11が素材映像データを入手したら(S41)、この素材映像データをそのまま記録装置12に記憶するか否かが判断される(S42)。素材映像データの記憶が不要であると認識された場合(S42のNo)、前記の通りに自動編集処理が行われて自動編集済み映像データが作成され(S43)、この自動編集済み映像データを配信用の映像データであるとして記録装置12に記憶する(S44)。この場合においては、記録装置12に記録される映像データは自動編集済み映像データのみである。
Here, when the
素材映像データの記憶をすると認識された場合(S42のYes)、素材映像データが記録装置12に記憶される(S45)。その後、他装置も用いて素材映像データの解析を行うか否かが問い合わせられる(S46)。他装置も用いて素材映像データの解析を行う場合(S46のYes)、ユーザは、他装置を用いて素材映像データの解析を行い(S47)、その上で編集装置14を用いた以降の処理を開始させることができる。この解析結果を、以下の判定(S50、S56)に利用できる。
When it is recognized that the material video data is to be stored (Yes in S42), the material video data is stored in the recording device 12 (S45). After that, an inquiry is made as to whether or not to analyze the material video data using another device (S46). When the material video data is analyzed using another device (Yes in S46), the user analyzes the material video data using the other device (S47), and then the subsequent processing using the
その後、自動編集を直ちに行うか否かが問い合わせられ(S48)、直ちに行わない場合(S48のNo)、自動編集情報作成装置13によって自動編集情報が作成され(S49)、その後で編集装置14は、この自動編集情報の内容でよいか否かを問い合わせる(S50)。
After that, an inquiry is made as to whether or not to perform automatic editing immediately (S48), and if it is not performed immediately (No in S48), automatic editing information is created by the automatic editing information creation device 13 (S49), and then the
この問い合わせを行う際には、実際に自動編集済み映像データは作成されていないが、ユーザは、この自動編集情報に基づく編集後の内容を確認するために、前記の通り、ある一時点での静止画像を用いて、この確認をすることが可能である。 When making this inquiry, the automatically edited video data is not actually created, but the user can check the edited contents based on this automatically edited information at a certain point in time as described above. It is possible to confirm this using a still image.
この内容を変更したい場合(S50のNo)、編集装置14は、ユーザにその修正を行わせる(S51)。その後、内容の変更がない場合(S50のYes)、そのままの自動編集情報に基づいて、素材映像データに対する実際の編集作業が行われた編集済み映像データが作成される(S52)。この編集済み映像データが、配信用の映像データとして記録装置12に記憶される(S53)。この場合には、最終的に内容が確定するまで編集済み映像データは作成されない。
When it is desired to change this content (No in S50), the
自動編集を直ちに行う場合(S48のYes)、直ちに自動編集情報とこれに基づいた自動編集済み映像データが作成され(S54)、自動編集済み映像データを表示部142で表示させる(S55)。この場合には、ユーザは、自動編集済み映像データの全ての時点で、この編集内容が適正か否かを詳細に確認することができる(S56)。 When the automatic editing is performed immediately (Yes in S48), the automatic editing information and the automatically edited video data based on the automatic editing information are immediately created (S54), and the automatically edited video data is displayed on the display unit 142 (S55). In this case, the user can confirm in detail whether or not the edited content is appropriate at all points in the automatically edited video data (S56).
その後、この編集内容の修正を望む場合(S56のNo)には、上記と同様にその修正作業、確認が行われ(S57)、その後に再びこの修正後の編集情報に基づき新たな映像データ(編集済み映像データ)が作成され(S58)、この編集済み映像データが配信用の映像データとして記録装置12に記憶される(S59)。この際に作成された最終編集情報も同時に記憶される。
After that, when it is desired to correct the edited content (No in S56), the correction work and confirmation are performed in the same manner as described above (S57), and then new video data (No) based on the corrected edited information is performed again. Edited video data) is created (S58), and the edited video data is stored in the
自動編集情報に基づく編集が適正であると認められた場合(S56のYes)には、既に作成された自動編集済み映像データが、配信用の映像データとして記録装置12に記憶される(S60)。
When it is confirmed that the editing based on the automatic editing information is appropriate (Yes in S56), the already created automatically edited video data is stored in the
上記の動作においては、素材映像データに対して実際に編集処理を施すことを必要最小限に留めることによって処理時間を短くし、かつユーザによる編集処理が適正か否かのチェックを確実に行うことができ、その修正も行われる。 In the above operation, the processing time is shortened by keeping the actual editing process on the material video data to the minimum necessary, and the user checks whether the editing process is appropriate or not. Can be done, and the correction is also made.
次に、素材映像データにおける処理の対象となる部分を認識するために情報記憶部132に記憶される処理対象情報について説明する。こうした処理の対象となる部分としては、前記のような時刻表示、映り込んだ自動車の登録ナンバー、企業名、映り込んだ人物の顔等がある。時刻表示や登録ナンバーは、数字をパターン認識することによって認識することができ、企業名は文字のパターン認識によって認識することができ、顔もパターン認識手法によって認識することができる。
Next, the processing target information stored in the
前記の通り、上記の編集装置14においては、ユーザ自身が操作パネル143を操作することによって、こうした処理の対象となる部分を設定することもでき、その後にこの操作が反映された最終編集情報が作成される。この場合、この最終編集情報を処理対象認識部131が認識して、処理対象情報を更新(あるいは作成)することもできる。この場合、処理対象認識部131は、処理対象情報をより好ましい内容に更新する処理対象情報改変手段として機能する。
As described above, in the above-mentioned
図9は、処理対象認識部131におけるこうした動作の流れを示す図である。
まず、初期状態(初期設定)の処理対象情報は、ユーザによって作成される(P1)。ここでは、例えば、処理の対象として必要最小限でありかつ認識が比較的容易なもののみが対象として選定される。また例えば、前記のような画像中の時刻表示を、こうした対象とすることができる。この処理対象情報を用いて、前記のようにこの映像編集システム1が繰り返し用いられる。この際、前記のように、自動編集情報による編集に加え、あるいはこの編集に代わり、ユーザによっても編集作業が行われ、最終的に素材映像データに対して適用された最終編集情報が作成され、この最終編集情報も情報記憶部132に記憶される。
FIG. 9 is a diagram showing the flow of such an operation in the processing
First, the processing target information in the initial state (initial setting) is created by the user (P1). Here, for example, only the minimum necessary processing target and relatively easy to recognize are selected as the target. Further, for example, the time display in the image as described above can be such an object. Using this processing target information, the video editing system 1 is repeatedly used as described above. At this time, as described above, in addition to the editing by the automatic editing information, or instead of this editing, the editing work is also performed by the user, and finally the final editing information applied to the material video data is created. This final editing information is also stored in the
このため、処理対象認識部131は、自動編集済み映像データの基となった自動編集情報と、その後に生成された最終編集情報とを比較することによって、自動編集情報の基となり情報記憶部132に記憶された処理対象情報を改変することができる。例えば、画像中のある文字列が処理対象情報における処理の対象に含まなかったために自動編集情報においては処理の対象とされていなかったが、ユーザによって後で指定されて最終編集情報においては処理の対象とされた場合には、この文字列を処理の対象として追加するように処理対象情報を改変することができる。逆に、画像中のある文字列が処理対象情報における処理の対象に含まれたために自動編集情報においては処理の対象とされたが、ユーザによって後でこの指定が解除されて最終編集情報においては処理の対象とされなかった場合には、この文字列を処理の対象から削除するように処理対象情報を改変することができる。処理対象情報における処理の内容(ブラー処理等)についても、同様に改変することができる。こうした作業は、例えば画像中の顔認識を用いれば、特定の人物を処理の対象とする場合においても同様に行うことができる。
Therefore, the processing
また、このように処理の対象として選択されたか否かという単純な判断を用いずに、処理対象認識部131は、記録された複数の最終編集情報における統計的処理に基づいて、処理対象情報を改変することもできる。この際、例えば、最終編集情報と自動編集情報との相違点の各々を数値評価してその数値の総計を点数として算出し、この数値に基づき、処理対象情報を改変することもできる。例えば、この点数が大きかった(違いが大きかった)最終編集情報を抽出し、これらの中で共通の処理対象とされ処理対象情報に含まれなかったものを、新たに処理対象情報に取り入れることができる。
Further, the processing
このため、図9のフローにおいては、初期状態の処理対象情報(P1)を用いてこの映像編集システム1が用いられ、この際に、ユーザの操作により最終編集情報が作成され、情報記憶部132に記憶される(P2)。その後、上記のように、最終編集情報と自動編集情報の違いが数値化されて評価される(P3)。この数値に基づき、総合的解析として、現在の処理対象情報を書き換えることが好ましいか、あるいはどのように書き換えるかが判定され(P4)、最終的に処理対象情報が更新される(P5)。ここで、図9に示されるように、最終的な判定(P4)に際しては、上記のような最終編集情報と自動編集情報の違いだけでなく、編集装置14におけるユーザによる編集作業の傾向(例えばあるユーザにおいては編集作業が多く、他のあるユーザでは編集作業が少ない)や、初期設定(P1)後に新たに発生した事情によって追加された画像に対する条件、等も考慮することができる。
Therefore, in the flow of FIG. 9, the video editing system 1 is used using the processing target information (P1) in the initial state, and at this time, the final editing information is created by the user's operation, and the
このような処理対象情報の改変作業は、この映像編集システム1が使用されて最終編集情報が作成される度に繰り返してもよく、周期的に行ってもよい。また、上記の点数を用いる場合には、この点数の累積値に応じて行ってもよい。 Such modification work of the processing target information may be repeated every time the video editing system 1 is used to create the final editing information, or may be performed periodically. Further, when the above points are used, it may be performed according to the cumulative value of the points.
このように、処理対象情報を、多数の最終編集情報を基にして改変する作業は、周知の機械学習手法(ディープラーニング)等を用いても行うことができる。前記のように、映像の配信先等に応じて複数の処理対象情報が設定される場合には、これらの作業も処理対象情報毎に行うことができる。 In this way, the work of modifying the processing target information based on a large amount of final editing information can also be performed by using a well-known machine learning method (deep learning) or the like. As described above, when a plurality of processing target information is set according to the video distribution destination and the like, these operations can also be performed for each processing target information.
ユーザ自身が自動編集済み映像データに対する評価を入力できる設定とするための問い合わせ、入力は、編集装置14における表示部142、操作パネル143(タッチパネルディスプレイ144)を用いて行うことができる。
Inquiries and inputs for setting the user himself / herself to input the evaluation of the automatically edited video data can be performed by using the
図10は、こうした表示の一例である。ここでは、表示Kにおいて、自動編集情報(処理の対象となる部分の各々及びそれぞれにおける処理の内容)の説明及びその適用の可否が行われ、上側の表示Lで、この際の自動編集情報の評価がユーザによって入力される。その後で下側の表示Mを操作することによって、自動編集情報が表示Kの操作を反映して改変された最終編集情報を用いた編集処理が実行される。 FIG. 10 is an example of such a display. Here, in the display K, the automatic editing information (each of the parts to be processed and the content of the processing in each) is explained and whether or not the application is possible is performed, and in the upper display L, the automatic editing information at this time is described. The rating is entered by the user. After that, by operating the lower display M, an editing process using the final editing information in which the automatic editing information is modified to reflect the operation of the display K is executed.
素材映像データには様々な種類のものがあり、場合によっては、一般的ではない特殊部分に対して処理を施す場合もある。こうした場合においては、自動編集情報と最終編集情報の違いが大きくなった場合でも、この場合の最終編集情報は、一般的に用いられる処理対象情報の改変に用いないことが好ましい。図10に示されたように、この場合の自動編集情報を評価の対象としないことを選択した場合には、このように特殊な場合の最終編集情報は処理対象情報の改変には使用されない。 There are various types of material video data, and in some cases, processing is applied to uncommon special parts. In such a case, even if the difference between the automatic editing information and the final editing information becomes large, it is preferable that the final editing information in this case is not used for modifying the generally used processing target information. As shown in FIG. 10, when it is selected not to evaluate the automatic editing information in this case, the final editing information in such a special case is not used for modifying the processing target information.
このように、新たに作成された最終編集情報をフィードバックして処理対象情報を更新する方法として、上記の他にも、様々な手法が適用可能である。 As described above, various methods other than the above can be applied as a method of feeding back the newly created final editing information and updating the processing target information.
また、例えば、上記の処理の対象となりうる部分としては、映り込んだ人物の顔があり、処理対象認識部131は画像中における顔を認識することが可能である。ここで、例えば、映り込んだ人物が複数おり、ある特定の人物の顔のみに対して処理を適用したい場合、あるいは逆にこの特定の人物以外の全ての人物の顔に処理を施したい場合がある。こうした場合には、処理対象情報において、人物の顔を上記の第1のレベルに設定すれば、前記の放送禁止用語の場合と同様に、警告のみを発し、この警告が解除されない限り、自動編集済み映像データを作成せず、かつ素材映像データも配信しない構成とすればよい。その後、ユーザは、映り込んだ全ての顔のうち、特定の人物の顔のみに処理を行う、あるいは逆に特定の人物の顔のみに処理を行わないように、操作パネル143を制御して最終編集情報を作成し、この最終編集情報に応じて編集済み映像データを作成した後に、これを配信させることができる。
Further, for example, the portion that can be the target of the above processing is the face of the reflected person, and the processing
なお、上述の構成においては、記録装置12(ビデオサーバ)に、処理対象認識部(処理対象認識手段、処理対象情報改変手段)131、情報記憶部(情報記憶手段)132を具備する自動編集情報作成装置13と、編集制御部(編集手段)141、表示部(表示手段)142、操作パネル(操作手段)143を具備する編集装置14が接続され、上記の動作が行われた。しかしながら、上記と同様の機能をもつ処理対象認識手段、処理対象情報改変手段、情報記憶手段、編集手段、表示手段等が素材映像データに関わって設けられ、自動編集済み映像データ、自動編集情報、最終編集情報等を作成することができる限りにおいて、具体的な装置の構成は任意である。すなわち、使用される各装置において上記の各手段がどのように設けられるかは任意であり、上記の各手段が全て単一の装置内に設けられていてもよい。
In the above configuration, the recording device 12 (video server) is provided with a processing target recognition unit (processing target recognition means, processing target information modification means) 131, and an information storage unit (information storage means) 132. The
次に図11〜18を参照して類似人物検索処理(特に類似顔検出処理)について説明する。当該処理は、類似顔画像検出装置16や編集装置14(特に類似顔画像検出操作部103)の機能により実行されるもので、特開2013−101431号公報に開示の技術を顔画像の認識処理に適用したものである。以下では、開示されている主要部分を例示する。
Next, a similar person search process (particularly a similar face detection process) will be described with reference to FIGS. 11 to 18. This process is executed by the functions of the similar face
図11(a)〜(g)には、本実施例において、類似人物検索を実施する手順に沿って、検索キー画像の候補となった画像の特徴量を例示している。図12には、類似人物検索(類似顔検出処理)を実施する手順を例示している。 11 (a) to 11 (g) exemplify the feature amount of the image that is a candidate for the search key image according to the procedure for performing the similar person search in this embodiment. FIG. 12 illustrates a procedure for performing a similar person search (similar face detection process).
まず、最初のキー画像による検索処理6001では、ユーザが選択した最初の検索キー画像によって最初の検索が行われる。ここでは、最初の検索キー画像に選択された画像の特徴量(本例では、画像中の人物の特徴量)と距離が近い特徴量を有する画像を記録装置12内の類似人物検索部218を通じて検索し、その結果、例えば10件の画像が検索される。
First, in the
図11(a)には、最初の検索キー画像の特徴量を「○」で示してある。ここでは、説明の分かり易さのために画像の特徴量を2次元で表現しているが、実際には、画像の特徴量は例えば数百次元といった非常に多くの次元数を持つ場合が多い。 In FIG. 11A, the feature amount of the first search key image is indicated by “◯”. Here, the feature amount of the image is expressed in two dimensions for the sake of clarity of explanation, but in reality, the feature amount of the image often has a very large number of dimensions such as several hundred dimensions. ..
ここで、検索結果である10件の画像のうち3件が最初の検索キー画像と同一の対象であるとする。検索結果から同一人物を選択する処理6002では、10件の検索結果画像から目的の3件の画像を選択する。具体的には、例えば、ユーザが編集装置14の操作パネル143やマウス(図示せず)を操作して目的の画像を選択する。なお、画像の特徴量について閾値を設け、最初の検索キー画像の特徴量と検索結果画像の特徴量との距離が閾値以下なら同一の対象(同一人物)であると判断し、該当する検索結果画像を自動選択する方法としてもよい。
Here, it is assumed that 3 out of 10 images that are the search results are the same target as the first search key image. In the
図11(b)には、図11(a)の内容に加え、検索結果から同一人物を選択する処理6002によって選択された画像の特徴量を「△」で示してある。このような処理によって選択された画像は、新たな検索キー画像の候補となる。
In FIG. 11B, in addition to the contents of FIG. 11A, the feature amount of the image selected by the
ここで、検索結果画像が動画を形成する連続的な画像のうちの1枚であるとすると、その動画における検索結果画像の前後にも同一人物の画像が含まれている場合が多い。検索結果前後の同一人物を選択する処理6003では、検索結果画像が抽出された動画における検索結果画像の前又は後の所定長の時間帯に含まれる複数の画像から、人物の位置や進行速度等に基づいて検索結果画像の人物と同一人物(すなわち、検索キー画像の人物と同一人物)と判定される画像を自動的に選択する。なお、ユーザが指定できるようにしてもよい。 Here, if the search result image is one of the continuous images forming the moving image, the image of the same person is often included before and after the search result image in the moving image. In the process 6003 of selecting the same person before and after the search result, the position, progress speed, etc. of the person are selected from a plurality of images included in a predetermined length of time before or after the search result image in the video from which the search result image is extracted. The image determined to be the same person as the person in the search result image (that is, the same person as the person in the search key image) is automatically selected based on. The user may be able to specify it.
図11(c)には、図11(b)の内容に加え、検索結果前後の同一人物を選択する処理6003によって選択された画像の特徴量を「□」で示してある。このような処理によって選択された画像は、新たな検索キー画像の候補となる。 In FIG. 11 (c), in addition to the contents of FIG. 11 (b), the feature amount of the image selected by the process 6003 for selecting the same person before and after the search result is indicated by “□”. The image selected by such processing becomes a candidate for a new search key image.
マスクを付加する画像処理6004では、これまでの処理で新たな検索キー画像の候補とした人物の画像に対し、画像処理で鼻や口を覆うマスクを付加した画像を生成し、新たな検索キー画像の候補に追加する処理を行う。なお、これとは逆に、画像処理前の人物の画像が鼻や口を覆うマスクをしている場合に、画像処理でマスクを外すようにする処理を行ってもよい。また、マスクの画像は複数種類の画像を準備してもよい。 In the image processing 6004 to add a mask, an image with a mask covering the nose and mouth is generated by image processing for the image of the person who is a candidate for a new search key image in the previous processing, and a new search key is added. Performs processing to add to image candidates. On the contrary, when the image of the person before the image processing has a mask covering the nose and mouth, a process of removing the mask by the image processing may be performed. Further, a plurality of types of mask images may be prepared.
サングラスや眼鏡を付加する画像処理6005では、これまでの処理で新たな検索キー画像の候補とした人物の画像に対し、画像処理でサングラスや眼鏡を付加した画像を生成し、新たな検索キー画像の候補に追加する処理を行う。なお、これとは逆に、画像処理前の人物の画像がサングラスや眼鏡をかけている場合に、画像処理でサングラスや眼鏡を外すようにする処理を行ってもよい。また、サングラスや眼鏡の画像は複数種類の画像を準備してもよい。 In the image processing 6005 to add sunglasses and glasses, an image to which sunglasses and glasses are added is generated by image processing for the image of the person who is a candidate for a new search key image in the previous processing, and a new search key image is generated. Performs the process of adding to the candidates of. On the contrary, when the image of the person before the image processing is wearing sunglasses or glasses, a process of removing the sunglasses or glasses may be performed by the image processing. Further, a plurality of types of images may be prepared for the images of sunglasses and eyeglasses.
人物の向きを変更する画像処理6006では、これまでの処理で新たな検索キー画像の候補とした人物の画像に対し、画像処理で人物の向きを変更した画像を生成し、新たな検索キー画像の候補に追加する処理を行う。人物の向きは通常複数であるが、単純な左右反転であってもよい。
In the
図11(d)には、図11(c)の内容に加え、マスクを付加する画像処理6004、サングラスや眼鏡を付加する画像処理6005、人物の向きを変更する画像処理6006の結果生成された複数の画像の特徴量を「×」で示してある。このような処理によって生成された画像は、新たな検索キー画像の候補として追加される。
In addition to the contents of FIG. 11C, FIG. 11D is generated as a result of image processing 6004 for adding a mask, image processing 6005 for adding sunglasses and eyeglasses, and
なお、マスクを付加する画像処理6004、サングラスや眼鏡を付加する画像処理6005、人物の向きを変更する画像処理6006は、最初の検索キー画像、検索結果から同一人物を選択する処理6002の結果の画像、検索結果前後の同一人物を選択する処理6003の結果の画像のいずれを対象にして施してもよい。また、対象の画像に対していずれか1つの画像処理を施してもよく、任意の2つの画像処理を施してもよく、3つの画像処理を全て施してもよい。また、対象の画像の明暗を変える画像処理など、上記以外の画像処理を施してもよい。
The image processing 6004 for adding a mask, the image processing 6005 for adding sunglasses and glasses, and the
次に、クラスタリング処理6007では、これまでの処理6001〜6006により検索キー画像の候補とされた複数の画像をクラスタリングして、各クラスタを代表する画像(或いはその特徴量)を求める。クラスタリング方法としては、k−means法などの公知の技術を用いることができる。各クラスタを代表する画像としては、例えば、そのクラスタに含まれる画像の特徴量の平均に最も近い画像が用いられ、その画像の特徴量が新たな検索キーとされる。なお、クラスタに含まれる画像の特徴量の平均をそのまま新たな検索キーとしてもよい。
Next, in the
図11(e)には、これまでの処理6001〜6006によって得られた新たな検索キー画像の候補がクラスタリング処理6007によってクラスタに分けられた様子と、各クラスタを代表する画像の特徴量を例示してある。図11(e)では、3つのクラスタを枠線で囲って示してあり、各クラスタを代表する画像の特徴量として、各クラスタの重心に最も近い画像の特徴量P11、P12、P13がそれぞれ選択されている。
FIG. 11 (e) illustrates how the new search key image candidates obtained by the
代表する検索キーによる検索処理6008では、クラスタリング処理6007によって得られた各クラスタを代表する画像の特徴量を新たな検索キーに用いて類似画像検索を行い、結果を出力する。
In the search process 6008 using the representative search key, a similar image search is performed using the feature amount of the image representing each cluster obtained by the
ここで、図11(e)の例では、最初の検索キー画像に関連する画像(処理6001〜6006により得られた画像)は29枚あるため、従来であれば、これらの画像の特徴量を新たな検索キーとした検索を29回繰り返していたところ、本実施例においては、クラスタリング処理6007によって得られた各クラスタを代表する3つの画像の特徴量を用いて類似顔画像検索を行うことで、特徴量のバランスをとりつつ3回の検索で済むようにしている。ここでは、クラスタの数を3としたが、これは設定によって変えることができる。
Here, in the example of FIG. 11 (e), since there are 29 images (images obtained by processing 6001 to 6006) related to the first search key image, conventionally, the feature amounts of these images are used. When the search using the new search key was repeated 29 times, in this embodiment, a similar face image search was performed using the feature quantities of the three images representing each cluster obtained by the
次に、図13を参照して編集装置14の類似顔画像検出操作部103の画面について説明する。図13には、本例の類似顔画像検索システムに使用可能な検索画面を例示してある。
Next, the screen of the similar face image
検索画面は、再生画像表示領域3001、画像再生操作領域3003、検索キー画像指定領域3004、検索絞込パラメータ指定領域3008、検索実行領域3017、検索結果表示領域3020を有する。
The search screen includes a reproduced
再生画像表示領域3001は、(類似顔画像検出装置16や)記録装置12に記録された画像を動画像として表示する領域である。また、再生画像表示領域3001の動画3002は、記録装置12に記録された画像を動画像として表示するものである。
The reproduced
画像再生操作領域3003は、記録装置12に記録された画像を再生操作する領域である。本領域3003を構成する各ボタンには、それぞれ固有の再生種類が割当てられている。本図においては、巻戻し、逆再生、再生停止、順再生、早送りの再生種類が左から順に割当てられている例を示している。ユーザが各ボタンをマウス282で適宜押下することにより、動画3002がボタンに割当てられた再生種類に切り替る。
The image
検索キー画像指定領域3004は、検索キー画像の指定と表示を行う領域である。本領域3004は、検索キー画像3005と、映像指定ボタン3006、ファイル指定ボタン3007を有する。
The search key
検索キー画像3005は、類似検索のための最初の検索キー画像とする画像である。初期状態においては、検索キー画像は、未指定であるので、画像表示はされていない状態となる。なお、未指定の場合に、別途用意した未指定状態を示す画像を表示する等、未指定である旨の表記をするようにしてもよい。
The search
映像指定ボタン3006は、押下時に再生画像表示領域3001に表示されている画像を、検索キー画像3005として指定するボタンである。
The video designation button 3006 is a button for designating the image displayed in the reproduced
ファイル指定ボタン3007は、記録装置12に記録されている画像以外の画像、例えば、デジタルスチルカメラで撮影した画像やスキャナで取込んだ画像等を、検索キー画像3005として指定するボタンである。このボタン3007を押下すると、それらの画像をファイル指定するダイアログボックスが表示され、ユーザはそこで所望の画像を指定することができる。
The file designation button 3007 is a button for designating an image other than the image recorded in the
検索絞込パラメータ指定領域3008は、検索の際の絞込パラメータの種類とその値(範囲)を指定する領域である。本領域3008は、撮像装置指定チェックボックス3009、3010、3011、3012と、タイムコード指定チェックボックス3013、3014と、タイムコード指定欄3015、3016を有する。
The search narrowing
撮像装置指定チェックボックス3009、3010、3011、3012は、検索の際に検索対象とする撮像装置(カメラ10等)を指定するチェックボックスである。本チェックボックス3009、3010、3011、3012は、押下すると選ばれたことを示すチェックマークがそれぞれ表示される。このマークは再押下すると非表示となり、押下で表示・非表示を繰り返す。
The image pickup device
タイムコード指定チェックボックス3013、3014は、検索の際に検索対象とする時刻範囲を指定するチェックボックスである。表示の態様については本チェックボックスも他のチェックボックスと同様である。タイムコード指定チェックボックス3013を選択状態にした場合には時刻範囲に先頭時刻を与える。非選択状態にした場合には、時刻範囲に先頭時刻を与えない、すなわち、記録装置12に記録された最も古い時刻の画像までを検索対象範囲とすることを意味する。
The time code
同様にタイムコード指定チェックボックス3014を選択状態にした場合には時刻範囲に末尾時刻を与える。非選択状態にした場合には、時刻範囲に末尾時刻を与えない、すなわち、記録装置12に記録された最も新しい時刻の画像までを検索対象範囲とすることを意味する。
Similarly, when the time code
タイムコード指定欄3015、3016は、上述の先頭時刻と末尾時刻の値を指定する入力欄である。初期状態においては、全時間帯を検索対象とするため、タイムコード指定チェックボックス3013、3014は全て非選択状態、タイムコード指定欄3015、3016は空欄とする。
The time
検索実行領域3017は、検索実行を指示する領域である。本領域3017は、類似人物検索ボタン3018、登場イベント検索ボタン3019に加え、検索結果からの類似人物検索ボタン3300、同一シーンチェックボックス3201、マスクチェックボックス3202、サングラスチェックボックス3203、異なる角度チェックボックス3204を有する。
The
類似人物検索ボタン3018は、検索キー画像3005による類似人物検索(最初のキー画像による検索処理6001)の実行を指示するボタンである。検索絞込パラメータ指定領域3008にてパラメータが指定されている場合には、指定されたパラメータに従って類似人物検索の実行を指示する。
The similar
登場イベント検索ボタン3019は、登場イベント検索の実行を指示するボタンである。検索絞込パラメータ指定領域3008にてパラメータが指定されている場合には、指定されたパラメータに従って登場イベント検索の実行を指示する。
The appearance
検索結果表示領域3020は、検索結果を表示する領域である。検索結果の表示は、検索結果画像を一覧表示することにより実施する。初期状態においては、検索結果表示領域3020には何も表示されない。
The search
ここで、ユーザが、映像指定ボタン3006を押下し、また、撮像装置指定チェックボックス3009、3010、3012を押下し、更に、タイムコード指定チェックボックス3013、3014を押下し、タイムコード指定欄3015、3016にそれぞれ「15:30:20:17」、「12:30:20:17」と入力したとする。
Here, the user presses the image designation button 3006, the imaging device
これにより、図13に示すように、検索キー画像3005には、動画3002に表示された人物「Aさん」の画像が検索キー画像として指定され、また、検索対象としたい撮像装置201として「カメラ1」、「カメラ2」、「カメラ4」の3つが指定され、検索対象としたい時刻範囲として「15:30:20:17から12:30:20:17まで」が指定される。
As a result, as shown in FIG. 13, the image of the person "Mr. A" displayed in the moving image 3002 is designated as the search key image in the search
その後、ユーザが、類似人物検索ボタン3018を押下したとする。すると、検索結果表示領域3020には、検索キー画像3005を用いて類似人物検索を実行して得られた検索結果が表示される。図13は、この状態における検索画面の一例を示したものである。検索結果の表示は、検索結果画像(本例では、検索結果画像3031〜3141)を一覧表示することにより実施する。
After that, it is assumed that the user presses the similar
検索結果画像3031〜3141は、例えば、最上段左から右へ、次に2段目左から右へと検索キー画像3005に対する類似度順に表示する。この表示例においては、検索結果画像3031が検索キー画像3005に対し最も類似度が高く、検索結果画像3141が最も類似度が低いということを示している。
The search result images 3033-1141 are displayed, for example, from the top left to the right and then from the second left to the right in order of similarity to the search
この図に示された例の表記において、検索結果表示領域3020内の検索結果画像3031〜3141上に図示した円とアルファベットは、人物の顔と人物名称を簡略表示したものであり、例えば、検索結果画像3031には、人物「Aさん」が登場することを示している。この簡略表示している部分には、もちろん、実際のシステムでの表示では実画像が表示される。
In the notation of the example shown in this figure, the circles and alphabets shown on the search result images 3033-1141 in the search
検索結果画像3031の周辺には、頭出し再生ボタン3032、検索キー画像指定ボタン3033、検索対象チェックボックス3301を備える。他の検索結果画像3041〜3141も同様である。
A
頭出し再生ボタン3032は、検索結果画像3031を先頭とした連続動画再生開始を指示するボタンである。例えば、頭出し再生ボタン3032を押下すると動画3002が検索結果画像3031に切り替り、その検索結果画像3031を先頭として始まる動画をユーザは、視聴することができる。
The cueing
検索キー画像指定ボタン3033は、検索結果画像3031を新たな検索キー画像に指定するボタンである。例えば、検索キー画像指定ボタン3033を押下すると、検索結果画像3031が検索キー画像3005に表示される。これにより、検索結果画像3031を使って再検索を実施することができる。
The search key image designation button 3033 is a button for designating the search result image 3031 as a new search key image. For example, when the search key image designation button 3033 is pressed, the search result image 3031 is displayed on the search
検索対象チェックボックス3301は、検索結果からの類似人物検索ボタン3300を押下した場合に新たな検索キー画像(或いはその候補)として検索結果画像3031を指定するチェックボックスである。例えば、検索結果に出てきた「Aさん」の画像(本例では、検索結果画像2031〜3061、3081、3091、3121、3141)を全てチェックして、検索結果からの類似人物検索ボタン3300を押すことで、様々なパターンの「Aさん」を検索することが可能である。
The search target check box 3301 is a check box for designating the search result image 3031 as a new search key image (or a candidate thereof) when the similar
検索結果からの類似人物検索ボタン3300は、検索キー画像3005による類似人物検索の結果に基づく再度の類似人物検索(代表する検索キーによる検索処理6008)の実行を指示するボタンである。再度の類似人物検索では、検索結果表示領域3020の表示(最初のキー画像による検索処理6001の結果)の中からユーザに選択された(検索対象チェックボックスがチェックされた)画像を新たな検索キー画像(或いはその候補)として類似人物検索を再実行する。
The similar
同一シーンチェックボックス3201は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にして検索結果前後の同一人物を選択する処理6003を実行し、その結果の画像(対象の画像中の人物と同一人物を映した前後の画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
The same
尚、マスクチェックボックス3202は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にしてマスクを付加する画像処理6004を実行し、その結果の画像(対象の画像中の人物にマスクを付加した画像或いは当該人物からマスクを外した画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
The mask check box 3202 executes image processing 6004 for adding a mask to an image selected by the user from the display of the search
また、サングラスチェックボックス3203は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にしてサングラスや眼鏡を付加する画像処理6005を実行し、その結果の画像(対象の画像中の人物にサングラス等を付加した画像或いは当該人物からサングラス等を外した画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
Further, the sunglasses check box 3203 executes image processing 6005 for adding sunglasses and eyeglasses to an image selected by the user from the display of the search
異なる角度チェックボックス3204は、検索結果表示領域3020の表示の中からユーザに選択された画像を対象にして人物の向きを変更する画像処理6006を実行し、その結果の画像(対象の画像中の人物の向きを変更した画像)を新たな検索キー画像の候補に追加することを指定するチェックボックスである。
The different
これらのチェックボックス3201〜3204の1以上がチェックされた状態で検索結果からの類似人物検索ボタン3300が押下された場合には、検索結果表示領域3020の表示の中からユーザに選択された各々の画像を対象にして、チェックされた状態のチェックボックスに対応する画像処理を実行し、その結果生成された画像を新たな検索キー画像の候補を追加し、その後、新たな検索キー画像の候補に対してクラスタリング処理6007を実行して各クラスタを代表する検索キー画像を求め、各クラスタを代表する画像の特徴量を検索キーとして用いて類似画像検索を実行する。
When one or more of these
以上のように、上記の例では、検索キーの候補である複数の画像の特徴量に基づいて、検索キーとする画像の特徴量を決定する検索キー決定手段と、検索キー決定手段により検索キーに決定された画像の特徴量に類似する特徴量を有する画像を検索する検索手段と、を備えた構成において、検索キー決定手段が、検索キーの候補である複数の画像の特徴量をクラスタリングし、クラスタ毎にそのクラスタを代表する画像の特徴量を検索キーとして決定し、検索手段が、検索キー決定手段により決定されたクラスタ毎の検索キーをそれぞれ用いて検索を行うように構成した。 As described above, in the above example, the search key determining means for determining the feature amount of the image to be the search key based on the feature amounts of a plurality of images that are candidates for the search key, and the search key determining means by the search key determining means. In a configuration including a search means for searching an image having a feature amount similar to the feature amount of the image determined in, the search key determination means clusters the feature amounts of a plurality of images that are candidates for the search key. , The feature amount of the image representing the cluster is determined for each cluster as a search key, and the search means is configured to perform the search using each of the search keys for each cluster determined by the search key determining means.
なお、本例では、編集装置14の類似顔画像検出操作部103の複数検索キー選択部113の機能により検索キー決定手段を実現し、類似顔画像検出装置16の類似人物検索部218の機能により検索手段を実現しているが、他の態様により検索キー決定手段及び検索手段を実現しても構わない。
In this example, the search key determination means is realized by the function of the multiple search
次に、図14〜16を参照して上述した類似人物検索処理(類似顔検出処理)を編集処理に適用した処理例を説明する。 Next, a processing example in which the above-mentioned similar person search processing (similar face detection processing) is applied to the editing processing will be described with reference to FIGS. 14 to 16.
上述の様に、従来から行われている出演者の出演シーン(出演映像)を探し出すまでのフローでは、担当者(編集者等)は管理端末で出演者の情報を検索すると、その出演者が出演している番組及び、その番組が記録されているVTRテープ番号の一覧が表示される。その後、担当者は出力されたテープ番号のVTRテープを棚から取り出し、VTR再生機にかけて再生する。そして、再生映像を目視して出演シーンを探し、出演シーンのタイムコード情報を記録していた。このようなフローでは、作業効率や精度の観点から、改善が必要とされていた。そこで、次の様なフローによる技術を導入する。 As described above, in the conventional flow of searching for a performer's appearance scene (appearance video), the person in charge (editor, etc.) searches for the performer's information on the management terminal, and the performer finds out. A list of programs appearing and VTR tape numbers in which the programs are recorded is displayed. After that, the person in charge takes out the VTR tape having the output tape number from the shelf and puts it on a VTR player to play it. Then, the appearance scene was searched by visually observing the reproduced video, and the time code information of the appearance scene was recorded. In such a flow, improvement was required from the viewpoint of work efficiency and accuracy. Therefore, we will introduce the following flow technology.
図14は元の映像が、メディア5(光学メディア5a、磁気メディア5b及びVTRテープ5c)に記録されている場合に、顔画像蓄積サーバ127に顔画像を蓄積する手順を示す。メディア5を探し出すまでの手順は、従来通りである。
FIG. 14 shows a procedure for accumulating a face image on the face
元の映像が光学メディア5aや磁気メディア5bに記録されている場合は、探し出したメディア(光学メディア5aや磁気メディア5b)から映像ファイルを取り出し、類似顔画像検出装置16で映像ファイルを再生し、上述の類似人物検索処理の技術を用いて、再生映像から顔部分の映像のみを切出して、切出した顔画像をタイムコード情報と共に顔画像蓄積サーバ127に保存する。
When the original video is recorded on the
蓄積される顔画像は、1種類(一般には正面の顔)のみでなく、顔種別(正面、横顔、斜め顔、後ろ顔、笑った顔、怒った顔等)を検出対象の顔画像として複数登録して保存可能であり、顔画像とその顔種別が関連付けられて記録される。検出対象とする顔画像を複数、特に種別の異なる顔画像を複数、準備しておくことにより、特定の出演者が出演している映像をより精度よく検出することが可能となると共に、特定の出演者の映像の中でも特に欲しい状況(笑った顔の映像が欲しい等)を検出することができる。また、顔画像の蓄積の際に、出演者の名前が特定できている場合には、その名前も登録されてもよい。また、同一出演者について複数の顔画像が顔画像蓄積サーバ127に記録される場合に、基準となる顔画像(基準顔画像)が指定されてもよい。基準顔画像は、一つに限る趣旨では無いが、作業性の観点から、顔種別毎に1つや、所定の出演時期(例えば5年間)に一つといった程度に設定されうる。
The accumulated face images are not limited to one type (generally the front face), but multiple face types (front, profile, diagonal face, back face, laughing face, angry face, etc.) are used as detection target face images. It can be registered and saved, and the face image and its face type are associated and recorded. By preparing a plurality of face images to be detected, particularly a plurality of face images of different types, it is possible to more accurately detect a video in which a specific performer is appearing, and a specific face image can be detected. It is possible to detect the situation that is particularly desired among the images of the performers (such as wanting an image of a laughing face). Further, when the name of the performer can be specified at the time of accumulating the face image, that name may also be registered. Further, when a plurality of face images of the same performer are recorded on the face
元の映像がVTRテープ5cに記録されている場合は、探し出したVTRテープ5cをVTR再生装置(メディア再生装置19)で再生し、類似顔画像検出装置16に取り込む。類似顔画像検出装置16は、取り込んだ再生映像から、光学メディア5aや磁気メディア5bの場合と同様に、類似人物検索処理の技術を用いて、顔部分の映像のみを切出して、切出した顔画像をタイムコード情報と共に顔画像蓄積サーバ127に保存する。
When the original video is recorded on the
図15は元の映像が低解像度サーバ126に記録されている場合に、顔画像蓄積サーバ127に顔画像を蓄積する手順を示す。
FIG. 15 shows a procedure for accumulating a face image on the face
元の映像が低解像度サーバ126に記録されている場合、担当者が管理端末17上で出演者の情報を検索すると、その出演者が出演している番組及び、その番組が記録されている低解像度サーバ126内の映像ファイル名が出力される。その情報をそのままオンラインで、すなわちネットワーク2を介して類似顔画像検出装置16に渡される。その結果、低解像度サーバ126から映像ファイルを取り出し、類似顔画像検出装置16で映像ファイルを再生することで再生映像から顔部分の映像のみを切出して、切出した顔画像をタイムコード情報と共に顔画像蓄積サーバ127に保存する。
When the original video is recorded on the
図16は目的の出演者の顔画像を検出対象として顔画像蓄積サーバ127から類似顔検出した図である。
FIG. 16 is a diagram in which a similar face is detected from the face
編集者は目的の出演者の顔画像ファイル(検出対象顔画像)を類似顔画像検出装置16に読み込ませる。検出対象顔画像は、編集対象の映像ファイルから代表的な顔画像として抽出された画像でもよいし、顔画像蓄積サーバ127に含まれる顔画像から選択された顔画像でもよいし、ウェブ上の画像から取り込んだ画像でもよい。類似顔画像検出装置16は、検出対象顔画像と顔画像蓄積サーバ127内の顔画像とを比較し、同じ顔の出演者が出演するシーンの顔画像及び、タイムコード情報が検索される。
The editor loads the face image file (detection target face image) of the target performer into the similar face
ここで検出した出演シーンのタイムコード情報が編集装置14に渡される。編集者は目的の出演者が出演しているシーンを探し出す手間がなく、出演者の特集番組を制作したり出演者にモザイクをかけることが可能となる。
The time code information of the appearance scene detected here is passed to the
また、検出した出演シーンについて、編集装置14を使用せずに試写したい場合は、低解像度サーバ126内の映像ファイルを再生することで、出演シーン試写が容易に可能となる。
Further, when it is desired to preview the detected appearance scene without using the
このような類似顔検出処理をすることで、例えば、放送局の厖大な過去映像の中から目的の出演者が出演しているシーンを探し出す場合に、類似顔画像検出装置16が自動的に出演シーンを検出してくれる。その結果、編集者はメディア5(光学メディア5a、磁気メディア5b、VTRテープ5c)の映像を注視している必要がなくなる。その間に編集者は他の仕事をすることが可能となり、編集者の業務効率を大幅に向上させることができる。
By performing such similar face detection processing, for example, when a scene in which a target performer is appearing is searched for from a huge past image of a broadcasting station, the similar face
また、編集装置14の数には限りがあるため、編集装置14を使用できない場合は事前に目的の出演者の出演シーンを探して、低解像度サーバ126の映像ファイルを使用して出演シーンを事前に試写しておくことで、編集前の事前作業が可能となる。
Further, since the number of
また、番組編集を完了して放送直前に出演者が問題を起こしたことにより、その出演者の放送が不可になった場合には、上述の技術によって、容易に目的の出演者の出演シーンを探し、その出演者にモザイクをかける処理や、または出演シーンをカットする処理が可能となり、スポンサーや視聴者からのクレーム防止になる。 In addition, if the performer's broadcast becomes impossible due to a problem caused by the performer immediately before the broadcast after completing the program editing, the above-mentioned technology can be used to easily change the appearance scene of the target performer. It is possible to search for and apply a mosaic to the performer, or to cut the appearance scene, which prevents complaints from sponsors and viewers.
上記処理では、放送局の過去の映像から出演者を検出する。しかし、映像収録から数十年経つと出演者の顔も変化していくため、目的の出演者の現在の顔画像を検出対象とすると、検出の精度が落ちる可能性が高くなる。それを解決するために、一度、現在の顔画像を検出対象として検出した結果の顔画像(検出精度の落ちた過去の顔画像)に替えて、検出対象の顔画像として新たに再登録し、再度類似顔画像検出することで検出精度を向上させることができる。すなわち、2ステップの検出(基準顔(基準顔画像)の新情報再登録→類似顔画像検索)による検出精度向上が期待できる。 In the above process, performers are detected from the past images of the broadcasting station. However, since the face of the performer changes several decades after the video is recorded, if the current face image of the target performer is targeted for detection, there is a high possibility that the detection accuracy will drop. In order to solve this problem, the face image of the result of detecting the current face image as the detection target (past face image with reduced detection accuracy) is replaced with a new face image to be detected, and the face image is newly re-registered. The detection accuracy can be improved by detecting the similar face image again. That is, it is expected that the detection accuracy will be improved by the two-step detection (re-registration of new information of the reference face (reference face image) → search for similar face image).
そして、検出した出演映像のタイムコード情報を編集機に渡すことで、編集者はその出演者が出演している映像にモザイクをかけたり、または出演映像をカットすることが可能となる。 Then, by passing the time code information of the detected appearance video to the editing machine, the editor can apply a mosaic to the video in which the performer is appearing or cut the appearance video.
また、出演時期(撮影時期)が近い顔画像であれば、同じような特徴量が現れると考えられるため、同じような特徴量を辿りながら出演時期が開いている顔画像も検出することができる。また、同様に横顔の映像が欲しい場合は、横顔を検出対象の顔画像として再登録し、類似顔画像検出することで、より絞った出演シーンの検出が可能となる。 In addition, if the face image has a similar appearance time (shooting time), it is considered that the same feature amount appears. Therefore, it is possible to detect the face image whose appearance time is open while tracing the same feature amount. .. Similarly, if a profile image is desired, the profile can be re-registered as a face image to be detected and a similar face image can be detected, so that a narrower appearance scene can be detected.
そして、検出した出演シーンのタイムコード情報を編集機に渡すことで、編集者はその出演者が出演しているシーンのみを纏めた特集番組を作成することが可能となる。 Then, by passing the time code information of the detected appearance scene to the editing machine, the editor can create a special program that summarizes only the scene in which the performer is appearing.
現在の放送局では、編集完了した映像(編集済み映像)を光学メディア5aで記録し、それを再生装置にかけて放送出力するか、または、その光学メディア5aから送出サーバ18に取り込んで放送出力する運用が多い。そのため、光学メディア5aから映像ファイルを取り出し、類似顔画像検出装置16(類似顔検出装置)内で映像ファイルを再生させ、再生映像から顔の映像のみ切出して、切出した顔画像をタイムコードと共に顔画像蓄積サーバ127に保存しておき、目的の出演者の顔画像を検出対象として類似顔検出することで担当者は映像を目視しなくても出演シーンを探すことが可能となる。ここで、検出対象とする顔画像を正面顔、横顔、斜め顔等複数準備しておくことにより、探したい出演者が出演しているシーンをより精度よく検出することが可能となる。
In the current broadcasting station, the edited video (edited video) is recorded on the
以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. This embodiment is an example, and it will be understood by those skilled in the art that various modifications are possible for the combination of each of these components, and that such modifications are also within the scope of the present invention.
1 映像編集システム
2 ネットワーク
5 メディア
5a 光学メディア
5b 磁気メディア
5c VTRテープ
10 カメラ
11 収録装置
12 記録装置
13 自動編集情報作成装置
14 編集装置
15 システム制御部
16 類似顔画像検出装置
17 管理端末
18 送出サーバ
19 メディア再生装置
103 類似顔画像検出操作部
110 キーワード記録部
111 キーワード検索部
112 キーワード付与要求送信部
113 複数検索キー選択部
121 素材映像データ部
122 編集済み映像データ部
123 自動編集済み映像データ部
124 最終編集情報部
125 自動編集情報部
126 低解像度サーバ
127 顔画像蓄積サーバ
128 処理対象情報部
131 処理対象認識部
132 情報記憶部
141 編集制御部
142 表示部
143 操作パネル
144 タッチパネルディスプレイ
210 画像送受信部
211 画像記録部
212 再生制御部
213 人物領域検出部
214 人物特徴量抽出部
215 人物特徴量記録部
216 属性情報記録部
217 要求受信部
218 類似人物検索部
219 登場イベント検索部
220 検索結果送信部
221 検索要求送信部
222 検索結果受信部
223 検索結果表示部
224 再生画像表示部
225 画面操作検知部
1
Claims (4)
前記映像ファイルに含まれる出演者の顔画像を取得し、前記顔画像と各出演者の出演映像のタイムコード情報とを関連付けて記録する顔画像蓄積サーバと、
前記顔画像蓄積サーバに記録されている顔画像と、特定番組の映像ファイルに含まれる検索対象となる顔画像とを比較し、前記特定番組における出演映像を検出する出演映像検出部と、
前記出演映像検出部が検出した出演映像に基づいて、前記特定番組において前記検索対象となる顔画像の人物が出演している前記特定番組以外の出演映像の顔画像と、前記特定番組における人物の顔画像との間の特徴量の距離が予め設けた閾値よりも近い場合に、同一の人物と判断する類似顔画像検索により、前記検索対象となる顔画像の人物が出演している前記特定番組以外の出演映像を検出し、検出した出演映像のタイムコード情報を前記検索対象となった出演者情報と関連付けて前記編集装置に通知する類似顔画像検出装置と、を備え、
前記編集装置は、前記タイムコード情報を用いて前記特定番組の映像ファイルを編集することを特徴とする編集システム。 An editing system equipped with an editing device that edits video files used for broadcasting.
A face image storage server that acquires the face image of the performer included in the video file and records the face image in association with the time code information of the appearance video of each performer.
A face image detection unit that compares the face image recorded in the face image storage server with the face image to be searched included in the video file of the specific program, and detects the appearance video in the specific program.
Based on the appearance video detected by the appearance video detection unit, the face image of the appearance video other than the specific program in which the person of the face image to be searched in the specific program appears, and the face image of the person in the specific program. The specific program in which a person with a face image to be searched appears by a similar face image search that determines that the person is the same when the distance between the feature amount and the face image is closer than a preset threshold. It is provided with a similar face image detection device that detects appearance videos other than the above, associates the time code information of the detected appearance video with the performer information to be searched, and notifies the editing device.
The editing device is an editing system characterized by editing a video file of the specific program using the time code information.
前記類似顔画像検出装置は、前記顔種別に応じて類似顔画像検索を行うことを特徴とする請求項1から3までのいずれかに記載の編集システム。 The face image storage server can save the face image to be detected in association with the face type.
The editing system according to any one of claims 1 to 3, wherein the similar face image detection device performs a similar face image search according to the face type.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017219011A JP6934402B2 (en) | 2017-11-14 | 2017-11-14 | Editing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017219011A JP6934402B2 (en) | 2017-11-14 | 2017-11-14 | Editing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019092025A JP2019092025A (en) | 2019-06-13 |
JP6934402B2 true JP6934402B2 (en) | 2021-09-15 |
Family
ID=66837511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017219011A Active JP6934402B2 (en) | 2017-11-14 | 2017-11-14 | Editing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6934402B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672102B (en) * | 2019-10-15 | 2023-03-24 | 杭州海康威视数字技术股份有限公司 | Video generation method and device |
KR102247719B1 (en) * | 2019-10-17 | 2021-04-30 | 서울여자대학교 산학협력단 | System that selectively transmit characters in real-time video |
KR102188991B1 (en) * | 2020-03-31 | 2020-12-09 | (주)케이넷 이엔지 | Apparatus and method for converting of face image |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5933823A (en) * | 1996-03-01 | 1999-08-03 | Ricoh Company Limited | Image database browsing and query using texture analysis |
JP2004289718A (en) * | 2003-03-25 | 2004-10-14 | Nippon Hoso Kyokai <Nhk> | Photographed video editing method and apparatus therefor |
JP2007082088A (en) * | 2005-09-16 | 2007-03-29 | Matsushita Electric Ind Co Ltd | Contents and meta data recording and reproducing device and contents processing device and program |
JP2008283486A (en) * | 2007-05-10 | 2008-11-20 | Sony Corp | Information processor, information processing method, and program |
JP2012034218A (en) * | 2010-07-30 | 2012-02-16 | Hitachi Kokusai Electric Inc | Program edit and transmit system |
JP5863400B2 (en) * | 2011-11-07 | 2016-02-16 | 株式会社日立国際電気 | Similar image search system |
US9264765B2 (en) * | 2012-08-10 | 2016-02-16 | Panasonic Intellectual Property Corporation Of America | Method for providing a video, transmitting device, and receiving device |
-
2017
- 2017-11-14 JP JP2017219011A patent/JP6934402B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019092025A (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3780623B2 (en) | Video description method | |
JP4227241B2 (en) | Image processing apparatus and method | |
US7849406B2 (en) | Apparatus and method for authoring | |
US7432940B2 (en) | Interactive animation of sprites in a video production | |
US8773555B2 (en) | Video bit stream extension by video information annotation | |
US6970639B1 (en) | System and method for editing source content to produce an edited content sequence | |
US8204312B2 (en) | Moving image editing apparatus | |
JP5552769B2 (en) | Image editing apparatus, image editing method and program | |
US20130236162A1 (en) | Video editing apparatus and method for guiding video feature information | |
JP6934402B2 (en) | Editing system | |
US20080019610A1 (en) | Image processing device and image processing method | |
JP4197014B2 (en) | Video search method and apparatus | |
CN104821001A (en) | Content management system, management content generation method, management content reproduction method, program and recording medium | |
JP2007336106A (en) | Video image editing assistant apparatus | |
JP4333808B2 (en) | Video search method and apparatus | |
KR20160123647A (en) | Apparatus and method for providing additional information usung object tracking | |
JP3936666B2 (en) | Representative image extracting device in moving image, representative image extracting method in moving image, representative image extracting program in moving image, and recording medium of representative image extracting program in moving image | |
JP3997882B2 (en) | Video search method and apparatus | |
US20050078940A1 (en) | Information editing device, information editing method, and computer product | |
JP3907344B2 (en) | Movie anchor setting device | |
JPWO2009019774A1 (en) | Movie editing apparatus and method, and computer program | |
JP2004297305A (en) | System and program for configuring data base, system and program for retrieving image, and image recorder/reproducer | |
JP3931890B2 (en) | Video search method and apparatus | |
CN101325679B (en) | Information processing apparatus, information processing method | |
KR100513100B1 (en) | Method for generating broadcasting document and computer-readable medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |