JP6120169B2 - 画像編集装置 - Google Patents

画像編集装置 Download PDF

Info

Publication number
JP6120169B2
JP6120169B2 JP2013152203A JP2013152203A JP6120169B2 JP 6120169 B2 JP6120169 B2 JP 6120169B2 JP 2013152203 A JP2013152203 A JP 2013152203A JP 2013152203 A JP2013152203 A JP 2013152203A JP 6120169 B2 JP6120169 B2 JP 6120169B2
Authority
JP
Japan
Prior art keywords
mask
output
moving image
image
specific subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013152203A
Other languages
English (en)
Other versions
JP2014042234A (ja
Inventor
宜史 河口
宜史 河口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2013152203A priority Critical patent/JP6120169B2/ja
Publication of JP2014042234A publication Critical patent/JP2014042234A/ja
Application granted granted Critical
Publication of JP6120169B2 publication Critical patent/JP6120169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Description

本開示は、画像に対して、所定の画像処理を施す画像編集装置に関する。
これまで、個人的に撮影した静止画像や動画像は、撮影者自身とその家族や友人などの限られた人にのみ閲覧されることが通常であった。しかし、デジタルカメラやスマートフォンが普及し、ブログやSNS等のネットワークによる情報共有サービスが浸透するにつれて、不特定多数の人間に対して、個人が撮影した静止画像や動画像を公開する機会が増し、プライバシーや肖像権に関する意識が高まりつつある。
プライバシーや肖像権を保護する装置として、特許文献1に開示されたような、撮影画像から所定の被写体を認識し、認識した被写体に対してモザイク等の特殊効果を施す画像処理装置が知られている。
特開2000−232609号公報
デジタルカメラやスマートフォンで撮影した動画像を、ブログやSNS等のネットワーク上の不特定多数の人に対して公開する場合、プライバシーや肖像権を保護しつつも、オリジナル画像の品質、ディテールを損なうことなく、必要最低限の画像処理を簡単に行えることが望ましい。
本開示は、ブログやSNS等のネットワーク上の不特定多数の人に対して公開される場合に、オリジナル画像の品質、ディテールを損なうことなく、簡単にプライバシーや肖像権を保護することを可能となる動画像を編集する画像編集装置を提供することを目的とする。
本開示の画像編集装置は、動画ストリームを入力する入力部と、入力した動画ストリームを構成する少なくとも1つ以上のフレームから、特定の被写体を抽出する抽出部と、入力した動画ストリームを構成するフレームに含まれる特定の被写体に対してマスク処理を施す画像処理部と、を備える。画像処理部は、特定の被写体に対して、動画ストリームの出力解像度に少なくとも基づく所定の出力条件に従ってマスク処理を施すか否かを判定し、判定結果に基づいて当該被写体に対してマスク処理を施す。
本開示によれば、動画像をブログやSNS等のネットワーク上の不特定多数の人に対して画像を公開する動画像を編集する場合に、出力する動画像の解像度に応じて必要最低限の特殊効果処理(マスキング処理)を行う。このため、オリジナル画像の品質、ディテールを過度に損なうことなく、プライバシーや肖像権を保護することができる。
本開示の実施形態の画像編集装置の基本構成を示す図 実施の形態にかかるPCの構成図 実施の形態にかかる変換処理部の構成図 実施の形態にかかる多重化処理のイメージ図 実施の形態にかかる液晶ディスプレイの選択画面のイメージ図 実施の形態にかかる液晶ディスプレイの設定画面のイメージ図 実施の形態にかかる液晶ディスプレイのプレビュー画面のイメージ図 実施の形態にかかるマスクテーブルの構造の一例を示した図 実施の形態にかかるマスクシーンの抽出を説明するための図 実施の形態にかかるマスクテーブルの作成のフローチャート 実施の形態にかかるマスクテーブルを作成する詳細動作のフローチャート 実施の形態にかかるマスクシーン追記の詳細動作のフローチャート 実施の形態にかかるマスクシーンをマスクオブジェクトとして追記する例を説明した図 実施の形態にかかる特殊効果の合成処理のフローチャート 実施の形態にかかる判定条件による判定処理を説明するための図 出力画像における、出力解像度の違いによる特殊効果の適用状況の違いを説明するための図 出力画像における、出力画像における被写体サイズに基づく特殊効果の適用状況の違いを説明するための図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
〔実施の形態1〕
実施の形態1にかかる画像編集装置は、入力ビデオストリームに含まれる被写体に対して、プライバシーや肖像権を保護するために、ぼかし処理等のマスク処理(特殊効果)を施すことができる。画像編集装置は、マスク処理の対象物(人物全体、人物の顔、車全体、ナンバープレートなど)にマスク処理を施すか否かを、出力する動画像の解像度や出力する動画像のサイズに応じて決定する。そして、画像編集装置は、マスク処理を施すことを決定した対象物に対してマスク処理を施すための画像を、元の画像に合成する。
具体的には、1)画像編集装置は、入力ビデオストリーム全体をスキャンして、マスク処理の対象に関する所定の条件を満たす対象を抽出し、抽出結果に基づきマスクテーブルを生成する。その後、2)画像編集装置は、出力する動画像の解像度等に基づき、マスクテーブルで管理された所定の条件を満たす対象物の中からマスキング処理を施す対象を決定し、当該対象のみに対してマスキング処理を実施する。
このような構成により、マスク処理の対象に関する所定の条件を満たす全ての対象物に対してマスキング処理を施すのではなく、出力する動画像の解像度等を考慮して決定した一部の対象物のみに対して、実際にマスク処理を施す。よって、出力する動画像の解像度に応じて決定した必要最低限の対象物に対してのみ、画像処理(マスク処理)を行うことが可能となり、オリジナル画像の品質、ディテールを損なうことなく、プライバシーや肖像権を保護することができる。
以下の説明において、マスク処理を施す対象物について、ある時刻における当該対象物の中心座標や、幅、高さ、特徴量等の情報を記述した情報単位を、「マスクシーン」と呼ぶ。
また、マスク処理を施す対象物について、当該対象物が入力ビデオストリーム中に連続して登場する時間単位(時間範囲)における、当該対象物の中心座標や、幅、高さ、特徴量等の情報を記述した情報単位を「マスクオブジェクト」と呼ぶ。
すなわち、マスク処理を施す対象物について、ある連続した時間範囲(時間単位)内のマスクシーンの集合体がマスクオブジェクトである。そのため、マスクオブジェクトなる実態が最初から存在するわけではなく、マスクシーンを集合させた結果、マスクオブジェクトと定義した情報単位が生成される。しかしながら、以下では、説明の便宜上、マスクオブジェクトにマスクシーンを追記するとして表現する。
以下、実施の形態1を説明する。
〔1−1.全体構成〕
具体的な実施形態を説明する前に、まず、実施形態における画像編集装置を用いたシステムの全体構成を説明する。
図1は、実施形態による画像編集装置の基本構成を示すブロック図である。画像編集装置10は、入力装置20および表示装置30に電気的に接続される。ここで、「電気的に接続される」とは、銅線や光ファイバのような有線で接続される場合のみならず、電磁波を介して情報が伝送されるような無線で接続される場合も含む。画像編集装置10は、典型的にはパーソナルコンピュータ(以下「PC」という)や携帯情報端末といったプロセッサを備えた電子機器である。画像編集装置10は、データセンター等に設置されたサーバーであってもよい。その場合、入力装置20および表示装置30は、遠隔地のユーザーが操作する電子機器に内蔵または接続された入出力デバイスであってもよい。
画像編集装置10は、入力動画ファイル全体に対して、「対象条件」のマッチングを行う。「対象条件」とは、人物の全体、人物の顔、車の全体、車のナンバープレート等のプライバシーや肖像権を有する対象物(マスクオブジェクトの候補)を指定する情報である。そして、画像編集装置10は、「対象条件」に一致した対象物について、時間的に連続する一連の中心座標や、幅、高さ等の領域情報を、マスクテーブルで管理する。すなわち、マスクテーブルは、対象条件として指定された被写体が動画像内で所定の時間間隔で連続的に存在している範囲を表す。
画像編集装置10は、「出力条件」に該当するマスクオブジェクトに対して、「特殊効果設定」で指定した特殊効果を施すため、入力画像に特殊効果を合成した動画像を生成し、動画ファイルとして出力する機能を備えている。「出力条件」は、出力解像度条件と、出力領域とを含む。出力解像度条件は、ネットワーク上の不特定多数の人に対して公開するためにサーバーで利用される動画ファイルの解像度や、アップロード時に圧縮符号化する場合の動画ファイルの解像度に関して、被写体に対してマスクを行なうか否かの判断を行うための解像度の条件である。出力領域は、対象物の大きさに関する、マスクを行なうか否かの判断基準であり、マスクオブジェクトの幅、高さ、面積で示される。マスクオブジェクトの幅、高さ、面積は、例えば、表示装置に対象物が表示されたときにユーザーがその対象物を確認できるか否かということに基づき決定される。
本実施の形態では、出力解像度条件および出力領域を、それぞれ独立して、ユーザーが任意に設定できる場合を説明するが、これに限定されない。すなわち、ユーザーが設定した出力解像度のみに基づいて決定される出力領域を用いるようにしてもよい。また、人物やナンバープレート等の対象物の種類に応じて、出力解像度条件および出力領域が予め定義されていてもよい。
「特殊効果設定」は、マスクオブジェクトに対して「出力条件」に従い、「ぼかし処理」「モザイク処理」「他の画像の合成処理」「ハイライト枠の合成処理」等、マスク処理の種類を指定するための設定である。マスク処理とは、特定の被写体を、当該被写体であると認識できない程度に画像加工等を施す処理である。「ぼかし処理」や「モザイク処理」以外に,レベル情報を変調して、ペイント,ネガ,モノカラー,モアレ,ソラリゼーション,デフォーカス,エンハンス、等の効果を利用してもよい。
本実施の形態では、特殊効果をユーザーが任意に設定できる場合を説明するが、特殊効果は自動で設定されてもよい。すなわち、人物やナンバープレート等の対象物に応じて、特殊効果が予め定義されていてもよいし、当該対象物のフレーム中の占有率に応じて、特殊効果が予め定義されていてもよい。
画像編集装置10は、入力装置20を介して処理対象となる動画ファイルを受け付ける入力インターフェース11を備える。さらに、画像編集装置10は、入力された情報に基づいてマスクテーブルを生成し、さらに、マスクテーブルに基づき、動画ファイルの特定の領域に特殊効果を合成した動画像を生成する画像編集部12を備えている。画像編集装置10によるマスクテーブルの生成動作の詳細は後述する。
入力インターフェース11は、入力装置20から入力される情報を受け付けるデバイスであり、例えば、USBポート、通信ポートであり得る。また、入力装置20がHDDのようなデバイスの場合、入力インターフェース11は、入力装置20と画像編集部12との間の通信を可能にする通信インターフェースやバスであり得る。入力インターフェース11に入力された情報は画像編集部12に転送される。あるいは、不図示のメモリに記録されてもよい。入力インターフェース11には、編集対象としてユーザーなどによって指定された動画ファイル、対象条件、出力条件、特殊効果設定が入力される。
画像編集部12は、指定された動画ファイルと、対象条件、出力条件、特殊効果設定から特定の個所に特殊効果を合成した動画像(マスク処理を施した動画像)を生成する。生成した動画像は、例えば、不図示のメモリに保存され、表示装置30に表示され得る。
画像編集部12は、ユーザーが指定した出力条件に応じて、最適にマスク処理を施した動画像を表示装置30に表示する。
以上の構成により、ユーザーが指定した動画ファイルに対して、オリジナル画像の品質、ディテールを損なうことなく、出力する解像度に必要最低限のマスクの画像処理を行い、簡単にプライバシーや肖像権を保護することができる。
〔1−2.画像編集装置の構成〕
実施の形態1による画像編集装置10を説明する。本実施の形態では、画像編集装置10は、パーソナルコンピュータ(以下、「PC」と称する)100により実現される。画像編集装置10を実現するPCは、ユーザーが指定した動画ファイルに対して、オリジナル画像の品質、ディテールを損なうことなく、出力する解像度に必要最低限のマスクの画像処理を行い、簡単にプライバシーや肖像権を保護することができる。
[1−2−1.PC(画像編集装置)の構成]
画像編集装置10を実現するPC100の構成について図2を用いて説明する。図2は、PC100の全体構成を示すブロック図である。
PC100は、中央演算処理装置(CPU)101、システム管理メモリ102、ワークメモリ103、ハードディスクドライブ(HDD)104、USBコネクタ107、グラフィックコントローラ108、液晶ディスプレイ109、カードスロット112を備えている。USBコネクタ107には、マウス105およびキーボード106が接続され得る。また、USBコネクタ107には、動画データを格納した又は動画データを出力可能なデバイスが接続されてもよい。USBコネクタ107は、図1における入力インターフェース11に相当する。PC100は、図示されていない要素をさらに含み得るが、それらの要素は本発明の本質とは関係がないため、説明を省略する。本実施形態では、PC100として液晶ディスプレイ109を備えたノートPCを想定しているが、デスクトップPCであってもよいし、タブレットPCでもよい。CPU101が画像編集部12の機能を実現する。
CPU101は、PC100の処理を実行する処理部である。CPU101は、システム管理メモリ102、ワークメモリ103、HDD104、グラフィックコントローラ108、USBコネクタ107に電気的に接続されている。CPU101は、グラフィックコントローラ108を介して、液晶ディスプレイ109に表示される画面(画像)を変更することができる。また、CPU101は、USBコネクタ107を介して、マウス105やキーボード106を用いたユーザーによる操作情報を受け付ける。また、CPU101は、PC100の各部への電力供給等、システムの動作を全体的に制御している。
システム管理メモリ102は、オペレーティングシステム(OS)などを保持する。また、システム管理メモリ102には、システム時刻などが格納されている。システム時刻は、CPU101がOSのプログラムを動作させることにより更新される。
ワークメモリ103は、CPU101が各種処理動作を実行するために必要な情報を一時的に格納する。CPU101は、ユーザーが指定した動画ファイルに対するマスクテーブル150を保存する領域として、ワークメモリ103を作業スペースとして使用する。ワークメモリ103には、ユーザーが指定した動画ファイルの情報、ユーザーが指定した対象条件、出力条件、特殊効果設定、マスクテーブル150が格納される。
HDD104は、大容量記録媒体であり、画像編集ソフト110および動画ファイル111を格納している。
マウス105は、ユーザーが編集操作時に使用するポインティングデバイスである。キーボード106は、ユーザーが編集操作時に文字入力などを行うためのキーボードデバイスである。
ユーザーは、マウス105およびキーボード106を操作することにより、画像編集ソフト110により提示される画面上において、動画ファイル111の選択、対象条件の指定、出力条件の指定、特殊効果設定の指定、およびプレビュー再生の指定をすることができる。
USBコネクタ107は、マウス105とキーボード106とをPC100に接続するためのコネクタである。
グラフィックコントローラ108は、CPU101によって演算された画面情報を映像化するデバイスであり、画面情報を液晶ディスプレイ109に伝える。
液晶ディスプレイ109は、グラフィックコントローラ108が映像化した画面情報を表示する表示デバイスである。なお、液晶ディスプレイ109に限らず、外付けディスプレイに画面情報を表示してもよい。
カードスロット112は、メモリカードを装着可能なインターフェースである。CPU101は、メモリカードに格納されている動画ファイルを読み込むことができる。また、CPU101は、必要に応じて、メモリカードに格納された動画ファイルを、HDD104に書き込むことができる。
CPU101は、HDD104に格納された画像編集ソフト110を、ワークメモリ103に読み出して、実行する。CPU101は、画像編集ソフト110のプログラムに従って、以下の処理を実行する。
(1)マウス105、キーボード106を用いて行われたユーザーの選択操作、指定操作を、USBコネクタ107を介して受け付ける。
(2)ユーザーにより選択された動画ファイル111を読み出す。
(3)ユーザーによる「対象条件」、「出力条件」、「特殊効果設定」の指定を受け付ける。
(4)ユーザーにより指定された「対象条件」に従い、動画ファイルに対するマスクテーブル150を作成する。
(5)液晶ディスプレイ109でプレビュー表示させるために、マスクテーブル150と、ユーザーが指定した「出力条件」および「特殊効果設定」とに従い、動画像の特定領域において、特殊効果を示す画像を元の画像に合成した画像情報(マスク処理を施した動画像)をグラフィックコントローラ108に送出する。
(6)HDD104に合成結果を保存するために、動画ファイルの特定領域に特殊効果を合成した画像情報(マスク処理を施した動画像)を変換処理部120に送出する。
動画ファイル111は一般に所定のフォーマットで圧縮されている。このため、PC100は圧縮された動画ファイルを変換処理部120にてデコードする。変換処理部120には、特定のフォーマットにエンコードする機能も備えている。
本実施の形態においては、変換処理部120は、CPU101の一処理機能として説明するが、変換処理部120はCPU101の外部の機能として実施されてもよい。
[1−2−2.変換処理部の構成]
PC100の変換処理部120の詳細な構成について図3を用いて説明する。変換処理部120は、HDD104に圧縮符号化され格納された動画ファイル111の伸張復号化処理及び圧縮符号化処理を実行する。変換処理部120は、伸張復号化処理を実施するため、多重化分離部201、圧縮符号化処理を実施するため、ビデオデコーダ202、オーディオデコーダ203を備える。さらに、変換処理部120は、ビデオエンコーダ204、オーディオエンコーダ205、および多重化部206を備える。さらに、変換処理部120は、対象条件判定部207を有している。さらに、変換処理部120は、出力条件判定部208、特殊効果部209、合成部210およびリサイズ部211を有している。
多重化分離部201は、AVCHD(登録商標)等のファイル形式で多重化されたAVストリームを入力し、入力したAVストリームをビデオストリームとオーディオストリームとに分離する。分離されたビデオストリームはビデオデコーダ202に、分離したオーディオデータはオーディオデコーダ203に送られる。
ビデオデコーダ202は、多重化分離部201によりAVストリームから分離されたビデオストリームの伸張復号化を行う。オーディオデコーダ203は、多重化分離部201によりAVストリームから分離されたオーディオストリームの伸張復号化を行う。ビデオデコーダ202およびオーディオデコーダ203により伸長復号化された各データは、ワークメモリ103に格納される。ワークメモリ103に格納されたデータは、画像編集の際、必要に応じて取り出される。
ビデオエンコーダ204は、入力したビデオストリームを所定の動画記録フォーマットに従って圧縮符号化を行い、圧縮符号化したビデオストリームは多重化部206に送られる。同様に、オーディオエンコーダ205は、入力したオーディオストリームを所定の音声記録フォーマットに従って圧縮符号化を行い、圧縮符号化したオーディオストリームは多重化部206に送られる。
多重化部206は、ビデオエンコーダ204から出力されたビデオストリームとオーディオエンコーダ205から出力されたオーディオストリームとを多重化して、AVストリームを出力する。多重化部206から出力されたAVストリームは、ワークメモリ103またはHDD104に格納される。
対象条件判定部207は、入力した動画像を解析し、設定された対象条件(人物の全体、人物の顔、車の全体、車のナンバープレート等)に従い、画像認識技術にて対象物の特徴から対象物が存在する画像中の領域の判定を行う。対象条件判定部207は、対象条件に一致した被写体領域を、マスクオブジェクトとしマスクテーブル150に登録する。具体的には、時間的に連続する一連のマスクオブジェクト領域の中心座標、幅、高さがマスクテーブル150に登録される。
出力条件判定部208は、対象条件判定部207が登録したマスクテーブル150と、設定された出力条件とから、入力ビデオストリームに対して特殊効果処理が必要か否かの判定を行う。
特殊効果部209は、出力条件判定部208で特殊効果が必要と判定された映像の領域(マスクオブジェクトの領域)に対して、ユーザーが設定した特殊効果設定に従い特殊効果映像の生成を行う。
合成部210は、入力ビデオストリームと、特殊効果部209で生成した特殊効果映像(マスク処理が施された動画像領域)との合成処理を行ない、これにより、特殊効果が必要と判定された映像の領域に対して特殊効果処理が適用される。合成部210は、特殊効果部209からの出力がないフレームに対しては、合成処理を行なわずに、入力ビデオストリームをリサイズ部211に出力する。
リサイズ部211は、出力解像度条件に従って、合成部210で合成処理を施した動画像(合成処理を行なわなかったフレームの場合は、元の入力ビデオストリームの示す動画像)のリサイズ処理を行い、出力ビデオストリームを生成する。生成された出力ビデオストリームは、ビデオエンコーダ204に入力され、オーディエンコーダ203で符号化され生成されたオーディオストリームと多重化されて、AVストリームとして出力される。
図4は、多重化分離部201によりAVストリームをビデオストリームとオーディオストリームとに分離する様子、および多重化部206によりビデオストリームとオーディオストリームとをAVストリームに多重化する様子をそれぞれ示した図である。
AVストリーム301は所定単位のデータ(Vk、Ak)(k=1,2,・・・,n)に、時間情報等を付加して作成したビデオパックVとオーディオパックAとを、同期再生が可能な1つのストリームに多重化したストリームである。ここでは、ビデオ用のAVCHD(登録商標)に互換性のあるストリームを例に説明する。多重化分離部201は、多重化されたAVストリーム301をビデオエレメンタリーストリーム302とオーディオエレメンタリーストリーム303とに分離するデータ処理を行う。また、多重化部206は、ビデオエレメンタリーストリーム302とオーディオエレメンタリーストリーム303とをAVストリーム301に多重化するデータ処理を行う。
なお、ストリーム構造は、図4に示すストリーム構造に限定されない。すなわち、非圧縮のストリームであっても、CPU101がそのビデオ情報を読み出し可能であれば、本開示に適用可能である。
[1−2−3.選択画面の構成]
図5は、液晶ディスプレイ109に表示される、動画ファイルの選択画面を示す。この選択画面上で、ユーザによりマスク処理を施す動画ファイルが選択される。図5に示すように、選択画面は、選択エリア400、設定ボタン401、実行ボタン402を含む。
選択エリア400に表示される動画ファイルは、HDD104に格納された動画ファイルの全てでもよいし、特定のフォルダに格納された動画ファイルのみを選択的に抽出したものでもよい。あるいは、特定のフォルダに格納された動画ファイルの中から、更にユーザーにより選別された動画ファイルでもよい。
設定ボタン401は、対象条件、出力条件及び特殊効果設定を設定するための設定画面(図6)を表示するためのボタンである。設定画面(図6)の詳細については、後述する。
ユーザーのマウス105の操作により実行ボタン402が押下されると、設定画面(図6)上で事前に設定された条件に従い、選択エリア400で選択された動画ファイルに対して、マスクテーブル150の生成処理が実行される。マスクテーブル150の生成処理の詳細は後述する。
[1−2−4.設定画面の構成]
液晶ディスプレイ109が表示する、対象条件、出力条件及び特殊効果設定を設定するための設定画面の構成について図6を参照しながら説明する。図6に示す設定画面500は、図5における選択画面における設定ボタン401の押下により液晶ディスプレイ109に表示される。図6に示すように、設定画面500は、対象条件501の選択メニュー、出力条件502の選択メニュー、特殊効果設定503の選択メニュー及び閉じるボタン504を含む。
対象条件501は、プライバシーや肖像権を保護するために特殊効果処理を施す対象物を指定するための条件である。例えば、人物の全体、人物の顔、車の全体、車のナンバープレート等の、対象物の存在領域を判定することが可能な対象物を指定する条件である。対象物の存在領域は、公知の画像認識技術により、対象物の特徴から判定することができる。ユーザーにより指定された対象物は、マスクオブジェクトの候補となる。対象条件501の選択メニューにおいて、複数の対象物が選択されてもよい。例えば、図6に示す例では、人物の顔と、ナンバープレートとを、対象物として指定している。なお、本画像編集装置10においては、ユーザーの家族の顔など、マスクの対象から除外したい対象物を予め登録してくことができる。対象物として人物の顔を指定した場合であっても、除外対象として予め登録されている顔はマスクの対象外とすることができる。
出力条件502は、対象条件501を満たす対象物に対して、プライバシーや肖像権を保護するための特殊効果処理を施すか否かの判断を行う際の条件(判断基準)である。出力条件502は、具体的には、出力する動画像の解像度(出力解像度)と、特殊効果処理を施すための領域(出力領域)の条件(しきい値)とを含む。出力領域の条件は、特殊効果処理を施す対象物の幅、高さや面積等の条件(しきい値)を含む。ユーザーは、出力条件の選択メニューにおいて、出力条件を選択することができる。出力条件は、例えばプルダウンメニュー形式により選択可能に表示してもよい。このとき、アップロード先のサーバにアップロードするときの動画像の解像度を自動指定するようにしてもよい。また、ユーザーが任意の数値を入力するようにしてもよい。
特殊効果設定503は、マスクテーブル150と出力条件とから特定される映像の領域に施す特殊効果を設定するための情報である。ユーザーは、特殊効果設定の選択メニューにて、マスク対象に施す特殊効果(マスク処理)の種類を択一的に選択することができる。特殊効果設定503は、肖像権やプライバシーを保護するために、対象物が映っている領域に映像処理を施すための「ぼかし処理」「モザイク処理」「他の画像の合成処理」等の設定を含む。
閉じるボタン504は設定画面500を閉じるためのボタンである。閉じるボタン504が押下されると、設定画面500の設定内容を確定し、図6に示す設定画面500から図5に示す選択画面に移行する。
[1−2−5.プレビュー画面の構成]
続いて、液晶ディスプレイ109が表示するプレビュー画面について図7を参照しながら説明する。図7に示すプレビュー画面は、図5に示す選択画面における実行ボタン402が押下されたときに、液晶ディスプレイ109に表示される特殊効果処理の結果をプレビュー表示する。図7に示すように、液晶ディスプレイ109に表示されるプレビュー画面600は、プレビューエリア601、タイムラインエリア602、タイムラインバー603、マスクオブジェクト604、マスクシーン領域605、プレビューボタン606、対象物の画像607、ファイル出力ボタン610及び終了ボタン611を含む。
プレビューエリア601は、マスクテーブル150と、ユーザーが指定した出力条件502と特殊効果設定503とに従い、動画像の特定領域に特殊効果を合成した映像のプレビュー表示(再生)する領域である。プレビューエリア601により、ユーザーはファイル出力する前に、特殊効果を合成した映像を確認することができる。また、ユーザは必要に応じて特殊効果を修正することが可能である。例えば、予め登録しておいた家族の顔が、認識ミスによりマスク対象とされている場合に、ユーザーは、マスク対象から除外するよう、修正できる。
タイムラインエリア602は、動画像の再生位置を時間軸上で確認するためのエリアである。タイムラインエリア602には、マスクオブジェクトを示す複数の長方形(a、b、c、d、e、・・・)が配列される。マスクオブジェクト604の配列順序は時系列順に並ぶ。これらの長方形は、マスクオブジェクトが対象とする被写体が表示される時間の開始から終了までを表す。すなわち、長方形の始端は、マスクオブジェクトが対象とする被写体が表示される開始時間を示し、長方形の終端は、マスクオブジェクトが対象とする被写体が表示される終了時間を示す。それぞれの長方形には、マスク対象となった対象物の画像607が表示される。また、図示されてはいないが、該当する対象条件501を示すアイコン(例えば、人物の顔を対象物としていることを示すアイコンなど)、該当する出力条件502を示すアイコン、または、該当する特殊効果設定503を示すアイコン(例えば、ぼかし処理を示すアイコンなど)を合わせて表示してもよい。これにより、ユーザーは、動画ファイル上のどの時間にマスクオブジェクトが存在するかを確認することができ、また、どのマスクオブジェクトが出力条件502に該当し、特殊効果設定503の対象となっているかを確認することができる。
タイムラインバー603は動画ファイル上のある時間位置(時刻)を示すためのバーであり、タイムラインバー603で示す時間位置の映像と同期して、プレビューエリア601に映像が表示される。
マスクシーン領域605は、タイムラインエリア602に配置された、タイムラインバー603で示す時刻における、マスクオブジェクト604に含まれる情報単位(当該対象物の中心座標や、幅、高さ、特徴量等)に基づく領域である。図7では、タイムラインバー603の示す時間位置に、2つのマスクオブジェクトb、cが存在しており、それぞれのマスクオブジェクトb、cに対応したマスクシーン領域605が、プレビューエリア601に表示されている。マスクシーン領域605は、出力条件と特殊効果設定に従い、特殊効果が施された表示(マスク処理結果の表示)が行われている。なお、出力条件に基づき特殊効果の適用対象外となった領域は、ハイライト枠やアイコンを表示するようにしてもよい。これにより、マスク処理の対象物として認識しているが、出力条件によりマスク処理の対象外となった対象物を、ユーザーは容易に確認することができる。画像編集装置10において、必要に応じて、出力条件によりマスク処理の対象外となった対象物にマスク処理を施すよう修正できるようにしてもよい。
プレビューボタン606は、マウス105の操作により選択することができる。プレビューボタン606が押下されることにより、出力条件502に該当するマスクオブジェクトが示す対象物に対して、特殊効果設定503で指定された画像特殊効果が施され、入力画像に特殊効果を合成した動画像が再生される。これにより、ユーザは、特殊効果を施した動画像を確認することができる。
ファイル出力ボタン610は、マウス105の操作により選択することができる。ファイル出力ボタン610が押下されることにより、出力条件502に該当するマスクオブジェクトが示す対象物に対して、特殊効果設定503で指定された特殊効果が施され、入力画像に特殊効果を合成した動画ファイルが作成される。
CPU101は、変換処理部120における各処理部(多重化分離部201、ビデオデコーダ202、オーディオデコーダ203、出力条件判定部208、特殊効果部209、合成部210、ビデオエンコーダ204、オーディオエンコーダ205、多重化部206)を上述したように動作させることにより、出力条件502の内容に従い動画ファイルを作成する。
終了ボタン611は、マウス105の操作により選択することができる。ユーザーは、終了ボタン611を押下することにより画像編集ソフト110を終了することができる。
[1−2−6.マスクテーブル]
画像編集装置10は、入力ビデオストリームの開始位置から終了位置に至るまでの全体に対して、対象条件501を満たす対象物の抽出処理を行う。画像編集装置10は、当該対象物が連続して登場する時間範囲において、所定の時間間隔で当該対象物の情報単位(中心座標、幅、高さ、特徴量など)をマスクテーブル150に格納している。以下、マスクテーブル150について説明する。
図8Aは、マスクテーブルの構造例を示す図である。図示されるように、マスクテーブルは、マスクシーンの情報(ID、SUBID、時間、中心座標、幅、高さ、特徴量等)を保持している。
図8Aの例において、マスクシーンAは、対象条件501に基づき抽出された領域で、対象条件判定部207により所定のフレーム間隔(すなわち、所定のサンプリング間隔(dt))で抽出処理が行なわれる。このように、所定のサンプリング間隔で抽出処理を行うことにより、処理負荷の軽減を図っている。図8Aでは、所定のサンプリング間隔(dt)毎に抽出処理を実施しているが、動画像の全フレームに対して抽出処理を行ってもよい。時間dt毎に抽出処理を行い、同一の特徴量を持つ領域が示す情報単位は、同一のマスクオブジェクトとして管理する。ここで、特徴量間の差異が所定の許容範囲内にある場合、両者の特徴量は同一の特徴量であると判断する。同一のマスクオブジェクトに属するマスクシーンに対して、同一のID(図8Aでは、A)を付与し、時間dt毎の抽出処理において、新たにマスクシーンが生成される度に、SUBIDに連番を付与する。
ただし、同じマスクシーンが新たに抽出された場合でも、マスクシーンが示す被写体領域(中心座標、幅、高さ)が、所定の基準(以下「追記判定基準」という)以上変化していない場合は、マスクテーブル150へのマスクシーンの追記を行わない。すなわち、抽出されたマスクシーンが前回のものよりも大きく変化した場合にのみ、マスクシーンのマスクテーブル150への追記を行っている。これにより、マスクテーブル150のサイズの肥大化を防止するとともに、追記処理の低減を図っている。以下、追記判定基準について説明する。
ここで時刻tにおける被写体領域の中心座標(X(t), Y(t))、幅W(t)、高さH(t)のそれぞれの変化量を下記のように定義する。
dX = X(t) − X(t−dt)
dY = Y(t) − Y(t−dt)
dW = W(t) −W(t−dt)
dH = H(t) − H(t−dt)
追記判定基準は一例として以下のように定義する。
(1)サンプリング間隔(dt)経過後の中心座標の変化量dX、dYの何れかが基準値(しきい値)以上の値である。
(2)サンプリング間隔(dt)経過後の幅の変化量dW、高さの変化量dHの何れかが基準値(しきい値)以上の値である。
すなわち、上記(1)(2)のいずれかの条件を満たす場合、追記判定基準を満たすとする。
なお、本開示はこれに限定されず、追記判定基準を以下のように定義してもよい。
(1’)サンプリング間隔(dt)経過後の中心座標の変化量dX、dYのどちらも基準値以上の値である。
(2’)サンプリング間隔(dt)経過後の幅の変化量dW、高さの変化量dHのどちらも基準値以上の値である。
このときは、上記(1’)(2’)の条件の少なくとも一方を満たす場合に、追記判定基準を満たすとすればよい。
具体的なマスクシーンの追記処理について、図8A、図8Bを用いて説明を行う。追記判定基準は、上記(1)(2)のいずれかの条件を満たすこととする。
図8Bの(1)は、時刻t1の時点で、マスクシーン抽出処理により、中心座標(5,5)、幅(10)、高さ(10)の領域に特徴量AAAのマスクシーンA1が初めて出現したと判定された状態を示す。この場合、X(t1−dt)、Y(t1−dt)、W(t1−dt)、H(t1−dt)は、いずれも0である。従って、dX=X(t1)、dY=Y(t1)、dW=W(t1)、dH=H(t1)となる。このとき、上記(1)(2)の追記判定基準に従い、dX、dY、dW、dHのいずれかが追記判定基準を満たすとする。このとき、CPU101(変換処理部120の対象条件判定部207)は、マスクシーンA1をマスクテーブル150に追記する。
図8Bの(2)は、時刻t2の時点で、マスクシーン抽出処理により、中心座標(30,20)、幅(30)、高さ(30)の位置に特徴量AAA’のマスクシーンA2を抽出した状態を示す。この場合、マスクシーンA1の被写体がマスクシーンA2の位置に移動したと考えられる。このとき、上記(1)(2)の条件に従い、下記dX、dY、dW、dHのいずれかが追記判定基準を満たすとする。よって、CPU101は、追記判定基準に従いマスクシーンA2をマスクテーブル150に追記する。
dX = X(t2) − X(t2−dt) = X(t2) − X(t1)
dY = Y(t2) − Y(t2−dt) = Y(t2) − Y(t1)
dW = W(t2) − W(t2−dt) = W(t2) − W(t1)
dH = H(t2) − H(t2−dt) = H(t2) − H(t1)
図8Bの(3)は、時刻t3の時点で、マスクシーン抽出処理により、中心座標(33,18)、幅(30)、高さ(30)の位置に特徴量AAA’’のマスクシーンA3を抽出した状態を示す。この場合、マスクシーンA2の被写体がマスクシーンA3の位置に少しだけ移動したと考えられる。このとき、マスクシーンA2の被写体の移動量が小さいことから、下記dX、dY、dW、dHのいずれも追記判定基準を満たさないとする。よって、CPU101は、追記判定基準に従いマスクシーンA3をマスクテーブル150に追記しない(図8A参照)。
dX = X(t3) − X(t3−dt) = X(t3) − X(t2)
dY = Y(t3) − Y(t3−dt) = Y(t3) − Y(t2)
dW = W(t3) − W(t3−dt) = W(t3) − W(t2)
dH = H(t3) − H(t3−dt) = H(t3) − H(t2)
図8Bの(4)は、時刻t4の時点で、マスクシーン抽出処理により、中心座標(40,40)、幅(10)、高さ(10)の位置に特徴量AAA’’’のマスクシーンA4を抽出した状態を示す。この場合、マスクシーンA3の被写体がマスクシーンA4の位置に移動したと考えられる。このとき、上記(1)(2)の条件に従い、下記dX、dY、dW、dHのいずれかが追記判定基準を満たすとする。この場合、CPU101は、追記判定基準に従いマスクシーンA4はマスクテーブル150に追記する。
dX = X(t4) − X(t4−dt) = X(t4) − X(t3)
dY = Y(t4) − Y(t4−dt) = Y(t4) − Y(t3)
dW = W(t4) − W(t4−dt) = W(t4) − W(t3)
dH = H(t4) − H(t4−dt) = H(t4) − H(t3)
図8Bの(5)は、時刻t5の時点で、マスクシーン抽出処理によりマスクシーンが抽出されなかった状態を示す。このとき、マスクシーンA4の被写体が消滅したと考えられる。この場合は、マスクシーンが消滅したことを表すための情報をマスクテーブル150に追記する。マスクシーンが消滅したことを表すための情報は、例えば、中心座標(0,0)、幅(0)、高さ(0)等で表現することができる。
[1−3.画像編集装置のマスク処理動作]
画像編集装置10のマスク処理動作について説明する。
[1−3−1.マスクテーブルの作成動作の概要]
選択された動画ファイル、指定した対象条件、指定した出力条件、設定した特殊効果情報に基づいて、マスクテーブルを作成する手順について説明する。図9は、本実施の形態にかかるマスクテーブル作成処理を示すフローチャートである。
まず、ユーザーにより、選択画面上で候補となる動画ファイルが選択される(S900)。続いて、ユーザーにより、設定画面500上で特殊効果を施す対象物の対象条件が設定される(S901)。続いて、ユーザーにより、出力ファイルの情報として出力条件が設定される(S902)。続いて、ユーザーにより、対象領域に施す特殊効果が設定される(S903)。ステップS900からステップS903の動作は、順番が入れ替わっても構わない。また、ステップS902、ステップS903は、マスクテーブル150の作成後に実施しても構わない。
動画ファイルの選択、対象条件の設定、出力条件の設定、特殊効果の設定が終了すると、CPU101は、ユーザーにより、選択画面上の実行ボタン402が押下されたか否かを判断する(S904)。実行ボタン402の押下により、CPU101は、選択した動画ファイルと対象条件の内容に従って、マスクテーブル150の作成を実行する(S905)。
[1−3−2.マスクテーブルの作成動作の詳細]
図10のフローチャートを参照して、ステップS905におけるマスクテーブル150の作成動作の詳細を説明する。マスクテーブル150は、ユーザーが選択した動画ファイルに、肖像権やプライバシーを保護する目的で、ユーザーが指定した特定条件に従い特殊効果を施すための候補を管理するテーブルである。
図10のフローチャートにおいて、まず、CPU101は、ステップ900において選択された動画ファイルをデコードする(S1000)。
次に、CPU101は、ステップ901においてユーザーにより設定された対象条件に従い、マスクシーンの抽出処理を行う(S1001)。マスクシーンが示す被写体領域(図7の領域605)は、図8AのマスクシーンAに示す中心座標、幅、高さと特徴量で表現される矩形の領域である。1フレーム内には、複数の被写体が存在する場合があるため、同一フレーム内に、複数のマスクシーンが示す被写体領域が存在する場合もある。ステップS1001のマスクシーンの抽出処理は、動画像の1フレーム単位で実施してもよいし、複数フレーム毎に実施してもよい。
マスクシーンが抽出できた場合(ステップS1002におけるYes)、CPU101は、抽出したマスクシーンのマスクテーブル150への追記処理を行なう(S1003)。
一方、マスクシーンが抽出できなかった場合(ステップS1002におけるNo)、CPU101は、ステップS1004に移行する。
CPU101は、動画ファイルのすべてのフレームについて抽出処理を完了したか否かを判断する(S1004)。CPU101は、すべてのフレームについて抽出処理が完了するまで、ステップS1000からステップS1003の動作ステップを繰り返す。すべてのフレームについて抽出処理が完了すると(S1004におけるYes)、CPU101は、マスクテーブル150の作成処理を完了する。
次に、ステップS1003におけるマスクシーンの追記処理の詳細について図11を参照しながら説明する。なお、以下の説明では、ステップS1001でのマスクシーンの抽出は、時刻tにてなされたものとする。
まず、ステップS1100において、抽出したマスクシーンが新規に登場した対象物のマスクシーンか否かを判断する。すなわち、時刻(t−dt)に処理中のマスクシーンと同一の被写体と判断することが可能な特徴量を有しているマスクオブジェクトが、マスクテーブル150に存在するか否かを判断する。そのようなマスクオブジェクトが存在しない場合、新規に登場した対象物のマスクシーンであると判断し(S1100におけるYES)、新規のIDを付与し、新規のSUBID、時間、中心座標、幅、高さ、特徴量を当該マスクシーンの情報としてマスクテーブル150に追記する(S1101)。このとき、新しいマスクオブジェクトの先頭のマスクシーン情報として追記する。
図12は、本実施の形態にかかるマスクシーンをマスクオブジェクトとして追記する例を示した図である。図12の(a)の例では、時刻t2に特徴量YYYのマスクシーンが抽出されている。特徴量YYYは特徴量XXXとは全く異なるものであるとする。よって、時刻(t2−dt)に相当する時刻t1に、時刻t2に抽出されたマスクシーンと同一の被写体と判断することが可能な特徴量を有しているマスクオブジェクトが存在していない。このため、新規のID(B)が付与され、新しいマスクオブジェクトの先頭のマスクシーン情報として追記されている。
図11に戻り、ステップS1100において、時刻(t−dt)に処理中のマスクシーンと同一の被写体と判断することが可能な特徴量を保有しているマスクオブジェクトが、マスクテーブル150に存在するか否かを判断する。そのようなマスクオブジェクトが存在する場合、新規に登場した対象物のマスクシーンではないと判断する(S1100におけるNO)。すなわち既に登場している対象物のマスクシーンであると判断し、既に登録されたマスクオブジェクトのIDを継承し、新規のSUBID、時間、中心座標、幅、高さ、特徴量を当該マスクシーンの情報としてマスクテーブル150に追記する(S1102)。
図12の(b)の例では、時刻t2に特徴量XXX’のマスクシーンが抽出されている。この例では、時刻t−dtに相当する時刻t1に、時刻t2に抽出されたマスクシーンと同一の被写体と判断することが可能な特徴量を保有しているマスクオブジェクトAが既に存在している。このため、登録済みID(A)を継承し、マスクテーブルに追記されている。
以上のように、画像編集装置10は、ビデオストリームを解析して、マスクシーンを追記した集合体、すなわちマスクオブジェクトを生成し、マスクテーブル150に登録する。
[1−4.特殊効果処理]
図7に示すプレビュー画面600におけるプレビューボタン606及びファイル出力ボタン610の押下時に実行される、特殊効果処理について図13のフローチャートを参照しながら説明する。
まず、CPU101の変換処理部120は、図2の多重化分離部201、ビデオデコーダ202にて動画ファイルのデコードを行う(S1300)。
次に、CPU101の変換処理部120は、出力条件判定部208にて、出力条件502に定義された出力領域に従い、デコードした映像において特殊効果処理を実施する対象があるか否かを判定する。
具体的には、まず、CPU101は、マスクテーブル150を参照して、処理対象のフレームが、マスクオブジェクトが存在する時間単位(時間範囲)内のフレームか否かを判定する(S1301)。例えば、図8Aに示すマスクテーブル150を参照すると、時刻t1〜t5までの期間を、マスクシーンAに関するマスクオブジェクトが存在する時間単位(時間範囲)として認識できる。
処理対象のフレームが、マスクオブジェクトが存在しない時間単位(時間範囲)内のフレームである場合(S1301におけるNo)、CPU101は、動作ステップをS1305に移行する。
一方、処理対象のフレームが、マスクオブジェクトが存在する時間単位(時間範囲)内のフレームである場合(S1301におけるYes)、CPU101は、当該マスクオブジェクトに記述されたすべてのマスクシーンが示す情報単位(中心座標、幅、高さ、特徴量など)を解析し、少なくとも1つの情報単位が出力条件(502)を満たすか否かを判定する(S1302)。いずれの情報単位も出力条件を満たさないと判定した場合、CPU101は、動作ステップをS1305に移行する。一方、少なくとも1つの情報単位が出力条件を満たすと判定した場合、CPU101は、動作ステップをS1303に移行する。
ここで、出力条件(502)の判定について説明する。出力条件(502)を満たすか否かの判定するための判定基準を下記に示す。判定1から判定3の判定基準は単独で使用してもよいし、任意に組み合わせて(例えば判定1と判定3を組み合わせて)判定してもよい。例えば、判定1から判定3の全ての判定基準が満たされたときに、出力条件(502)を満たすと判定してもよい。または、判定1から判定3の任意の組み合わせにおいて、少なくともいずれかの判定基準が満たされたときに出力条件(502)を満たすと判定してもよい。
<判定基準>
判定1:a×V ≧ a2 又は b×V ≧ b2(少なくとも幅と高さの条件の何れかを満たす)
判定2:a×V ≧ a2 かつ b×V ≧ b2(幅と高さの条件のどちらも満たす)
判定3:a×b×V ≧ a2b2(面積を満たす)
ここで、V、a、b、a2、b2は下記のとおりである。
V:入力動画像に対する出力動画像の縮尺比(解像度比)
例えば、入力動画像の幅が1920ピクセル、出力動画像の幅が480ピクセルとした場合、縮尺比V = 480 / 1920 = 0.25 となる。
a: 入力動画像における判定対象のマスクシーン領域の幅
b: 入力動画像における判定対象のマスクシーン領域の高さ
a2: 出力領域として規定される幅(特殊効果適用する領域の幅のしきい値)
b2: 出力領域として規定される高さ(特殊効果を適用する領域の高さのしきい値)
a2b2: 出力領域として規定される面積(特殊効果を適用する領域の面積のしきい値)
上記判定基準は、出力画像における判定対象のマスクシーンの領域の大きさが所定値以上であるか否かを判定するための基準である。
図14を用いて判定1と判定3の組み合わせで出力条件を判断する場合の判定処理1402について説明する。図14は、現在処理中の時刻tを含むマスクオブジェクト(A)がマスクテーブル150に存在する場合の例を説明した図である。マスクシーン1401は、時刻t2(= t1 + dt)、幅30、高さ40のマスクシーンである。図14に示す例では、入力動画像の幅が100ピクセル、出力動画像(出力解像度に基づく出力動画像)の幅が50ピクセルであるため、縮尺比V = 0.5となる。また、出力条件1400に示すように、出力領域の幅、高さはそれぞれ15、20、面積は300である。このため、それぞれの変数は次の値になる。
a = 30 (判定対象のマスクシーン領域の幅)
b = 40 (判定対象のマスクシーン領域の高さ)
a2 = 15 (出力領域として規定される幅)
b2 = 20 (出力領域として規定される高さ)
a2b2 = 300 (出力領域として規定される面積)
上記の条件で判定1と判定3の判定基準を組み合わせて判定処理1402を行う場合、下記のように、判定1と判定3いずれも成立するため、CPU101は、動作ステップをS1303に移行する。
判定1:30×0.5 ≧ 15となり、判定1は成立
判定3:30×40×0.5 ≧ 300となり、判定3は成立
図13に戻り、ステップS1303では、現処理中のマスクシーンが示す被写体領域に対して、特殊効果設定503で指定された「ぼかし処理」、「モザイク処理」、「他の画像の合成処理」等の処理を施し、特殊効果映像(マスク処理映像)を生成する(S1303)。
このように、本実施形態では、マスクテーブル150に登録されたマスクシーンの被写体領域のうち、出力条件を満たすものに対してのみ特殊効果処理を実施する。より具体的には、出力画像(リサイズ後の画像)におけるサイズが出力条件で定まる所定サイズよりも大きいマスクシーンに対してのみ、特殊効果処理を実施する。このようにしても、画像中の小さい領域はそもそも視認者に視認しにくいことから、特殊効果をかけなくともプライバシー等の保護の観点からは問題ではない。また、全ての特殊効果の設定対象に特殊効果をかけるわけではないので、画像中の特殊効果を適用する領域を低減でき、このため、画像品質の劣化を低減できる。
図15は、出力解像度の違いによる特殊効果の適用状態の違いを説明した図である。図15は、入力動画像200から、解像度(サイズ)の違う二種類の動画像210、220に変換される場合の例を示す。入力動画像200のサイズは100ピクセル×80ピクセルである。一方の出力動画像210のサイズは50ピクセル×40ピクセルであり(縮尺比0.5)、他方の出力動画像220のサイズは25ピクセル×20ピクセルである(縮尺比0.25)。入力動画像200は3つのマスクシーン200a、200b、200cを含む。縮尺比が0.5の出力動画像210においては、マスクシーン210a、210b、210cが示す被写体領域のうち、210a、210bは出力条件を満たす。このため、マスクシーン210a、210bには、特殊効果処理が施される。一方、マスクシーン210cは出力条件を満たさないため、特殊効果処理が施されない。また、縮尺比が0.25である出力動画像220においては、マスクシーン220a、220b、220cが示す被写体領域のうち、マスクシーン220aのみが出力条件を満たす。このため、マスクシーン220aには特殊効果処理が施される。一方、マスクシーン220b、220cは出力条件を満たさないため、特殊効果処理が施されない。このように、出力画像において比較的サイズの小さい被写体に対しては、特殊効果の設定対象であっても、特殊効果処理が施されない。
図16は、特殊効果設定として「他の画像の合成」が設定されている場合の、出力画像における特殊効果の適用状態を説明した図である。この例では、特殊効果として、他の画像Mに置換される。入力動画像201においてマスクシーン201a、201b、201cが示す被写体領域は出力条件を満たさないため、出力動画像211において、合成されずにマスクシーン211a、211b、211cとして出力される。一方、マスクシーン201d、201e、201fが示す被写体領域は出力条件を満たすため、特殊効果設定で指定した画像Mを合成してマスクシーン211d、211e、211fとして出力される。
次に、CPU101は、ステップS1300でデコードした動画像と、ステップS1303で生成した特殊効果映像(マスク処理映像)との合成を行う(S1304)。
次に、CPU101は、出力条件502で設定された出力解像度に従い、処理対象のフレームのリサイズ処理を行う(S1305)。すなわち、入力動画像が示すフレームが、特殊効果映像(マスク処理映像)と合成されている場合、当該合成画像に対して、出力設定502の出力解像度に従いリサイズ処理を施す。一方、入力動画像が示すフレームが、特殊効果映像(マスク処理映像)と合成されていない場合、入力動画像を示すフレームをそのまま、出力条件502の出力解像度に従いリサイズ処理を施す。
以上のようにして、CPU101は、出力動画ファイルに対して必要最低限の画像処理を行うため、オリジナル画像の品質、ディテールを損なうことなく肖像権やプライバシーを保護することができる。これにより、ユーザーは、保有している画像をブログやSNS等のネットワーク上の不特定多数の人に対して手軽に公開することができる。
以上のように、本実施形態の画像編集装置10は、動画ストリームを入力する入力インターフェース11(入力部の一例)と、入力した動画ストリームを構成する少なくとも1つ以上のフレームから、特定の被写体を抽出するCPU101(抽出部、画像処理部の一例)とを備える。CPU101は、入力した動画ストリームを構成するフレームに含まれる特定の被写体に対してマスク処理を施す。また、CPU101は、特定の被写体に対して、動画ストリームの出力解像度に少なくとも基づく所定の出力条件に従って、マスク処理を施すか否かを判定する(図13のステップS1302)。CPU101は、その判定結果に基づいて当該被写体に対してマスク処理を施す(図13のステップS1303)。
〔他の実施の形態〕
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
上記の実施形態では、PC100が本開示における画像編集装置として機能する例を説明した。しかし、画像編集装置はこれに限定されず、上記の各処理を規定したプログラムを実行可能なプロセッサを有する任意の電子機器で構成してもよい。上記の各処理を規定するプログラムは、CD−ROMやDVD−ROM、半導体メモリなどのコンピュータが読み取り可能な記録媒体に記録され、または電気通信回線を通じて流通され得る。また、例えばデータセンター等に配置されたサーバーに当該プログラムを実行させれば、所謂クラウドコンピューティングの形態で、遠隔地のユーザーに上述した機能と等価なサービスを提供することもできる。
上記実施形態では、追記判定基準を満たす場合にのみ、マスクシーンをマスクテーブル150へ追記した。その際、追記判定基準における判定の基準値(しきい値)を、入力動画像に対する出力動画像の縮尺比(解像度比)Vに応じて変化させるようにしてもよい。例えば、判定の基準値=所定値×Vとしてもよい。
上記の実施形態では、マスクオブジェクトが存在する時間単位内において、ある時刻において出力条件が満たされた場合は、その時間単位全体を通して、設定対象のオブジェクトに対して特殊効果を適用した。しかし、当所特殊効果を適用していた対象のオブジェクトに対して、時間経過とともに出力条件を満たさなくなったときに特殊効果の適用を停止するようにしてもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、電子機器に関し、特に画像の編集操作が可能な電子機器に関する。本開示はPCへの適用に限定されず、画像の編集操作が可能であれば、携帯電話、ビデオカメラ等の電子機器にも適用可能である。また、同様の機能を実行可能なプログラムを格納したCDやDVD等の記録メディアにも適用可能である。
10 画像編集装置
11 入力インターフェース
12 画像編集部
20 入力装置
30 表示装置
100 PC
101 CPU
102 システム管理メモリ
103 ワークメモリ
104 HDD
105 マウス
106 キーボード
107 USBコネクタ
108 グラフィックコントローラ
109 液晶ディスプレイ
110 画像編集ソフト
111 動画ファイル
112 カードスロット
120 変換処理部
201 多重化分離部
202 ビデオデコーダ
203 オーディオ出コーダ
204 ビデオエンコーダ
205 オーディオエンコーダ
206 多重化部
207 対象条件判定部
208 出力条件判定部
209 特殊効果部
210 合成部
211 リサイズ
301 AVストリーム
302 ビデオエレメンタリーストリーム
303 オーディオエレメンタリーストリーム
400 選択エリア
401 設定ボタン
402 実行ボタン
500 設定画面
501 対象条件
502 出力条件
503 特殊効果設定
504 閉じるボタン
600 プレビュー画面
601 プレビューエリア
602 タイムラインエリア
603 タイムラインバー
604 マスクオブジェクト
605 マスクシーン
606 プレビューボタン
607 対象物の画像
610 ファイル出力ボタン
611 終了ボタン

Claims (8)

  1. 入力動画ストリームを入力する入力部と、
    前記入力動画ストリームを構成する少なくとも1つ以上のフレームから、特定の被写体を抽出する抽出部と、
    前記特定の被写体が所定の出力条件を満たすか否かに応じて前記特定の被写体に対してマスク処理を施し、出力動画ストリームを生成する画像処理部と、を備え、
    下記の判定基準のうちの少なくとも1つが満たされたときに前記所定の出力条件が満たされたとする、
    判定基準1:a×V ≧ a2 又は b×V ≧ b2
    判定基準2:a×V ≧ a2 かつ b×V ≧ b2
    判定基準3:a×b×V ≧ a2b2
    V:前記入力動画ストリームによる入力動画像に対する前記出力動画ストリームによる出力動画像の縮尺比
    a: 前記入力動画像における特定の被写体の領域の幅
    b: 前記入力動画像における特定の被写体の領域の高さ
    a2: 前記出力動画像における特定の被写体の出力領域の幅
    b2: 前記特定の被写体の出力領域の高さ
    a2b2: 前記出力領域の面積
    画像編集装置。
  2. 前記画像処理部は、前記特定の被写体が所定の出力条件を満たさない場合に、前記特定の被写体に対して前記マスク処理を施さないと判定する、
    請求項記載の画像編集装置。
  3. 前記抽出部は、所定のサンプリング間隔毎に、前記特定の被写体を抽出し、前記抽出した被写体に関する情報を前記抽出結果として所定のテーブルに登録し、
    前記画像処理部は、前記所定のテーブルを参照し、前記特定の被写体が所定の出力条件を満たすか否かに応じて前記特定の被写体に対して、前記マスク処理を施す請求項1記載の画像編集装置。
  4. 前記抽出部は、連続したサンプリング間隔において同じ特徴量を有する被写体を抽出した場合、前記同じ特徴量を有する被写体を同一の特定の被写体であると認定し、前記認定した特定の被写体の移動量及び/またはサイズの変化量が所定量以上変化した場合にのみ、新たに抽出された前記特定の被写体の情報を前記所定のテーブルに登録する、請求項記載の画像編集装置。
  5. 前記抽出部は、人物、人物の顔、車体、及びナンバープレートの少なくともいずれか1つを含む被写体を、特定の被写体として抽出する、請求項1ないしのいずれかに記載の画像編集装置。
  6. 前記マスク処理は、前記特定の被写体の画像に対して、ぼかし、モザイクまたは所定の画像を合成する処理である、請求項1ないしのいずれかに記載の画像編集装置。
  7. 前記画像処理部は、
    前記特定の被写体に対して、前記マスク処理を施すと判定したときは、前記入力動画ストリームを構成するフレームのうち、前記マスク処理を施すと判定するに至ったフレーム以前及び以後のフレームに含まれる前記特定の被写体に対してマスク処理を施す、請求項1からのいずれかに記載の画像編集装置。
  8. 入力動画ストリームを受信する入力部と、
    前記入力動画ストリームを構成する少なくとも1つのフレームから、特定の被写体を特定する特定部と、
    前記特定の被写体が所定の出力条件を満たすか否かに応じて前記特定の被写体に対してマスク処理を施し、出力動画ストリームを生成する画像処理部と、を備え、
    下記の判定基準のうちの少なくとも1つが満たされたときに前記所定の出力条件が満たされたとする、
    判定基準1:a×V ≧ a2 又は b×V ≧ b2
    判定基準2:a×V ≧ a2 かつ b×V ≧ b2
    判定基準3:a×b×V ≧ a2b2
    V:前記入力動画ストリームにおける入力動画像に対する前記出力動画ストリームにおける出力動画像の縮尺比
    a: 前記入力動画像における特定の被写体の領域の幅
    b: 前記入力動画像における特定の被写体の領域の高さ
    a2: 前記出力動画像における特定の被写体の出力領域の幅
    b2: 前記特定の被写体の出力領域の高さ
    a2b2: 前記出力領域の面積
    画像編集装置。
JP2013152203A 2012-07-25 2013-07-23 画像編集装置 Active JP6120169B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013152203A JP6120169B2 (ja) 2012-07-25 2013-07-23 画像編集装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012164322 2012-07-25
JP2012164322 2012-07-25
JP2013152203A JP6120169B2 (ja) 2012-07-25 2013-07-23 画像編集装置

Publications (2)

Publication Number Publication Date
JP2014042234A JP2014042234A (ja) 2014-03-06
JP6120169B2 true JP6120169B2 (ja) 2017-04-26

Family

ID=49994930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013152203A Active JP6120169B2 (ja) 2012-07-25 2013-07-23 画像編集装置

Country Status (2)

Country Link
US (1) US9235914B2 (ja)
JP (1) JP6120169B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150095320A1 (en) * 2013-09-27 2015-04-02 Trooclick France Apparatus, systems and methods for scoring the reliability of online information
JP6667195B2 (ja) * 2014-06-20 2020-03-18 株式会社リコー データ生成装置、データ生成方法及びデータ生成プログラム
CN104463017B (zh) * 2014-12-22 2018-02-27 联想(北京)有限公司 一种信息处理方法及电子设备
CN107113375B (zh) * 2015-01-08 2020-09-18 索尼半导体解决方案公司 图像处理装置、成像装置和图像处理方法
JP6124223B2 (ja) 2015-04-16 2017-05-10 パナソニックIpマネジメント株式会社 事件映像ログデータ生成装置、事件映像処理システム、事件映像ログデータ生成方法、及びプログラム
CN105139349A (zh) * 2015-08-03 2015-12-09 京东方科技集团股份有限公司 虚拟现实显示方法及系统
WO2017129804A1 (en) * 2016-01-29 2017-08-03 Kiwisecurity Software Gmbh Methods and apparatus for using video analytics to detect regions for privacy protection within images from moving cameras
JP6665590B2 (ja) * 2016-03-03 2020-03-13 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
EP3526964B1 (en) * 2016-10-14 2024-02-21 Genetec Inc. Masking in video stream
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
CN106657814B (zh) * 2017-01-17 2018-12-04 维沃移动通信有限公司 一种视频录制方法及移动终端
JP2019032395A (ja) * 2017-08-07 2019-02-28 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP7180063B2 (ja) * 2017-09-25 2022-11-30 富士フイルムビジネスイノベーション株式会社 カメラ付き移動体、カメラ付き移動体制御システム、及びプログラム
JP6994886B2 (ja) * 2017-09-26 2022-01-14 株式会社日立国際電気 映像編集システム
JP7030534B2 (ja) * 2018-01-16 2022-03-07 キヤノン株式会社 画像処理装置および画像処理方法
JP6994993B2 (ja) * 2018-03-22 2022-01-14 株式会社日立国際電気 放送用編集装置、放送システム及び画像処理方法
JP7095537B2 (ja) * 2018-10-02 2022-07-05 トヨタ自動車株式会社 画像処理装置、プログラム、情報処理システム、及び制御方法
CN113315924A (zh) * 2020-02-27 2021-08-27 北京字节跳动网络技术有限公司 图像特效处理方法及装置
US11094042B1 (en) 2021-03-12 2021-08-17 Flyreel, Inc. Face detection and blurring methods and systems
US11856261B1 (en) * 2022-09-29 2023-12-26 Motorola Solutions, Inc. System and method for redaction based on group association

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232609A (ja) 1999-02-10 2000-08-22 Matsushita Electric Ind Co Ltd 特殊効果処理方法及び画像処理装置
US6959099B2 (en) * 2001-12-06 2005-10-25 Koninklijke Philips Electronics N.V. Method and apparatus for automatic face blurring
KR100588170B1 (ko) * 2003-11-20 2006-06-08 엘지전자 주식회사 감시용 카메라에서의 프라이버시 마스킹 설정방법
US7493038B2 (en) * 2004-12-15 2009-02-17 Lg Electronics Inc. Method and apparatus for controlling privacy mask display
EP1847956A4 (en) * 2005-02-07 2013-01-09 Nec Corp IMAGE PROCESSING DEVICE
KR101113844B1 (ko) * 2005-03-08 2012-02-29 삼성테크윈 주식회사 감시카메라 및 감시카메라의 프라이버시 보호방법
US8264545B2 (en) 2006-12-11 2012-09-11 Nikon Corporation Electronic camera
JP2008187591A (ja) 2007-01-31 2008-08-14 Fujifilm Corp 撮像装置及び撮像方法
JP2012503817A (ja) * 2008-09-25 2012-02-09 テレ アトラス ベスローテン フエンノートシャップ 画像をぼかす方法及び構成
JP4650579B2 (ja) * 2009-03-30 2011-03-16 日本ビクター株式会社 ビデオデータ記録装置、ビデオデータ再生装置、およびビデオデータ記録方法、ビデオデータ再生方法
JP2010268441A (ja) 2009-04-16 2010-11-25 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び画像再生装置
JP2011059977A (ja) 2009-09-10 2011-03-24 Panasonic Corp 撮像装置
JP5637633B2 (ja) * 2010-07-06 2014-12-10 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像配信装置

Also Published As

Publication number Publication date
US9235914B2 (en) 2016-01-12
US20140029804A1 (en) 2014-01-30
JP2014042234A (ja) 2014-03-06

Similar Documents

Publication Publication Date Title
JP6120169B2 (ja) 画像編集装置
WO2019086037A1 (zh) 视频素材的处理方法、视频合成方法、终端设备及存储介质
CN111246050B (zh) 用于视频数据处理的系统、装置和方法
CN105190511B (zh) 图像处理方法、图像处理装置和图像处理程序
US8711228B2 (en) Collaborative image capture
CN112804459A (zh) 基于虚拟摄像头的图像展示方法、装置、存储介质及电子设备
US20150221345A1 (en) Embedding thumbnail information into video streams
JP6429588B2 (ja) 画像処理装置及び画像処理方法
JP4940345B2 (ja) 電子機器及び画像処理方法
US9099151B2 (en) Multimedia content editing server, multimedia content editing method, program, and integrated circuit
US20150172669A1 (en) System and method for processing compressed images and video for improved data communication
US20120275770A1 (en) Systems and Methods of Editing Media Data
JP2011172110A (ja) 画像編集装置およびその制御方法およびプログラム
JP2023538825A (ja) ピクチャのビデオへの変換の方法、装置、機器および記憶媒体
CN112363791A (zh) 一种录屏方法、装置、存储介质及终端设备
JP5225330B2 (ja) 電子機器及び画像処理方法
US20210382931A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer-readable storage medium
JP4965836B2 (ja) 情報表示装置及びその制御方法
JP6142551B2 (ja) 画像編集装置及び画像編集プログラム
JP2013183305A (ja) 情報処理装置および情報処理方法
JP5479198B2 (ja) 電子機器及び画像処理プログラム
JP2011244343A (ja) 電子機器及び動画像生成方法
US20190079955A1 (en) Image processing apparatus and method of controlling the same
US20240095387A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5707567B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20141014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170316

R151 Written notification of patent or utility model registration

Ref document number: 6120169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151