JP5980222B2 - コンテンツ処理装置、コンテンツ処理方法およびプログラム - Google Patents

コンテンツ処理装置、コンテンツ処理方法およびプログラム Download PDF

Info

Publication number
JP5980222B2
JP5980222B2 JP2013538378A JP2013538378A JP5980222B2 JP 5980222 B2 JP5980222 B2 JP 5980222B2 JP 2013538378 A JP2013538378 A JP 2013538378A JP 2013538378 A JP2013538378 A JP 2013538378A JP 5980222 B2 JP5980222 B2 JP 5980222B2
Authority
JP
Japan
Prior art keywords
processing
content
information
unit
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013538378A
Other languages
English (en)
Other versions
JPWO2013136792A1 (ja
Inventor
幸 裕弘
幸  裕弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2013136792A1 publication Critical patent/JPWO2013136792A1/ja
Application granted granted Critical
Publication of JP5980222B2 publication Critical patent/JP5980222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Description

本発明は、コンテンツ処理装置、コンテンツ処理方法およびプログラムに関する。
近年、民生用のデジタルスチルカメラやビデオカメラ、携帯電話に内蔵されたカメラなどの撮像デバイスの高機能化が進んでいる。そのため、写真や映像の高画質記録に加え、高速連写などの高度な撮影をサポートするもの、撮影場所の位置情報や、写真や映像に写った人物の名前などのメタ情報を自動で付与するもの、さらには撮像デバイスにネットワーク接続機能を有し撮影した写真を本体からネットワーク上のサーバに直接アップロードするものなど、多種多様な機種が安価に手に入るようになった。また、撮像デバイスの高精細化とデジタル処理技術の向上とにより、従来の光学レンズ機構による物理的な制御による撮影画角の拡大縮小ズーム処理に加え、タッチパネルを搭載した撮影表示画面に対するタッチ操作による拡大縮小ズーム処理やピント合わせ処理などデジタル技術によるコンテンツ処理方法がユーザの利便性追及を目的に成熟しつつある。さらに、蓄積したコンテンツの閲覧・編集処理においても、閲覧・編集表示画面に対するダブルタッチ操作やピンチアウト操作(二本の指で画面をタッチし、お互いの指を引き離すように操作すること)により、任意の領域を拡大ズームして閲覧するコンテンツ処理方法が広く普及しつつある。
そして、このような撮影・閲覧・編集に関するコンテンツ処理を、より便利に、より簡易に、より確実に、さらに素人らしさを排除してよりプロフェッショナルな撮影・閲覧・編集に仕上げるためのコンテンツ処理方法が提案されている(例えば、特許文献1〜3参照)。
特開2008−136024号公報 特開2009−77026号公報 特許第4213874号公報
しかしながら、上記のような従来技術では、コンテンツの撮影、閲覧、編集の際に、コンテンツ処理に必要なユーザによる思考と操作の負担が大きいという問題がある。
本発明は、かかる問題に鑑みてなされたものであり、コンテンツの撮影、閲覧、編集の際に、コンテンツ処理に必要なユーザによる思考と操作の負担を軽減するコンテンツ処理装置、コンテンツ処理方法およびプログラムを提供することを目的とする。
上記目的を達成するために、本発明の一態様に係るコンテンツ処理装置は、処理対象のコンテンツである対象コンテンツを取得するコンテンツ取得部と、前記対象コンテンツに含まれる少なくとも2以上のオブジェクトと前記オブジェクトの特徴を示す特徴情報とを抽出し、前記オブジェクトのコンテキストを特定するための解析用情報と抽出した前記特徴情報とに基づいて、前記オブジェクトの特徴を補足する属性情報を含む前記オブジェクトのコンテキストを示すコンテキスト情報を特定するコンテンツ解析部と、前記対象コンテンツに対する処理を制御する処理制御部と、前記コンテキスト情報および前記処理優先度に基づき、前記対象コンテンツに対して実行可能な処理候補を抽出する処理候補抽出部と、を備え、前記処理出力制御部は、前記コンテキスト情報に基づき、前記オブジェクトの処理優先度を算出し、前記処理候補抽出部は、前記コンテキスト情報および前記処理優先度に基づき、前記処理候補を抽出する。
本発明のコンテンツ処理装置等によれば、コンテンツの撮影、閲覧、編集の際に、コンテンツ処理に必要なユーザによる思考と操作の負担を軽減することができる。
図1は、実施の形態1のコンテンツ処理装置100の構成を示すブロック図である。 図2は、実施の形態1のコンテンツデータの一例を示す図である。 図3Aは、実施の形態1の解析用情報の一例であるソーシャル情報の例を示す図である。 図3Bは、実施の形態1の解析用情報の一例であるソーシャル情報の例を示す図である。 図4Aは、実施の形態1のソーシャル情報のノード概念の一例を示す図である。 図4Bは、実施の形態1の関係性参照テーブルの一例を示す図である。 図5は、実施の形態1のコンテンツ解析部が内部で解析用情報として保持する優先度判定閾値テーブルの一例を示す図である。 図6は、実施の形態1の出力制御部のコンテンツ処理判定の流れを示すフローチャートである。 図7は、実施の形態1のコンテンツ解析処理の流れを示すフローチャートである。 図8は、実施の形態1の対象コンテンツの動画像の一例を示す図である。 図9は、実施の形態1の解析データ(人物)の一例を示す図である。 図10は、実施の形態1の出力優先度判定処理の流れを示すフローチャートである。 図11は、実施の形態1の解析データ(人物)および出力優先度判定結果の一例を示す図である。 図12は、実施の形態1のコンテキストグループ定義処理の流れを示すフローチャートである。 図13は、実施の形態1のコンテキストグループ情報の定義テーブルの一例を示す図である。 図14は、実施の形態1のコンテキストグループ情報の定義を対象コンテンツであるの動画像にマッチングさせた例を示す図である。 図15は、実施の形態1の処理候補パターンテーブルの一例を示す図である。 図16は、実施の形態1の処理候補抽出処理の流れを示すフローチャートである。 図17は、実施の形態1のコンテキストグループ情報に対し処理候補を設定した例を示す図である。 図18は、実施の形態1の処理候補実行処理の流れを示すフローチャートである。 図19は、実施の形態1のコンテンツ処理実行後のコンテンツインデックスの一例を示す図である。 図20Aは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図20Bは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図20Cは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図20Dは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図20Eは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図20Fは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図20Gは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。 図21は、実施の形態2のコンテンツ処理装置の構成を示すブロック図である。 図22は、実施の形態2の処理候補実行処理の流れを示すフローチャートである。 図23は、実施の形態2の表示部が表示する画面の一例を示す図である。 図24は、実施の形態2の表示部が表示する別画面の一例を示す図である。 図25は、実施の形態3のコンテンツ処理装置の構成を示すブロック図である。 図26は、実施の形態3の入力コンテンツの最大領域に対するフォーカス領域の配置例を示す図である。 図27は、実施の形態3の入力コンテンツの動画像の一例を示す図である。 図28は、実施の形態3の解析データ(一般物体)の一例を示す図である。 図29は、実施の形態3の注目情報優先度加点テーブルの一例を示す図である。 図30は、実施の形態3の相対距離優先度加点テーブルの一例を示す図である。 図31は、実施の形態3のコンテキストグループ定義処理の流れを示すフローチャートである。 図32は、実施の形態3のコンテキストグループ情報の定義テーブルの一例を示す図である。 図33は、実施の形態3のコンテキストグループ情報の定義を対象となる入力コンテンツの動画像にマッチングさせた例を示す図である。 図34は、実施の形態3の処理候補パターンテーブルの一例を示す図である。 図35は、実施の形態3のフォーカス領域と各コンテキストグループの定義領域との位置関係の例を示す図である。 図36は、実施の形態3のコンテキストグループ情報に対し処理候補を設定した例を示す図である。 図37は、実施の形態3の処理候補実行処理の流れを示すフローチャートである。 図38は、実施の形態3のコンテンツ処理候補表示画面の一例を示す図である。 図39は、実施の形態3のコンテンツ処理候補表示画面の別の一例およびコンテンツ処理実行停止操作受付画面の一例を示す図である。 図40は、実施の形態3のコンテンツ処理候補表示画面の別の一例を示す図である。 図41は、実施の形態3の変形例1におけるアイコン参照テーブルの例を示す図である。 図42は、実施の形態3の変形例1におけるコンテンツ処理候補表示画面の別の例を示す図である。 図43は、実施の形態3の変形例2における入力コンテンツ最大領域に対するフォーカス領域の配置例および解析規定範囲の例を示す図である。 図44は、実施の形態3の変形例2におけるコンテンツ解析処理の内部状態を示す図である。 図45は、実施の形態3の変形例3における処理候補実行処理の流れを示すフローチャートである。 図46は、実施の形態3の変形例3におけるフォーカス領域とフォーカス領域外のコンテキスト情報との相対位置関係の例を示す図である。 図47は、実施の形態3の変形例3におけるフォーカス領域外のコンテキスト情報に対する相対座標算出結果の例を示す図である。 図48は、実施の形態3の変形例3におけるフォーカス領域外のコンテンツ処理候補を含むコンテンツ処理候補表示画面の例を示す図である。 図49は、実施の形態3の変形例4における変形例3におけるフォーカス領域外のコンテンツ処理候補を含むコンテンツ処理候補表示画面の例を示す図である。 図50は、実施の形態3の変形例5における処理候補パターンテーブルの例を示す図である。 図51は、実施の形態3の変形例5における処理候補実行処理の流れを示すフローチャートである。 図52は、実施の形態3の変形例5におけるコンテンツ処理候補表示画面の例を示す図である。 図53は、実施の形態3の変形例5におけるコンテンツ処理候補表示画面のサブメニューを表示する例を示す図である。 図54は、実施の形態3の変形例5における分割表示の出力処理の流れを示すフローチャートである。 図55は、実施の形態3の変形例5における分割合成テンプレートの例を示す図である。 図56は、実施の形態3の変形例5における分割表示の出力結果の画面表示の例を示す図である。 図57は、実施の形態3の変形例6におけるコンテキスト情報に対し出力処理を指示する操作の例を示す図である。 図58は、実施の形態3の変形例6における分割表示の出力結果の画面表示の別の例を示す図である。 図59は、実施の形態4のコンテンツ処理装置の構成を示すブロック図である。 図60は、実施の形態5のコンテンツ処理装置の構成を示すブロック図である。 図61Aは、実施の形態5の入力コンテンツ最大領域に対するコンテキスト情報の位置関係の例を示す図である。 図61Bは、実施の形態5の入力コンテンツ最大領域に対するコンテキスト情報の位置関係の例を示す図である。 図62は、実施の形態6のコンテンツ処理装置の構成を示すブロック図である。
(本発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した特許文献1〜3に開示されるコンテンツ処理方法に関し、以下の問題が生じることを見出した。
特許文献1では、撮影する被写体が撮影表示画面の画角からはみだした場合に、はみだしを検出して操作するユーザに光学レンズ機構による物理的な縮小ズーム処理を推奨するアイコンを表示する方式や、縮小ズーム処理を実現する光学レンズ機構が広角端に達した状態の場合に操作するユーザに地理的な後退を促すアイコンをはみだし方向と位置に応じて表示する方式が提案されている。
しかしながら、特許文献1においては、撮影するユーザが撮影表示画面から目視可能な被写体が撮影表示画面からはみだした状態に対し、縮小ズーム処理を推奨するアイコンを表示するのみであり、撮影するユーザが撮影表示画面から目視不可能な被写体に対する配慮がなされておらず、撮影表示画面に表示された被写体以外の重要な被写体を知り得ないという問題がある。
また、特許文献2では、撮影後の編集操作の軽減と個々のイベントに対する撮影時間を予定通りに実行するため、予めファイルごとの撮影時間とファイルの記録数を記憶媒体に設定しておき、撮影と同時に動画ファイルを記録メディアに記録する方式が提案されている。
特許文献2においては、予め決められた固定的なイベントのシナリオタイトルから手動で主題を選択しながら撮影と同時に動画ファイルを編集する際、固定的なイベントシナリオにより撮影時間を制御する、または撮影終了時に予め決められた固定的な拡大縮小ズームやフェードアウトなどの効果を付与して保存することが可能である。しかしながら、特許文献2においては、動的に変化する少なくとも1以上の被写体の動きに追従してより最適なコンテンツ処理を施しながら複数のファイルを記録するなどの柔軟なコンテンツ処理がなされないという問題がある。
また、特許文献3では、撮影される被写体に対し、被写体に関連する補足情報を撮影位置と方位から検出して表示する方式が提案されている。
特許文献3においては、位置と撮影方向が合致した被写体(一般物体)に対し、補足情報が存在していた場合のみ補足情報を表示することが可能である。しかしながら、特許文献3においては、撮影・閲覧・編集するコンテンツの被写体に対する解析は行っておらず、被写体の属性や内容に基づくコンテンツ処理の操作を撮影・閲覧・編集するユーザに対し提案することができないという問題がある。
このような問題を解決するために、本発明の一態様に係るコンテンツ処理装置は、処理対象のコンテンツである対象コンテンツを取得するコンテンツ取得部と、前記対象コンテンツに含まれる少なくとも2以上のオブジェクトと前記オブジェクトの特徴を示す特徴情報とを抽出し、前記オブジェクトのコンテキストを特定するための解析用情報と抽出した前記特徴情報とに基づいて、前記オブジェクトの特徴を補足する属性情報を含む前記オブジェクトのコンテキストを示すコンテキスト情報を特定するコンテンツ解析部と、前記対象コンテンツに対する処理を制御する処理制御部と、前記コンテキスト情報および前記処理優先度に基づき、前記対象コンテンツに対して実行可能な処理候補を抽出する処理候補抽出部と、を備え、前記処理出力制御部は、前記コンテキスト情報に基づき、前記オブジェクトの処理優先度を算出し、前記処理候補抽出部は、前記コンテキスト情報および前記処理優先度に基づき、前記処理候補を抽出する。
この構成により、対象コンテンツに含まれる被写体などのオブジェクトやオブジェクトの例えば音声など特徴情報に応じて、オブジェクトの関係情報などを含むコンテキスト情報を特定することができる。また、特定したコンテキスト情報に含まれるオブジェクト間の関係性などに基づき、オブジェクトの処理優先度を算出することができるので、処理優先度を考慮して対象コンテンツに対する処理候補を決定したり実行したりすることができる。例えば、動画像などの対象コンテンツに複数のオブジェクトとして複数の人物の顔が含まれる場合、複数の人物のうち、コンテキスト情報として特定した人物2名までの人物の顔および周辺を規定サイズまで拡大処理(デジタルズーム加工)し、個別の動画像ファイルとして出力処理(蓄積媒体への記録)するなどの制御をすることができる。
つまり、各オブジェクトに対するユーザの操作指示を必要とせず、コンテキスト情報に応じたコンテンツ処理の実行を容易に実現できる。
このように、対象コンテンツの少なくとも2以上の被写体のコンテキスト情報を解析し、撮影・閲覧・編集に最適なコンテンツ処理候補の優先度を加味しながらユーザへの提示することで、その実行を制御することができる。それにより、コンテンツの撮影、閲覧、編集の際に、コンテンツ処理に必要なユーザによる思考と操作の負担を最小限にすることができるコンテンツ処理装置を実現することができる。
ここで、例えば、対象コンテンツは静止画・動画・音声のいずれか、または2つ以上が結合されたデータである。オブジェクトは、少なくとも人物、文字、一般物体のいずれか1つを示す被写体オブジェクト、または音声オブジェクトのいずれかである。また、特徴情報は、例えば、少なくとも、被写体オブジェクトの動画像内における相対座標・相対サイズ・相対面積、または音声オブジェクトの時間軸における出現タイミング・出現時間・相対音量のいずれか1つを含むようにしてもよい。
これにより、特徴情報に応じてコンテンツ処理候補の実行内容を調整して実行することができる。例えば、動画像に含まれる複数の人物のうち相対面積が規定値以下となる人物を拡大処理する、動画像に含まれる音声のうち相対音量が規定値以下となる音声の出力音量を自動で上げるなどの制御ができる。このようにして、各オブジェクトに対するユーザの操作指示を必要とせず、特徴情報に応じてコンテンツ処理候補の内容を調整して実行できる。
また、例えば、コンテキスト情報は、オブジェクトの特徴を補足する属性情報を含み、属性情報は、少なくとも人物、文字、一般物体、音声のいずれか1つに関するものを含む。具体的には、人物に関する属性情報では、被写体の名前、類似度、ソーシャル情報、衣類情報のいずれか1つを含み、文字に関する前記属性情報は、文字列、文字列汎用度、文字列危険度のいずれか1つを含む。また、一般物体に関する前記属性情報は、物体名、確度、関連情報、物体位置情報のいずれか1つを含み、音声に関する前記属性情報は、声紋、発声者名、類似度、ソーシャル情報、声色種別のいずれか1つを含む。
これにより、属性情報に応じてコンテキスト情報を補足して処理候補の実行内容を調整して実行することができる。例えば、動画像に含まれる複数の人物のうち、顔辞書に登録されている重要人物を主題とし、さらに主題の親友に位置づけられる人物を各々拡大処理(デジタルズーム加工)およびオブジェクト要素を補足する情報を付加して個別の動画像ファイルとして出力処理(顔の類似度や声紋から特定される被写体人物名を重畳合成して表示、蓄積媒体への記録)などの制御ができる。
このように、各オブジェクトに対するユーザの操作指示を必要とせず、属性情報に応じてコンテンツ処理候補の内容を調整して実行できる。
また、例えば、前記処理制御部は、抽出した前記オブジェクトそれぞれのコンテキスト情報に基づき、前記オブジェクトをグループ化するための基準を示す情報であるコンテキストグループ情報を定義し、前記処理候補抽出部により抽出された処理候補の実行有無を判定し、前記処理候補抽出部は、前記コンテキストグループ情報によりグループ化されたオブジェクトのグループのそれぞれに対して実行可能な前記処理候補を抽出するとしてもよい。
この構成により、コンテンツに含まれる複数のオブジェクトで構成されるコンテキストグループに応じて実行すべき処理候補を判定することができる。例えば、複数の人物や一般物体で構成される動画像の構図に対して拡大処理(デジタルズーム加工)や出力処理(蓄積媒体への記録)などの制御ができる。
このようにして、複数のオブジェクトをひとつのコンテキストグループとして扱うことができるので、個々のオブジェクトに対する処理操作を必要とせず、コンテキストグループに対するコンテンツ処理を一括して実行できる。これにより、段階的な拡大処理または縮小処理など素人らしい撮影ミスを軽減できる。
また、例えば、さらに、前記処理候補の処理状況に関する通知を出力する出力部を備え、前記処理制御部は、前記処理候補抽出部により抽出された処理候補の実行前または実行後に、前記出力部に、前記処理候補の実行有無を示す情報を前記通知として出力させるとしてもよい。
この構成により、抽出された処理候補の実行前または実行後にコンテンツ処理装置外部に処理候補の実行有無を示す処理候補実行有無情報を出力することができる。例えば、デジタルカメラが本体側面に内部で実行中のコンテンツ処理を伝える発光部や音声スピーカーを有する場合、対象となるオブジェクトに対する拡大処理(デジタルズーム加工)や出力処理(蓄積媒体への記録)、撮影の終了などの動作を該当箇所の発光やブザー音や音声ガイドによりユーザに通知することができる。
このようにして、コンテンツ処理装置を操作するユーザの操作指示を必要とせず、内部で実行中のコンテンツ処理をユーザに通知できる。
また、例えば、さらに、前記対象コンテンツに対する処理に関する情報を表示する表示部を備え、前記処理制御部は、前記処理候補抽出部により抽出された処理候補の実行前または実行後に、前記表示部に、前記処理候補の実行有無を示す実行有無情報を表示させるとしてもよい。
この構成により、抽出された処理候補の実行前または実行後にコンテンツ処理装置の表示部に処理候補の実行有無を示す処理候補実行有無情報を表示することができる。例えば、デジタルカメラが本体メイン画面またはサブ画面において内部で実行中のコンテンツ処理を文字列やアイコンなどによりユーザに可視化することができる。
このようにして、コンテンツ処理装置を操作するユーザの操作指示を必要とせず、内部で実行中のコンテンツ処理を文字列やアイコンにより、より確実に通知できる。
また、例えば、前記処理制御部は、前記コンテンツ解析部により抽出された前記特徴情報に含まれる相対座標および相対サイズの少なくとも一方に基づき、前記表示部に、当該表示部が表示する前記オブジェクトの近傍にかつ視認可能な様態で前記実行有無情報を表示させるとしてもよい。
この構成により、抽出された処理候補をオブジェクトの近傍に表示することができる。例えば被写体(オブジェクト)に対する拡大処理(デジタルズーム加工)などの処理候補を被写体に紐付けて直感的に把握することができる。このようにして、対象コンテンツに含まれる被写体に対する処理候補の操作指示誤りを軽減でき、より確実にコンテンツ処理を実行できる。
また、例えば、さらに、前記対象コンテンツに対する処理に関する情報を表示する表示部と、ユーザからの操作を受け付ける操作入力部とを備え、前記処理制御部は、前記処理候補抽出部により抽出された処理候補の実行前または実行後に、前記表示部に当該処理候補を少なくとも1以上表示させ、前記処理制御部は、前記操作入力部が、前記表示部に表示させた当該処理候補のうち少なくとも1以上の処理候補を実行する旨を示す操作を受け付けた場合、当該少なくとも1以上の処理候補に対応づけられる処理を実行するとしてもよい。
この構成により、処理候補を表示部に表示し、操作入力部から受け付けたユーザによる操作(指示)に基づき、処理候補を実行するよう制御することができる。例えばタッチパネル式画面を搭載するデジタルカメラやマウス等の入力デバイスによる操作が可能な電子機器において、処理候補を目視しながらユーザが所望するコンテンツ処理の操作(指示)を受け付けることができる。したがって、コンテンツ処理装置の出力制御部による自動判定に従う当該操作ユーザの意図しないコンテンツ処理の実行を未然に防止しながら、ユーザが意図するコンテンツ処理、またはユーザが想像し得なかったコンテンツ処理の提案と実行が実現できる。
また、例えば、前記処理制御部は、前記コンテンツ解析部により抽出された前記特徴情報に含まれる相対座標および相対サイズの少なくとも一方に基づき、前記表示部に、前記処理候補抽出部により抽出された処理候補の処理対象領域を可視するガイドラインを表示させるとしてもよい。
この構成により、抽出された処理候補実行時の出力イメージに沿ったガイドラインを表示することができる。例えば、被写体に対する拡大処理(デジタルズーム加工)などの処理実行後の拡大処理結果をガイドラインによりユーザが直感的に把握できるので、複数の処理候補の中からユーザが所望する処理候補の選定を容易にすることができる。
このようにして、ユーザが意図しない処理候補の操作指示誤りを軽減でき、コンテンツ処理後のイメージを把握した上でより確実にコンテンツ処理を実行できる。
また、例えば、前記処理制御部は、前記コンテンツ解析部により抽出された前記特徴情報と前記処理候補抽出部により抽出された処理候補とに基づき、少なくとも、(a)当該処理候補の概要を示す情報、または、(b)前記操作入力部が受け付けることが可能な操作に対応づけられるアイコンもしくはメニューのいずれか一方を、前記表示部に表示させるとしてもよい。
この構成により、抽出された処理候補の概要を示すアイコンや操作入力部からの操作指示の指定を容易にするアイコンまたはメニューを表示することができる。例えば、被写体に対する拡大処理(デジタルズーム加工)などの処理をアイコンによりユーザが直感的に把握できるので、複数の処理候補が同一画面上に混在する状況においても、ユーザが所望する処理候補の選定をアイコンまたはメニューにより容易にすることができる。
このようにして、ユーザが意図しない処理候補の操作指示誤りを軽減でき、コンテンツ処理の概要を操作ユーザが把握した上でより確実にコンテンツ処理を実行できる。
また、例えば、前記処理制御部は、前記コンテンツ取得部により取得された対象コンテンツの前記表示部で表示可能な最大領域と、前記表示部で表示中の表示領域であるフォーカス領域とを管理し、前記処理制御部は、前記コンテンツ解析部に対し、前記対象コンテンツに含まれる1以上のオブジェクトのうち、前記最大領域およびフォーカス領域の少なくとも一方における規定範囲内のオブジェクトに対してのみ解析を要求するとしてもよい。
この構成により、対象コンテンツに対し、フォーカス領域に基づく解析処理となるよう制御することができる。例えば、最大領域の解像度が横4096ピクセルと縦2160ピクセルでフォーカス領域に対する解析規定範囲の解像度が横1024ピクセルと768ピクセルの場合、フォーカス領域に対する解析規定範囲に含まれるオブジェクト要素の解析のみで処理候補を抽出できるので、最大領域におけるコンテンツ解析処理に対してコンテンツ解析処理負荷が軽減できる。それにより、処理負荷軽減によりコンテンツ処理装置の応答レスポンス等の改善や消費電力の低減が期待できる。
また、例えば、前記処理制御部は、前記表示部で前記フォーカス領域を表示する際に前記フォーカス領域の所定の部分に処理候補表示領域を設定し、前記表示部に、前記処理候補抽出部により抽出された少なくとも1以上の処理候補を前記処理候補表示領域内に表示させるとしてもよい。
この構成により、フォーカス領域とは別に、処理候補表示領域に処理候補を表示するよう制御することができる。例えば、フォーカス領域においては対象コンテンツの内容を表示しながら、処理候補表示領域に処理候補を表示できるので、フォーカス領域に含まれるオブジェクト要素に対する処理候補の重畳表示による対象コンテンツの可視性低減を回避できる。このようにして、処理候補表示領域に表示される処理候補の選択のみで所望の処理を実行できる。
また、例えば、前記処理制御部は、前記コンテンツ解析部に対し、前記フォーカス領域に含まれるオブジェクトに加え、前記フォーカス領域に含まれないオブジェクトの解析を要求するとしてもよい。
この構成により、対象コンテンツに対し、フォーカス領域以外のオブジェクト要素に対しても解析し、フォーカス領域以外のオブジェクト要素に対する処理候補も抽出することができる。例えば、フォーカス領域として表示されている人物以外に、他に撮影・閲覧・編集すべきオブジェクト要素が発見され、フォーカス領域において表示されていない人物や一般物体に対する処理候補が表示される。そのため、当該ユーザが処理候補の実行を選択操作のみで指示することによりコンテンツの縮小処理(デジタルズームアウト)を即時に実行できるので、ユーザがフォーカス領域に対して意図するコンテンツ処理以外に、フォーカス領域以外に含まれるオブジェクト要素に対するユーザが想像し得なかったコンテンツ処理の提案と実行が実現できる。
また、例えば、前記処理制御部は、前記表示部に、前記フォーカス領域に含まれない第1オブジェクトに対する処理候補を表示させる際、前記フォーカス領域に含まれない第2オブジェクトの各特徴情報に基づく相対位置関係から、前記フォーカス領域の中心からみた前記第2オブジェクトの出現方向および出現順序を算出し、前記表示部に、算出した出現方向および出現順序に応じて、前記処理候補抽出部により抽出された少なくとも1以上の処理候補を前記処理候補表示領域内に表示させるとしてもよい。
この構成により、フォーカス領域の中心に対し、フォーカス領域以外のオブジェクト要素に対する処理候補が出現方向および出現順序に応じて表示することできる。例えば、フォーカス領域として表示されている人物以外に、他に撮影・閲覧・編集すべきオブジェクト要素が上下左右のいずれかの方向に存在しているかが可視化される。したがって、フォーカス領域において表示されていない人物や一般物体に対する処理候補の選定が出現順序などにより直感的になるので、当該ユーザが処理候補の実行を実際の空間上における位置関係に則して選択指示できる。
このようにして、フォーカス領域以外に含まれるオブジェクト要素に対する処理候補の指示誤りが軽減され、より確実に処理候補を実行できる。
また、例えば、前記処理制御部は、表示部に前記処理候補抽出部により抽出された少なくとも1以上の処理候補を表示させ、前記処理制御部は、算出した前記処理優先度に応じて、前記表示部に表示させる前記処理候補の内容を変化させるとしてもよい。
この構成により、処理優先度により処理候補の表示内容を装飾等により強調制御することができる。例えば、主題や重要な副題をユーザが容易に発見でき、フォーカス領域に表示されている人物以外にも他に撮影・閲覧・編集すべき被写体の存在有無をユーザに強調しながら通知できる。
それにより、当該ユーザがオブジェクト要素を見逃すといった機会損失を軽減できる。
また、例えば、前記処理制御部は、前記コンテキスト情報に含まれる属性情報および状態情報と、算出した前記処理優先度とに応じて、前記表示部に表示させる前記処理候補の選定内容または処理内容を変化させるとしてもよい。
この構成により、ユーザが指示した少なくとも2以上のオブジェクト(コンテキスト情報)に対し、実空間における配置・出現順序・位置関係・人物同士の関係性などを含む解析データ・出力優先度に基づき処理候補の選定・内容調整・表示を制御することができる。例えば、複数の被写体に対して共通的な処理候補を直感的かつ容易に選択でき、実空間上における配置に従った処理候補の提示ができる。
このようにして、ユーザによる誤操作を防止し操作数が軽減できる。
また、例えば、前記処理制御部は、前記コンテキスト情報に含まれる属性情報および状態情報と、算出された前記処理優先度とに応じて、少なくとも1以上のコンテキスト情報を収容する出力テンプレートを生成し、前記出力テンプレートを動的に変化させながら、少なくとも1以上のコンテキストグループ情報に紐付く前記対象コンテンツを合成して出力するとしてもよい。
この構成により、選定された少なくとも1以上のコンテキスト情報を収容する出力テンプレートをコンテキスト情報の実空間における配置・出現順序・位置関係・人物同士の関係性などを含む解析データ・出力優先度に基づき生成し、合成表示や合成ファイルの出力を行うことができる。例えば、動的に変化するテンプレートに従った分割表示などの動画像を生成できる。
このようにして、パーソナルコンピュータなどの専用ツールを用いて複数の動画像からひとつの動画像を編集する手間を排除し、撮影や閲覧といった操作と同時に少なくとも1以上のコンテキスト情報を配置した合成作品を生成する新たな手段を実現できる。
また、例えば、前記処理制御部は、前記操作入力部が受け付けた操作により、少なくとも1以上のコンテキスト情報の指定と処理候補の特定を行い、前記操作に基づき少なくとも1以上のコンテキスト情報を収容する出力テンプレートを動的に変化させるとしてもよい。
この構成により、ユーザからのタッチ操作入力などにより、少なくとも1以上のコンテキスト情報の指定と処理候補を特定し、コンテキスト情報に加えてタッチ操作で指定された領域の分割線の軌跡や各コンテキストグループ情報に割り当てられた面積比率などから出力テンプレートを動的に生成し、その動画像に対する処理候補と合成内容および出力結果を変化させることができる。そのため、例えば、面積比でズーム率を制御する、単位時間の被写体オブジェクト要素の行動範囲に基づき合成するコンテキストグループ情報の画角を判定するなどの制御ができる。このようにして、タッチ操作による直感的なコンテキスト情報の指定および処理候補の実行が実現でき、ユーザによる操作負担を軽減できる。
また、例えば、さらに、前記コンテンツ処理装置の外部の機器との通信を行う通信部を備え、前記処理制御部は、少なくとも、前記コンテンツ解析部が前記オブジェクトと前記特徴情報との抽出に必要な情報、前記処理候補抽出部が前記処理候補の抽出に必要な情報、および、少なくとも1以上のコンテキスト情報を収容する出力テンプレートの生成に必要な情報のうち少なくとも1以上の情報を、前記通信部を介して外部の情報提供装置から取得するとしてもよい。
この構成により、ネットワークで接続される情報提供装置から最新の解析用情報や処理パターン、出力テンプレートなどの情報をネットワーク経由で取得し、コンテンツ処理装置が保持する情報を追加・更新させることができる。そのため、例えば、解析用情報の陳腐化によるコンテキスト情報の抽出失敗を軽減でき、出力に関わるコンテンツ加工方法の処理パターンや出力テンプレートの追加・品質向上・メンテナンスを図ることができる。
また、例えば、さらに、前記処理制御部の処理結果に基づき、前記コンテンツ取得部の制御を行うコンテンツ入力制御部を備え、前記処理制御部は、前記コンテンツ入力部により取得された対象コンテンツが表示部で表示可能な最大領域と、定義した前記コンテキストグループ情報から参照されるコンテキスト情報に対応する前記状態情報との関係を監視し、前記最大領域と前記コンテキスト情報との重畳に応じてまたはコンテキスト情報の状態に応じて、前記コンテンツ取得部の物理的な制御またはデジタル処理的な制御を、前記コンテンツ入力制御部を介して行うとしてもよい。
この構成により、入力された動画像の被写体コンテキスト情報の状態に応じて、カメラなどの入力装置の方向や焦点距離などをコンテキスト情報が欠損しないよう自動で調整して制御することができる。そのため、例えば、デジタルカメラの本体画面で撮影中の全体像の一部をデジタルズーム加工により拡大して表示しながら撮影する場合、手で持ちながら撮影するユーザが表示画面の動画像に囚われてデジタルカメラ本体の方向が変化してしまうことがあってもデジタルカメラ本体に内蔵された雲台などにより自動調整することができる。
このようにして、撮影するユーザの錯覚や操作ミスによるコンテキスト情報の欠損を軽減できる。
ここで、例えば、コンテンツ処理装置は、前記コンテンツ処理装置への処理要求に対する認証を行う認証管理部を有し、前記出力制御部は、前記通信部を介して外部から処理要求を受け付け、前記認証管理部により外部からの処理要求が実行可能と判断された場合、当該処理を外部に提供するようにしてもよい。
この構成により、ネットワークを経由して他の端末と入力された動画像や抽出されたコンテキスト情報などを認証されたコンテンツ処理装置間で共有しながら作品化などのコンテンツ加工および配信が可能になる。そのため、例えば、ネットワークに接続されるモバイル端末で撮影した動画像を配信しながら、複数人のモバイル端末で共有しながら個々のモバイル端末で任意のコンテキスト情報を切り出した作品が作成できる、或いは、個々のモバイル端末の顔辞書などを一時的にマージして一貫性のあるコンテキスト情報を抽出しながら個々のモバイル端末にひとつの作品を配信できる、といった新たな撮影・閲覧・編集手段を提供できる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、各実施の形態について、図面を参照しながら説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
図1は、実施の形態1のコンテンツ処理装置100の構成を示すブロック図である。
図1に示すコンテンツ処理装置100は、コンテンツ入力部101と、蓄積部102と、コンテンツデータ103と、出力制御部104と、コンテンツ解析部105と、解析用情報106と、解析データ107と、処理候補抽出部108と、処理パターン109と、コンテンツ加工部110と、出力部111と、を有する。
本実施の形態のコンテンツ処理装置100は、例えば、24時間撮影可能な監視カメラもしくは車載カメラであり、メガネもしくはネックレスなどの携行品に埋め込み可能な小型カメラであり、静止画もしくは動画を撮影可能な業務用もしくは民生用のデジタルスチルカメラもしくはデジタルビデオカメラなどである。以下では、コンテンツ処理装置100が利用されるイメージを具体化して説明する。本実施の形態では、学校の教室内に設置された固定カメラ(コンテンツ処理装置100)により、生徒の安全監視と生徒の成長記録に繋がる日常風景の自動記録を実現する場合の例について説明する。以下、各構成要素の処理の概要を述べる。
蓄積部102は、ハードディスクやフラッシュメモリなどで構成される記憶媒体を有する。蓄積部102は、コンテンツ入力部101を介して取得したコンテンツをコンテンツデータ103として再読み込みが可能な形式で蓄積する。また、蓄積部102は、コンテンツ入力部101に蓄積されたコンテンツデータ103を対象コンテンツとして提供する役割を担う。
コンテンツ入力部101は、例えばコンテンツ取得部の一例であって、処理対象となるコンテンツ(対象コンテンツ)の入力を受け付ける。具体的には、コンテンツ入力部101は、コンテンツ処理装置100が実装する入力手段(例えば、カメラが内蔵する高精細カメラモジュール)により処理対象とする静止画や動画といった対象コンテンツを取得する。
また、コンテンツ入力部101は、取得した対象コンテンツを出力制御部104に入力する。ここで、コンテンツ入力部101は、コンテンツ処理装置100が実装する入力手段から取得した対象コンテンツを出力制御部104または蓄積部102に入力する場合と、蓄積部102に蓄積されたコンテンツデータ103を出力制御部104に対象コンテンツとして入力する場合の二つのパターンが存在する。本実施の形態においては、コンテンツ処理装置100が実装する蓄積部102から対象コンテンツを取得し、出力制御部104に対象コンテンツとして入力するケースについて説明する。
コンテンツ解析部105は、対象コンテンツに含まれる少なくとも2以上のオブジェクト(オブジェクト要素)と、オブジェクト(オブジェクト要素)の特徴を示す特徴情報とを抽出する。また、コンテンツ解析部105は、オブジェクトのコンテキストを特定するための解析用情報と抽出した特徴情報とに基づいて、オブジェクト(オブジェクト要素)の特徴を補足する属性情報を含むオブジェクトのコンテキストを示すコンテキスト情報を特定する。
具体的には、コンテンツ解析部105は、出力制御部104からの要求に基づき、例えば対象コンテンツの動画像に含まれる少なくとも2以上の被写体オブジェクトを特定し、解析用情報106を用いて被写体オブジェクトの意味情報(コンテクスト情報)を抽出する。ここで、解析用情報106は、コンテンツ処理装置100の内部で保持または更新される情報であり、オブジェクト要素の特徴を示す特徴情報およびオブジェクト要素のコンテキスト(文脈、状況、環境、意味等)を特定するため情報である。また、意味情報(コンテキスト情報)とは、被写体オブジェクトのコンテキスト(意味)を示す情報であり、例えば、被写体オブジェクトの種類や名称を特定する情報、被写体オブジェクトの特徴に関する情報、対象コンテンツに含まれる他の被写体オブジェクトとの関係性を示す情報、対象コンテンツにおける絶対的位置関係を示す情報、他の被写体オブジェクトとの相対的位置関係を示す情報などが挙げられる。また、解析用情報106とは、前述したコンテキスト情報を抽出するために用いられる情報である。解析用情報106の詳細については後述する。コンテンツ解析部105は、抽出したコンテキスト情報を解析データ107として内部に保持し、出力制御部104からの要求に応じて解析データ107を提供する。
処理候補抽出部108は、対象コンテンツに対して実行可能な処理候補を抽出する。
具体的には、処理候補抽出部108は、出力制御部104からの要求に応じ、引き渡されたコンテキスト情報(またはコンテキストグループ情報に対して実行可能な処理候補を処理パターン109に基づき抽出する。ここで、コンテキストグループ情報とは、複数のオブジェクト要素それぞれのコンテキスト情報を用いて複数のオブジェクト要素をグループ化するための基準を示す情報である。
例えば、処理候補抽出部108は、コンテキストグループ情報によりグループ化されたオブジェクト要素のグループであるコンテキストグループのそれぞれ(各グループ)に対し、処理候補パターンの実行条件に合致する処理候補が存在するかを確認し、コンテキストグループに合致する処理候補を設定することで、実行可能な処理候補を抽出する。
なお、処理候補の具体例については後述するため、ここでの説明は省略する。
コンテンツ加工部110は、出力制御部104からの要求に基づき、出力制御部104から受け付けた対象コンテンツに対する加工処理を実行し、蓄積部102に出力した加工後のコンテンツを格納する。さらに、コンテンツ加工部110は、対象コンテンツに対する加工処理状況または加工処理結果を出力制御部104に必要に応じて通知する。
具体的には、コンテンツ加工部110は、出力制御部104が指示した処理候補を受け付け、受け付けた処理候補の実行可否を確認する。そして、コンテンツ加工部110は、処理候補が実行可能な場合、対象コンテンツに対する処理候補を実行し、処理候補が実行不可の場合、実行しない。ここで、処理候補は、対象コンテンツに対する加工処理の候補である。
出力制御部104 は、例えば処理制御部の一例であり、コンテンツ入力部101を介して取得した対象コンテンツに対する処理を制御する。その際、出力制御部104は、入力された対象コンテンツを任意のタイミングで読み込み、規定の処理を行うため対象コンテンツを一時保存するなどの役割を持つ。
例えば、出力制御部104は、コンテンツ入力部101を介して蓄積部102からコンテンツデータ103を対象コンテンツとして受け付ける。出力制御部104は、受け付けた対象コンテンツに対しての解析をコンテンツ解析部105に要求し、コンテンツ解析部105から解析結果を取得する。
また、出力制御部104は、取得した解析結果に基づいて、対象コンテンツにオブジェクト要素が存在しているか否かを判定し、存在しているオブジェクト要素に対する出力優先度を算出する。出力制御部104は、コンテンツ解析部105が抽出したコンテキスト情報に基づき、オブジェクト要素の出力優先度(処理優先度)を算出する。
また、出力制御部104は、コンテンツ解析部105が管理する解析データ107を読み込み(取得し)、解析データ107に含まれる特徴情報およびコンテキスト情報と、算出した出力優先度とに基づき少なくとも1つのコンテキストグループ情報を定義し、処理候補抽出部108に引き渡す。ここで、コンテキストグループ情報とは、上述したようにコンテキスト情報を用いて複数のオブジェクト要素をグループ化するための基準を示す情報である。
また、出力制御部104は、処理候補抽出部108により抽出された処理候補テーブルを処理候補抽出部108から受け付け、処理候補テーブルの内容を解析し、優先的に処理すべき処理候補を判定し、実行すると判定した処理候補の実行をコンテンツ加工部110に要求する。
また、出力制御部104は、コンテンツ加工部110からの加工処理状況または加工処理結果に応じて、出力部111に、加工処理状況または加工処理結果に関するユーザ通知を要求する。
出力部111は、実行された処理候補の処理状況または処理結果に関するユーザ通知を出力する。出力部111は、例えばスピーカーなどの音声出力デバイスやLEDなどの発光デバイスである。ユーザ通知としては、例えば、音声出力デバイスによるブザー音、発光デバイスの点灯、消灯、点滅などが挙げられる。
次に、以上の構成を有するコンテンツ処理装置100の動作について、図2〜図5を用いて説明する。
図2は、実施の形態1のコンテンツデータ103の一例を示す図である。
図2に示す蓄積部102は、例えば、コンテンツデータ103を内部に蓄積する。蓄積部102は、コンテンツデータ103のうち、コンテンツの概要を示すいくつかのメタ情報をコンテンツインデックスとして生成する。このコンテンツインデックスには、例えば、各データに固有に付与される番号や各データへのアクセスを可能とするデータ名(他にオブジェクト識別子やデータパスなどとも呼ばれる)、ファイルのフォーマット種別を表す拡張子(ここでは、動画を示すmp4)、コンテンツデータ103のタイプを表す種別(ここでは、説明簡単化のため動画を意味する「Movie」のみを扱う)、コンテンツデータ103の生成結果を示す「状態」、コンテンツデータ103が生成されたタイミングを示す撮影日時、動画における総(再生)時間などが含まれる。
図3Aおよび図3Bは、実施の形態1の解析用情報106の一例であるソーシャル情報の例を示す図である。
図3Aには、ソーシャル情報のうち各ユーザの情報を示すユーザ情報テーブルが示されている。ここでは、例えば各識別IDに対し、各ユーザの名前やニックネームを表す名称、各ユーザに対し電子メールなどで情報を伝達するための手段を表すアドレスなどが記載される。
また、図3Bには、各ソーシャル情報オーナーに対する他のユーザとの関係性および親密さを表す親密度を示すソーシャル情報テーブルが示されている。図3Bに示すソーシャル情報テーブルは、図3Aと同様、コンテンツ解析部105に解析用情報106として格納されている。ここで、関係性とは、注目する対象ユーザ(ソーシャル情報オーナー)と他のユーザとが現実世界において知り合いであるか否かを表す。親密度とは、ソーシャル情報オーナーからみた親密さを規定の数値を用いて表現したものである。
例えば、図3Bにおいては、縦軸がソーシャル情報オーナーのリスト、横軸が各ソーシャル情報オーナーに対する評価対象ユーザのリストを示し、各ユーザに対する親密度を0から1未満の数値として管理されている。なお、現実世界でユーザ同士が知り合いではない場合、親密度は「0」或いは「0に近い数字」で表現される。ここで、例えば識別ID「0」の名称「Mike」をソーシャル情報オーナーとする場合、「Mike」と「Alice」は知り合いであり、その親密度は「0.83」として表現される。さらに、「Julia」との親密度は「0.83」、「Tom」との親密度は「0.53」と表現されており、「Mike」にとっては、「Tom」よりも数値が大きい「Alice」や「Julia」の方が親密な関係にあることが表現されている。無論、「Mike」はソーシャル情報オーナーであるため「Mike」と交差する部分は親密度の数値が「−」(数値入力必要なし)となっている。さらに、識別ID「1」の名称「Alice」をソーシャル情報オーナーとした場合、各ユーザを起点とした関係性および親密度を数値として管理することができる。
なお、ここでは、親密度の数値を0から1未満の正規化された数値として説明したが、親密度の管理方法はこれに限らず、上限なく増加するポイント制としても良いし、粒度を下げたA〜E等の数段階のレベル分けとしても良い。
図4Aは、実施の形態1のソーシャル情報のノード概念の一例を示す図である。図4Bは、実施の形態1の関係性参照テーブルの一例を示す図である。図5は、実施の形態1の優先度判定閾値テーブルの一例を示す図である。
図4Aに示すように、ソーシャル情報はソーシャル情報オーナーである「Mike」のノードを中心に各ユーザに対する親密さを親密度という数値と矢印で表現している。ここでは、数値が高いほど親密な関係(1に近い)にあり、数値が低いほど疎遠な関係(0に近い)にあることを示すものとしている。また、図4Bに示す関係性参照テーブルを用いて、各ノードから伸びる矢印に対する関係性を関係性ID(RID)の参照により管理するものとする。図4Bの関係性参照テーブルは、各関係性において枝番の数字が大きいほど疎遠な関係であるものとすると、例えば、学校においては「親友」より「友人」が、「友人」より「クラスメイト」が疎遠な関係にあることを示す。
なお、図4Aに示す例では、操作ユーザである「Davis」が設定されている。そして、操作ユーザ「Davis」との関係性から、「Mike」がソーシャル情報オーナーとして選択されている。操作ユーザである「Davis」は、予めコンテンツ処理装置100に設定されているとしてもよいし、スマートホンなどの携帯端末を通じて、設定されるとしてもよい。
図5は、コンテンツ解析部105が内部で解析用情報106として保持する優先度判定閾値テーブルの一例を示す図である。出力制御部104は、例えば図5に示す閾値を参照することにより、後述する処理候補の出力優先度レベルを算出する。ここでは、優先度レベルをA〜CおよびZの4段階で構成しており、図4Aにおいては「Alice」と「Julia」が共に0.83で優先度レベル「A」、「Tom」と「Paul」が0.53/0.51で優先度レベル「B」となる。
次に、実施の形態1のコンテンツ処理装置100によるコンテンツ処理のおおよその流れについて、図6を用いて説明する。
図6は、実施の形態1の出力制御部104のコンテンツ処理判定の流れを示すフローチャートである。
まず、出力制御部104は、コンテンツ入力部101を介して蓄積部102からコンテンツデータ103を対象コンテンツとして受け付け、当該対象コンテンツに対しての解析をコンテンツ解析部105に要求する(S601)。コンテンツ解析部105は、出力制御部104からの要求に基づき、対象コンテンツに対する解析処理を行う(S602)。
次に、出力制御部104は、コンテンツ解析部105から解析結果を取得し(S603)、当該対象コンテンツに人物や一般物体などを示すオブジェクト要素が存在しているか否かを判定する(S604)。
ステップS604において、出力制御部104は、当該対象コンテンツにオブジェクト要素が存在しない場合(S604のN)、当該対象コンテンツの入力が継続されているかを判定する(S605)。そして、ステップ605において、当該対象コンテンツの入力が継続せず終了する場合(S605のN)、処理候補の抽出処理を終了する。また、当該対象コンテンツの入力が継続する場合(S605のY)、ステップ601に戻り当該対象コンテンツに対する処理候補の抽出処理を継続する。
一方、ステップ604において、出力制御部104は、当該対象コンテンツにオブジェクト要素が存在する場合(S604のY)、コンテンツ解析部105が抽出した解析結果に基づき、出力優先度を判定(算出)する出力優先度判定処理を開始する(S606)。
次に、出力制御部104は、自ら判定した出力優先度に基づき、当該対象コンテンツに含まれる少なくとも1つ以上のオブジェクト要素をコンテキストグループにグループ化するための基準を示す情報(コンテキストグループ情報)を定義するコンテキストグループ定義処理を開始する(S607)。
次に、出力制御部104は、自ら定義したコンテキストグループ情報に対する処理候補の抽出を処理候補抽出部108に依頼し、処理候補抽出部108は、コンテキストグループに対する処理候補を抽出する(S608)。
次に、出力制御部104は、処理候補抽出部108から処理候補抽出結果を受け付け、その処理候補抽出結果に処理候補が存在する場合(S609のY)、コンテンツ処理装置100で予め設定された当該処理候補の実行ポリシーの条件に合致しているかを判定する(S610)。
ステップ610において、出力制御部104は、条件に合致していると判定する場合には(S610のY)、当該処理候補の処理実行をコンテンツ加工部110に要求する(S611)。
次に、出力制御部104は、コンテンツ加工部110からの処理実行状況または処理実行結果を受け付け、さらに、当該対象コンテンツの入力が継続するか否かを判定する(S605)。
なお、ステップ609において処理候補が存在しない場合(S609のN)、および、ステップ610において条件に合致していないと判定する場合(S610のN)、出力制御部104は、ステップ605に進み、当該対象コンテンツの入力が継続されているか否かを判定する。
本実施の形態では、説明を簡易にするため、処理候補実行ポリシーは「抽出された処理候補のすべてを実行する」として以下説明する。
なお、処理候補実行ポリシーを「抽出された処理候補のすべてを実行する」として説明するが、処理候補実行ポリシーはこれに限らず、「抽出された処理候補のうち、コンテキストグループ情報に主題が含まれるもののみ実行する」や「抽出された処理候補のうち上位2件までを実行する」などコンテンツ処理装置100の処理能力(例えばCPUリソースや空き容量など)や設置状況(例えば屋内や屋外、降雨やネットワーク通信可否など)、対象コンテンツの状況変化(例えば明度が極端に低いなど)に応じて適宜変化させるものとしても良い。
次に、コンテンツ解析部105によるコンテンツ解析処理の流れ(ステップ602の詳細)について、図7〜図9を用いて説明する。
図7は、実施の形態1のコンテンツ解析処理の流れを示すフローチャートである。図8は、実施の形態1の対象コンテンツの動画像の一例を示す図である。図9は、実施の形態1の解析データ(人物)の一例を示す図である。
本実施の形態では、図2に示すコンテンツデータ103のうち、データ名「C−1」で示される34分05秒の動画を対象コンテンツとして入力するケースを想定して説明する。なお、当該動画には、図3Aおよび図3Bに示すユーザ情報のうち、ID=0〜5までのユーザが動画像の被写体として含まれているものとして以下説明する。
まず、コンテンツ解析部105は、出力制御部104からの要求に応じて、出力制御部104より受け渡された入力画像(対象コンテンツ)からオブジェクト要素を抽出する(S701)。
ここで、コンテンツ解析部105は、入力画像(対象コンテンツ)にオブジェクト要素が存在するかを判定する(S702)。ステップS702において、コンテンツ解析部105は、入力画像(対象コンテンツ)にオブジェクト要素が存在しない場合(S702のN)、コンテンツ解析処理を終了する。
一方、ステップS702において、入力画像(対象コンテンツ)にオブジェクト要素が存在する場合(S702のY)、コンテンツ解析部105は、抽出されたオブジェクト要素の被写体情報として抽出座標と抽出領域とを取得する(S703)。ここで、図8に示す対象コンテンツ(動画像)においては、オブジェクト要素として人物の顔が解析結果として抽出され、P1〜P6まで6つのオブジェクト要素が存在している例が示されている。図8における対象コンテンツ(動画像)の全体の解像度が横4000ピクセル×縦2000ピクセルであった場合、図9に示す解析データ(人物)では、P1の被写体情報の抽出座標は横軸座標と縦軸座標との数値で表現すると(1120、1021)であり、その抽出領域は(188、187)である。以降、抽出されたP2〜P6に関しても同様に被写体情報を抽出することができる。
次に、コンテンツ解析部105は、解析用情報106とオブジェクト要素とを比較する(S704)。
次に、コンテンツ解析部105は、類似するオブジェクト要素が存在するかを判定する(S705)。ステップS705において、類似するオブジェクト要素が存在しない場合には(S705のN)、コンテンツ解析部105は、類似するオブジェクト要素を記録しない。例えば図9に示す例では、抽出されたP1〜P6のオブジェクト要素のうち、P1は類似するものが解析用情報106の顔辞書に存在しないので、顔辞書欄に「×」のステータスが記録され、名前は「unknown(未知)」が記録される。
一方、ステップS705において、類似するオブジェクト要素が存在する場合(S705のY)、コンテンツ解析部105は、類似するオブジェクト要素の属性情報と類似度とを記録する(S706)。例えば図9に示す例では、P2やP3に類似するものが解析用情報106の顔辞書に存在するので、「Alice」や「Dan」など、解析用情報106の顔辞書に類似する人物の名前とその類似度を解析データに記録される。
ここで、属性情報とは、オブジェクト要素の特徴を補足する情報である。属性情報の例としては、人物、文字、一般物体、音声などに関するものがある。人物に関する属性情報としては、例えば、被写体の名前、類似度、ソーシャル情報、衣類情報などがある。文字に関する属性情報としては、例えば、文字列、文字列汎用度、文字列危険度などがある。一般物体に関する属性情報としては、例えば、物体名、確度、関連情報、物体位置情報などがある。音声に関する属性情報としては、例えば、声紋、発声者名、類似度、ソーシャル情報、声色種別などがある。
次に、コンテンツ解析部105は、すべてのオブジェクト要素に対する解析を終えているか否かを判定する(S707)。ステップS707において、すべてのオブジェクト要素に対する解析を終えていない場合(S707のN)、コンテンツ解析部105は、ステップ702に戻り、オブジェクト要素抽出処理を繰り返す。例えば、図9に示すP1およびP2の解析だけ終了していた場合、P3〜P6それぞれに対するオブジェクト要素の抽出処理を行い、属性情報と類似度とを記録する。
一方、ステップS707において、すべてのオブジェクト要素に対する解析を終えた場合(S707のY)、コンテンツ解析部105は、対象コンテンツの主題を決定する(S708)。
ここでは、図9に示す解析データにおいて、図4Aに示す例ではコンテンツ処理装置100を操作するユーザを「Davis」と想定し、その関係性から「R1−2:子供」にあたる「Mike」が抽出されたオブジェクト要素の中で最も注視すべき存在であることから「Mike」を主題と判定し、図9において主題欄に「○」を記録している。
ここで、主題とは、解析データにおいて、対象コンテンツに含まれる複数のオブジェクトのうち、1)コンテンツ処理装置を操作するユーザにとって、2)予め設定された人物にとって、3)コンテンツ処理装置と連携する携帯端末等を介して選択した人物にとって、最も注視すべき存在である重要なオブジェクト(人物等)を示唆するものである。
さらに、コンテンツ解析部105は、図4Aに示すように、主題となった「Mike」からみた各オブジェクト要素に対する関係性を解析して記録する(S709)。なお、ここでは抽出されたオブジェクト要素のすべてに関係情報を記録する例を示したが、図5に示した親密度に基づく優先度レベルA〜C、Zに応じて、例えば、優先度レベルZのオブジェクト要素に対しては、関係情報の記録を行わないなどの構成としても良い。
最後に、コンテンツ解析部105は、対象コンテンツの動画像において、主題からの位置関係と相対距離を解析し、状態情報として記録する(S710)。図9に示すように、動画像における出現順序を左から右に順番に番号を振る場合、P1〜P6が「1」〜「6」で管理されることになる。また、主題となる「Mike」からの相対距離を数値化して相対距離欄に記録する。例えば、主題であるP4に対しP2の相対距離は「2.1」となり、P4の隣に位置するP5は「1.2」となるため、P4からみてP2はP5より相対的に遠い位置であることが判定可能となる。なお、状態情報は、前述のような主題からの位置関係と相対距離に限るものではなく、対象コンテンツに含まれるオブジェクト要素の状態に関する情報であれば、他のものであってもよい。オブジェクト要素の状態に関する他の情報としては、例えば、対象コンテンツの動画像におけるオブジェクト要素の露出度合いを示す露出率や、オブジェクト要素の重畳度合いを示す重畳率が挙げられる。
次に、出力制御部104による出力優先度判定処理の流れ(ステップ606の詳細)について、図10〜図11を用いて説明する。
図10は、実施の形態1の出力優先度判定処理の流れを示すフローチャートである。図11は、実施の形態1の解析データ(人物)および出力優先度判定結果の一例を示す図である。
まず、出力制御部104は、コンテンツ解析部105が解析した解析データ107を取得する(S1001)。
次に、出力制御部104は、解析データ107に主題が存在するか否かを判定する(S1002)。ステップS1002において、主題が存在しない場合(S1002のN)、出力制御部104は、出力優先度判定処理を終了する。
一方、ステップS1002において主題が存在する場合(S1002のY)、出力制御部104は、関係性参照テーブルのうち、関係ID(RID)および関係IDの枝番の順が小さいものから優先度を付与する(S1003)。
次に、出力制御部104は、関係ID(RID)および関係IDの枝番に同じものが存在するかを判定する(S1004)。
ステップS1004において、関係ID(RID)および関係IDの枝番に同じものが存在しない場合(S1004のN)、出力制御部104は、出力優先度判定処理を終了する。
一方、ステップS1004において、関係ID(RID)および関係IDの枝番に同じものが存在する場合(S1004のY)、出力制御部104は、主題に対し相対距離が近いオブジェクト要素の出力優先度を上げるように制御する(S1005)。
本実施の形態では、ステップS1003において、出力制御部104は、例えば図4Bに示す関係性参照テーブルのうち、関係ID(RID)および関係IDの枝番(親、子供、兄弟姉妹など昇順で表現される番号)の順が小さいものから優先度を付与する。より具体的に、出力制御部104は、主題を出力優先度の1番に設定する。次いで、図11に示すように、主題である「Mike」を中心に、次に関係性の深い「Alice」が「子供の親友」であることを理由に「Alice」に2番目の出力優先度を付与する。次いで、「子供の友人」である「Tom」に3番目の出力優先度を付与する。ここで、P3とP6は共に関係IDおよび関係IDの枝番が「子供のクラスメイト」であり、その関係性は同じ位置づけとなるので(S1004のY)、対象コンテンツ(動画像)において、主題に対する相対距離が近いオブジェクト要素の出力優先度を上げるように制御する(S1005)。つまり、図11に示す例においては、P3の方がP6よりも主題に近い位置関係にあるため、P3に出力優先度「4」、P6に出力優先度「5」を付与している。
次に、出力制御部104によるコンテキストグループ定義処理の流れ(ステップ607の詳細)について、図12〜図14を用いて説明する。
図12は、実施の形態1のコンテキストグループ定義処理の流れを示すフローチャートである。図13は、実施の形態1のコンテキストグループ情報の定義テーブルの一例を示す図である。
まず、出力制御部104は、コンテンツ解析部105が解析した解析データ107を取得し、出力制御部104が保持する定義テーブル(コンテキストグループ情報が定義されたテーブル)を初期化する(S1201)。
次に、出力制御部104は、解析データ107に主題が存在するか否かを判定する(S1202)。ステップS1202において、主題が存在しない場合(S1202のN)、出力制御部104は、コンテキストグループ定義処理を終了する。
一方、ステップS1202において、主題が存在する場合(S1202のY)、主題に特化したコンテキストグループを付帯情報に配慮して定義する(S1203)。ここで、付帯情報とは、コンテンツ解析部105が抽出したオブジェクト要素に付帯する切り離し困難な領域情報である。本実施の形態では、例えば、付帯情報は人間の顔に付帯する身体(首から下の胴体・手足など)に相当する部分をいい、出力制御部104は、付帯情報として含む座標および領域を新たに定義する。例えば図14に示す対象コンテンツにおいては、出力制御部104は、主題であるP4の顔が位置する座標・領域に対し、顔との位置関係で必然的に決まる胴体部分の表示エリアを予め予測し、それら顔および胴体がひとつのコンテンツとして画角に収まるよう自動で調整する。なお、本実施の形態では、オブジェクト要素が人間である場合を例にしているが、それに限らない。オブジェクト要素が物体の場合には物体に付帯する部分を付帯情報として定義すればよい。
次に、出力制御部104は、主題以外にコンテキスト情報が存在しているかを確認する(S1204)。ステップS1204において、主題以外にコンテキスト情報が存在しない場合(S1204のN)、出力制御部104は、コンテキストグループ定義処理を終了する。
一方、ステップS1204において、主題以外にコンテキスト情報が存在している場合(S1204のY)、出力制御部104は、出力優先度が高いものを副題とし、コンテキストグループ情報を付帯情報に配慮して定義を行う(S1205)。
次に、出力制御部104は、副題の出力数が出力規定数に達していないかを確認する(S1206)。ステップS1206において、例えば、この副題の出力数が出力規定数(ここでは出力規定数=3)に達していない場合(S1206のN)、出力制御部104は、ステップS1205に戻り、副題の抽出と副題に特化したコンテキストグループ情報の定義を継続する。本実施の形態では、図13に示すように、主題であるP4はG1として、副題であるP2、P5は各々単独で座標と展開領域を算出し、それらを各々記録する。
なお、ここでは、副題の出力数を固定の出力規定数で説明したが、判定方法はこれに限らず、図5に示した優先度レベルがA〜Cに設定されるユーザすべてを抽出するまで継続するなどの判定方法を用いても良い。
一方、出力制御部104は、ステップS1206で出力規定数に達した場合(S1206のY)、主題からの相対距離が近い順に副題を含むコンテキストグループ情報を付帯情報に配慮して定義する(S1207)。
次に、抽出した全てのオブジェクト要素を含むコンテキストグループ情報を付帯情報に配慮して定義し、コンテキストグループの定義処理を終了する(S1208)。
本実施の形態では、例えば図13に示すように、コンテキストグループG4は、主題であるP4に加え、主題からの相対距離が最も近い副題P5を含むグループとして定義される。次に、コンテキストグループG5は、主題P4から次に相対距離が短い副題P2を含むグループとして定義される。
なお、本実施の形態では、コンテキストグループ情報を主題からの相対距離が短い副題と組み合わせて定義する例について説明したが、定義方法はこれに限らない。例えば、図5に示した優先度レベルがA同士で組み合わせて定義する方法でも良いし、先に抽出されたコンテキスト情報を網羅的に組み合わせて定義する方法でも良い。
図14は、実施の形態1のコンテキストグループ情報の定義を対象コンテンツである動画像にマッチングさせた例を示す図である。
図14に示すように、少なくとも1以上のオブジェクト要素を含む領域をコンテキストグループ情報として定義するため、撮影・閲覧・編集を行う対象の対象コンテンツのうち、主題または副題を含む意味のある領域を対象範囲としたコンテンツ処理が実現する。
次に、処理候補抽出部108による処理候補抽出処理の流れ(ステップ608の詳細)について、図15〜図17を用いて説明する。
図15は、実施の形態1の処理候補パターンテーブルの一例を示す図である。図16は、実施の形態1の処理候補抽出処理の流れを示すフローチャートである。図17は、実施の形態1のコンテキストグループ情報に対し処理候補を設定した例を示す図である。
処理候補抽出部108は、処理パターン109を図15に示すような処理候補パターンテーブルとして保持する。処理パターンはE1、E2などの処理候補IDで管理され、コンテンツ加工部110で処理が可能な処理候補が記述されている。本実施の形態においては、説明を簡易化するためデジタル処理される処理候補の概要を文字列にて記載する。さらに、各処理候補には処理の実行に必要な条件が記載されており、例えば、処理候補E2は、当該コンテキストグループ情報に主題が含まれる場合のみ実行可能であることを示している。
処理候補抽出部108は、上記処理候補パターンテーブルを内部で取得する(S1601)。
次に、出力制御部104からコンテキストグループ情報を取得する(S1602)。
次に、処理候補抽出部108は、当該コンテキストグループ情報の各グループに対し、処理候補パターンの実行条件に合致する処理候補が存在するかを確認する(S1603)。
ステップS1603において、条件に合致するものがあれば(S1603のY)、処理候補抽出部108は、当該コンテキストグループに対し処理候補を設定する(S1604)。
一方、ステップS1603において、条件に合致するものがなければ(S1603のN)、処理候補抽出部108は、ステップS1605に進む。
そして、処理候補抽出部108は、当該コンテキストグループ情報のすべてのコンテキストグループに対し処理候補の確認がなされたかを確認する(S1605)。
ステップS1605において、確認すべきコンテキストグループが残されている場合(S1605のN)、処理候補抽出部108は、ステップS1603以降の処理を繰り返す。
一方、ステップS1605において、すべてのコンテキストグループに対し処理候補の確認を終えた場合(S1605のY)、処理候補抽出部108は、処理候補抽出処理を終了する。
以上のように処理候補抽出処理を行った結果、本実施の形態では、図17に示すように、コンテキストグループ情報の各グループに対し、処理候補テーブルに記載された条件に見合った処理候補が記録される。
次に、コンテンツ加工部110による処理候補実行処理の流れ(ステップ611の詳細)について、図18〜図20Gを用いて説明する。
図18は、実施の形態1の処理候補実行処理の流れを示すフローチャートである。
出力制御部104は、対象コンテンツのコンテキストグループ情報に対する処理候補を処理候補抽出部108から取得した後、前述した処理候補実行ポリシーに従い当該処理候補の実行をコンテンツ加工部110に要求する。
すなわち、まず、コンテンツ加工部110は、対象コンテンツおよびコンテキストグループ情報に対する出力制御部104が指示した処理候補を受け付ける(S1801)。
次に、コンテンツ加工部110は、当該コンテキストグループ情報に含まれるコンテキストグループに対する処理候補の実行可否を確認する(S1802)。
ステップS1802において、当該処理候補が実行可能な場合(S1802のY)、コンテンツ加工部110は、当該コンテキストグループに対し処理候補を実行する(S1803)。一方、ステップS1802において、当該処理候補が実行不可の場合(S1802のN)、コンテンツ加工部110は、ステップS1803をスキップして、ステップS1804に進む。
本実施の形態では、図17に示したコンテキストグループ情報の各コンテキストグループに対し、図15に示した処理候補パターンから参照される処理候補E1およびE2を実行する。つまり、コンテンツ加工部110は、対象コンテンツのうち、主題P1を含むコンテキストグループG1を座標および領域から特定し、処理候補E1に基づき部分的に切り出し、さらに処理候補E2に基づき補足情報(例えば、イベント名など)を合成して別ファイルを生成し、蓄積部102に当該ファイルの保存を依頼する。
次に、コンテンツ加工部110は、当該コンテキストグループ情報のすべてのコンテキストグループに対して指示された処理候補の実行可否を確認したかを判定する(S1804)。
ステップS1804において、残りのコンテキストグループが存在する場合(S1804のN)、コンテンツ加工部110は、ステップS1802以降の処理を繰り返す。一方、ステップS1804において、すべてのコンテキストグループに対して処理候補の実行可否を確認した場合(S1804のY)、コンテンツ加工部110は、処理を終了する。
本実施の形態では、図17に示したコンテキストグループG1以降のG2〜G7に対する処理候補の実行可否を確認し、すべての確認を終えた場合に処理を終了する。
そして、コンテンツ加工部110は、加工処理状況または加工処理結果を出力制御部104に通知する。出力制御部104は、図6のステップS605に示したように、コンテンツ加工部110からの通知により次の対象コンテンツに対する解析処理を依頼するか否かの判定に移る。
なお、本実施の形態においては、説明を簡易化するため対象コンテンツを動画とし、動画において時系列に含まれる画像を対象コンテンツとして説明してきた。この動画における連続性を保つため、出力制御部104は、例えば、対象コンテンツのある領域を切り出すコンテンツ処理を実行する場合、前回定義したコンテキスト情報に基づくコンテキストグループ情報を保持しておき、連続する画像に対する追従処理を連続的に行うことにより、ひとつの動画としてファイルを出力する方式としても良い。また、静止画の撮影・閲覧・編集においてもコンテンツ処理装置100が有用であることは自明である。
図19は、実施の形態1のコンテンツ処理実行後のコンテンツインデックスの一例を示す図である。図20A〜図20Gは、実施の形態1のコンテンツ処理実行後のコンテンツの一例を示す図である。
図19に示すように、図2ではコンテンツ処理装置100の蓄積部102が保持するコンテンツインデックスはタグ情報「Original」のC−1〜10が蓄積されていたが、図19ではタグ情報「Auto」を含むG1〜G7がC−11〜C−17として新規に蓄積されている。
また、図20A〜図20Gに示すように、各処理候補の処理結果において、例えば、図20Aは主題P4だけを処理候補E1に基づき切り出し、処理候補E2に基づき補足情報「Mike 2002」を合成したファイルが生成・蓄積されている。また、図20Bは副題P2だけを処理候補E1に基づき切り出したファイルが生成・蓄積されており、指定されなかった処理候補E2は実行されていない。
なお、本実施の形態では、対象コンテンツから人物の顔に代表されるオブジェクト要素を抽出する例を用いて説明したが、抽出するオブジェクト要素はこれに限らない。例えば人物の顔以外の文字や記号、街角の看板やランドマークといった一般物体でも良い。また、例えば対象コンテンツに含まれる音声の時間軸における出現タイミングや出現時間、相対音量などをオブジェクト要素として抽出し、解析用情報106である声紋との比較により、当該部分の切り出しを処理候補としても良い。
なお、本実施の形態では、コンテンツ解析部105が解析するオブジェクト要素に付帯する付帯情報を身体に相当する部分として説明したが、付帯情報はこれに限らない。例えば人物が身につけている洋服の色や形状の特徴、携行するバッグの特徴、センサーや通信などで固体を識別可能な情報などを用いても良い。
また、本実施の形態および以後の実施の形態においては、説明を簡易化するため対象コンテンツを動画として説明する。例えば、対象コンテンツのある領域を切り出すコンテンツ処理を実行する場合、前回定義したコンテキスト情報に基づくコンテキストグループ情報を保持しておき、連続する画像に対する追従処理を連続的に行うことにより、ひとつの動画としてファイルを出力する方式としても良いとして説明しているがそれに限らない。例えばコンテキスト情報として抽出する人物が横や後ろを向くことにより、コンテキスト情報が抽出できなくなることを防止するため、コンテキスト情報に紐付く付帯情報(例えば、人物が身につけている洋服の色)の連続性などを利用して、コンテキスト情報の抽出を補填するようにして追従処理の精度を向上させるようにしても良い。
以上のように、本実施の形態によれば、コンテンツに含まれる被写体や音声の特徴情報に応じて各オブジェクト要素のコンテキスト情報を算出し、コンテキスト情報から抽出したコンテンツ処理候補を決定・実行することができる。そのため、例えば、動画像にオブジェクト要素として複数の人物の顔が含まれる場合、複数の人物のうち、コンテキスト情報として算出した人物2名までの人物の顔および周辺を規定サイズまで拡大処理(デジタルズーム加工)し、個別の動画像ファイルとして出力処理(蓄積媒体への記録)するなどの制御ができる。このようにして、各オブジェクト要素に対するユーザの操作指示を必要とせず、コンテキスト情報に応じたコンテンツ処理の実行を容易に実現できる。
また、本実施の形態で説明したオブジェクト要素の被写体情報は対象コンテンツに対する座標および領域を指定する例を用いて説明したが、オブジェクト要素の被写体情報の表現はこれに限らず、対象コンテンツに対するベクトル表現などとしても良い。
また、本実施の形態で説明した処理候補抽出処理(ステップ605)においてはコンテキストグループに対する処理候補を処理候補テーブルから参照して処理候補を判定する例について説明したが、処理候補の判定方法はこれに限らない。例えばオブジェクト要素の動画像の座標、全体に対する相対サイズ・相対面積を加味し、当該オブジェクト要素の面積が小さいと判断される場合には、所定の拡大処理(デジタルズーム加工)よりも大きくするなど、オブジェクト要素に対し抽出した特徴情報に応じて処理候補の実行内容を調整するようにしても良い。
また、本実施の形態によれば、特徴情報に応じてコンテンツ処理候補の実行内容を調整して実行することができる。例えば、動画像に含まれる複数の人物のうち相対面積が規定値以下となる人物を拡大処理する、動画像に含まれる音声のうち相対音量が規定値以下となる音声の出力音量を自動で上げるなどの制御ができる。つまり、各オブジェクト要素に対するユーザの操作指示を必要とせず、特徴情報に応じてコンテンツ処理候補の内容を調整して実行できる。
また、本実施の形態で説明したオブジェクト要素の補足情報付与は図20Aおよび図20Dに示すように人物名「Mike」と参照元となったファイルの更新日時「2002年」を合成して表示する例を用いて説明したが、補足情報付与はこれに限らない。例えば補足情報がテキストであればメタ情報として出力するファイルに埋め込むようにしても良いし、補足情報がオブジェクト要素を示すアイコンなどであれば出力動画像の一部に合成表示するなど処理候補の実行内容を調整するようにしても良い。
また、本実施の形態によれば、属性情報に応じてコンテキスト情報を補足してコンテンツ処理候補の実行内容を調整して実行することができる。そのため、例えば、動画像に含まれる複数の人物のうち、顔辞書に登録されている重要人物を主題とし、さらに主題の親友に位置づけられる人物を各々拡大処理(デジタルズーム加工)およびオブジェクト要素を補足する情報を付加して個別の動画像ファイルとして出力処理(顔の類似度や声紋から特定される被写体人物名を重畳合成して表示、蓄積媒体への記録)などの制御ができる。つまり、各オブジェクト要素に対するユーザの操作指示を必要とせず、属性情報に応じてコンテンツ処理候補の内容を調整して実行できる。
また、本実施の形態で説明したコンテキストグループに対する処理候補は「コンテキストグループ領域の切り出しとファイル出力」を例に説明したが、処理候補はこれに限らない。対象コンテンツの全体表示からコンテキストグループへの拡大処理や当該コンテキストグループ領域に対する装飾フレームの挿入など対象コンテンツの閲覧時に効果を発揮するエフェクト処理としても良い。
また、本実施の形態によれば、コンテンツに含まれる複数のオブジェクト要素で構成されるコンテキストグループ情報に応じて実行すべきコンテンツ処理候補を判定することができ、例えば、複数の人物や一般物体で構成される動画像の構図に対して拡大処理(デジタルズーム加工)や出力処理(蓄積媒体への記録)などの制御ができる。このように、複数のオブジェクト要素をひとつのコンテキストグループとして扱うことができるので、個々のオブジェクト要素に対するコンテンツ処理操作を必要とせず、コンテキストグループに対するコンテンツ処理を一括して実行できる。それにより、段階的な拡大処理または縮小処理など素人らしい撮影ミスを軽減できる。
また、本実施の形態では、出力制御部104は、コンテンツ加工部110からの加工処理状況または加工処理結果に応じて、出力部111にブザー音や発光デバイスによるユーザ通知を要求すると説明したが、出力部111による出力はこれに限らない。例えば、デジタルカメラが本体側面に内部で実行中のコンテンツ処理を伝える発光部や音声スピーカーを有する場合、対象となるオブジェクト要素に対する拡大処理(デジタルズーム加工)や出力処理(蓄積媒体への記録)、撮影の終了などの動作を該当箇所の発光やブザー音や音声ガイドによりユーザに通知するようにしてもよい。つまり、出力制御部104は、コンテンツ処理装置の外部に対して、処理候補の実行有無を示す処理候補実行有無情報を出力するようにしてもよい。
本実施の形態によれば、コンテンツ処理装置を操作するユーザの操作指示を必要とせず、コンテンツ処理装置の内部で実行中のコンテンツ処理をユーザに通知できる。
このように、本実施の形態によれば、複数の被写体間(オブジェクト間)の関係を解析することで、ユーザにコンテンツ撮影、閲覧、編集の構図や操作を提示することができる。
以上のように、本実施の形態によれば、コンテンツの撮影、閲覧、編集の際に、コンテンツ処理に必要なユーザによる思考と操作の負担を軽減するコンテンツ処理装置、コンテンツ処理方法およびプログラムを実現することができる。
(実施の形態2)
次に、実施の形態2について説明する。本実施の形態では、ユーザがコンテンツ処理装置で実行中の処理を把握できるように、コンテンツ処理装置が実行中の処理を表示する場合の例について説明する。
図21は、実施の形態2のコンテンツ処理装置100Aの構成を示すブロック図である。図21において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
図21に示すコンテンツ処理装置100Aは、図1に示すコンテンツ処理装置100の出力部111に代えて、表示部112を有する。
表示部112は、液晶パネルなどの表示画面を有し、コンテンツおよびコンテンツに対する処理に関する情報を表示する。例えば、表示部112は、コンテンツ処理装置が実行中の処理を表示する。
本実施の形態のコンテンツ処理装置100Aは、表示部112を有し、例えば、動画像データが記憶可能な記憶媒体を挿入可能または内蔵し、複数の動画像データの撮影、閲覧または編集が可能なデジタルスチルカメラやデジタルビデオカメラ、パーソナルコンピュータなどである。
図22は、実施の形態2の処理候補実行処理の流れを示すフローチャートである。
図22に示す処理の流れは、図18に示した処理の流れのうち、ステップS1803までの処理、およびステップS1804以降の処理は図22のステップS2201〜S2203およびステップS2208と同じであるため、説明を省略する。
ステップS2202でYの場合、出力制御部104は、コンテキストグループに対する処理候補を実行する(S2203)。
次に、出力制御部104は、当該コンテキストグループが処理を実行している対象領域を示すガイドを実線や点線などで表示するよう表示部112に指示する(S2204)。
次に、出力制御部104は、当該コンテキストグループ以外に表示中の処理候補(処理番号や処理名を含む)が存在するかを確認する(S2205)。
S2205において、処理候補が存在しない場合には(S2205のN)、出力制御部104は、表示部112に、当該コンテキストグループの対象領域を示すガイドの近傍に実行する処理候補の処理番号や処理名を表示させる(S2206)。一方、S2205において、処理候補が存在する場合(S2205のY)、出力制御部104は、表示部112に、当該コンテキストグループに対して表示しようとする処理番号や処理名と表示中の処理番号や処理名とが相互に重畳しないよう画面上の表示位置を調整して表示させる(S2207)。
次に、出力制御部104は、すべてのコンテキストグループに対する処理候補の実行可否を確認する(S2208)。
図23は、実施の形態2の表示部112が表示する画面の一例を示す図である。
図23において、全画面表示領域2301は表示部112が表示する画面全体を示している。動画像表示領域2302は処理対象となる入力コンテンツのうち実際にユーザが目視する動画像を表示する領域を示している。マージン領域2303は全画面表示領域に対する動画像表示領域のマージンを示しており、関連情報を表示する目的でも使用する。
また、図中のガイド2304は、図22のステップS2204で説明した表示させるガイドの一例である。図23に示す例では、下方に示される人物解析データP1〜P6に対し、P4およびP5を含むコンテキストグループ「G4」の抽出座標および抽出領域に基づくガイドが表示されている(図17の処理候補を参照)。処理結果表示2305では、実行中の処理を示す処理番号「(2)」および処理名「ズーム撮影中」が表示され、これらはステップS2206およびS2207に従い表示される。また、処理結果表示2306は、先に実行していた入力コンテンツ全体の撮影処理を示しており、図23に示す例では、処理番号「(1)」、処理名「全体撮影中」が表示されている。
このように、コンテンツ処理装置100Aでは、ユーザが目視する表示部112において、実行中の処理をガイドと処理内容を示す処理名などを加えて表示する。
図24は、実施の形態2の表示部112が表示する別画面の一例を示す図である。
ここでは図23との違いを中心に説明する。動画像表示領域2402には、処理番号(2)〜(5)が処理名を省略した形式で表示されている。図24において、処理番号(5)のガイドは実線で表示され、処理番号(2)〜(4)のガイドは点線で表示されている。ここで、例えば実線を実行中の処理と定義し、点線を処理候補として待機中と定義すれば、ユーザが表示部112の内容を目視するだけで実行中の処理が把握できる。
なお、実線と点線によるガイドの使い分けで実行中か否かを提示す例を示したが、ガイドの表示方法はこれに限らない。実線が高画質モードであり点線が低画質モードであると定義しても良いし、実線が複数人を含むコンテキストグループであり点線が主題や副題であるコンテキストグループであると定義しても良い。また、ガイドは実線・点線以外でもよく、例えば波線を用いたり、色分けをしたり、太さや装飾を加えるなどして変化をつけるようにしたり、用途を使い分けるようにしても良い。さらに、処理名はテキスト表示だけではなく、ユーザに処理内容が伝わりやすいアイコンなどを用いて表現しても良い(アイコンを用いた画面例は後述する)。
本実施の形態によれば、抽出された処理候補の実行前または実行後にコンテンツ処理装置100Aの表示部112に処理候補の実行有無を示す処理候補実行有無情報を表示することができる。そのため、例えば、デジタルカメラが本体メイン画面またはサブ画面において内部で実行中のコンテンツ処理を文字列やアイコンによりユーザに可視化することができる。つまり、コンテンツ処理装置を操作するユーザの操作指示を必要とせず、内部で実行中のコンテンツ処理を文字列やアイコンにより、より確実に通知できる。
(実施の形態3)
次に、実施の形態3について説明する。本実施の形態では、抽出した人物に加え、一般物体もコンテキストグループとして定義される場合について説明する。さらに、本実施の形態では、コンテンツ処理候補を目視しながらユーザが所望するコンテンツ処理の操作指示を受け付けることができるコンテンツ処理装置100Bについても説明する。
図25は、実施の形態3のコンテンツ処理装置100Bの構成を示すブロック図である。図25において、図1および図21と同じ構成要素については同じ符号を用い、説明を省略する。
図25に示すコンテンツ処理装置100Bは、図21に示すコンテンツ処理装置100Aの構成要素に加え、操作入力部113を有する。
操作入力部113は、ユーザからの操作を受け付ける。操作入力部113は、例えば、タッチパネルなどの入力デバイスであり、ユーザからの操作を受け付ける役割を担う。
コンテンツ処理装置100Bは、タッチパネル式画面またはマウス等の入力デバイスにより画面を制御する手段を有する。また、コンテンツ処理装置100B、コンテンツ処理装置100A等と同様に、例えば、動画像データが記憶可能な記憶媒体を挿入可能または内蔵し、複数の動画像データの撮影、閲覧または編集が可能なタッチパネル式デジタルスチルカメラやデジタルビデオカメラ、マウスやタッチパネルで操作可能なパーソナルコンピュータなどである。
図26は、実施の形態3の入力コンテンツの最大領域に対するフォーカス領域の配置例を示す図である。
コンテンツ処理装置100が処理対象とする入力コンテンツ(対象コンテンツ)は、コンテンツ入力部101が入力する動画像であり、画角や解像度と呼ばれる最大領域が存在する。図26には、入力コンテンツの最大領域を示す入力コンテンツ最大領域2601が示されている。入力コンテンツ最大領域2601に対し、デジタル処理によるズームで拡大表示する部分をフォーカス領域2602と定義する。図26には示す例では、フォーカス領域(1)(図でフォーカス領域2602)とフォーカス領域(2)(図でフォーカス領域2603)が存在するが、フォーカス領域2602は入力コンテンツ最大領域2601の中心座標に対し、そのまま中央にデジタルズームする場合のフォーカス領域(フォーカス領域(1))を示しており、フォーカス領域2603は、入力コンテンツ最大領域2601の領域内で任意の部分にデジタルズームする場合のフォーカス領域(フォーカス領域(2))を示している。例えば、広角カメラと通常のカメラを備え、広角カメラと通常のカメラによる同時撮影を行うムービーにおいては、広角カメラで撮影している領域を最大領域、通常のカメラで撮影している領域をフォーカス領域とすることができる。また、撮影後の写真や動画を閲覧または編集している場合においては、撮影されたコンテンツ全体の領域を最大領域、閲覧や編集のために表示している領域をフォーカス領域とすることができる。以降、デジタルカメラにおいて、入力コンテンツ最大領域2601における撮影を継続しながら、フォーカス領域2603に対してデジタルズームを行う例を図27〜図30を用いて説明する。
図27は、実施の形態3の入力コンテンツの動画像の一例を示す図である。図28は、実施の形態3の解析データ(一般物体)の一例を示す図である。図29は、実施の形態3の注目情報優先度加点テーブルの一例を示す図である。図30は、実施の形態3の相対距離優先度加点テーブルの一例を示す図である。図31は、実施の形態3のコンテキストグループ定義処理の流れを示すフローチャートである。
図27に示すように、コンテンツ入力部101より入力される入力コンテンツ最大領域2701には複数の被写体人物が含まれている。入力コンテンツ最大領域2701に対し、実際にユーザが目視するフォーカス領域2702が点線で表現されている。
本実施の形態では、コンテンツ解析部105は、実施の形態1で説明したようにP1〜P6の被写体人物を解析し、解析データとして出力制御部104に提供する。加えて、図27に示す一般物体2703および一般物体2704をも解析し、その概要を図28に示す解析データとして出力制御部104に提供する。以下では、オブジェクト要素として人物を解析する処理との差分のみ(つまり一般物体を解析する処理のみ)を説明する。
コンテンツ解析部105は、図28に示すように、入力コンテンツに含まれる2つのオブジェクト要素を一般物体データとして抽出し、IDとして「M1」と「M2」を付与する。次に、各オブジェクト要素の被写体情報として抽出座標と抽出領域とを解析データとして追記する。次に、属性情報として、解析用情報である辞書登録との類似の有無、類似があった場合の名前および類似度、主題であるかの判定を行い解析データとして追記する。
さらに、コンテンツ解析部105は、一般物体が属する分類項目や解析可能な情報(テキストデータや関連物の一般名称など)を注目情報として追記する。ここでは、図27の2703に示すID「M1」は分類項目が「マーク(MARK)」であるとする。図27の2704に示すID「M2」はテキスト解析が施され、テキストとしてYOSAKOIが抽出されたことを示す「TEXT:YOSAKOI」が追記されている。さらに、コンテンツ解析部105は、動的な状態情報の項目の位置関係として左からID「M2」、ID「M1」の順で出現することを示す情報を解析データに追記する。また、コンテンツ解析部105は、動的な状態情報の項目のフォーカス領域として、ID「M1」はフォーカス領域外にあるため「×」、ID「M2」はフォーカス領域を跨ぐため「△」を示す情報を、動的な状態情報の項目の相対距離すなわち先に解析された主題「P4」からの相対距離として、ID「M1」は「3.2」、ID「M2」は「0.8」を示す情報を解析データに追記する。なお、抽出されたオブジェクト要素がフォーカス領域内に存在する場合は「○」を記載するなどの運用が想定される。
出力制御部104は、コンテンツ解析部105が抽出した解析データを参照し、出力優先度を追記する。本実施の形態では、一般物体の出力優先度を判定するために、図29に示す注目情報優先度加点テーブルと、図30に示す相対距離優先度加点テーブルを用いる場合の例を説明する。
出力制御部104は、図28に記録された属性情報の注目情報と状態情報の主題からの相対距離とから、一般物体に対する出力優先度を加点方式により算出する。ここで、ID「M1」の注目情報は「MARK」であるため、優先度加点テーブルを参照して「0.5」ポイントが加算され、続いて、主題からの相対距離が「3.2」であるため、優先度加点テーブルを参照して「0.5」ポイントが加算され、合計「1.0」ポイントとなる。一方、ID「M2」は、テキストであるため「1.0」ポイントが加算され、相対距離が「0.8」であるため「2.0」ポイントが加算され、合計「3.0」ポイントとなる。次に、このポイントを用いたコンテキストグループ定義処理を説明する。
図31は、実施の形態3のコンテキストグループ定義処理の流れを示すフローチャートである。図32は、実施の形態3のコンテキストグループ情報の定義テーブルの一例を示す図である。図33は、実施の形態3のコンテキストグループを対象となる入力コンテンツの動画像にマッチングさせた例を示す図である。
図31に示す出力制御部104の処理の流れは、図12に示した処理の流れのうち、ステップS1206までの処理、およびステップS1207以降の処理は図31のステップS3101〜S3106およびステップS3109以降と同じであるため、説明を省略する。
出力制御部104は、ステップS3101〜ステップS3106により、人物に関するオブジェクト要素をコンテキスト情報とし、その主題に特化したコンテキストグループと人物の出力優先度とから副題となるコンテキストグループを出力規定数まで定義する(S3106でYの場合)。
さらに、出力制御部104は、一般物体に関するオブジェクト要素をコンテキスト情報とし、その一般物体の解析データに基づく出力優先度から副題となるコンテキストグループを定義する(S3107)。このとき、人物同様、一般物体に関しても、解析結果による付帯情報をコンテキストグループの定義に加えることが望ましい。例えば、図27に示すID「M2」の一般物体2704では、解析されたテキストに対し、テキストを囲む部分を付帯情報として、一連の一般物体として定義している。
そして、出力制御部104は、一般物体に関するコンテキストグループを出力規定数まで定義する(S3108でYの場合)。具体的には、一般的に一般物体の解析は解析用情報の辞書に依存度が高く、場合によっては極大な数が解析される場合もあるため、出力制御部104は、一般物体に関する出力規定数に基づき副題としてのコンテキストグループを定義する(S3108でY)。なお、本実施の形態では、抽出された一般物体に関するコンテキスト情報のうち、1つのみ副題として採用する例で説明する。
次に、出力制御部104は、主題からの相対距離が近い順に副題を含むコンテキストグループを定義する(S3109)。
次に、出力制御部104は、抽出した全オブジェクト要素を含むコンテキストグループを定義する(S3110)。
以上の処理の結果、図32に示すコンテキストグループ情報の定義テーブルが形成される。
ここで、図32に示すコンテキストグループ「G3」は、人物を示すコンテキストグループではなく、一般物体を示すID「M2」である。実施の形態1においては、コンテキストグループ「G1」は主題である「P4」、コンテキストグループ「G2」は次に出力優先度が高い「P2」、そして、コンテキストグループ「G3」は次に出力優先度が高い「P5」であった。それに対して、本実施の形態においては、人物に関するコンテキストグループの出力規定数を「2」としたため、コンテキストグループ「G2」までが人物を意味する「P4」「P2」となり、一般物体に関するコンテキストグループの出力規定数を「1」としたため、コンテキストグループ「G3」が一般物体を意味する「M2」となっている。なお、抽出された一般物体「M1」「M2」において、先の加点テーブルに基づき算出したポイントの合計がより高い「M2」を採用している。
図33は、入力コンテンツ(対象コンテンツ)の入力コンテンツ最大領域に対し、図32に示す各コンテキストグループの定義座標および定義領域に基づく該当領域を示している。ここで、図32に示すコンテキストグループ「G3」の付帯情報には「TEXT:YOSAKOI」が記録されている。コンテキストグループ「G3」は、図33の「G3」で引用される点線枠に該当し、人物ではなく、一般物体であるイベントの看板をコンテキストグループとしている。つまり、コンテキストグループ「G3」の定義領域は抽出されたテキスト以外にも、関連する一連の一般物体としてコンテキスト情報およびコンテキストグループ領域が定義されている。なお、この一般物体近傍の定義に関わる処理は、一般物体認識の近傍を色や形状の連続性、解析用情報に定義される出現パターン定義など一般的な技術の組み合わせにより実現可能である。
さらに、図32に示すコンテキストグループ「G4」は、主題であるコンテキスト情報「P4」から最も相対距離が近い意味情報「M2」との組み合わせで構成されており、図33の「G4」で引用される実線枠に該当する。このように、本実施の形態では、抽出した人物に加え、一般物体をもコンテキストグループとして定義される。なお、上述したように、この定義されたコンテキストグループは、コンテキストグループ情報として、テーブル(定義テーブル)に定義される。
次に、本実施の形態における処理候補抽出部108による処理候補抽出処理について説明する。
図34は、実施の形態3の処理候補パターンテーブルの一例を示す図である。図35は、実施の形態3のフォーカス領域と各コンテキストグループの定義領域との位置関係の例を示す図である。図36は、実施の形態3のコンテキストグループ情報に対し処理候補を設定した例を示す図である。
処理候補抽出部108は、処理パターン109として図34に示すような処理候補パターンテーブルを保持している。図34に示す処理候補パターンテーブルには、処理パターンがE1、E2などの処理候補IDで管理されており、処理候補IDごとに、コンテンツ加工部110で処理が可能な処理候補が記述されている。さらに、各処理候補には処理の実行に必要な条件が記載されている。
本実施の形態においては、上記条件に当該コンテキストグループが定義された領域(コンテキストグループ領域)と当該フォーカス領域との関係が含まれる場合について説明する。ここで、処理候補E1およびE2は、当該コンテキストグループ領域がフォーカス領域に含まれる場合の処理候補を示し、フォーカス領域に含まれるコンテキストグループ領域の領域内における占有面積が80%未満であることを条件にしている。これは、例えば、当該コンテキストグループが当該フォーカス領域に含まれる場合、フォーカス領域として表示中の動画像の一部を処理候補E1により、フォーカス領域にフィットするようにデジタルズーム(拡大表示)する処理が候補となることを示している。また、処理候補E2は、フォーカス領域として表示中の動画像の一部を別のファイルとして切り出して記録する処理の候補を示している。
出力制御部104は、コンテキストグループ情報が定義された定義テーブルを処理候補抽出部108に渡す。
ここで、例えば、図35に示すように、対象となる入力コンテンツ3501のうち、フォーカス領域3502がユーザに目視可能な状態で表示されているとする。すると、すると、処理候補抽出部108は、フォーカス領域内に収まるコンテキストグループ「G1」には処理候補E1、E2が実行可能と判断し、フォーカス領域内に収まらないコンテキストグループ「G2」には処理候補E5、E6が実行可能と判断する。それ以外のコンテキストグループ「G3」〜「G7」はフォーカス領域に跨るため、処理候補E3、E4が実行可能と判断する。処理候補抽出部108による処理候補抽出処理の流れは図16に示したため説明を省略する。結果、図36に示すように、定義テーブル(動的)には、コンテキストグループ情報によりグループ化されたオブジェクト要素のグループであるコンテキストグループのそれぞれ(各グループ)に対し、処理候補テーブルに記載された条件に見合った処理候補が記録される。
次に、出力制御部104による処理候補実行処理について説明する。
図37は、実施の形態3の処理候補実行処理の流れを示すフローチャートである。図38は、実施の形態3のコンテンツ処理候補表示画面の一例を示す図である。図39は、実施の形態3のコンテンツ処理候補表示画面の別の一例およびコンテンツ処理実行停止操作受付画面の一例を示す図である。
図37に示す出力制御部104の処理候補実行処理の流れのうち、ステップS3701〜3702までの処理、ステップS3704〜3705までの処理は図18および図22に示した処理の流れと同じであるため、説明を省略する。
S3702でYの場合、出力制御部104は、表示部112で表示中のフォーカス領域の表示領域を取得し、実行中の処理を表示する(S3703)。
図38に示す例では、表示部112が表示する全画面表示領域3801に対し、現在表示中のフォーカス領域3802が、処理対象となる入力コンテンツの最大領域と合致している。なお、以下の説明を簡易化するため、まず入力した動画像をそのまま最大で表示している状態とし、処理候補E1およびE2が選定されている例を用いて説明する。マージン領域3803は、全画面表示領域3801に対するフォーカス領域3802のマージンを示しており、右端の文字列表示3804は既に実行中の処理である入力コンテンツの記録処理を「(1)全体撮影中」という文字列で表現している。
次に、出力制御部104は、当該コンテキストグループを示すガイドを表示させ(S3704)、表示中の処理番号や処理名が存在するか否かを確認する(S3705)。
ステップS3705において、表示中の処理番号や処理名が存在しないと判断した場合(S3705のN)、出力制御部104は、当該コンテキストグループを示すガイドの近傍に実行可能な処理番号や処理名を表示させる(S3706)。一方、ステップS3705において、表示中の処理番号や処理名が存在すると判断した場合(S3705のY)、出力制御部104は、表示中の処理番号や処理名と相互に重畳しないよう実行可能な処理番号や処理名を表示させる(S3707)。
図38に示す例では、出力制御部104は、当該コンテキストグループ「G1」に対し、表示中の処理番号や処理名が存在しないと判断し(S3705のN)、表示部112にP4近傍にP4の定義領域をガイド3805として点線で表示させている。また、出力制御部104は、表示部112に、当該コンテキストグループ「G1」のガイドの近傍に処理名「おまかせズームイン」を処理候補3806として表示させている。一方、コンテキストグループ「G2」に対しては、表示中の処理番号や処理名が存在すると判断し(S3705のY)、コンテキストグループ「G2」のガイド3807を点線で表示させ、処理候補3808を既に表示中の処理候補3806と重畳しないよう調整して配置して表示させている。また、同様にして、出力制御部104は、表示部112に、一般物体を含むコンテキストグループ「G4」のガイド3809を実線で表示させ、処理候補3810を既に表示中の処理候補と重畳しないよう調整して配置して表示させている。
次に、出力制御部104は、すべてのコンテキストグループに対する処理候補の実行可否を確認したかを判定し(S3708)、規定時間(例えば、1秒間)が経過したか否かを判定し(S3709)、規定時間を経過した場合には処理候補実行処理を終了する(S3709のY)。
ステップS3709において、規定時間を経過していない場合(S3709のN)、出力制御部104は、操作入力部113から表示中の処理候補に対し、処理候補の実行指示を受け付けたか否かを判定し(S3710)、受け付けていない場合には(S3710のN)、処理候補の実行指示を規定時間内で待ち続ける。
ステップS3710において、操作入力部113から表示中の処理候補に対し実行指示を受け付けた場合(S3710のY)、指示を受けた処理候補を実行する(S3711)。例えば、図38の処理候補3806の「おまかせズームイン」またはガイド3805の点線上をユーザがタッチパネルでタッチ操作した場合、当該コンテキストグループ「G1」に対し割り当てられた処理候補E1の実行を開始する。
図38では、メニュー3811は「MODE CHANGE」と標記されている。つまり、本実施の形態では、メニュー3811には、メニュー3811がタッチ操作されることにより、表示部112が表示する処理候補の表示モードを切り替える機能を割り当てている。図39は、図38に示した処理候補の別の表示モードを示しており、ひとつのコンテキストグループに対して割り当てられた複数の処理候補をユーザに示すため、メニュー3811をタッチ操作することにより表示部112に表示される画面の例を示している。
なお、図38では各コンテキストグループに対し処理候補E1の実行指示を受け付けた場合(モード)の例が示しているのに対して、図39では各コンテキストグループに対して処理候補E2の実行指示を受け付ける場合(モード)の例が示されている。
図39において、コンテキストグループ「G2」に紐付く処理候補3908、コンテキストグループ「G4」に紐付く処理候補3910については、処理候補名「指定追従撮影」という文字列を白色背景のメニュー構成で表示している。一方、コンテキストグループ「G1」については、処理候補名「指定追従撮影停止」の文字列を黒色背景のメニュー構成で表示している。これは、コンテキストグループ「G1」に対する処理候補が既に実行中であることを意味しており、ユーザから受け付け可能な操作指示は実行中の処理に対する「停止」であることを示している。
このように、図39に示す例では、フォーカス領域と合致する入力コンテンツ最大領域の全体が撮影されていることを文字列表示3904で示しながら、コンテキストグループ「G1」に対して実行中の処理を黒色背景のメニュー構成などで示すことで、現在の処理実行状況や実行中の処理に対する操作指示停止などを受け付けることができる。
また、本実施の形態の別の様態について図40を用いて説明する。
図40は、実施の形態3のコンテンツ処理候補表示画面の別の一例を示す図である。
図40に示す例では、表示部112が示す全画面表示領域4001内のフォーカス領域4002が入力コンテンツ最大領域の一部となり、実際にユーザが目視する動画像が部分的になるケースについて説明する。
図40においては、フォーカス領域4002に収まるコンテキストグループ「G1」のガイド4005と処理候補名4006「おまかせズームイン」とが表示され、さらに、コンテキストグループ「G3」のガイド4007と処理候補名4008「おまかせズームアウト」が表示されている。ここで、フォーカス領域が入力コンテンツ最大領域に対して部分的になる場合には、コンテキストグループ「G3」のようにフォーカス領域を跨ぐようなケースが発生する。その場合、図40に示すように、コンテキストグループのガイドを部分的に表示し、そのガイドに紐付く処理候補名をマージン領域4003など活用してガイド近傍に表示することで、ユーザに直感的な処理候補を提示する。
なお、本実施の形態では、説明簡易化のため、コンテキストグループ「G3」および「G5」以降を省略したが、当然当該コンテキストグループに関するガイドおよび処理候補名を表示するように制御しても良いし、画面表示上の煩雑さを解消するため、規定の処理候補数を間引いたりしても良いし、時系列で順に表示するよう制御しても良い。
なお、本実施の形態では、タッチパネル画面を前提にタッチ操作による処理候補またはメニュー操作の実行指示を例に説明したが、操作体系はこれに限らない。例えばマウスなどを用いた操作やペンを用いて丸などに囲む操作で操作内容を伝える仕組みなど、柔軟な操作方法を適用するようにしてもよい。また、画面表示上のガイドが煩雑になった場合、各ガイドに紐付く処理候補の表示に番号などを加えて表示しても良いし、ガイドの近傍またはガイド上に処理候補名を表示するように工夫しても良い。さらに、タッチ操作などによる押し間違えなどを防止するため、タッチ操作が容易となるよう処理候補またはガイドの一部をガイドに紐付けて大きく表示するようにしても良い。
なお、本実施の形態では、フォーカス領域をデジタルズームにより拡大表示する部分を意味するとして説明したが、フォーカス領域の定義はこれに限らない。対象コンテンツの編集過程で周囲にテンプレートや装飾素材が重畳されるケースにおいて、ユーザが目視可能な部分をフォーカス領域と定義しても良い。また、複数のカメラを有するデジタルカメラやヘッドマウントディスプレイなどにおいて、ひとつのカメラは広角端で入力コンテンツ最大領域を撮影し、もうひとつのカメラで撮影する部分をフォーカス領域と定義しても良い。
本実施の形態によれば、コンテンツ処理候補を表示部に表示し、操作入力部から受け付けたユーザによる操作指示に基づきコンテンツ処理候補を実行するよう制御することができる。そのため、例えば、タッチパネル式画面を搭載するデジタルカメラやマウス等の入力デバイスによる操作が可能な電子機器において、コンテンツ処理候補を目視しながらユーザが所望するコンテンツ処理の操作指示を受け付けることができる。つまり、コンテンツ処理装置の出力制御部による自動判定に従う当該操作ユーザの意図しないコンテンツ処理の実行を未然に防止しながら、ユーザが意図するコンテンツ処理、またはユーザが想像し得なかったコンテンツ処理の提案と実行が実現できる。
また、本実施の形態によれば、抽出された処理候補を当該オブジェクト要素の近傍に表示することができる。そのため、例えば、被写体に対する拡大処理(デジタルズーム加工)などの処理候補を被写体に紐付けて直感的に把握することができる。つまり、対象コンテンツに含まれる被写体に対する処理候補の操作指示誤りを軽減でき、より確実にコンテンツ処理を実行できる。
本実施の形態によれば、抽出された処理候補実行時の出力イメージに沿ったガイドラインを表示することができる。そのため、例えば、被写体に対する拡大処理(デジタルズーム加工)などの処理実行後の拡大処理結果をガイドラインによりユーザが直感的に把握できるので、複数の処理候補の中からユーザが所望する処理候補の選定を容易にすることができる。つまり、ユーザが意図しない処理候補の操作指示誤りを軽減でき、コンテンツ処理後のイメージを把握した上でより確実にコンテンツ処理を実行できる。
(変形例1)
また、実施の形態3の別の様態を変形例1として、図41および図42を用いて説明する。
図41は、実施の形態3の変形例1におけるアイコン参照テーブルの例を示す図である。図42は、実施の形態3の変形例1におけるコンテンツ処理候補表示画面の別の例を示す図である。
処理候補抽出部108は、例えば図41に示すような、内部に画面表示用のアイコン参照テーブルを保持している。
図41に示すアイコン参照テーブルでは、例えば図34に示す処理候補パターンテーブルの各処理候補に対し、ユーザに通知可能なアイコンをアイコンID「ZI」などで参照可能なように構成されている。図41では、アイコンID「ZI」は処理候補がズームイン処理を施すことを意味し、アイコンID「ZO」は処理候補がズームアウト処理を施すことを意味する。また、アイコンID「FR」は処理候補がコンテキストグループを別のファイルとして撮影・録画処理を施すことを意味している。ここで、アイコンID「FR」に関しては、処理候補の実行前だけではなく、処理実行中にもその停止指示を意味するアイコンも用意している。
表示部112は、出力制御部104からの指示により処理候補番号や処理候補名を表示する。
本変形例では、表示部112は、アイコンIDを参照することにより図示しないファイル名、ファイルパス等で当該アイコンデータの表示に必要なデータにアクセスして、例えば図42に示す画面のように表示を行う。図42では、図38で示した画面の例に対し、処理候補名「おまかせズームイン」の表示が省略されている。また、コンテキストグループ「G1」のガイド4205と処理候補アイコン4206が表示され、さらに、コンテキストグループ「G2」のガイド4207と処理候補アイコン4208、コンテキストグループ「G4」のガイド4209と処理候補アイコン4210が表示されている。なお、コンテキストグループ「G3」および「G5」以降も同様のため、説明を簡略化するために省略する。
このように、本変形例では、ひとつのコンテキストグループに対し、複数の処理候補が存在する場合は、ユーザが直感的に把握し易いアイコンを用いることで複数の処理候補を同時に提示する。
本変形例によれば、抽出された処理候補の概要を示すアイコンや操作入力部からの操作指示の指定を容易にするアイコンまたはメニューを表示することができる。そのため、例えば、被写体に対する拡大処理(デジタルズーム加工)などの処理をアイコンによりユーザが直感的に把握でき、複数の処理候補が同一画面上に混在する状況においても、ユーザが所望する処理候補の選定をアイコンまたはメニューにより容易にすることができる。つまり、ユーザが意図しない処理候補の操作指示誤りを軽減でき、コンテンツ処理の概要を操作ユーザが把握した上でより確実にコンテンツ処理を実行できる。
(変形例2)
また、実施の形態3の別の様態を変形例2として、図43および図44を用いて説明する。
図43は、実施の形態3の変形例2における入力コンテンツ最大領域に対するフォーカス領域の配置例および解析規定範囲の例を示す図である。図44は、実施の形態3の変形例2におけるコンテンツ解析処理の内部状態を示す図である。
本変形例では、例えば図43に示すように、出力制御部104は、対象となる入力コンテンツの最大領域4301と現在のフォーカス領域4302とを常に取得・管理している。そして、出力制御部104は、コンテンツ解析部105に入力コンテンツのコンテンツ解析処理を依頼する際、現在のフォーカス領域4302に対し、解析規定範囲を算出して当該解析規定範囲に対してのみコンテンツ解析処理を行うよう指示する。
コンテンツ解析部105は、出力制御部104からの要求に従い、当該解析規定範囲に対してのみオブジェクト要素の抽出を行う。その結果、図44に示すように、入力コンテンツ最大領域4401に対し、フォーカス領域4402の解析規定範囲4403に収まるオブジェクト要素のみが抽出される。ここでは、前述した人物を示すオブジェクト要素「P3」〜「P6」がそれに該当する。
本変形例によれば、対象コンテンツに対し、フォーカス領域に基づく解析処理となるよう制御することができる。そのため、例えば、最大領域の解像度が横4096ピクセルと縦2160ピクセルでフォーカス領域に対する解析規定範囲の解像度が横1024ピクセルと768ピクセルの場合、フォーカス領域に対する解析規定範囲に含まれるオブジェクト要素の解析のみで処理候補を抽出でき、最大領域におけるコンテンツ解析処理に対してコンテンツ解析処理負荷が軽減できる。したがって、処理負荷軽減によりコンテンツ処理装置の応答レスポンス等の改善や消費電力の低減が期待できる。
(変形例3)
また、実施の形態3の別の様態を変形例3として、図45〜図48を用いて説明する。
図45は、実施の形態3の変形例3における処理候補実行処理の流れを示すフローチャートである。図46は、実施の形態3の変形例3におけるフォーカス領域とフォーカス領域外のコンテキスト情報との相対位置関係の例を示す図である。図47は、実施の形態3の変形例3におけるフォーカス領域外のコンテキスト情報に対する相対座標算出結果の例を示す図である。図48は、実施の形態3の変形例3におけるフォーカス領域外のコンテンツ処理候補を含むコンテンツ処理候補表示画面の例を示す図である。
なお、図45に示す出力制御部104の処理候補実行処理の流れのうち、ステップS4501〜4504までの処理、ステップS4509〜4515までの処理は図18、図22および図37に示した処理の流れと同じであるため、説明を省略する。
ステップS4505において、出力制御部104は、コンテキストグループの中心座標がフォーカス領域外であるかを確認する。
出力制御部104は、コンテキストグループの中心座標がフォーカス領域外である場合(S4505のY)、コンテキストグループの中心座標とフォーカス領域の中心座標を結ぶ直線とフォーカス領域端との交点から相対座標を算出する(S4506)。
例えば、図46に示す例では、入力コンテンツ最大領域4601に対し、フォーカス領域4602が部分的に存在するため、出力制御部104は、フォーカス領域4602の外に位置するコンテキストグループ「P1」〜「P3」および「P6」に対し、フォーカス領域4602の中心座標から各コンテキストグループの中心座標に対する直線を論理的に算出する。そして、フォーカス領域4602端との交点座標を相対座標として算出する。
出力制御部104は、例えばフォーカス領域4602における座標軸を新たに定義した場合、例えば図47に示すように、「P1」の相対座標は「0,348」、「P2(Alice)」の相対座標は「0,332」、「P3」の相対座標は「0,315」と算出する。
なお、本変形例は、説明簡易化のため、各コンテキストグループに人物を示すオブジェクト要素が含まれているものとし、各コンテキストグループに含まれるオブジェクト要素に対応する人物名を処理候補の代わりに表示する。その後、ユーザにより指示されたコンテキストグループに対する処理候補を表示する場合として説明する。
次に、出力制御部104は、表示中の処理番号や処理名と相互に重畳しないよう実行可能な処理番号や処理名またはコンテキスト情報を表示させる(S4507)。
具体的には、例えば図48に示すように、出力制御部104は、表示部112に、フォーカス領域内に位置する「P4」を含むコンテキストグループ4805や「P5」を含むコンテキストグループ4806に対してはそれらコンテキストグループ近傍にコンテキストグループに含まれる人物名「Mike」や「Tom」を表示させる。一方、出力制御部104は、フォーカス領域外に位置するコンテキストグループ「P1」〜「P3」および「P6」については、最も左側に位置しながら人物を特定できなかった「P1」を除き、出現方向を意味する矢印アイコン「▲」をマージン領域4803に相対座標に基づき、表示部112に表示させる。さらに、各コンテキストグループの出現順序に従い、左側から2番目に出現する「P2(Alice)」は4807とし、左側から3番目に出現する「P3(Dan)」の4808よりもより左寄りに表示されるよう制御する。また、フォーカス領域に対し右側に位置する「P6(Paul)」はフォーカス領域の右側にその存在を示す4809を表示する。これにより、マージン領域4803にフォーカス領域外のコンテキストグループが存在することをユーザに提示することができる。
なお、本変形例では、説明簡易化のためにコンテキストグループに対する処理候補の表示の代わりに、コンテキストグループが含むオブジェクト要素に対応するコンテキスト情報として人物名を表示することで、ユーザに直感的に存在を知らしめる方式で説明したが、表示方法はこれに限らない。例えばマージン領域のサイズを比較的大きく設定しフォーカス領域外のコンテキストグループおよび処理候補をマージン領域内に収まるように表示するようにしても良い。また、フォーカス領域外のコンテキストグループに対する処理候補の処理候補名を直接表示するようにしても良いし、処理概要を示すアイコンを表示しても良いし、処理実行時の出力結果イメージをサムネイル等により表示するようにしても良い。
本変形例によれば、フォーカス領域とは別に、処理候補表示領域に処理候補を表示するよう制御することができる。そのため、例えば、フォーカス領域においては対象コンテンツの内容を表示しながら、処理候補表示領域に処理候補を表示できる。このようにして、フォーカス領域に含まれるオブジェクト要素に対する処理候補の重畳表示による対象コンテンツの可視性低減を回避でき、処理候補表示領域に表示される処理候補の選択のみで所望の処理を実行できる。
また、本変形例によれば、対象コンテンツに対し、フォーカス領域以外のオブジェクト要素に対しても解析し、フォーカス領域以外のオブジェクト要素に対する処理候補も抽出することができる。そのため、例えば、フォーカス領域として表示されている人物以外に、他に撮影・閲覧・編集すべきオブジェクト要素が発見され、フォーカス領域において表示されていない人物や一般物体に対する処理候補が表示されるので、当該ユーザが処理候補の実行を選択操作のみで指示することによりコンテンツの縮小処理(デジタルズームアウト)を即時に実行できる。このようにして、ユーザがフォーカス領域に対して意図するコンテンツ処理以外に、フォーカス領域以外に含まれるオブジェクト要素に対するユーザが想像し得なかったコンテンツ処理の提案と実行が実現できる。
また、本変形例によれば、フォーカス領域の中心に対し、フォーカス領域以外のオブジェクト要素に対する処理候補が出現方向および出現順序に応じて表示することができる。そのため、例えば、フォーカス領域として表示されている人物以外に、他に撮影・閲覧・編集すべきオブジェクト要素が上下左右のいずれかの方向に存在しているかが可視化され、フォーカス領域において表示されていない人物や一般物体に対する処理候補の選定が出現順序などにより直感的になり、当該ユーザが処理候補の実行を実際の空間上における位置関係に則して選択指示できる。このようにして、フォーカス領域以外に含まれるオブジェクト要素に対する処理候補の指示誤りが軽減され、より確実に処理候補を実行できる。
(変形例4)
また、実施の形態3の別の様態を変形例4として、図49を用いて説明する。
図49は、実施の形態3の変形例4におけるフォーカス領域外のコンテンツ処理候補を含むコンテンツ処理候補表示画面の例を示す図である。
本変形例では、出力制御部104は、当該コンテキスト情報の出力優先度または処理候補の実行優先度に応じて、当該コンテキストグループに紐付く処理候補の表示内容を装飾などにより変更する。例えば、図49に示すように、主題であるコンテキストグループに含まれるコンテキスト情報「P4(Mike)」は表示4905のように通常の白色背景のアイコンではなく、網掛けなど特殊な配色やパターン模様を用いた装飾を施すよう制御する。また、出力優先度が比較的高いコンテキストグループに含まれ、フォーカス領域外に位置するコンテキスト情報「P2(Alice)」は表示4907のように通常の白色背景のアイコンよりも大きめの表示とし、文字列の表示も太字とするなどの装飾を施すよう制御する。さらに、出力優先度が低いコンテキストグループに含まれるコンテキスト情報「P3(Dan)」は表示4908のように通常のアイコンよりもユーザが目視可能な範囲で小さめに表示するよう制御する。
以上、本変形例によれば、コンテキスト情報の出力優先度により処理候補の表示内容を装飾等により強調制御することができる。そのため、例えば、主題や重要な副題をユーザが容易に発見でき、フォーカス領域に表示されている人物以外にも他に撮影・閲覧・編集すべき被写体の存在有無をユーザに強調しながら通知できる。このようにして、ユーザがオブジェクト要素を見逃すといった機会損失を軽減できる。
(変形例5)
また、本実施の形態3の別の様態を変形例5として、図50〜図55を用いて説明する。
図50は、実施の形態3の変形例5における処理候補パターンテーブルの例を示す図である。図51は、実施の形態3の変形例5における処理候補実行処理の流れを示すフローチャートである。図52は、実施の形態3の変形例5におけるコンテンツ処理候補表示画面の例を示す図である。図53は、実施の形態3の変形例5におけるコンテンツ処理候補表示画面のサブメニューを表示する例を示す図である。
本変形例では、処理候補抽出部108は、図50に示す処理候補パターンテーブルを内部で保持する。図50では、図34に示す処理候補パターンに、当該コンテキストグループが複数選択される場合が条件として加わった場合の例が示されている。ここで、例えば処理候補E7は、コンテキストグループを複数指定された場合、「おまかせ分割表示」として当該コンテキストグループ領域を分割して表示する処理を意味する。また、処理候補E8は、コンテキストグループを複数指定された場合、「おまかせ分割撮影」として当該コンテキストグループをひとつの動画像に合成し、フォーカス領域の表示とは別に切り出して記録する処理を意味する。
次に、出力制御部104による処理候補実行処理について、複数のコンテキストグループが指定された場合の受け付け処理の流れおよび分割出力時の処理の流れについて説明する。
図51に示す出力制御部104の処理候補実行処理の流れのうち、ステップS5101〜5103までの処理は図18、図22、図37および図45に示した処理の流れと同じであるため、説明を省略する。
ステップS5101およびS5102において、出力制御部104は、当該コンテキストグループの処理候補を表示部112に表示させ、規定時間以内にユーザからの処理候補実行指示を受け付ける。
次に、出力制御部104は、表示中の処理候補に対し実行指示を受け付けたかを各にする(S5103)。
ステップS5103において、表示中の処理候補に対し実行指示を受け付けた場合(S5103のY)、さらに表示中の処理候補のうち2つ以上の処理候補またはコンテキスト情報に対して実行指示を受け付けた場合(S5104のY)、受け付けた処理候補またはコンテキスト情報に紐付くコンテキストグループの状態情報に基づき処理候補の内容を調整する(S5105)。具体的には、例えば図52に示すフォーカス領域5202において、表示5205〜表示5209が表示されて、ユーザが操作入力部113を介してタッチ操作を行うことが可能である旨を意味する「●(黒丸)」が表示されている。ユーザが「Alice」を黒丸5210で、「Tom」を黒丸5211でタッチした場合、2つを同時或いは僅差で選択したことにより複数の処理候補またはコンテキスト情報を選択する。
次に、出力制御部104は、操作入力部113が受け付けた2つ以上の処理候補またはコンテキスト情報に紐付くコンテキストグループの状態情報に基づき処理候補の内容調整結果に従い、実行可能な処理候補をサブメニューとして表示する(S5106)。
具体的には、出力制御部104は、例えば図53に示す黒丸5310および黒丸5311がタッチ操作されることにより、実際の実空間上での出現順序に配慮して、最も左側に位置する「Alice」から次に出現する「Dan」、そしてフォーカス領域にて表示中の「Mike」と続き、タッチ操作により指定されている「Tom」までを処理候補の内容調整の対象コンテキストグループと判定し、表示上のアイコンを選択状態として色などで強調する。さらに、出力制御部104は、サブメニュー表示領域5312を表示部112に表示させる。例えば、出力制御部104は、表示部112に選択中の複数のコンテキストグループに共通して実行可能な処理候補を、サブメニュー表示領域5312に並べて表示させる。ここで、処理候補E1はサブメニュー5313の「おまかせズームアウト」、処理候補E2はサブメニュー5314の「指定追従撮影」、処理候補E7はサブメニュー5315の「おまかせ分割表示」、処理候補E8はサブメニュー5316の「おまかせ分割撮影」にそれぞれ割り当てられている。フォーカス領域にて入力コンテンツの最大領域となる全体を表示するための汎用的な処理候補をサブメニュー5317の「全体表示」として表示されている。
次に、出力制御部104は、提示したサブメニューに対し、操作入力部113を介して実行指示を受け付けた場合、指示を受けた処理候補を実行する(S5107)。
図54は、実施の形態3の変形例5における分割表示の出力処理の流れを示すフローチャートである。図55は、実施の形態3の変形例5における分割合成テンプレートの例を示す図である。図56は、実施の形態3の変形例5における分割表示の出力結果の画面表示の例を示す図である。
図54に示すフローチャートは、図51に示す処理候補実行処理のうち、ステップS5107の具体例のひとつである分割表示を例にした出力処理の流れを示している。以降、指定されたコンテキストグループを分割表示する例について説明する。
まず、出力制御部104は、操作入力部113がユーザから受け付けた少なくとも1つ以上のコンテキストグループを取得する(S5401)。
次に、コンテンツ解析部105は、各コンテキストグループに対し抽出された抽出座標および抽出領域を解析して取得する(S5402)。
次に、出力制御部104は、指定されたコンテキストグループの数、抽出座標による各コンテキストグループ間の位置関係、および抽出領域のサイズなどからコンテンツ処理装置100が出力可能な出力テンプレートを処理候補の目的別に作成する(S5403)。
ここで、指定されたコンテキストグループを分割して表示する「分割合成テンプレート」を例に挙げて説明する。
図55に示す分割合成テンプレート5501は、分割合成枠「T1」〜「T4」などを有している。コンテンツ加工部110は、出力制御部104はからの要求に基づき、当該コンテキストグループの抽出座標および抽出領域に基づき当該入力コンテンツを部分的に切り出し、この分割合成枠に切り出した動画像を割り当てる。ここで、分割合成枠名を「TN1」〜「TN4」とし、分割合成テンプレート名を「TITLE(図中5502)」で表現する。
次に、出力制御部104は、作成した出力テンプレートについて、収容したいコンテキストグループの数や分割などの出力表示サイズから指定された全てのコンテキストグループを当該出力テンプレートに適合するかを判定する(S5404)。
ステップS5404において、適合する場合には(S5404のY)、指定された全てのコンテキストグループを当該出力テンプレートに割り当てるための出力用リソースをコンテンツ処理装置100にて確保できるかを確認する(S5405)。ここで、出力用リソースとは、例えば動画像処理のためのチャンネルやCPU処理、出力に必要な蓄積部102の空き容量など一般的なデジタル処理に必要な準備と処理能力である。
ステップS5405において、リソースを確保できる場合(S5405のY)、出力制御部104は、出力優先度の高いコンテキストグループから順に出力テンプレートに出力を行い(S5407)、全てのコンテキストグループに対して出力を行う(S5408)。
なお、ステップS5404でNおよびステップS5405でNと判定された場合は、指定されたコンテキストグループのうち、出力優先度の低いコンテキストグループを候補から排除するなどして、出力テンプレートに対する適合を図る(S5406)。
次に、出力制御部104は、当該指定のコンテキストグループに対し、出力処理を確認した後(S5408のY)、出力テンプレートにおいて出力可能な入力コンテンツの撮影日時や入力コンテンツに関するイベントのタイトルなどを取得し、出力テンプレートに合成する(S5409)。
そして、出力制御部104は、出力結果を出力する(S5410)。ここで、例えば、出力制御部104は、表示部112に分割表示の結果を表示させたり、蓄積部102に分割表示を意図したファイルとして出力したりする。
図56には、図55の「分割合成テンプレート」に基づく分割表示の出力結果例が示されている。具体的には、分割合成テンプレートの「T1」に、コンテキストグループ「G1」(主題であるP4:Mikeの映像)を合成し、「TN1」に主題のコンテキスト情報である「Mike」を合成する。以降同様に「T2」〜「T4」を出力優先度に従い「G2」以降のコンテキストグループを出力している。また、分割合成テンプレートの「TITLE(図中5502)」に撮影日付とイベント名を示す「2002/5/30 おゆうぎ会」を出力している。
なお、本変形例では、処理候補となるコンテキストグループを複数選択した場合、その出現順序に従ったコンテキストグループを一括処理の対象として説明したが、複数選択する場合の処理候補の内容調整の方法はこれに限らない。例えば、個別に選択されたコンテキストグループに対してのみ処理候補の内容を調整するようにしても良いし、優先度が高いコンテキストグループに対してのみ処理候補の内容を調整するようにしても良い。
また、本変形例では、説明簡易化のため、出力テンプレートを出力制御部104が都度作成する形式で説明したが、出力テンプレートの創出方法はこれに限らない。例えば、出力制御部104が内部に管理する図示しないテンプレート管理テーブルに予め出力パターン数だけ用意しておくようにしても良い。
また、本変形例では、説明簡易化のため、コンテンツ解析部105により抽出されたオブジェクト要素が一般物体であった場合を省略して説明したが、この場合に限られない。例えばステップS5403、ステップS5404、或いはステップS5406等で一般物体を分割合成枠「T1」等に割り当てない等を出力制御部104が判断するようにしても良いし、出力テンプレートの初期定義に各出力枠の推奨利用方法を予め記載するようにしておくようにしても良い。
以上、本変形例によれば、ユーザが指示した少なくとも2以上のコンテキスト情報に対し、実空間における配置・出現順序・位置関係・人物同士の関係性などを含む解析データ・出力優先度に基づき処理候補の選定・内容調整・表示を制御することができる。そのため、例えば、複数の被写体に対して共通的な処理候補を直感的かつ容易に選択でき、実空間上における配置に従った処理候補の提示ができる。このようにして、ユーザによる誤操作を防止し操作数が軽減できる。
また、本変形例によれば、選定された少なくとも1以上のコンテキスト情報(コンテキスト情報)を収容する出力テンプレートをコンテキスト情報の実空間における配置・出現順序・位置関係・人物同士の関係性などを含む解析データ・出力優先度に基づき生成し、合成表示や合成ファイルの出力を行うことができる。そのため、例えば、動的に変化するテンプレートに従った分割表示などの動画像を生成でき、パーソナルコンピュータなどの専用ツールを用いて複数の動画像からひとつの動画像を編集する手間を排除することができる。このようにして、撮影や閲覧といった操作と同時に少なくとも1以上のコンテキスト情報を配置した合成作品を生成する新たな手段を実現できる。
(変形例6)
また、本実施の形態3の別の様態を変形例6として、図57〜図58を用いて説明する。
図57は、実施の形態3の変形例6におけるコンテキスト情報に対し出力処理を指示する操作の例を示す図である。図58は、実施の形態3の変形例6における分割表示の出力結果の画面表示の別の例を示す図である。
例えば図57に示すように、表示部112が表示する全画面表示領域5701に対し、フォーカス領域5702に対象となる入力コンテンツの一部が表示され、マージン領域5703に現在実行中の処理番号「(1)」と処理名「全体撮影中」とが表示5704として表示されているとする。また、フォーカス領域内のコンテキストグループとして主題である「Mike(5705)」と副題である「Tom(5706)」とが抽出されているとして以下説明する。
変形例5では、図52を用いて、出力制御部104は、操作入力部113からコンテキストグループを複数指定されることにより処理候補を含むサブメニューを表示させ、ユーザに処理候補を選択させる流れについて説明した。
それに対して、本変形例では、図57を用いて、例えばユーザがマージン領域5703の領域内、即ちフォーカス領域外でユーザがタッチ操作を行い、図中の「●(黒丸)」で示す黒丸5707から、黒丸5708までドラッグ操作をした場合について説明する。ここで、ドラッグ操作とは、タッチ操作を継続しながら上下左右に位置を移動させる操作方法である。
より具体的には、出力制御部104は、操作入力部113からユーザがマージン領域5703からドラッグ操作を開始したことを検出し、その後のドラッグ操作の方向性および軌跡を内部で管理する。そして、出力制御部104は、図中の矢印5709に従い再びマージン領域にドラッグ操作が至った場合、当該フォーカス領域に含まれるコンテキストグループに対し、領域を跨ぐコンテキストグループを別の扱いと判定し、処理候補の内容の調整および実行の要否判定を行う。
図58には、コンテキスト情報「Mike」を含むコンテキストグループとコンテキスト情報「Tom」を含むコンテキストグループとをユーザによるドラッグ操作により別の扱いと判定し、各コンテキストグループを分割表示する例が示されている。
ここで、出力制御部104は、フォーカス領域5802に入力コンテンツの一部を表示する代わりに、ドラッグ操作により分断されたコンテキストグループをドラッグの軌跡に従い分割する出力テンプレートを作成する(図54ステップS5403に相当)。次いで、分割合成枠5805と分割合成枠5806にコンテキスト情報および付帯情報が収容されるようコンテキストグループの切り出し度合いを調整しながら各動画像を合成し、撮影日付やタイトル枠5807と共に表示させる。
なお、図中、メニュー5808には「MODE CHANGE」と標記されている。メニュー5808には、メニュー5808をタッチ操作することで表示部112が表示する処理候補の表示モードを切り替える機能を割り当てるとしてもよい。この場合、分割表示前の入力コンテンツの一部をフォーカス領域に表示するモードなどに復帰できる。
なお、本変形例では、マージン領域からフォーカス領域を介してマージン領域に到達するドラッグ操作を例に説明したが、ドラッグ操作を含むタッチ操作はこれに限らない。例えば、マージン領域とは独立に、コンテキスト情報を連続的に囲むようにドラッグ操作を行い、ドラッグ操作による閉空間が検出された際に当該閉空間内に含まれる少なくとも1以上のコンテキスト情報を処理対象としても良い。また、ある特定の形状(例えば三角形やハート型など)で少なくとも1以上のコンテキスト情報が囲まれた場合には特定の処理候補(三角形ならデジタルズーム処理、ハート型ならハート型で切り出したテンプレートで分割表示など)を実行するように割り当てても良い。
以上のように、本変形例によれば、ユーザからのタッチ操作入力などにより、少なくとも1以上のコンテキスト情報の指定と処理候補を特定することができる。また、コンテキスト情報に加えてタッチ操作で指定された領域の分割線の軌跡や各コンテキストグループに割り当てられた面積比率などから出力テンプレートを動的に生成し、その動画像に対する処理候補と合成内容および出力結果を変化させることができる。そのため、例えば、面積比でズーム率を制御する、単位時間の被写体オブジェクト要素の行動範囲に基づき合成するコンテキストグループの画角を判定するなどの制御ができる。このようにして、タッチ操作による直感的なコンテキスト情報の指定および処理候補の実行が実現でき、ユーザによる操作負担を軽減できる。
以上、本実施の形態によれば、コンテンツの撮影、閲覧、編集の際に、コンテンツ処理に必要なユーザによる思考と操作の負担を軽減するコンテンツ処理装置、コンテンツ処理方法およびプログラムを実現することができる。
なお、本実施の形態においては、撮影・閲覧・編集時に表示またはファイル出力されるコンテンツは、撮影・閲覧・編集と同時にコンテンツ加工処理がなされて出力されることを想定して説明してきたが、加工・出力のタイミングはこれに限らない。例えば内部で決定した指示またはユーザから受け付けた指示に基づく処理内容を内部で記憶しておき、内部での指示決定またはユーザからの指示決定とは非同期にコンテンツ加工処理を実行しても良い。また、上述した出力用リソースが確保されたタイミングで実行するようにしても良い。
また、本実施の形態においては、撮影・閲覧・編集時に表示またはファイル出力されるコンテンツは、撮影・閲覧・編集と同時に入力された入力コンテンツを時系列で切り出す例を用いて説明したが、コンテンツ加工処理の対象となる入力コンテンツはこれに限らない。蓄積部102にコンテンツデータ103とコンテンツデータ103のコンテキスト情報およびコンテキストグループを履歴情報として蓄積しておき、撮影と同時にコンテンツ入力部101から入力される入力コンテンツに加えて、蓄積部102に蓄積されているコンテンツデータ103とコンテキスト情報およびコンテキストグループを参照して合成するようにしても良い。この場合、撮影・閲覧・編集時において、対象となる入力コンテンツに限らず、蓄積部102に蓄積されているコンテンツデータ103までもが合成の対象とすることができる。それにより、撮影・閲覧・編集の幅が広がり、蓄積されている過去の被写体オブジェクトと現在の被写体オブジェクトをコンテキスト情報に基づき関連付けて比較表示・分割合成して再生するスライドショーなど、撮影・閲覧・編集の都度違った合成・演出を伴うコンテンツ処理を提供できる。
また、本実施の形態においては、撮影・閲覧・編集時に表示またはファイル出力されるコンテンツは、撮影・閲覧・編集の対象となる対象コンテンツまたは蓄積部102されているコンテンツデータ103を中心に説明したが、それに限らない。例えば表示またはファイル出力される際に合成されるコンテンツの要素はこれに関連付けられる装飾素材(例えば、ランドマークとなる塔をデフォルメしたアニメーション装飾パーツなど)を合成するようにしてもよい。その場合には、合成・演出の幅を広げることができる。
(実施の形態4)
次に、実施の形態4について説明する。本実施の形態では、コンテンツ処理装置がネットワークに接続される場合の例について説明する。
図59は、実施の形態4のコンテンツ処理装置100Cの構成を示すブロック図である。図59において、図1、図21および図25と同じ構成要素については同じ符号を用い、説明を省略する。
図59に示すコンテンツ処理装置100Cは、図25に示すコンテンツ処理装置100Bの構成要素に加え、通信部114を有する。
通信部114は、コンテンツ処理装置100Cの外部の機器との通信を行う。通信部114は、例えば、ネットワークカードなどの通信デバイスであり、コンテンツ処理装置100Cと外部のネットワーク200に接続される各種装置との通信または遠隔操作を受け付ける役割を担う。本実施の形態では、通信部114は、図59に示すように、インターネットやイントラネットといったネットワーク200を介し、外部のコンテンツ処理装置100Dや外部の情報提供装置300と接続される。
また、通信部114は、出力制御部104からの要求に従い、ネットワーク200を介して情報提供装置300に情報取得を要求する要求メッセージを送信する。
また、通信部114は、情報提供装置300からの応答メッセージを受け付け、応答メッセージの内容を確認し、取得した情報を出力制御部104に応答する。取得した情報とは、例えば、コンテンツ処理装置100Cで利用可能な解析用情報や処理パターンおよび出力テンプレートといった情報である。
出力制御部104は、取得した情報を分解し、解析用情報106である場合はコンテンツ解析部105へ、処理パターン109である場合は処理候補抽出部108へ転送する。なお、情報が出力テンプレートであった場合は、出力制御部104が内部で保持する出力テンプレートに追加または更新を行う。
情報提供装置300は、通信部301と、情報提供制御部302とを有する。情報提供制御部302は、外部に提供可能、かつ、コンテンツ処理装置100Cで利用可能な解析用情報や処理パターンおよび出力テンプレートといった情報を内部のHDDなどの記憶装置303に保持する。本実施の形態では、情報提供装置300は、例えば、インターネットやイントラネットに接続されるアプリケーションサーバやコンテンツ配信サーバ、データベースやソーシャルネットワーキングサービスのサービスサーバなどである。
また、通信部301は、コンテンツ処理装置100Cからの要求メッセージを受け付け、情報提供制御部302にて要求メッセージの内容を確認する。ここで、一般的には要求元のコンテンツ処理装置100Cが情報提供を許可された装置であるか、或いはコンテンツ処理装置100Aを所有するオーナーが情報提供を受ける権利を有するか等を判断する。そして、情報提供が許容される場合には、コンテンツ処理装置100Cに有用な情報を含む応答メッセージを作成し、通信部301を介してコンテンツ処理装置100Cに返信する。
なお、本実施の形態では、コンテンツ処理装置100Cが情報提供装置300に情報取得を要求する例で説明したが、情報の取得方法はこれに限らない。通信部114がネットワーク200を介した情報提供装置300からの要求に基づき、情報取得を開始するようにしても良い。
なお、本実施の形態では、コンテンツ処理装置100Cが追加・更新する取得した情報として、解析用情報、処理パターンおよび出力テンプレートを例に挙げて説明したが、追加・更新する情報はこれに限らない。例えば、処理候補抽出部108が一般的な動画像の構図や色彩のパターンを網羅した構図色彩パターンを管理するとし、これらの構図色彩パターンを情報提供装置300から取得するようにしても良い。また、処理候補抽出部108が対象となる入力コンテンツの入力コンテンツ最大領域、フォーカス領域、または定義された各コンテキストグループに対する切り出し領域の動画像と構図色彩パターンを比較し、その構図色彩パターンとの比較から抽出される処理候補(例えば、オブジェクト要素全体を表示するようにデジタルズームアウトする、被写体として食べ物が写っているため彩度を上げる、など)を用いるようにしても良い。
以上、本実施の形態によれば、ネットワークで接続される情報提供装置から最新の解析用情報や処理パターン、出力テンプレートなどの情報をネットワーク経由で取得し、コンテンツ処理装置が保持する情報を追加・更新させることができる。そのため、例えば、解析用情報の陳腐化によるコンテキスト情報の抽出失敗を軽減できるので、出力に関わるコンテンツ加工方法の処理パターンや出力テンプレートの追加・品質向上・メンテナンスを図ることができる。
(実施の形態5)
次に、実施の形態5について説明する。
図60は、実施の形態5のコンテンツ処理装置100Eの構成を示すブロック図である。図60において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
図60に示すコンテンツ処理装置100Eは、図1に示すコンテンツ処理装置100と比較して、出力部111がなく、コンテンツ入力制御部115が追加されている。
コンテンツ入力制御部115は、出力制御部104の処理結果に基づき、コンテンツ入力部101の制御を行う。コンテンツ入力制御部115は、例えば、コンテンツ処理装置100に内蔵または装着される三脚や雲台であり、コンテンツ入力部101をカメラとした場合、カメラが向いている方向を調節する役割を担う。
図61Aおよび図61Bは、実施の形態5の入力コンテンツ最大領域に対するコンテキスト情報の位置関係の例を示す図である。
出力制御部104は、図61Aに示すように、コンテンツ入力部101から対象となる入力コンテンツを取得し、コンテンツ解析部105に入力コンテンツ最大領域に関する解析を要求する。ここで、出力制御部104は、図の最大領域マージン枠6102を最大領域の四辺からの規定幅などで定義する。そして、出力制御部104は、コンテンツ解析部105に、入力コンテンツ最大領域6101と最大領域マージン枠6102との間に該当する最大領域マージン枠6102に抽出したコンテキスト情報が重畳しているか否かを、当該抽出コンテキストグループの状態情報である抽出座標と抽出領域の位置関係とから判定するよう依頼する。この時、出力制御部104は、入力コンテンツ最大領域6101とは別に、コンテンツ処理装置100を操作するユーザが注目するフォーカス領域6104を管理している。
ここで、図61Aに示すように、コンテンツ解析部105は、人物被写体情報であるオブジェクト要素「P1」〜「P6」をコンテキスト情報として抽出する。コンテンツ解析部105は、例えばコンテキスト情報「P1」が最大領域マージン領域に重畳している場合、入力コンテンツの最大領域マージン枠からのはみ出しが発生したことと、はみ出した方向と、はみ出し幅とを出力制御部104に通知する。出力制御部104は、コンテンツ解析部105からの通知を受け、コンテンツ入力制御部115にコンテンツ解析部105から通知を受けたはみ出し方向と、はみ出し幅に従い、コンテンツ入力部101の方向を変更するよう要求する。コンテンツ入力制御部115は、出力制御部104からの要求に応じて方向を変更し、その結果を応答する。
図61Bに示すように、出力制御部104がコンテンツ入力制御部115にコンテンツ入力部101の方向の変更を依頼する前の入力コンテンツ最大領域6110に対し、依頼した後の入力コンテンツ最大領域6111が、図61Aに示したコンテキスト情報「P1」の位置に従い移動している。つまり、コンテンツ入力制御部115によりコンテンツ入力部101の方向が変更された後の最大領域マージン枠6112および最大領域マージン枠6113に対し、コンテキスト情報「P1」〜「P6」が各々重畳していない状態に改善されている。
なお、本実施の形態では、コンテンツ解析部105が抽出したコンテキスト情報と最大領域マージン領域との重畳を例に説明したが、コンテンツ入力制御部115によるコンテンツ入力部101の調整トリガーはこれに限らない。例えば、フォーカス領域6104と最大領域マージン領域との重畳をトリガーにしても良い。また、例えばフォーカス領域6104にマージン領域を定義し、フォーカス領域6114のように最大領域マージン枠6112との重畳または近づいたことをトリガーにしても良い。
また、本実施の形態では、コンテンツ入力制御部115の制御内容をコンテンツ入力部101の物理的な方向を調整することを例に説明したが、コンテンツ入力制御部115による制御内容はこれに限らない。例えば、コンテキスト情報「P1」〜「P6」がぼけて撮影されないように焦点距離などを調整するようにしても良い。また、例えば、コンテキスト情報の出力優先度に従い被写体深度などを調整するようにしても良いし、これらを物理的な機構で実現しても良いしデジタルデータ処理で実現するようにしても良い。
以上、本実施の形態によれば、入力された動画像の被写体コンテキスト情報の状態に応じて、カメラなどの入力装置の方向や焦点距離などをコンテキスト情報が欠損しないよう自動で調整して制御することができる。そのため、例えば、デジタルカメラの本体画面で撮影中の全体像の一部をデジタルズーム加工により拡大して表示しながら撮影する場合、手で持ちながら撮影するユーザが表示画面の動画像に囚われてデジタルカメラ本体の方向が変化してしまうことがあってもデジタルカメラ本体に内蔵された雲台などにより自動調整することができる。これにより、撮影するユーザの錯覚や操作ミスによるコンテキスト情報の欠損を軽減できる。
(実施の形態6)
次に、実施の形態6について説明する。
図62は、実施の形態6のコンテンツ処理装置100Fの構成を示すブロック図である。図62において、図1、図21、図25、図59および図60と同じ構成要素については同じ符号を用い、説明を省略する。
図62に示すコンテンツ処理装置100Fは、図59および図60に示すコンテンツ処理装置の構成要素に加え、認証管理部116を有する。
認証管理部116は、コンテンツ処理装置100への処理要求に対する認証を行う。認証管理部116は、例えば、機器単位、機器を所有するユーザ単位、またはユーザが属する社会的属性や契約単位で認証を行う役割を担う。
また、本実施の形態では、インターネットやイントラネットといったネットワーク200を有し、外部のコンテンツ処理装置100Dと接続される。
以下、コンテンツ処理装置100Fのコンテンツ入力部101から入力される動画像の入力コンテンツを、コンテンツ処理装置100Dがストリーミング等の配信方式で閲覧する例を説明する。ここでは、図の簡素化のため、コンテンツ処理装置100Dの構成ブロックを、コンテンツ処理装置100Fを参照して説明する。
コンテンツ処理装置100Dにおいて、出力制御部104は、通信部114を介してネットワーク200上に存在する他のコンテンツ処理装置100Dにコンテンツ処理装置100Fが動画像を配信可能である配信可能メッセージを送信する。コンテンツ処理装置100Dは、コンテンツ処理装置100Fからの配信可能メッセージを受け付け、コンテンツ処理装置100Dが備える表示部112にコンテンツ処理装置100Fが動画像を配信可能であることを表示する。
コンテンツ処理装置100Dを操作するユーザは、コンテンツ処理装置100Dの操作入力部113を介してコンテンツ処理装置100Fへの接続を指示する。コンテンツ処理装置100Dの出力制御部104は、ユーザからの指示に従い、通信部114を介して、コンテンツ処理装置100Fに接続要求メッセージを送信する。
コンテンツ処理装置100Fの出力制御部104は、通信部114を介して取得した接続要求メッセージを認証管理部116に転送する。認証管理部116は、接続要求メッセージの内容を確認し、コンテンツ処理装置100Dがコンテンツ処理装置100Fへの接続を許可できるかを判定し、出力制御部104に応答する。出力制御部104は、認証管理部116の応答結果から、コンテンツ入力部101を介して提供可能な入力コンテンツをコンテンツ処理装置100Dに配信するか否かを判定する。ここで、配信提供が可能と判断した場合、コンテンツ処理装置100Dの出力制御部104は、コンテンツ処理装置100Fからの配信を通信部114経由で受け付け、表示部112に表示する。
次に、コンテンツ処理装置100Dの出力制御部104は、コンテンツ解析部105が保持する解析用情報106をコンテンツ処理装置100Fに送信する。コンテンツ処理装置100Fは、コンテンツ処理装置100Dから解析用情報106を受け付け、コンテンツ解析部105の解析用情報106と一時的にマージする。そして、コンテンツ処理装置100Fの出力制御部104は、コンテンツ解析部105が抽出した解析データに基づき抽出したコンテキストグループの定義テーブルをコンテンツ処理装置100Dに転送する。
これにより、コンテンツ処理装置100Dの出力制御部104は、表示部112にコンテンツ処理装置100Fから配信される入力コンテンツと共にコンテンツ処理装置100FおよびDでマージされた解析用情報106に基づくコンテキストグループから処理候補を表示可能となる。
そして、コンテンツ処理装置100Dの出力制御部104は、操作入力部113からコンテキストグループに対する処理候補の実行を受け付ける。コンテンツ処理装置100Dの処理パターンに従い、コンテンツ加工部110にコンテンツ処理装置100Fから配信された入力コンテンツの加工を依頼し、コンテンツ処理装置100Dの蓄積部102等にコンテンツデータ103を生成したり、表示部112に表示したりする。
さらに、コンテンツ処理装置100Dの出力制御部104は、コンテンツ処理装置100Dで実行した処理候補の処理結果をコンテンツ処理装置100Fに通知する。コンテンツ処理装置100Fの出力制御部104は、コンテンツ処理装置100Dから通知された処理結果の内容を確認し、処理候補抽出部108の処理パターンの優先度判定に用いたり、出力制御部104が内部で保持する出力テンプレートとして追加・更新したりする。
なお、本実施の形態では、コンテンツ処理装置100Dがコンテンツ処理装置100Fに入力コンテンツの配信提供を要求しその認証が成功する例を用いて説明したが、認証管理部116の認証処理はこれに限らない。複数のコンテンツ処理装置100Dから同時に配信提供を要求された場合、コンテンツ解析部105が管理する解析用情報106に含まれる人物関係情報を参照して配信先の優先度を判定するようにしても良い。
また、本実施の形態では、作品をつくるといったコンテンツ加工処理をコンテンツ処理装置100Dで実行する例を用いて説明したが、加工する装置は分散型に限らない。例えば、コンテンツ処理装置100Fが総合的にコンテンツ処理装置100Dの操作入力部113から少なくとも1以上のコンテキスト情報の指定や処理候補の実行などの操作を受け付けるとしてもよい。この場合、コンテンツ処理装置100Fの認証管理部116が操作元となるコンテンツ処理装置100を認証しながら出力制御部104がその実行を制御し、入力コンテンツをコンテンツ加工部110により加工して配信するようにすれば良い。
以上、本実施の形態によれば、ネットワークを経由して他の端末と入力された動画像や抽出されたコンテキスト情報などを認証されたコンテンツ処理装置間で共有しながら作品化などのコンテンツ加工および配信が可能になる。そのため、例えば、ネットワークに接続されるモバイル端末で撮影した動画像を配信しながら、または、複数人のモバイル端末で共有しながら個々のモバイル端末で任意のコンテキスト情報を切り出した作品が作成できるといった新たな撮影・閲覧・編集手段を提供できる。なお、個々のモバイル端末の顔辞書などを一時的にマージして一貫性のあるコンテキスト情報を抽出しながら個々のモバイル端末にひとつの作品を配信できる、といった新たな撮影・閲覧・編集手段を提供するとしてもよい。
以上、本発明の一態様に係るコンテンツ処理装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、あるいは異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
例えば、実施の形態においては、オブジェクト要素のコンテキスト情報と出力優先度に基づきコンテキストグループを定義し、コンテキストグループに対応する処理候補を抽出するとしたが、コンテキストグループを定義することなく、コンテキスト情報と出力優先度に基づき、処理候補を抽出することとしてもよい。この場合、例えば、図15、図34、図50の例で示した処理パターンにおいて、条件や処理候補を、コンテキスト情報(コンテキスト情報)と出力優先度を用いた内容で定義するようにすればよい。
また、実施の形態1〜6におけるコンテンツ処理装置を用いて、プリントオーダーなどの構図切り出しアシスト等に利用するとしてもよい。
また、現在のデジタル放送よりも高解像度な放送やインターネット/ケーブル/衛星/無線などを介したネットワーク配信が可能になった場合、実施の形態1〜6におけるコンテンツ処理装置は、例えば、対象コンテンツに含まれる複数の人物オブジェクトのうち事前に登録した人物に対応する人物オブジェクトがベストアングルとなる構図へのズーム等の操作を提示するとしてもよいし、事前に登録した人物に対応する人物オブジェクトを追跡しながら分割表示する構図を提示するとしてもよい。
また、実施の形態1〜6におけるコンテンツ処理装置は、対象コンテンツに含まれる複数のオブジェクトのうち、目障りなものと判断されるオブジェクトを構図候補から排除、モザイク、画像合成で消すことを提示するとしてもよい。
また、実施の形態1〜6におけるコンテンツ処理装置は、対象コンテンツの構図を領域分割し、フレームアウトのリスクがあるものを察知してフェードアウトさせる構図(操作)を提示するとしてもよい。
また、入力される対象コンテンツは、2つ以上の入力リソースからのものでもよい。その場合、実施の形態1〜6におけるコンテンツ処理装置は、2以上の入力リソースからなる対象コンテンツの構図を分割する構図(操作)を提示するとしてもよい。
また、実施の形態1〜6におけるコンテンツ処理装置、または情報提供装置が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、コンテンツ処理装置100は、出力制御部104と、処理候補抽出部108とを有するシステムLSIから構成されてもよい。また例えば、情報提供装置300は、情報提供制御部302を有するシステムLSIから構成されてもよい。
システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Ramdom Access Memory)などを含んで構成されるコンピュータシステムである。前記ROMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
また、本発明は、このような特徴的な処理部を備える、コンテンツ処理装置、情報提供装置として実現することができるだけでなく、コンテンツ処理装置、または情報提供装置に含まれる特徴的な処理部をステップとするコンテンツ処理方法などとして実現することもできる。また、そのような方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
本発明は、コンテンツ処理装置、コンテンツ処理方法およびプログラムに利用でき、例えば静止画や動画など、比較的データサイズが大きいコンテンツを処理する装置に関し、特に撮影・閲覧・編集などのコンテンツ処理をコンテンツに含まれる被写体オブジェクトの特徴情報を用いて制御するコンテンツ処理装置等に利用することができる。また、本発明に係るコンテンツ処理装置は、デジタルスチルカメラ、デジタルビデオカメラ、ビデオレコーダやホームサーバ、パーソナルコンピュータやエンタープライズ向けコンピュータ(ワークステーション)、画像データの取り込み機能を搭載したデジタルテレビ受像機、セットトップボックス、カーナビゲーションシステム、プロジェクタ、タブレットを含むモバイル端末、音楽コンポ、デジタルフォトフレーム、機器制御用リモートコントローラ端末などへの適用に有用である。
100、100A、100B、100C、100D、100E、100F コンテンツ処理装置
101 コンテンツ入力部
102 蓄積部
103 コンテンツデータ
104 出力制御部
105 コンテンツ解析部
106 解析用情報
107 解析データ
108 処理候補抽出部
109 処理パターン
110 コンテンツ加工部
111 出力部
112 表示部
113 操作入力部
114 通信部
115 コンテンツ入力制御部
116 認証管理部
200 ネットワーク
300 情報提供装置
301 通信部
302 情報提供制御部
303 記憶装置
2301、3801、4001、5701 全画面表示領域
2302、2402 動画像表示領域
2303、3803、4003、4803、5703 マージン領域
2304、3805、3807、3809、4005、4007、4205、4207、4209 ガイド
2305、2306 処理結果表示
2601、2701、4401、4601、6101、6110、6111 入力コンテンツ最大領域
2602、2603、2702、3502、3802、4002、4302、4402、4602、5202、5702、5802、6104、6114 フォーカス領域
2703、2704 一般物体
3501 入力コンテンツ
3804、3904 文字列表示
3806、3808、3810、3908、3910 処理候補
3811 メニュー
4006、4008 処理候補名
4206、4208、4210 処理候補アイコン
4301 最大領域
4403 解析規定範囲
4806 コンテキストグループ
4905、4907、4908、5205、5209、5704 表示
5210、5211、5310、5311、5707、5708 黒丸
5312 サブメニュー表示領域
5313、5314、5315、5316、5317 サブメニュー
5501 分割合成テンプレート
5709 矢印
5805、5806 分割合成枠
5807 タイトル枠
5808 メニュー
6102、6112、6113 最大領域マージン枠

Claims (21)

  1. 処理対象のコンテンツである対象コンテンツを取得するコンテンツ取得部と、
    前記対象コンテンツに含まれる少なくとも2以上のオブジェクトと前記オブジェクトの特徴を示す特徴情報とを抽出し、前記オブジェクトのコンテキストを特定するための解析用情報と抽出した前記特徴情報とに基づいて、前記オブジェクト間の関係性を示す関係情報を含む属性情報であって前記オブジェクトの特徴を補足する属性情報を含む、前記オブジェクトのコンテキストを示すコンテキスト情報を特定するコンテンツ解析部と、
    前記対象コンテンツに対する処理を制御する処理制御部と、
    前記コンテキスト情報および処理優先度に基づき、前記対象コンテンツに対して、予め設定された処理候補のうち実行可能な処理候補を抽出する処理候補抽出部と、
    前記処理候補の処理状況に関する通知を出力する出力部と、を備え、
    前記処理制御部は、前記コンテキスト情報に含まれる属性情報に基づき、前記オブジェクトの処理優先度を算出し、
    前記処理候補抽出部は、前記コンテキスト情報および前記処理優先度に基づき、前記処理候補を抽出し、
    前記処理制御部は、前記処理候補抽出部により抽出された処理候補の実行前または実行後に、前記出力部に、前記処理候補の実行有無を示す情報を前記通知として出力させ、
    前記処理制御部は、前記2以上のオブジェクトが人物であり、前記2以上のオブジェクトのうちの一が注目オブジェクトの場合には、前記オブジェクト同士の親密度を示す関係情報に基づき、前記注目オブジェトと親密度の高いオブジェクトの処理優先度を高くする、
    コンテンツ処理装置。
  2. 前記特徴情報は、前記対象コンテンツ内における前記オブジェクトの相対座標、相対サイズもしくは相対面積、または、前記対象コンテンツの時間軸における出現タイミングもしくは出現時間を少なくとも含む、
    請求項1に記載のコンテンツ処理装置。
  3. 前記コンテキスト情報は、前記属性情報と、前記対象コンテンツにおける前記オブジェクトと前記注目オブジェクトとの位置関係を示す情報を含む前記オブジェクトの状態に関する状態情報とを含む、
    請求項1または2に記載のコンテンツ処理装置。
  4. 前記処理制御部は、抽出した前記オブジェクトそれぞれのコンテキスト情報に基づき、前記オブジェクトをグループ化するための基準を示す情報であるコンテキストグループ情報を定義し、前記処理候補抽出部により抽出された処理候補の実行有無を判定し、
    前記処理候補抽出部は、前記コンテキストグループ情報によりグループ化されたオブジェクトのグループのそれぞれに対して実行可能な前記処理候補を抽出する、
    請求項に記載のコンテンツ処理装置。
  5. さらに、前記対象コンテンツに対する処理に関する情報を表示する表示部を備え、
    前記処理制御部は、前記処理候補抽出部により抽出された処理候補の実行前または実行後に、前記表示部に、前記処理候補の実行有無を示す実行有無情報を表示させる、
    請求項1〜のいずれか1項に記載のコンテンツ処理装置。
  6. 前記処理制御部は、前記コンテンツ解析部により抽出された前記特徴情報に含まれる相対座標および相対サイズの少なくとも一方に基づき、前記表示部に、当該表示部が表示する前記オブジェクトの近傍にかつ視認可能な様態で前記実行有無情報を表示させる、
    請求項に記載のコンテンツ処理装置。
  7. さらに、前記対象コンテンツに対する処理に関する情報を表示する表示部と、
    ユーザからの操作を受け付ける操作入力部とを備え、
    前記処理制御部は、前記処理候補抽出部により抽出された処理候補の実行前または実行後に、前記表示部に当該処理候補を少なくとも1以上表示させ、
    前記処理制御部は、前記操作入力部が、前記表示部に表示させた当該処理候補のうち少なくとも1以上の処理候補を実行する旨を示す操作を受け付けた場合、当該少なくとも1以上の処理候補に対応づけられる処理を実行する、
    請求項1〜のいずれか1項に記載のコンテンツ処理装置。
  8. 前記処理制御部は、前記コンテンツ解析部により抽出された前記特徴情報に含まれる相対座標および相対サイズの少なくとも一方に基づき、前記表示部に、前記処理候補抽出部により抽出された処理候補の処理対象領域を可視するガイドラインを表示させる、
    請求項に記載のコンテンツ処理装置。
  9. 前記処理制御部は、前記コンテンツ解析部により抽出された前記特徴情報と前記処理候補抽出部により抽出された処理候補とに基づき、少なくとも、(a)当該処理候補の概要を示す情報、または、(b)前記操作入力部が受け付けることが可能な操作に対応づけられるアイコンもしくはメニューのいずれか一方を、前記表示部に表示させる、
    請求項に記載のコンテンツ処理装置。
  10. 前記処理制御部は、前記コンテンツ取得部により取得された対象コンテンツの前記表示部で表示可能な最大領域と、前記表示部で表示中の表示領域であるフォーカス領域とを管理し、
    前記処理制御部は、前記コンテンツ解析部に対し、前記対象コンテンツに含まれる1以上のオブジェクトのうち、前記最大領域およびフォーカス領域の少なくとも一方における規定範囲内のオブジェクトに対してのみ解析を要求する、
    請求項またはに記載のコンテンツ処理装置。
  11. 前記処理制御部は、前記表示部で前記フォーカス領域を表示する際に前記フォーカス領域の所定の部分に処理候補表示領域を設定し、
    前記表示部に、前記処理候補抽出部により抽出された少なくとも1以上の処理候補を前記処理候補表示領域内に表示させる、
    請求項10に記載のコンテンツ処理装置。
  12. 前記処理制御部は、前記コンテンツ解析部に対し、前記フォーカス領域に含まれるオブジェクトに加え、前記フォーカス領域に含まれないオブジェクトの解析を要求する、
    請求項10に記載のコンテンツ処理装置。
  13. 前記処理制御部は、前記表示部に、前記フォーカス領域に含まれない第1オブジェクトに対する処理候補を表示させる際、前記フォーカス領域に含まれない第2オブジェクトの各特徴情報に基づく相対位置関係から、前記フォーカス領域の中心からみた前記第2オブジェクトの出現方向および出現順序を算出し、
    前記表示部に、算出した出現方向および出現順序に応じて、前記処理候補抽出部により抽出された少なくとも1以上の処理候補を前記処理候補表示領域内に表示させる、
    請求項11に記載のコンテンツ処理装置。
  14. 前記処理制御部は、表示部に前記処理候補抽出部により抽出された少なくとも1以上の処理候補を表示させ、
    前記処理制御部は、算出した前記処理優先度に応じて、前記表示部に表示させる前記処理候補の内容を変化させる、
    請求項1に記載のコンテンツ処理装置。
  15. 前記処理制御部は、前記コンテキスト情報に含まれる属性情報および状態情報と、算出した前記処理優先度とに応じて、前記表示部に表示させる前記処理候補の選定内容または処理内容を変化させる、
    請求項14に記載のコンテンツ処理装置。
  16. 前記処理制御部は、前記コンテキスト情報に含まれる属性情報および状態情報と、算出された前記処理優先度とに応じて、少なくとも1以上のコンテキスト情報を収容する出力テンプレートを生成し、前記出力テンプレートを動的に変化させながら、少なくとも1以上のコンテキストグループ情報に紐付く前記対象コンテンツを合成して出力する、
    請求項4に記載のコンテンツ処理装置。
  17. 前記処理制御部は、前記操作入力部が受け付けた操作により、少なくとも1以上のコンテキスト情報の指定と処理候補の特定を行い、前記操作に基づき少なくとも1以上のコンテキスト情報を収容する出力テンプレートを動的に変化させる、
    請求項に記載のコンテンツ処理装置。
  18. さらに、前記コンテンツ処理装置の外部の機器との通信を行う通信部を備え、
    前記処理制御部は、少なくとも、前記コンテンツ解析部が前記オブジェクトと前記特徴情報との抽出に必要な情報、前記処理候補抽出部が前記処理候補の抽出に必要な情報、および、少なくとも1以上のコンテキスト情報を収容する出力テンプレートの生成に必要な情報のうち少なくとも1以上の情報を、前記通信部を介して外部の情報提供装置から取得する、
    請求項1に記載のコンテンツ処理装置。
  19. さらに、前記処理制御部の処理結果に基づき、前記コンテンツ取得部の制御を行うコンテンツ入力制御部を備え、
    前記処理制御部は、前記コンテンツ入力制御部により取得された対象コンテンツが表示部で表示可能な最大領域と、定義した前記コンテキストグループ情報から参照されるコンテキスト情報に対応する前記状態情報との関係を監視し、前記最大領域と前記コンテキスト情報との重畳に応じてまたはコンテキスト情報の状態に応じて、前記コンテンツ取得部の物理的な制御またはデジタル処理的な制御を、前記コンテンツ入力制御部を介して行う、
    請求項4に記載のコンテンツ処理装置。
  20. コンテンツ処理装置が行うコンテンツ処理方法であって、
    前記コンテンツ処理装置が処理対象のコンテンツである対象コンテンツを取得する取得ステップと、
    前記対象コンテンツに含まれる少なくとも2以上のオブジェクトと前記オブジェクトの特徴を示す特徴情報とを抽出する特徴情報抽出ステップと、
    前記オブジェクトのコンテキストを特定するための解析用情報と抽出した前記特徴情報とに基づいて、前記オブジェクト間の関係性を示す関係情報を含む属性情報であって前記オブジェクトの特徴を補足する属性情報を含む、前記オブジェクトのコンテキストを示すコンテキスト情報を特定する特定ステップと、
    前記オブジェクトのコンテキストを特定するための解析用情報に基づき、前記オブジェクトのコンテキストを示すコンテキスト情報を特定するコンテキスト情報特定ステップと、
    前記対象コンテンツに対する処理を制御する処理制御ステップと、
    前記コンテキスト情報および処理優先度に基づき、前記対象コンテンツに対して、予め設定された処理候補のうち実行可能な処理候補を抽出する処理候補抽出ステップと、
    前記処理候補の処理状況に関する通知を出力する出力ステップと、を含み、
    前記処理制御ステップでは、
    前記コンテキスト情報に含まれる属性情報に基づき、前記オブジェクトの処理優先度を算出し、
    前記処理候補抽出ステップにより抽出された処理候補の実行前または実行後に、前記出力ステップにおいて、前記処理候補の実行有無を示す情報を前記通知として出力させ、
    前記処理制御ステップでは、前記2以上のオブジェクトが人物であり、前記2以上のオブジェクトのうちの一が注目オブジェクトの場合には、前記オブジェクト同士の親密度を示す関係情報に基づき、前記注目オブジェトと親密度の高いオブジェクトの処理優先度を高くする、
    コンテンツ処理方法。
  21. コンテンツ処理装置が行うコンテンツ処理をコンピュータに実行させるプログラムであって、
    前記コンテンツ処理装置が処理対象のコンテンツである対象コンテンツを取得する取得ステップと、
    前記対象コンテンツに含まれる少なくとも2以上のオブジェクトと前記オブジェクトの特徴を示す特徴情報とを抽出する特徴情報抽出ステップと、
    前記オブジェクトのコンテキストを特定するための解析用情報と抽出した前記特徴情報とに基づいて、前記オブジェクト間の関係性を示す関係情報を含む属性情報であって前記オブジェクトの特徴を補足する属性情報を含む、前記オブジェクトのコンテキストを示すコンテキスト情報を特定する特定ステップと、
    前記オブジェクトのコンテキストを特定するための解析用情報に基づき、前記オブジェクトのコンテキストを示すコンテキスト情報を特定するコンテキスト情報特定ステップと、
    前記対象コンテンツに対する処理を制御する処理制御ステップと、
    前記コンテキスト情報および処理優先度に基づき、前記対象コンテンツに対して、予め設定された処理候補のうち実行可能な処理候補を抽出する処理候補抽出ステップと、
    前記処理候補の処理状況に関する通知を出力する出力ステップと、を含み、
    前記処理制御ステップでは、
    前記コンテキスト情報に含まれる属性情報に基づき、前記オブジェクトの処理優先度を算出し、
    前記処理候補抽出ステップにより抽出された処理候補の実行前または実行後に、前記出力ステップにおいて、前記処理候補の実行有無を示す情報を前記通知として出力させ、
    前記処理制御ステップでは、前記2以上のオブジェクトが人物であり、前記2以上のオブジェクトのうちの一が注目オブジェクトの場合には、前記オブジェクト同士の親密度を示す関係情報に基づき、前記注目オブジェトと親密度の高いオブジェクトの処理優先度を高くする、
    プログラム。
JP2013538378A 2012-03-15 2013-03-13 コンテンツ処理装置、コンテンツ処理方法およびプログラム Active JP5980222B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012058283 2012-03-15
JP2012058283 2012-03-15
PCT/JP2013/001672 WO2013136792A1 (ja) 2012-03-15 2013-03-13 コンテンツ処理装置、コンテンツ処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2013136792A1 JPWO2013136792A1 (ja) 2015-08-03
JP5980222B2 true JP5980222B2 (ja) 2016-08-31

Family

ID=49160717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013538378A Active JP5980222B2 (ja) 2012-03-15 2013-03-13 コンテンツ処理装置、コンテンツ処理方法およびプログラム

Country Status (4)

Country Link
US (1) US9372874B2 (ja)
JP (1) JP5980222B2 (ja)
CN (1) CN103535025B (ja)
WO (1) WO2013136792A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105765434B (zh) * 2013-09-24 2019-06-11 索尼公司 成像装置、成像方法和程序
JP6213914B2 (ja) * 2013-09-27 2017-10-18 パナソニックIpマネジメント株式会社 通信端末、およびコンテンツ出版方法
JP6421421B2 (ja) * 2014-03-04 2018-11-14 富士ゼロックス株式会社 注釈情報付与プログラム及び情報処理装置
KR102222318B1 (ko) * 2014-03-18 2021-03-03 삼성전자주식회사 사용자 인식 방법 및 장치
CN104123339A (zh) * 2014-06-24 2014-10-29 小米科技有限责任公司 图像管理方法及装置
CN105528247B (zh) * 2015-12-14 2020-09-25 联想(北京)有限公司 一种信息处理方法及客户端
EP3417608B1 (en) * 2016-02-18 2020-05-13 IMINT Image Intelligence AB System and method for video processing
US10021461B2 (en) * 2016-02-29 2018-07-10 Rovi Guides, Inc. Systems and methods for performing an action based on context of a feature in a media asset
CN105812680A (zh) * 2016-03-31 2016-07-27 联想(北京)有限公司 图像处理方法及电子设备
GB201611385D0 (en) * 2016-06-30 2016-08-17 Nokia Technologies Oy Recommendation method and system
TWI672628B (zh) * 2016-12-08 2019-09-21 日商摩如富股份有限公司 影像處理裝置、方法以及電腦可讀取的記錄媒體
JP6520975B2 (ja) * 2017-03-16 2019-05-29 カシオ計算機株式会社 動画像処理装置、動画像処理方法及びプログラム
JP6949612B2 (ja) * 2017-08-09 2021-10-13 キヤノン株式会社 動画再生装置およびその制御方法、並びにプログラム
GB2568233A (en) * 2017-10-27 2019-05-15 Babylon Partners Ltd A computer implemented determination method and system
US10848687B2 (en) 2018-10-05 2020-11-24 Facebook, Inc. Modifying presentation of video data by a receiving client device based on analysis of the video data by another client device capturing the video data
JP2020072457A (ja) * 2018-11-02 2020-05-07 ソニー株式会社 映像処理装置、映像処理方法、およびプログラム
KR20220019683A (ko) 2019-06-20 2022-02-17 소니그룹주식회사 정보 처리 시스템, 정보 처리 방법 및 기록 매체
CN111147955B (zh) * 2019-12-31 2022-10-18 咪咕视讯科技有限公司 视频播放方法、服务器和计算机可读存储介质
US11297244B2 (en) * 2020-02-11 2022-04-05 Samsung Electronics Co., Ltd. Click-and-lock zoom camera user interface

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4213874B2 (ja) 2001-04-02 2009-01-21 富士フイルム株式会社 デジタルカメラ
JP2006081021A (ja) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム
JP2008136024A (ja) 2006-11-29 2008-06-12 Fujifilm Corp 撮影装置、撮影システムおよび撮影方法
JP2008277903A (ja) * 2007-04-25 2008-11-13 Sony Corp 撮像装置及びフォーカス対象決定方法
JP2009077026A (ja) 2007-09-19 2009-04-09 Fujifilm Corp 撮影装置および方法並びにプログラム
JP5084696B2 (ja) * 2008-10-27 2012-11-28 三洋電機株式会社 画像処理装置、画像処理方法及び電子機器
JP4816717B2 (ja) * 2008-12-09 2011-11-16 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5368165B2 (ja) * 2009-04-30 2013-12-18 オリンパスイメージング株式会社 撮影表示装置および撮影表示方法
JP5413119B2 (ja) 2009-10-09 2014-02-12 ソニー株式会社 撮像装置、撮像方法及び撮像プログラム
JP2011082915A (ja) * 2009-10-09 2011-04-21 Sony Corp 情報処理装置、画像抽出方法及び画像抽出プログラム
CN102428466B (zh) 2010-03-18 2015-08-19 松下电器(美国)知识产权公司 数据处理装置以及数据处理方法
JP2012032728A (ja) * 2010-08-03 2012-02-16 Olympus Imaging Corp 画像表示装置および画像表示方法
KR101317532B1 (ko) * 2010-10-13 2013-10-15 주식회사 팬택 마커 또는 마커리스를 융합하는 증강현실 장치 및 방법

Also Published As

Publication number Publication date
CN103535025A (zh) 2014-01-22
WO2013136792A1 (ja) 2013-09-19
CN103535025B (zh) 2018-03-06
US9372874B2 (en) 2016-06-21
US20140081956A1 (en) 2014-03-20
JPWO2013136792A1 (ja) 2015-08-03

Similar Documents

Publication Publication Date Title
JP5980222B2 (ja) コンテンツ処理装置、コンテンツ処理方法およびプログラム
US11663785B2 (en) Augmented and virtual reality
US20220132036A1 (en) Display Control Apparatus, Display Control Method, And Program
JP5588542B2 (ja) 情報表示装置
JP4510718B2 (ja) 画像出力装置及びその制御方法
KR101411593B1 (ko) Ui 제공방법 및 이를 적용한 디스플레이 장치
JP7017175B2 (ja) 情報処理装置、情報処理方法、プログラム
CN103916587A (zh) 用于生成合成图像的拍摄装置以及使用所述装置的方法
JP3708854B2 (ja) メディア作品制作支援装置及びプログラム
KR102271741B1 (ko) 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이
WO2014181529A1 (en) Display control apparatus, display control method, and program
JP2010259064A (ja) 表示装置及び撮像装置
KR102271853B1 (ko) 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
CN117479000A (zh) 录像方法和相关装置
WO2020242590A1 (en) Systems and methods for creating and modifying event-centric media content
US20160057359A1 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
KR101934799B1 (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
WO2014181532A1 (en) Display control apparatus, display control method, and program
JP2014103578A (ja) 送信装置、設定装置、送信方法、受信方法、及び、プログラム
WO2023021759A1 (ja) 情報処理装置、情報処理方法
CN117202081A (zh) 音频处理方法及电子设备
JP2014110469A (ja) 電子機器、画像処理方法、及びプログラム
KR20200079209A (ko) 이동 단말기 및 그 제어 방법
KR20130104483A (ko) 객체를 분할하여 사진을 촬영하는 방법 및 장치
KR20200029120A (ko) 듀얼 카메라를 이용한 배경 제거 사진 촬영 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R150 Certificate of patent or registration of utility model

Ref document number: 5980222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150