JP2013097773A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2013097773A JP2013097773A JP2011243390A JP2011243390A JP2013097773A JP 2013097773 A JP2013097773 A JP 2013097773A JP 2011243390 A JP2011243390 A JP 2011243390A JP 2011243390 A JP2011243390 A JP 2011243390A JP 2013097773 A JP2013097773 A JP 2013097773A
- Authority
- JP
- Japan
- Prior art keywords
- comment
- subject
- image
- display
- subject image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 40
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000010191 image analysis Methods 0.000 claims abstract description 27
- 238000004458 analytical method Methods 0.000 claims abstract description 16
- 238000003384 imaging method Methods 0.000 claims description 125
- 238000000034 method Methods 0.000 abstract description 63
- 230000008569 process Effects 0.000 description 57
- 238000010586 diagram Methods 0.000 description 31
- 230000014509 gene expression Effects 0.000 description 26
- 238000012545 processing Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000003860 storage Methods 0.000 description 11
- 239000000203 mixture Substances 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 208000029152 Small face Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000007664 blowing Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】被写体を撮像して表示画面に表示させる際に、趣向性に富んだ演出を行う方法を提案する。
【解決手段】被写体が撮像された被写体画像を取得する画像取得部と、前記画像取得部により取得された前記被写体画像中の前記被写体の撮像態様を解析する画像解析部と、前記画像解析部の解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定するコメント決定部と、を備える、情報処理装置。
【選択図】図9
【解決手段】被写体が撮像された被写体画像を取得する画像取得部と、前記画像取得部により取得された前記被写体画像中の前記被写体の撮像態様を解析する画像解析部と、前記画像解析部の解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定するコメント決定部と、を備える、情報処理装置。
【選択図】図9
Description
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、撮像装置は多機能化されており、例えば撮像装置で撮像された大量の写真画像を、サムネイル画像として並べて表示する技術が存在する。このような技術としては、例えば複数のサムネイル画像がマトリクス状に表示させるものがある。
また、写真画像を表示させるだけで無く、写真画像中の人物の感情等を知覚させる演出を行う観点から、下記の特許文献1に記載された技術が存在する。この特許文献1には、画像データ内の人物の表情に対応したテンポや音量で音声コメントデータを自動的に出力することができる画像処理装置が記載されている。
ところで、撮像装置の中には、被写体を自動撮像して表示画面に表示させるものがある。かかる場合に、被写体の撮像態様に変化が無いと、表示画面に表示される画像が同じような構図になり、趣向性が乏しいものとなる。
本開示は、被写体を撮像して表示画面に表示させる際に、趣向性に富んだ演出を行う方法を提案する。
本開示によれば、被写体が撮像された被写体画像を取得する画像取得部と、前記画像取得部により取得された前記被写体画像中の前記被写体の撮像態様を解析する画像解析部と、前記画像解析部の解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定するコメント決定部と、を備える、情報処理装置が提供される。
また、本開示によれば、被写体が撮像された被写体画像を取得することと、取得された前記被写体画像中の前記被写体の撮像態様を解析することと、解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することとを含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、被写体が撮像された被写体画像を取得することと、取得された前記被写体画像中の前記被写体の撮像態様を解析することと、解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、を実行させるための、プログラムが提供される。
そして、本開示によれば、取得された前記被写体画像中の前記被写体の撮像態様を解析し、解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定する。これにより、例えば被写体は表示画面に表示されたコメントを見て撮像態様を変えることで、その後に撮像されて表示される被写体の構図が変化するので、趣向性に富んだ表示が可能となる。
以上説明したように本開示によれば、被写体を撮像して表示画面に表示させる際に、趣向性に富んだ演出を行うことが可能となる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.画像表示システムの構成
2.撮像装置の構成
3.表示装置の構成
4.表示制御装置の構成
4−1.コメント決定処理
4−2.コメント表示時間の取得処理
5.コメント表示処理時の画像表示システムの動作
5−1.第1コメント決定処理
5−1−1.笑顔と世代に基づくコメント決定処理
5−1−2.顔の向きに基づくコメント決定処理
5−2.顔位置に基づくコメント決定処理
5−3.コメントを付与する被写体の特定処理
6.まとめ
1.画像表示システムの構成
2.撮像装置の構成
3.表示装置の構成
4.表示制御装置の構成
4−1.コメント決定処理
4−2.コメント表示時間の取得処理
5.コメント表示処理時の画像表示システムの動作
5−1.第1コメント決定処理
5−1−1.笑顔と世代に基づくコメント決定処理
5−1−2.顔の向きに基づくコメント決定処理
5−2.顔位置に基づくコメント決定処理
5−3.コメントを付与する被写体の特定処理
6.まとめ
<1.画像表示システムの構成>
図1及び図2を参照しながら、本開示の一実施形態に係る画像表示システム10の構成について説明する。図1は、一実施形態に係る画像表示システム10の概略構成を示す図である。図2は、一実施形態に係る画像表示システム10の構成を示すブロック図である。
図1及び図2を参照しながら、本開示の一実施形態に係る画像表示システム10の構成について説明する。図1は、一実施形態に係る画像表示システム10の概略構成を示す図である。図2は、一実施形態に係る画像表示システム10の構成を示すブロック図である。
画像表示システム10は、撮像された被写体画像を仮想三次元空間内に配置し、被写体画像が配置された仮想三次元空間を二次元画像として表示する。図1、図2に示すように、画像表示システム10は、撮像装置20と、回転雲台30と、表示装置40と、大画面表示装置50とを有する。
撮像装置20は、例えばデジタルスチルカメラであり、被写体を撮像する。撮像装置20は、広範囲画像の一例であるパノラマ画像も撮像可能である。撮像装置20は、例えばパーティ等の集まりの場において、自動的に回転(パン)・角度調整(チルト)・ズームを行なって被写体の顔を検出し、自動撮像する機能(パーティショット機能)を実行可能である。撮像装置20は、撮像した画像を記憶部に記憶する。
回転雲台30は、撮像装置20が載置された状態で、360度回転可能な雲台である。回転雲台30は、パン・チルト・ズームの各動き及び被写体の顔の自動追尾機能を有する。載置された撮像装置20と回転雲台30が接続されることで、上記のパーティショット機能が実現される。なお、回転雲台30には、パノラマ画像を撮像するための操作部が設けられても良い。
撮像装置20は、無線ネットワーク等を介して表示装置40と通信を行うことが可能である。そして、撮像装置20は、パーティショット機能で自動撮像した被写体画像(記憶部に記憶された被写体画像)を、表示装置40に送信する。この際、撮像装置20は、被写体画像と共に、被写体画像を撮像した際の回転雲台30の回転角度等の情報も送信する。なお、撮像装置20の詳細構成については、後述する。
表示装置40は、表示画面に各種画像を表示する。撮像装置20から受信した被写体画像(パーティショット機能で自動撮像された被写体画像)を仮想三次元空間内に配置し、被写体画像が配置された仮想三次元空間を二次元画像として表示する。表示装置40は、仮想三次元空間を、表示装置40の表示画面、又は、表示装置40に接続された大画面表示装置50に表示させる。なお、仮想三次元空間の詳細については、後述する。
大画面表示装置50は、表示装置40と接続され、データのやり取りを行う。大画面表示装置50は、撮像装置20で自動撮像された被写体画像が配置された仮想三次元空間を表示画面に表示する。
なお、上記では、撮像装置20がデジタルスチルカメラであることとしたが、これに限定されない。撮像装置20は、被写体を撮像する機能を有すれば良く、例えば携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、携帯型AVプレイヤー、電子ブック、電子辞書等であっても良い。
また、上記では、表示装置40は、仮想三次元空間に配置させる被写体画像を撮像装置20から受信することとしたが、これに限定されない。例えば、表示装置40は、図3に示すように、サーバ上に格納された被写体画像を受信し、受信した被写体画像を仮想三次元空間上に配置して表示させることとしても良い。
図3は、一実施形態に係る画像表示システム10の構成の変形例を示すブロック図である。図3の変形例に係る撮像装置20は、表示装置40の代わりに、無線ネットワーク等を介してサーバ70に自動撮像した被写体画像を送信する。サーバ70は、撮像装置20から受信した被写体画像を格納し、表示装置40からの要求に応じて被写体画像を表示装置40に送信する。
<2.撮像装置の構成>
図4を参照しながら、本開示の一実施形態に係る撮像装置20の詳細構成について説明する。図4は、一実施形態に係る撮像装置20の詳細構成を示すブロック図である。
図4を参照しながら、本開示の一実施形態に係る撮像装置20の詳細構成について説明する。図4は、一実施形態に係る撮像装置20の詳細構成を示すブロック図である。
図4に示すように、撮像装置20は、制御部110と、表示部120と、撮像部130と、通信部140と、記憶部150と、入力部160と、電子コンパス170と、を有する。
制御部110は、撮像装置20の各ブロックと信号をやり取りして各種演算を行い、撮像装置20の動作全体を制御する。制御部110は、例えばCPU、ROM、RAMを含む。
表示部120は、例えばTFT(Thin Film Transistor)等のLCDやOELD(Organic Electro-Luminescence Display)であり、表示画面に各種画像を表示する。表示部120は、例えば撮像時のプレビュー画像を表示する。
撮像部130は、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Devices)センサ等の撮像素子により、静止画(写真)や動画等の被写体画像を撮像する。撮像部130は、被写体の顔を検出する機能を有する。また、撮像部130は、パノラマ画像を撮像しうる。なお、撮像部130は、パーティショット機能の実行中は、複数の被写体画像を自動撮像する。
撮像部130は、被写体画像のみならず、撮像日時や撮像位置の情報も取得可能である。撮像日時は、撮像装置20に内蔵された時計(不図示)から取得される。内蔵時計の日時は、例えばGPS衛星からGPSセンサ(不図示)により受信される日時情報に基づいて補正されても良い。
通信部140は、例えばネットワークインタフェースカードやモデム等を有し、インターネットやLAN(Local Area Network)等のネットワークを介して、他の機器との間で通信処理を行う。通信部140は、無線LANモージュル、又はWWAN(Wireless Wide Area Network)モージュルを有していても良い。通信部140は、撮像された被写体画像やパノラマ画像を他の機器(表示装置40等)に送信する。
記憶部150は、例えばフラッシュメモリであり、撮像部130により撮像された被写体画像を記憶する。また、記憶部150は、制御部110が実行する制御プログラムを記憶する。
入力部160は、ユーザの操作を受け付け、入力信号を制御部110に出力する。入力部160は、例えば電源スイッチ、シャッターボタン等を含む。入力部160は、表示部120と一体的に設けられたタッチパネルを有しても良い。
電子コンパス170は、地球が発する地磁気を検知する磁気センサを有し、検知された地磁気に基づいて、撮像装置20が向いている方向(方位)を算出する。電子コンパス170は、算出した撮像装置20の方位を制御部110に出力する。
<3.表示装置の構成>
図5を参照しながら、本開示の一実施形態に係る表示装置40の詳細構成について説明する。図5は、一実施形態に係る表示装置40の詳細構成を示すブロック図である。
図5を参照しながら、本開示の一実施形態に係る表示装置40の詳細構成について説明する。図5は、一実施形態に係る表示装置40の詳細構成を示すブロック図である。
図5に示すように、表示装置40は、制御部210と、記憶部220と、通信部230と、表示部240と、入力部250と、外部I/F(インターフェース)260と、を有する。
制御部210は、表示装置40の各ブロックと信号をやり取りして各種演算を行い、表示装置40の動作全体を制御する。制御部210は、後述する仮想三次元空間への被写体画像の配置処理等を実行する。制御部210は、例えばCPU、ROM、RAMを含む。
記憶部220は、例えばフラッシュメモリやHDD(Hard Disk Drive)であり、撮像装置20から受信した被写体画像を記憶する。また、記憶部220は、制御部210が実行する制御プログラムを記憶する。
通信部230は、例えばネットワークインタフェースカードやモデム等を有し、インターネットやLAN(Local Area Network)等のネットワークを介して、他の機器(撮像装置20やサーバ70)との間で通信処理を行う。通信部230は、撮像装置20又はサーバ70(撮像装置20等とも呼ぶ)から、撮像装置20により自動撮像された被写体画像を受信する。
表示部240は、例えばTFT(Thin Film Transistor)等のLCDやOELD(Organic Electro-Luminescence Display)である。表示部240は、通信部230が撮像装置20から受信した被写体画像を仮想三次元空間内に配置し、被写体画像が配置された仮想三次元空間を二次元画像として表示画面に表示する。
図6は、被写体画像が配置された仮想三次元空間を概念的に示す図である。図6に示すように、仮想三次元空間は、ユーザの視点を中心とする円の半径方向に被写体画像の撮像日時に対応する時間軸を有し、かつ円の円周方向に被写体画像の撮像位置に対応する方位軸を有する仮想の空間である。
図7は、被写体画像が配置された仮想三次元空間を二次元画像として表示画面Sに表示した例を示す図である。表示部240は、仮想三次元空間をユーザの視点から見た風景となるように描画して表示する。図7において、仮想三次元空間の横軸が方位に、縦軸が高度に、奥行き軸が時間に、それぞれ対応する。すなわち、横軸が、撮像装置20の現在位置から見た被写体画像が撮像された場所の方位を示す。奥行き軸は、現在日時から見た被写体画像が撮像された日時を示す。縦軸は、被写体画像が撮像された場所の地表からの高度を示す。
図7においては、撮像日時が異なり、かつ撮像された方位も異なる5個の被写体画像I1〜I5が、仮想三次元空間上に配置されて2次元画像として表示されている。また、図11に示す仮想三次元空間は、奥行き方向に遠近感を有しており、現在位置からの被写体画像の距離に応じて、被写体画像の大きさが異なる。すなわち、現在位置に最も近い被写体画像I1が最も大きく、現在位置から最も離れた被写体画像I5が最も小さい。なお、仮想三次元空間が、奥行き方向に遠近感を有さず、被写体画像I1〜I5の大きさが同じ大きさであっても良い。このように表示することで、ユーザは、複数の被写体画像の撮像位置や撮像日時の関係が容易に把握できる。
表示部240は、被写体画像を仮想三次元空間上に配置する前に、図8に示すように前記被写体画像を所定時間だけ拡大表示させる。この際、表示部240は、被写体画像にコメント(「もっとー笑顔ちょーだい」)付きの吹出しGを付加して表示させる。図8は、コメント付きの吹出しGが付加された被写体画像の表示例を示す図である。なお、表示部240は、図7に示す複数の被写体画像の中から一の被写体画像がユーザによって選択された場合に、選択された被写体画像にコメントを付加して図8のように表示する。
入力部250は、例えば表示部240と一体的に設けられたタッチパネルである。入力部250は、例えば画像表示アプリケーションの実行により画像やGUI(Graphical User Interface)が表示された状態で、ユーザのタッチ操作を検出し、制御部210に出力する。また、タッチパネルは、画像表示アプリケーションの実行中に、ユーザが画像を選択して全画面表示をしたり、視点を移動(ズームイン、ズームアウト)したりするのに用いられる。
外部I/F260は、例えばHDMI(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の各種規格に準じて、外部機器(例えば、大画面表示装置50)と接続し、データのやり取りを行う。例えば、表示装置40は、外部I/F260を介して、大画面表示装置50の表示画面に表示させる被写体画像やパノラマ画像を送信する。
<4.表示制御装置の構成>
図9を参照しながら、画像表示システム10において画像表示を制御する情報処理装置の一例である表示制御装置300の機能構成について説明する。図9は、表示制御装置300の機能構成を示すブロック図である。
図9を参照しながら、画像表示システム10において画像表示を制御する情報処理装置の一例である表示制御装置300の機能構成について説明する。図9は、表示制御装置300の機能構成を示すブロック図である。
表示制御装置300は、撮像装置20によって撮像された被写体画像に対するコメントを決定し、決定したコメントを被写体画像に付与して表示させるように制御する。図9に示すように、表示制御装置300は、画像取得部310と、画像解析部320と、コメント決定部330と、表示制御部340と、表示時間取得部350とを有する。なお、画像取得部310、画像解析部320、コメント決定部330、表示制御部340、及び表示時間取得部350は、例えば表示装置40の制御部210により構成される。
画像取得部310は、被写体が撮像された被写体画像を取得する。例えば、画像取得部310は、撮像装置20又はサーバ70から被写体画像を取得する。被写体画像は、回転自在な回転雲台30に載置され回転雲台30の回転に連動して回転する撮像装置20によって撮像されている。なお、撮像装置20によって複数の被写体画像が自動撮像された場合には、複数の被写体画像を順次取得する。取得される一つの被写体画像は、複数の被写体が撮像された画像であっても良い。
画像取得部310は、被写体画像を取得する際に、被写体画像の撮像日時を示す撮像日時情報と、被写体画像の撮像位置を示す撮像位置情報も取得する。画像取得部310は、被写体画像と撮像日時情報と撮像位置情報を対応付けて取得する。画像取得部310は、取得した画像を画像解析部320と表示制御部340に出力する。
画像解析部320は、画像取得部310から入力された画像を解析する。例えば、画像解析部320は、画像取得部310により取得された被写体画像中の被写体の撮像態様を解析する。撮像態様は、複数の態様、例えば被写体の笑顔の度合い、被写体が向いている向き、複数の被写体の位置関係を含む。また、画像解析部320は、被写体画像中の被写体(人物)の人数を解析する。さらに、画像解析部320は、被写体の年齢を解析し、年齢が予め区分された複数の年齢層のいずれに該当するかを判定する。画像解析部320は、解析結果である解析情報をコメント決定部330に出力する。
コメント決定部330は、画像解析部320から入力された解析情報に基づいて、解析対象の被写体画像に付与させるコメントを決定する。コメント決定部330は、被写体の撮像態様に対する被写体側へのコメントや、被写体側からのコメントを決定する。また、コメント決定部330は、複数の被写体が撮像された被写体画像中の被写体毎に、コメントを決定する。なお、被写体側へのコメントとは、例えば被写体に対して発言するコメント、又は被写体に対して思考しているコメントである。一方で、被写体側からのコメントとは、例えば被写体から発言されるコメント、又は被写体が思考しているコメントである。
例えば、コメント決定部330は、被写体の笑顔の度合い、被写体が向いている向き、被写体の年齢、被写体の該当する年齢層に応じてコメントを決定しうる。また、コメント決定部330は、一つの被写体画像における複数の被写体の位置関係が所定範囲内にある場合に、位置関係に応じてコメントを決定しうる。さらに、コメント決定部330は、複数の態様の度合いを、それぞれスコア化し、複数の態様のうちのスコアが最も大きい態様に関連するコメントを決定しうる。これにより、被写体の態様に応じた適切なコメントが決定されることになる。
コメント決定部330は、決定したコメントを表示制御部340と表示時間取得部350に出力する。なお、コメント決定部330によるコメント決定処理の詳細については、後述する。
表示制御部340は、画像取得部310から入力された被写体画像を表示画面に表示させる。例えば、表示制御部340は、仮想三次元空間の所定の描画位置に、コメントが付加された被写体画像を表示する。このような表示を行うことで、自動撮像された画像が表示画面に順次表示されても、飽きることなく楽しむことができる。
表示制御部340は、被写体画像を表示画面に順次表示させる際に、コメント決定部330により決定されたコメントを被写体画像に付加して表示させる。例えば、表示制御部340は、吹出しにコメントが配置するように表示させる(図8参照)。また、表示制御部340は、決定された複数のコメントを対応する被写体毎に付加して表示させる。これにより、例えば被写体は表示画面に表示されたコメントを見て撮像態様を変えることで、その後に撮像されて順次表示される被写体の構図が変化するので、趣向性に富んだ表示が可能となる。なお、撮像者側のコメントとしては、例えば、次に撮像するときのポーズや表情をリクエストする内容がある。
表示時間取得部350は、コメント決定部330により決定されたコメントを被写体画像に付加して表示させる表示時間を取得する。例えば、表示時間取得部350は、被写体の該当する年齢層に応じて、コメントを付加した被写体画像を表示させる表示時間を取得する。このように表示画面を見るユーザの年齢層等に応じて表示時間を設定するので、ユーザはコメントを適切に把握できる。
ここで、表示時間は、例えば、表示されたコメントに表示画面を見るユーザが気付く第1時間と、コメントをユーザが読む第2時間と、コメントに対してユーザがリアクションを行う第3時間と、を加えた時間である。なお、一つの被写体画像中に複数の吹出しG(コメント)が付与されている場合には、複数のコメントについての第1〜第3時間を加えた時間が、表示時間となる。表示時間取得部350は、取得した表示時間を表示制御部340に出力する。なお、表示時間の取得処理の詳細については、後述する。
(4−1.コメント決定処理)
コメント決定部330によるコメント決定処理の詳細について、図10〜図15を参照しながら説明する。
コメント決定部330によるコメント決定処理の詳細について、図10〜図15を参照しながら説明する。
図10は、コメントが付加された被写体画像Iを説明するための図である。図10には、被写体画像I1〜I6毎に、異なるコメントが付加されている。付加されるコメントは、画像中の人物の表情や撮像場面等が反映された内容となっている。なお、図10に示すコメントが付加された被写体画像は、実際には、表示画面には1つずつ表示される。
図10では、吹出しGは、被写体の顔の近くに描画されている。また、一つの被写体画像に一つのコメント(吹出しG)が付加されているが、吹出しの数は一つに限られない。画像中の人物の人数に応じた数の吹出しが表示されても良い。例えば、画像中の人物が2人であれば、人物毎に吹出しが表示される。ただし、吹出しの数が多すぎると画像が見難くなるので、表示させる吹出しの最大数を設定しても良い。
図11は、コメントの内容を説明するための図である。決定されるコメントは、大別すると、主観表現と客観表現とに分けられる。ここで、主観表現は、撮像される被写体である人物P1側からのコメントである。客観表現は、被写体を撮像する撮像者P2側のコメント(別言すれば、撮像者P2から被写体側へのコメント)である。そして、主観表現と客観表現のいずれか一方のコメントが選択されて、被写体画像に付加される。なお、コメントとして文字情報が示されているが、図形等を含んでも良い。
なお、コメント決定部330による客観表現と主観表現の選択は、以下のように行われうる。例えば、コメント決定部330は、主観表現のコメントと客観表示のコメントとをランダムに選択しても良く、又は主観表現のコメントと客観表示のコメントとを交互に選択しても良い。この際、コメント決定部330は、主観表現のコメントの表示数と客観表現のコメントの表示数との差が所定数を超えないように、選択しうる。また、コメント決定部330は、画像中の被写体の顔の面積が所定の大きさよりも大きい場合には主観表現のコメントを選択し、顔の面積が所定の大きさよりも小さい場合には客観表現のコメントを選択しても良い。さらに、コメント決定部330は、画像中の被写体の顔の向きが所定範囲内の向きである場合には主観表現のコメントを選択し、顔の向きが所定範囲外の向きである場合には客観表現のコメントを選択しても良い。上述したコメントの選択方法により、より趣向性に富んだ表示が可能となる。
ところで、図10に示すように、主観表現のコメントの基点の位置と、客観表現のコメントの基点の位置とが異なる。具体的には、主観表現のコメントを含む吹出しG2、G4の基点は、被写体画像I2、I4内に位置し、客観表現のコメントを含む吹出しG1、G3、G5、G6の基点は、被写体画像I1、I3、I5、I6の外側に位置する。このように、主観表現のコメントと客観表現のコメントの吹出しの位置を異ならせることで、表示画面のコメントを見た際に、主観表現か客観表現かを知覚しやすくなる。
また、コメントの内容は、図11のテーブルTa1に示すように、主観表現と客観表現で、依頼系の内容と、感想系の内容と、中立系の内容とに分けられる。なお、テーブル中のコメントは、予め作成されている。また、テーブルのUGC(User Generated Contents)は、ユーザが新たに作成したコメントを示す。
図12は、コメント決定部330によるコメント決定処理の流れを示す概略図である。図12に示すように、コメント決定処理は、5つのステップに分けられる。なお、以下では、客観表現のコメントを決定する場合について説明する。
1つ目のステップでは、コメント決定部330は、1つの被写体画像に含まれる人物の人数に応じて、被写体画像を分類する。具体的には、コメント決定部330は、人数が1人の画像IM1と、人数が2人〜3人の画像IM2と、人数が4人以上の画像IM3と、人数が0人の画像IM4と、に分類する。なお、人数が0人とは、画像中に人物が存在しないことを検出した場合と、人物の存在の有無を検出できない場合とを含む。
2つ目のステップでは、コメント決定部330は、分類された画像に応じてコメントを決定する。具体的には、コメント決定部330は、人数が1人の画像IM1と、人数が2人〜3人の画像IM2と、人数が4人以上の画像IM3について、笑顔の度合い(SmileScore)と世代(GenerationScore)に基づきコメントを決定する。
図13は、笑顔の度合いと世代に基づくコメント例を説明するための図である。図13のコメント例に示すように、笑顔の度合い(SmileScore)と世代(GenerationScore)の組み合わせでコメントが定まる。ここで、笑顔の度合いは、6つの区分に分けられている。世代は、高齢者(Elder)、大人(Adult)、子供(Baby)、検出できず(All Generation)に分けられている。なお、何れかの世代に該当する可能性が60%より高い確率である場合に、当該世代に該当すると判定される。
例えば、世代が大人で、笑顔の度合いが15%である場合には、「もっと笑顔下さい!」のコメントが決定される。また、世代が子供で、笑顔の度合いが60%である場合には、「いいえがおだね!」のコメントが決定される。ここで、世代が子供であるため、コメントがひらがな表記になっている。なお、笑顔の度合い(SmileScore)と世代(GenerationScore)の組み合わせに対応したコメントは、複数のコメントの中からランダムに選択される。
図12に示す2つの目のステップにおいて、人数が0人の画像IM4については、撮像場面に対応した中立のコメントが決定される。なお、人数が0人の画像IM4については、後述する3つ目〜5つ目のステップが行われない。
3つ目のステップでは、コメント決定部330は、人数が1人の画像IM1と、人数が2人〜3人の画像IM2と、人数が4人以上の画像IM3について、顔の向き(Orientation)に基づきコメントを決定する。具体的には、世代と顔の向きの組み合わせに応じたコメントが、決定される。なお、顔の向きは、直交3軸の方向(Yaw、Roll、Pitchの方向)における顔の向きで判定される。
図14は、顔の向きに基づくコメント例を説明するための図である。ここでは、顔の向きとして、上記の直交3軸のうちの一の軸方向(Yawの方向)を例に挙げて説明する。図14では、顔の向きが、左右正面のどちらの方向を向いているかに応じてYawScoreが設定されている。YawScoreは、−45〜45の値に設定される。例えば、世代が大人で、YawScoreが−31度(右向き)の場合には、「こっち向いて下さい!」のコメントが決定される。
4つ目のステップでは、コメント決定部330は、人数が2人〜3人の画像IM2と、人数が4人以上の画像IM3について、人物同士の位置関係に基づきコメントを決定する。具体的には、コメント決定部330は、人物間の相対的な顔の大きさを比較し、コメントを決定する。なお、人数が1人の画像IM1については、4つ目のステップが行われない。
図15は、人物同士の位置関係に基づくコメント例を説明するための図である。図15では、撮像者からの距離が異なる位置に位置する二人の被写体F1、F2が撮像されている。撮像者に近い被写体F1の顔面積は大きく、撮像者から遠い被写体F2の顔面積は小さい。例えば、顔面積の小さい被写体F2の世代が大人で、被写体F2の被写体F1に対する顔面積の相対大きさ(Relative Size)が0.5以下である場合には、「もっと前に来ませんか?」のコメントが決定される。
5つ目のステップでは、人数が4人以上の画像IM3について、コメントを付加すべき人物を特定する。これは、一つの被写体画像中に4人以上の人物が含まれている場合に、全ての人物についてコメントを付加すると画像自体が見難くなるため、付加するコメントの数を限定するためである。そして、上述した一連の処理により、画像中の被写体の人数や被写体の態様に応じた適切なコメントが決定されることになる。
(4−2.コメント表示時間の取得処理)
表示時間取得部350によるコメントが付与された被写体画像の表示時間の具体的な取得処理について、図16〜図18を参照しながら具体的に説明する。
表示時間取得部350によるコメントが付与された被写体画像の表示時間の具体的な取得処理について、図16〜図18を参照しながら具体的に説明する。
図16は、被写体画像が撮像されて仮想三次元空間上に配置されるまでの期間を示す模式図である。図16に示すように、被写体画像が撮像されて仮想三次元空間上に配置されるまでの期間には、画像の転送期間T1、表示開始期間T2、コメントの表示期間T3、画像の配置期間T4が含まれる。
画像の転送期間T1は、撮像装置20で撮像された被写体画像が表示装置40に転送されるまでの期間である。表示開始期間T2は、表示装置40が受信した被写体画像が表示画面に表示されるまでの期間である。例えば、表示開始期間T2は、被写体画像のフェード・イン等の遷移アニメーションが実行される期間である。
コメント表示期間T3は、表示された被写体画像にコメントを付与して表示する期間である。コメント表示期間T3は、気付き期間T3aと、コメント読み期間T3bと、リアクション期間T3cで構成される。
気付き期間T3aは、ユーザがコメント付きの被写体画像が表示画面に表示されたことを気付くまでの期間である。気付き期間T3bには、例えば、表示画面が切り替わりユーザが振り向く動作を行う時間が含まれても良い。
コメント読み期間T3bは、ユーザがコメントを読み始めてから読み終わるまでの期間である。
リアクション期間T3cは、ユーザがコメントを読み終わった後、リアクションをとる期間である。例えば、リアクション期間T3cは、ユーザがコメントを読んだ後、笑ったり、指さして説明したり、他のユーザと歓談したりする期間である。なお、上記のユーザは、被写体画像中の被写体を想定している。これは、パーティショット機能においては、自動撮像される被写体が、前記被写体が撮像された被写体画像を表示する表示画面を見て、リアクションするためである。
画像の配置期間T4は、コメントが付与される被写体画像が表示画面から消えて、前記被写体画像が仮想三次元空間に配置されるまでの期間である。例えば、画像の配置期間T4は、被写体画像のフェード・アウト等の遷移アニメーションが終了するまでの期間である。
次に、図17及び図18を参照しながら、コメント表示期間T3の算出方法について説明する。図17は、ユーザの年齢層と、気付き期間T3a及びリアクション期間T3cとの関係を示すテーブルTa2である。図18は、ユーザの年齢層と、コメント読み期間T2bとの関係を示すテーブルTa3である。
気付き期間T3aは、図17に示すように、ユーザの年齢層に応じた定数に基づいて算出される。気付き期間(WT:Wakeup Time)T3aは、ユーザの年齢層が高くなるに応じて、長くなっている。例えば、子供(Baby)の気付き期間T3aは1(s)であり、大人(Adult)の気付き期間T3aは2(s)であり、高齢者(Elder)の気付き期間T3aは3(s)である。子供(Baby)の気付き期間T3bが最も短い理由は、他の年齢層に比べて子供は表示画面に注目しやすいからである。なお、これらの時間は一例に過ぎず、異なる値が設定されても良い。
コメント読み期間T3bも、図18に示すように、ユーザの年齢層に応じた定数に基づいて算出される。具体的には、コメント読み期間(BRT:Baloon Reading Time)T3bは、下記の式により算出される。
BRT=CC/RS+EMT
BRT=CC/RS+EMT
ここで、CC(Character Count)は、文章の文字数である。CCは、年齢層に応じて、1行当たりの文字数と、トータルの文字数が決められている。RS(Reading Speed)は、ユーザが文章を読むスピード(文字数/s)を示すである。EMT(Eye Moving Time)は、別の吹出しに視点移動する時間(s)である。なお、吹出しが一つの場合には、EMTは0(s)である。
例えば、大人の顔が含まれる画像に「もっと笑顔ください」のコメントを付与する場合のコメント読み期間T3bは、9(文字)/3(文字数/s)=3(s)である。
リアクション期間T3cは、図17に示すように、ユーザの年齢層に応じた定数に基づいて算出される。リアクション期間T3cも、ユーザの年齢層が高くなるに応じて、長くなっている。
表示時間取得部350は、上記のように算出した気付き期間T3aとコメント読み期間T3bとリアクション期間T3cとを加えることで、コメント表示期間T3を取得する。表示制御部340は、表示時間取得部350により取得されたコメント表示期間T3だけ、コメントを表示させる。このようにユーザの年齢層等に応じて表示時間を設定するので、ユーザはコメントを適切に把握できる。
<5.コメント表示処理時の画像表示システムの動作>
図19を参照しながら、被写体に応じたコメント表示処理について説明する。図19は、画像中の被写体に応じたコメント表示処理を示すフローチャートである。図19に示すフローチャートは、撮像装置20によって被写体画像が自動撮像されたところから開始される。
図19を参照しながら、被写体に応じたコメント表示処理について説明する。図19は、画像中の被写体に応じたコメント表示処理を示すフローチャートである。図19に示すフローチャートは、撮像装置20によって被写体画像が自動撮像されたところから開始される。
本処理は、CPUがROMに格納されているプログラムを実行することによって、実現される。なお、実行されるプログラムは、CD(Compact Disk)、DVD(Digital Versatile Disk)、メモリカード等の記録媒体に記憶されても良く、インターネットを介してサーバ等からダウンロードされても良い。
まず、画像取得部310は、被写体画像を取得する(ステップS102)。次に、画像解析部320は、取得した被写体画像に基づいて被写体の顔情報を取得する(ステップS104)。
次に、画像解析部320は、取得した顔情報に基づいて顔の数Nを判定する(ステップS106)。そして、ステップS106で顔の数Nが一つ以上であると判定された場合には(Yes)、コメント決定部330は、第1コメント決定処理を実行する(ステップS108)。
(5−1.第1コメント決定処理)
図20及び図21を参照しながら、ステップS108の第1コメント決定処理について説明する。図20は、第1コメント決定処理を示すフローチャートである。図21は、コメント決定対象の被写体を示す模式図である。図21には、1つの画像I中にコメント決定対象の顔として、faceldx=1の顔F1と、faceldx=2の顔F2と、faceldx=3の顔F3とが、示されている。
図20及び図21を参照しながら、ステップS108の第1コメント決定処理について説明する。図20は、第1コメント決定処理を示すフローチャートである。図21は、コメント決定対象の被写体を示す模式図である。図21には、1つの画像I中にコメント決定対象の顔として、faceldx=1の顔F1と、faceldx=2の顔F2と、faceldx=3の顔F3とが、示されている。
まず、コメント決定部330は、faceldxを1に設定する(ステップS202)。そして、コメント決定部330は、笑顔と世代に基づくコメント決定処理を実行する(ステップS204)。
(5−1−1.笑顔と世代に基づくコメント決定処理)
図22を参照しながら、笑顔と世代に基づくコメント決定処理について説明する。図22は、笑顔と世代に基づくコメント決定処理を示すフローチャートである。
図22を参照しながら、笑顔と世代に基づくコメント決定処理について説明する。図22は、笑顔と世代に基づくコメント決定処理を示すフローチャートである。
まず、コメント決定部330は、コメント決定対象の顔情報FacialInfoを取得する(ステップS302)。ここでは、faceldx=1の顔F1の顔情報FacialInfoが取得されるものとする。
図23は、顔情報FacialInfoを説明するための模式図である。顔情報FacialInfoは、対象の顔毎に設定され、図23では、faceldx=1の顔F1の顔情報FacialInfoが示されている。顔情報FacialInfoには、SmileScore、ElderScore、AdultScore、BabyScore等が含まれている。ここで、SmileScoreは、被写体の度合いを示す。ElderScore、AdultScore、BabyScoreは、それぞれ、高齢者、大人、子供のいずれかの世代に該当するかの可能性を示す。また、Roll、Pitch、Yawは、直交3軸方向における被写体の顔の向きを示す。
コメント決定部330は、ElderScoreが0.60より大きいか否かを判定する(ステップS304)。そして、ステップS304でElderScoreが0.60より大きいと判定された場合には(Yes)、コメント決定部330は、FacialGeneration(笑顔の世代)をElder(高齢者)と設定する(ステップS312)。
ステップS304でElderScoreが0.60より大きく無い場合には(No)、コメント決定部330は、AdultScoreが0.60より大きいか否かを判定する(ステップS306)。そして、ステップS306でAdultScoreが0.60より大きいと判定された場合には(Yes)、コメント決定部330は、FacialGenerationをAdult(成人)と設定する(ステップS314)。
ステップS306でAdultScoreが0.60より大きく無い場合には(No)、コメント決定部330は、BabyScoreが0.60より大きいか否かを判定する(ステップS308)。そして、ステップS308でBabyScoreが0.60より大きいと判定された場合には(Yes)、コメント決定部330は、FacialGenerationをBaby(子供)と設定する(ステップS316)。
ステップS308でBabyScoreが0.60より大きく無い場合には(No)、コメント決定部330は、Elder、Adult、Babyのいずれにも特定できない世代であるものとして、FacialGenerationがAll(全世代)と設定する(ステップS310)。
ここでは、図23に示すfaceldx=1の顔F1の顔情報FacialInfoでは、AdultScoreが0.65であるので、コメント制御部330は、顔F1のFacialGenerationをAdultと設定する。
次に、コメント決定部330は、設定したFacialGenerationと、顔情報FacialInfoのSmileScoreとに基づいて、図24に示すコメントデータベースからコメント一覧を取得する(ステップS318)。
図24は、コメントデータベースを示すテーブルTa4である。図24に示すように、コメントデータベースは、SmileScoreとGenerationによってコメントが区分けされている。例えば、顔F1のFacialGenerationがAdultで、かつSmileScoreが0.80であるので、コメント決定部330は、コメントデータベースにおいて、0.80≦SmileScoreで、GenerationがAdultである区分C1のコメント一覧を選択する。
次に、コメント決定部330は、取得したコメント一覧からランダムに一つのコメントを選択する(ステップS320)。これにより、faceldx=1の顔F1についての笑顔と世代に基づくコメント決定処理が完了し、図20に示すフローチャートに戻る。そして、コメント決定部330は、faceldx=1の顔F1について、顔の向きに基づくコメント決定処理を実行する(ステップS206)。
(5−1−2.顔の向きに基づくコメント決定処理)
図25を参照しながら、顔の向きに基づくコメント決定処理について説明する。図25は、顔の向きに基づくコメント決定処理を示すフローチャートである。
図25を参照しながら、顔の向きに基づくコメント決定処理について説明する。図25は、顔の向きに基づくコメント決定処理を示すフローチャートである。
まず、コメント決定部330は、コメント決定対象の顔情報FacialInfoを取得する(ステップS402)。ここでは、faceldx=1の顔F1の顔情報FacialInfoが取得されるものとする。
次に、コメント決定部330は、顔情報FacialInfoのElderScore、AdultScore、BabyScoreに基づいて、FacialGenerationを設定する(ステップS404〜S416)。この処理は、上述した笑顔と世代に基づくコメント決定処理におけるステップS304〜S316と同様であるので、コメント制御部330は、顔F1のFacialGenerationをAdultと設定する。
次に、コメント決定部330は、設定したFacialGenerationと、顔情報FacialInfoのRoll、Pitch、Yawの中で最大値とを用いて、図26に示すコメントデータベースからコメント一覧を取得する(ステップS418)。
図26は、コメントデータベースを示すテーブルTa5である。図26に示すように、コメントデータベースは、顔の向き(Orientation)とGenerationによってコメントが区分けされている。例えば、顔F1のFacialGenerationがAdultで、かつRollが最大値(7)であるので、コメント決定部330は、コメントデータベースにおいて、0<Roll<9で、かつGenerationがAdultである区分C2のコメント一覧を選択する。
次に、コメント決定部330は、取得したコメント一覧からランダムに一つのコメントを選択する(ステップS420)。これにより、faceldx=1の顔F1についての顔の向きに基づくコメント決定処理が完了し、図20に示すフローチャートに戻る。
faceldx=1の顔F1について、笑顔と世代に基づくコメント及び顔の向きに基づくコメントの決定処理が完了すると、コメント決定部330は、faceldxを1だけインクリメントする(ステップS208)。そして、コメント決定部330は、インクリメント後のfaceldxの値が、認識した顔の数Nより大きいな否かを判定する(ステップS210)。
ステップS210でfaceldxの値がNより大きく無い場合には(No)、コメント決定部330は、上述したステップS204〜S208の処理を繰り返す。すなわち、コメント決定部330は、図21に示すfaceldx=2の顔F2と、faceldx=3の顔F3について、それぞれ笑顔と世代に基づくコメント及び顔の向きに基づくコメントの決定処理を行う。
ステップS210でfaceldxの値がNより大きい場合には(Yes)、第1コメント決定処理が完了し、図19に示すフローチャートに戻る。
コメント決定部330は、ステップS104で認識した顔の数Nが2以上であるか否かを判定する(ステップS110)。そして、ステップS110で顔の数Nが2以上であると判定された場合には(Yes)、コメント決定部330は、顔位置に基づくコメント決定処理を実行する(ステップS112)。
(5−2.顔位置に基づくコメント決定処理)
図27を参照しながら、ステップS112の顔位置に基づくコメント決定処理について説明する。図27は、顔位置に基づくコメント決定処理を示すフローチャートである。
図27を参照しながら、ステップS112の顔位置に基づくコメント決定処理について説明する。図27は、顔位置に基づくコメント決定処理を示すフローチャートである。
まず、コメント決定部330は、最大の顔面積を持つ顔番号bigFaceldxを抽出する(ステップS502)。次に、コメント決定部330は、最小の顔面積を持つ顔番号smallFaceldxを抽出する(S504)。
図28は、顔番号の抽出を説明するための模式図である。被写体の顔の大きさ(顔面積)は、撮像装置20からの距離に比例する。すなわち、顔面積が大きい顔の位置は撮像装置20から近い位置であり、顔面積の小さい顔の位置は撮像装置20から離れた位置である。顔面積(faceArea)は、横幅(fwidth)と縦幅(fheight)を乗算して算出される。図28では、最大の顔面積を持つ顔はfaceldx=1の顔F1であり、最小の顔面積を持つ顔はfaceldx=3の顔F3である。このため、顔番号bigFaceldx=1であり、顔番号smallFaceldx=3である。
次に、コメント決定部330は、顔番号bigFaceldxの顔面積が顔番号smallFaceldxの顔面積の2倍より大きいか否かを判定する(ステップS506)。そして、ステップS506で顔番号bigFaceldxの顔面積が顔番号smallFaceldxの顔面積の2倍より大きいと判定された場合には(Yes)、コメント決定部330は、顔番号smallFaceldxの顔(ここでは、faceldx=3の顔F3)に対してコメントを決定することを設定する(ステップS508)。
次に、コメント決定部330は、顔番号smallFaceldxの顔に対して、コメントデータベースから顔位置によるコメントをランダムに決定する(ステップS510)。次に、コメント決定部330は、顔番号smallFaceldxの顔に対して、コメントスコア0.80を付与し(ステップS512)、顔位置に基づくコメント決定処理を完了する。
なお、ステップS506で顔番号bigFaceldxの顔面積が顔番号smallFaceldxの顔面積の2倍より大きく無い場合には(No)、コメント決定部330は、コメントを決定せずに、処理を完了する。そして、処理が完了すると、図19に示すフローチャートに戻る。
コメント決定部330は、ステップS104で認識した顔の数Nが4以上であるか否かを判定する(ステップS114)。そして、ステップS114で顔の数Nが4以上であると判定された場合には(Yes)、コメント決定部330は、コメントを付与する被写体の特定処理を実行する(ステップS116)。
(5−3.コメントを付与する被写体の特定処理)
図29を参照しながら、ステップS116のコメントを付与する被写体の特定処理について説明する。図29は、コメントを付与する被写体の特定処理を示すフローチャートである。
図29を参照しながら、ステップS116のコメントを付与する被写体の特定処理について説明する。図29は、コメントを付与する被写体の特定処理を示すフローチャートである。
まず、コメント決定部330は、faceldxを1に設定する(ステップS602)。次に、コメント決定部330は、図30に示すfaceldx=1の顔F1に関するコメント一覧FacialComment[]を、CommentHolder[faceldx]から取り出す(ステップS604)。
図30は、CommentHolder[faceldx]を説明するための模式図である。図30に示すように、顔毎にCommentHolder[faceldx]が設定されている。そして、CommentHolder[faceldx]は、FacialComment(笑顔・世代コメント、位置コメント1、位置コメント2、向きコメント)を含んでいる。
次に、コメント決定部330は、取り出した4つのFacialCommentの中から最大のスコアのコメントを有するコメントを選択する(ステップS606)。図30では笑顔・世代コメントが最大のスコアを有するので、コメント決定部330は、笑顔・世代コメント(「いい笑顔」)を選択する。
次に、コメント決定部330は、faceldxを1だけインクリメントする(ステップS608)。そして、コメント決定部330は、インクリメント後のfaceldxの値が、認識した顔の数Nより大きいな否かを判定する(ステップS610)。
ステップS610でfaceldxの値がNより大きく無い場合には(No)、コメント決定部330は、上述した処理S602〜S608を繰り返す。すなわち、コメント決定部330は、図30に示す4つの顔について、スコアが最大のコメントを選択する。
ステップS610でfaceldxの値がNより大きい場合には(Yes)、コメント決定部330は、4つの顔のうちスコアが上位3つの顔を選択し、表示フラグを設定する(ステップS612)。これにより、コメントを付与する被写体の特定処理が完了し、図19に示すフローチャートに戻る。
表示制御部340は、表示画面にコメントを含む吹出しを表示させる(ステップS120)。表示制御部340は、例えば図29のステップS612で表示フラグが設定された3つの顔について、吹出しを表示させる。
なお、ステップS106で認識した顔の数Nが0である場合には(No)、コメント決定部330は、中立のコメントを決定する(ステップS118)。そして、表示制御部340は、表示画面に決定した中立のコメントを表示させる(ステップS120)。
また、ステップS110で認識した顔の数Nが2未満である場合には(No)、表示制御部340は、顔毎に、笑顔・世代コメントと向きコメントのうちスコアが高い方のコメントを表示させる(ステップS120)。これにより、被写体に応じたコメント表示処理が完了する。
<6.まとめ>
上述したように、本開示に係る情報処理装置は、取得された被写体画像中の被写体の撮像態様を解析し、解析結果に基づいて、表示画面に前記被写体画像に付加して表示される撮像態様に対するコメントを決定する。これにより、例えば被写体は表示画面に表示されたコメントを見て撮像態様を変えることで、その後に撮像されて表示される被写体の構図が変化するので、趣向性に富んだ表示が可能となる。
上述したように、本開示に係る情報処理装置は、取得された被写体画像中の被写体の撮像態様を解析し、解析結果に基づいて、表示画面に前記被写体画像に付加して表示される撮像態様に対するコメントを決定する。これにより、例えば被写体は表示画面に表示されたコメントを見て撮像態様を変えることで、その後に撮像されて表示される被写体の構図が変化するので、趣向性に富んだ表示が可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、上記において、図9に示す画像取得部310、画像解析部320、コメント決定部330は、表示装置40の制御部210によって構成されることとしたが、これに限定されない。例えば、図3に示すサーバ70が、画像解析部310、画像解析部320、コメント決定部330を有する情報処理装置であることとしても良い。すなわち、サーバ70が、取得された被写体画像中の被写体の撮像態様を解析し、解析結果に基づいて、表示画面に前記被写体画像に付加して表示される撮像態様に対するコメントを決定する。かかる場合には、サーバ70において決定されたコメントの情報が、表示装置40に送信され、表示装置40は、受信したコメントの情報に基づいて、被写体画像とコメントを共に表示することになる。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
本明細書において説明した表示制御装置による処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)被写体が撮像された被写体画像を取得する画像取得部と、
前記画像取得部により取得された前記被写体画像中の前記被写体の撮像態様を解析する画像解析部と、
前記画像解析部の解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定するコメント決定部と、
を備える、情報処理装置。
(1)被写体が撮像された被写体画像を取得する画像取得部と、
前記画像取得部により取得された前記被写体画像中の前記被写体の撮像態様を解析する画像解析部と、
前記画像解析部の解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定するコメント決定部と、
を備える、情報処理装置。
(2)前記被写体画像を表示画面に表示させる際に、前記コメント決定部により決定された前記コメントを前記被写体画像に付加して表示させる表示制御部を更に備える、前記(1)に記載の情報処理装置。
(3)前記撮像態様は、前記被写体の笑顔の度合いを含み、
前記コメント決定部は、前記笑顔の度合いに応じて前記コメントを決定する、前記(1)又は(2)に記載の情報処理装置。
前記コメント決定部は、前記笑顔の度合いに応じて前記コメントを決定する、前記(1)又は(2)に記載の情報処理装置。
(4)前記被写体画像は、複数の前記被写体が撮像された画像であり、
前記撮像態様は、前記複数の被写体の位置関係を含み、
前記コメント決定部は、前記位置関係が所定範囲内にある場合に、前記位置関係に応じて前記コメントを決定する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
前記撮像態様は、前記複数の被写体の位置関係を含み、
前記コメント決定部は、前記位置関係が所定範囲内にある場合に、前記位置関係に応じて前記コメントを決定する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)前記撮像態様は、前記被写体が向いている向きを含み、
前記コメント決定部は、前記向きに応じて前記コメントを決定する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
前記コメント決定部は、前記向きに応じて前記コメントを決定する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記画像解析部は、前記被写体の年齢、又は前記年齢が、区分された複数の年齢層のいずれに該当するかを判定し、
前記コメント決定部は、前記被写体の年齢、又は前記被写体の該当する年齢層に応じて前記コメントを決定する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
前記コメント決定部は、前記被写体の年齢、又は前記被写体の該当する年齢層に応じて前記コメントを決定する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記被写体画像は、複数の前記被写体が撮像された画像であり、
前記コメント決定部は、前記被写体画像中の被写体毎に前記コメントを決定し、
前記表示制御部は、決定された複数のコメントを対応する被写体毎に付加して表示させる、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
前記コメント決定部は、前記被写体画像中の被写体毎に前記コメントを決定し、
前記表示制御部は、決定された複数のコメントを対応する被写体毎に付加して表示させる、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記撮像態様は、複数の態様を含み、
前記コメント決定部は、
前記複数の態様の度合いを、それぞれスコア化し、
前記複数の態様のうちの前記スコアが最も大きい態様に関連する前記コメントを決定する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
前記コメント決定部は、
前記複数の態様の度合いを、それぞれスコア化し、
前記複数の態様のうちの前記スコアが最も大きい態様に関連する前記コメントを決定する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)前記コメント決定部は、更に、前記撮像態様に対して、被写体側へのコメント、又は被写体側からのコメントを決定する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記被写体画像を表示画面に表示させる際に、前記コメント決定部により決定された前記コメントを前記被写体画像に付加して表示させる表示制御部を更に備え、
前記表示制御部は、
前記コメントを囲む吹出しを前記被写体画像に付加して表示させ、
前記被写体側へのコメントの場合には、前記吹出しの基点が前記表示画面において前記被写体画像外に位置するように、前記吹出しを表示させ、
前記被写体側からのコメントの場合には、前記吹出しの基点が前記表示画面において前記被写体画像内に位置するように、前記吹出しを表示させる、前記(9)に記載の情報処理装置。
前記表示制御部は、
前記コメントを囲む吹出しを前記被写体画像に付加して表示させ、
前記被写体側へのコメントの場合には、前記吹出しの基点が前記表示画面において前記被写体画像外に位置するように、前記吹出しを表示させ、
前記被写体側からのコメントの場合には、前記吹出しの基点が前記表示画面において前記被写体画像内に位置するように、前記吹出しを表示させる、前記(9)に記載の情報処理装置。
(11)前記コメント決定部により決定された前記コメントを前記被写体画像に付加して表示させる表示時間を取得する表示時間取得部を更に備える、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記画像解析部は、前記被写体の年齢、又は前記年齢が、区分された複数の年齢層のいずれに該当するかを判定し、
前記表示時間取得部は、前記被写体の年齢、又は前記被写体の該当する年齢層に応じて前記表示時間を取得する、前記(11)に記載の情報処理装置。
前記表示時間取得部は、前記被写体の年齢、又は前記被写体の該当する年齢層に応じて前記表示時間を取得する、前記(11)に記載の情報処理装置。
(13)前記表示時間は、
表示された前記コメントに前記表示画面を見るユーザが気付く第1時間と、
前記コメントを前記ユーザが読む第2時間と、
前記コメントに対して前記ユーザがリアクションを行う第3時間と、
を加えた時間である、前記(11)又は(12)に記載の情報処理装置。
表示された前記コメントに前記表示画面を見るユーザが気付く第1時間と、
前記コメントを前記ユーザが読む第2時間と、
前記コメントに対して前記ユーザがリアクションを行う第3時間と、
を加えた時間である、前記(11)又は(12)に記載の情報処理装置。
(14)前記表示制御部は、
ユーザの視点を中心とする円の半径方向に前記撮像日時に対応する時間軸を有し、かつ前記円の円周方向に前記撮像位置に対応する方位軸を有する仮想空間の所定の描画位置に、
前記コメントが付加された前記被写体画像を描画する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
ユーザの視点を中心とする円の半径方向に前記撮像日時に対応する時間軸を有し、かつ前記円の円周方向に前記撮像位置に対応する方位軸を有する仮想空間の所定の描画位置に、
前記コメントが付加された前記被写体画像を描画する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)被写体が撮像された被写体画像を取得することと、
取得された前記被写体画像中の前記被写体の撮像態様を解析することと、
解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、
を含む、情報処理方法。
取得された前記被写体画像中の前記被写体の撮像態様を解析することと、
解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、
を含む、情報処理方法。
(16)コンピュータに、
被写体が撮像された被写体画像を取得することと、
取得された前記被写体画像中の前記被写体の撮像態様を解析することと、
解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、
を実行させるための、プログラム。
被写体が撮像された被写体画像を取得することと、
取得された前記被写体画像中の前記被写体の撮像態様を解析することと、
解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、
を実行させるための、プログラム。
10 画像表示システム
20 撮像装置
30 回転雲台
40 表示装置
50 大画面表示装置
70 サーバ
110 制御部
120 表示部
130 撮像部
140 通信部
150 記憶部
160 入力部
170 電子コンパス
210 制御部
220 記憶部
230 通信部
240 表示部
250 入力部
260 外部I/F
300 表示制御装置
310 画像取得部
320 画像解析部
330 コメント決定部
340 表示制御部
350 表示時間取得部
20 撮像装置
30 回転雲台
40 表示装置
50 大画面表示装置
70 サーバ
110 制御部
120 表示部
130 撮像部
140 通信部
150 記憶部
160 入力部
170 電子コンパス
210 制御部
220 記憶部
230 通信部
240 表示部
250 入力部
260 外部I/F
300 表示制御装置
310 画像取得部
320 画像解析部
330 コメント決定部
340 表示制御部
350 表示時間取得部
Claims (16)
- 被写体が撮像された被写体画像を取得する画像取得部と、
前記画像取得部により取得された前記被写体画像中の前記被写体の撮像態様を解析する画像解析部と、
前記画像解析部の解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定するコメント決定部と、
を備える、情報処理装置。 - 前記被写体画像を表示画面に表示させる際に、前記コメント決定部により決定された前記コメントを前記被写体画像に付加して表示させる表示制御部を更に備える、請求項1に記載の情報処理装置。
- 前記撮像態様は、前記被写体の笑顔の度合いを含み、
前記コメント決定部は、前記笑顔の度合いに応じて前記コメントを決定する、請求項1に記載の情報処理装置。 - 前記被写体画像は、複数の前記被写体が撮像された画像であり、
前記撮像態様は、前記複数の被写体の位置関係を含み、
前記コメント決定部は、前記位置関係が所定範囲内にある場合に、前記位置関係に応じて前記コメントを決定する、請求項1に記載の情報処理装置。 - 前記撮像態様は、前記被写体が向いている向きを含み、
前記コメント決定部は、前記向きに応じて前記コメントを決定する、請求項1に記載の情報処理装置。 - 前記画像解析部は、前記被写体の年齢、又は前記年齢が、区分された複数の年齢層のいずれに該当するかを判定し、
前記コメント決定部は、前記被写体の年齢、又は前記被写体の該当する年齢層に応じて前記コメントを決定する、請求項1に記載の情報処理装置。 - 前記被写体画像は、複数の前記被写体が撮像された画像であり、
前記コメント決定部は、前記被写体画像中の被写体毎に前記コメントを決定し、
前記表示制御部は、決定された複数のコメントを対応する被写体毎に付加して表示させる、請求項1に記載の情報処理装置。 - 前記撮像態様は、複数の態様を含み、
前記コメント決定部は、
前記複数の態様の度合いを、それぞれスコア化し、
前記複数の態様のうちの前記スコアが最も大きい態様に関連する前記コメントを決定する、請求項1に記載の情報処理装置。 - 前記コメント決定部は、更に、前記撮像態様に対して、被写体側へのコメント、又は被写体側からのコメントを決定する、請求項1に記載の情報処理装置。
- 前記被写体画像を表示画面に表示させる際に、前記コメント決定部により決定された前記コメントを前記被写体画像に付加して表示させる表示制御部を更に備え、
前記表示制御部は、
前記コメントを囲む吹出しを前記被写体画像に付加して表示させ、
前記被写体側へのコメントの場合には、前記吹出しの基点が前記表示画面において前記被写体画像外に位置するように、前記吹出しを表示させ、
前記被写体側からのコメントの場合には、前記吹出しの基点が前記表示画面において前記被写体画像内に位置するように、前記吹出しを表示させる、請求項9に記載の情報処理装置。 - 前記コメント決定部により決定された前記コメントを前記被写体画像に付加して表示させる表示時間を取得する表示時間取得部を更に備える、請求項1に記載の情報処理装置。
- 前記画像解析部は、前記被写体の年齢、又は前記年齢が、区分された複数の年齢層のいずれに該当するかを判定し、
前記表示時間取得部は、前記被写体の年齢、又は前記被写体の該当する年齢層に応じて前記表示時間を取得する、請求項11に記載の情報処理装置。 - 前記表示時間は、
表示された前記コメントに前記表示画面を見るユーザが気付く第1時間と、
前記コメントを前記ユーザが読む第2時間と、
前記コメントに対して前記ユーザがリアクションを行う第3時間と、
を加えた時間である、請求項11に記載の情報処理装置。 - 前記表示制御部は、
ユーザの視点を中心とする円の半径方向に前記撮像日時に対応する時間軸を有し、かつ前記円の円周方向に前記撮像位置に対応する方位軸を有する仮想空間の所定の描画位置に、
前記コメントが付加された前記被写体画像を描画する、請求項1に記載の情報処理装置。 - 被写体が撮像された被写体画像を取得することと、
取得された前記被写体画像中の前記被写体の撮像態様を解析することと、
解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、
を含む、情報処理方法。 - コンピュータに、
被写体が撮像された被写体画像を取得することと、
取得された前記被写体画像中の前記被写体の撮像態様を解析することと、
解析結果に基づいて、表示画面に前記被写体画像に付加して表示される前記撮像態様に対するコメントを決定することと、
を実行させるための、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011243390A JP2013097773A (ja) | 2011-11-07 | 2011-11-07 | 情報処理装置、情報処理方法、及びプログラム |
US13/661,887 US20130113952A1 (en) | 2011-11-07 | 2012-10-26 | Information processing apparatus, information processing method, and program |
CN201210422995.1A CN103200359A (zh) | 2011-11-07 | 2012-10-30 | 信息处理设备、信息处理方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011243390A JP2013097773A (ja) | 2011-11-07 | 2011-11-07 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013097773A true JP2013097773A (ja) | 2013-05-20 |
Family
ID=48223446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011243390A Pending JP2013097773A (ja) | 2011-11-07 | 2011-11-07 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130113952A1 (ja) |
JP (1) | JP2013097773A (ja) |
CN (1) | CN103200359A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016085530A (ja) * | 2014-10-23 | 2016-05-19 | キヤノン株式会社 | 画像管理装置及びその制御方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9305085B2 (en) * | 2013-11-26 | 2016-04-05 | International Business Machines Corporation | Online thread retrieval using thread structure and query subjectivity |
US10607063B2 (en) * | 2015-07-28 | 2020-03-31 | Sony Corporation | Information processing system, information processing method, and recording medium for evaluating a target based on observers |
CN105184608A (zh) * | 2015-08-27 | 2015-12-23 | 宇龙计算机通信科技(深圳)有限公司 | 一种多媒体内容的点评方法及用户终端 |
US12081508B2 (en) * | 2019-06-25 | 2024-09-03 | International Business Machines Corporation | Feedback enabled network curation of relevant content thread |
US11189063B2 (en) * | 2019-08-23 | 2021-11-30 | International Business Machines Corporation | Commenting in 360 degree view image |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050206751A1 (en) * | 2004-03-19 | 2005-09-22 | East Kodak Company | Digital video system for assembling video sequences |
US7636450B1 (en) * | 2006-01-26 | 2009-12-22 | Adobe Systems Incorporated | Displaying detected objects to indicate grouping |
US20100238323A1 (en) * | 2009-03-23 | 2010-09-23 | Sony Ericsson Mobile Communications Ab | Voice-controlled image editing |
US20120266084A1 (en) * | 2011-04-18 | 2012-10-18 | Ting-Yee Liao | Image display device providing individualized feedback |
US9087048B2 (en) * | 2011-06-10 | 2015-07-21 | Linkedin Corporation | Method of and system for validating a fact checking system |
-
2011
- 2011-11-07 JP JP2011243390A patent/JP2013097773A/ja active Pending
-
2012
- 2012-10-26 US US13/661,887 patent/US20130113952A1/en not_active Abandoned
- 2012-10-30 CN CN201210422995.1A patent/CN103200359A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016085530A (ja) * | 2014-10-23 | 2016-05-19 | キヤノン株式会社 | 画像管理装置及びその制御方法 |
US10057321B2 (en) | 2014-10-23 | 2018-08-21 | Canon Kabushiki Kaisha | Image management apparatus and control method capable of automatically creating comment data relevant to an image |
Also Published As
Publication number | Publication date |
---|---|
CN103200359A (zh) | 2013-07-10 |
US20130113952A1 (en) | 2013-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3786894A1 (en) | Method, device and apparatus for repositioning in camera orientation tracking process, and storage medium | |
US9307153B2 (en) | Method and apparatus for previewing a dual-shot image | |
JP5847924B2 (ja) | 拡張現実表現のための二次元画像取込み | |
CN106575361B (zh) | 提供视觉声像的方法和实现该方法的电子设备 | |
US9313405B2 (en) | Image processing device, image processing method and program | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
EP3582117A1 (en) | Image display method and electronic device | |
JP2013162487A (ja) | 画像表示装置及び撮像装置 | |
TWI506989B (zh) | 影像擷取方法與系統 | |
JP2013097773A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2011188061A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2014112302A (ja) | 所定領域管理システム、通信方法、及びプログラム | |
JP2011060272A (ja) | Ui提供方法及びこれを適用したディスプレイ装置 | |
JP2005250950A (ja) | マーカ提示用携帯端末および拡張現実感システムならびにその動作方法 | |
US20150070526A1 (en) | Display control device, display control method, and program | |
US10115431B2 (en) | Image processing device and image processing method | |
JP6149862B2 (ja) | 表示制御装置、表示制御システムおよび表示制御方法 | |
EP3933753A1 (en) | Method for processing image, related device and storage medium | |
JP2022140458A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6323548B2 (ja) | 撮影補助システム、撮像装置、情報処理装置、撮影補助プログラム及び撮影補助方法 | |
GB2513865A (en) | A method for interacting with an augmented reality scene | |
US20210377454A1 (en) | Capturing method and device | |
EP2917847B1 (en) | Method and digital device for displaying a path in a map with a thickness corresponding to a distance within a section | |
JP6221487B2 (ja) | 情報処理装置、画像表示システム、情報処理装置における画像表示方法及びプログラム | |
TWI522726B (zh) | 資訊產生與分享方法,及其相關裝置與電腦程式產品 |