JP2019047234A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2019047234A
JP2019047234A JP2017166484A JP2017166484A JP2019047234A JP 2019047234 A JP2019047234 A JP 2019047234A JP 2017166484 A JP2017166484 A JP 2017166484A JP 2017166484 A JP2017166484 A JP 2017166484A JP 2019047234 A JP2019047234 A JP 2019047234A
Authority
JP
Japan
Prior art keywords
photographer
subject
emotion
information processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017166484A
Other languages
English (en)
Inventor
マムン カジ
Mamun Kazi
マムン カジ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2017166484A priority Critical patent/JP2019047234A/ja
Priority to PCT/JP2018/023726 priority patent/WO2019044135A1/ja
Priority to US16/640,523 priority patent/US11328187B2/en
Publication of JP2019047234A publication Critical patent/JP2019047234A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】撮影画像の被写体別の撮影者の感情を撮像画像に反映させ、撮影の際の臨場感を再現することが可能な情報処理装置、情報処理方法、およびプログラムを提供する。【解決手段】撮像画像から1以上の被写体を認識する認識部と、前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、を備える、情報処理装置【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
昨今、デジタルカメラが普及し、取得した撮像画像の閲覧や管理、加工等の様々な技術が提案されている。
撮像画像に関する技術に関し、例えば下記特許文献1では、デジタル画像に対するユーザの情緒的な情報(具体的には、「お気に入り」、「重要」、「恐れ、怒り、幸福等の感情的な分野」)とユーザ識別子を記憶してデジタル画像を分類し、情緒的な情報に基づいたデジタル画像の検索を可能とする技術が開示されている。
また、下記特許文献2では、撮影者の感情分析(具体的には、嬉しい表情か、悲しい表情か)に基づいて、撮像画像全体を明るく、若しくは暗くする画像処理について開示されている。
また、下記特許文献3では、体験者の周囲の体験情報として画像や音声、人体情報(眼球の動き、心拍数、瞬きの回数)、環境情報(加速度、気温、湿度、天気等)を取得、記録し、撮影時の臨場感を再現する装置について開示されている。
特許第4441172号公報 特開2012−257112号公報 特開2003−299013号公報
ここで、上述した従来技術では、いずれも撮影画像全体に対する撮影者の感情は単一であることが前提とされているが、撮影者の興味対象や感情は撮影画像全体に対する単一のものに限定されず、撮像画像に写る特定の被写体や被写体毎に生じることが考えられる。
そこで、本開示では、撮影画像の被写体別の撮影者の感情を撮像画像に反映させ、撮影の際の臨場感を再現することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、撮像画像から1以上の被写体を認識する認識部と、前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、撮像画像から1以上の被写体を認識することと、前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測することと、前記被写体毎の感情を前記撮像画像に反映させる画像処理を行うことと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、撮像画像から1以上の被写体を認識する認識部と、前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、撮影画像の被写体別の撮影者の感情を撮像画像に反映させ、撮影の際の臨場感を再現することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 撮影時における肉眼での見え方と実際の撮像画像との印象の違いについて説明する図である。 本実施形態による具体的なシステム構成の一例を示す図である。 本実施形態による具体的なシステム構成の他の例を示す図である。 本実施形態による処理装置の構成の一例を示すブロック図である。 本実施形態による撮像画像における被写体の検知について説明する図である。 本実施形態による画像処理の一例を示すフローチャートである。 本実施形態による本実施形態による画像加工の一例を示す図である。 本開示に係る処理装置を実現する情報処理装置のハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.処理装置20の構成
3.動作処理
4.画像加工例
5.ハードウェア構成
6.まとめ
<1.本開示の一実施形態による情報処理システムの概要>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システム1は、入力装置10、処理装置20、および表示装置30(出力装置の一例)を含む。
入力装置10は、画像データを取得するカメラ11、撮影者の視線を検出する視線検出センサ12、および撮影者の状態をセンシングして各種センサデータを取得する1以上のセンサデバイス13を含む。入力装置10は、単一の装置により構成されていてもよいし、複数の装置により構成されていてもよい。なお入力装置10が複数の装置により構成される場合、データ同期用の特別なセンサを各インプットデバイスに搭載してもよい。
カメラ11は、デジタルカメラやビデオカメラ等のカメラ装置の他、スマートフォンや携帯電話端末、メガネ、HMD(ヘッドマウンドディスプレイ)等の各種端末装置に搭載されたカメラであってもよい。カメラ11は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
視線検出センサ12は、撮影者の視線を検出するセンサデバイスであって、例えばカメラ11に搭載される。視線検出センサ12は、カメラ11に対する身体(顔)の位置が固定されている状態で視線を検出できるものが望ましい(例えば、カメラ11に取り付けられる赤外線視線トラッカー付きのビューファインダーや、撮影用カメラ付きのメガネに搭載される視線検出用内向きカメラなど)。また、視線検出センサ12は、スマートフォンのフロントカメラ(内向きカメラ)により実現することも可能である。例えばスマートフォンのフロントカメラにより撮影者の顔の輪郭を検出し、また、眼の位置を特定(若しくは撮影者が装着しているメガネの位置を特定、またはメガネのマーカーを検出して特定)し、顔の向きや、眼の動き(瞳孔や虹彩の位置や状態)等を検出して視線を検出(推測)することも可能である。
センサデバイス13は、生体センサ(動脈センサ、静脈センサ、脈拍センサ、心拍センサ、体温センサ、発汗センサ、血圧センサ、呼吸センサ、筋電センサ、脳波センサ等)、マイクロホン(音声センサ)、カメラセンサ、スマイルセンサ(笑顔検出)、またはモーションセンサ(加速度センサ、ジャイロセンサ、地磁気センサ)などが想定される。スマイルセンサは、撮影者の顔を撮像した撮像画像から顔解析を行い、笑顔指数を検出し得る。具体的には、例えばスマイルセンサは、口の形や眼の状態の解析、機械学習等により、撮影者の笑顔指数(笑顔度)を算出する。センサデバイス13は、カメラ11または視線検出センサ12と一体であってもよいし、単体(例えばユーザが装着するウェアラブルデバイス)であってもよい。また、センサデバイス13は、ユーザの周辺(撮影環境)に配置されたものであってもよい。例えば、街中に設置された監視カメラ、マイクロホン、生体センサ等が想定される。
(背景)
ここで、写真撮影において肉眼で見えている風景の臨場感を撮像画像に表現することが難しいという問題がある。写真撮影の際、人は特定の被写体に注目して何らかの感情を向けて見ていることで、その被写体が大きく見えるといった現象が生じる。しかし人間の脳内で起きていることであるため、写真には反映されず、結果的に撮影した写真を見ると撮影時に認識していた景色と異なると感じる場合がある。
具体的には、人間の視野は左右に180度〜210度程度の広がりを持つが、網膜の感受性は中心部(視線方向、すなわち注視箇所)が高く、かかる中心部(「中心視」とも称す)は約2度に過ぎない。撮影時に特定の被写体に注視している場合、人間の視野は超望遠レンズに相当するような範囲となり、無意識的に脳内で被写体にズーム(若しくは周囲をトリミング)し、被写体の存在感を大きく感じるという説がある。一方で、視界内に入っているが注視していない被写体や見たくないと感じているものは、その存在感を小さく感じる現象も起きる(その被写体の存在に気付かないこともある)。
図2は、撮影時における肉眼での見え方と実際の撮像画像との印象の違いについて説明する図である。例えば図2上段に示すように、肉眼で見る街並みの風景60において、画角内の複数の被写体のうち、ランドマーク601に注目して素晴らしい景色だなといったポジティブな感情を持っている場合、ランドマーク601の存在感が(他の被写体よりも)無意識的に脳内で大きくなるが、この時撮影した風景60の撮像画像61にはこのような撮影者の感情は反映されず、ランドマーク611は肉眼の印象よりも小さくなる。
また、図2下段に示すように、月の写真を撮影した際も同様の現象が起こる。肉眼で見る月の風景63において、画角内の複数の被写体のうち、月631に注目して綺麗な景色だなといったポジティブな感情を持っている場合、月631の存在感が(他の被写体よりも)無意識的に脳内で大きくなるが、この時撮影した風景63の撮像画像64にはこのような撮影者の感情は反映されず、月641は肉眼の印象よりも小さくなる。
このように、撮影者の注目度や感情によって画角内の被写体の存在感が大きくなったり小さくなったりするが、写真や動画の再生の時にこのような撮影者の被写体に対する注目度や感情は失われているため、撮影時と印象が変わってしまう。
そこで、本実施形態では、撮影した画像データ(静止画または動画像の撮像データであって、以下「撮像画像」とも称す)と共に、画像データに写る被写体毎の撮影者の注目度や感情に関するデータを記録し、記録したデータに基づいて所定の画像処理を行うことで、撮影者の(肉眼での)見え方(印象)に近付けて再生し、臨場感を再現することを可能とする。なお撮影者の注目度や感情に関するデータは、撮影者が感じる被写体の存在感に影響する要素に関するデータの一例である。
これにより、撮影者が肉眼で見ていた風景と撮影画像との差を小さくすることができ、画像(映像)を見る人の体験を改善することができる。また、撮影者の感情を画像に反映することによって、その人がその時にしか体感できない特別な情景を撮影することができるようになると、写真や動画像の新しい楽しみ方が広がる。
具体的には、図1に示す情報処理システム1において、入力装置10は、カメラ11により取得した撮像画像と、視線検出センサ12により検出した撮影者の視線データ(同期するために時間が紐付けられた時系列の視線データ)と、センサデバイス13により取得した撮影者のセンサデータ(同期するために時間が紐付けられた時系列のセンサデータ)を、処理装置20に出力する。
処理装置20は、撮影者の視線データに基づいて被写体毎の注目度を算出し、さらに、撮影者のセンサデータを分析して被写体毎の撮影者の感情(各被写体に向けられた撮影者の感情)を推測する。そして、処理装置20は、被写体毎の注目度および推測した感情情報(感情指数)に基づいて、撮像画像の加工を行い、撮影者が肉眼で見ていた(感じていた)風景により近い画像を生成して表示装置30に出力する。
処理装置20による撮像画像の加工は、撮影時にリアルタイムに行って表示装置30に表示して撮影者が確認できるようにしてもよいし、表示装置30からリクエストがあった際に行ってもよいし、いずれのタイミングにも依拠せず処理装置20側の任意のタイミングで適宜行ってもよい。処理装置20は、例えばクラウド側に配置されるサーバであってもよい。
また、図1に示す情報処理システム1は、システム構成の一例であって、本開示はこれに限定されない。例えば図1に示す情報処理システム1の各構成が全て単一の装置で実現されてもよいし、任意に組み合わせによる複数の装置で実現されてもよい。例えば、入力装置10のカメラ11、視線検出センサ12、およびセンサデバイス13の少なくともいずれかと、処理装置20の全部または一部が同一の装置により実現されてもよい。
ここで、具体的なシステム構成の一例について図3および図4を参照して説明する。
図3は、本実施形態による具体的なシステム構成の一例を示す図である。図3に示すように、本実施形態による情報処理システム1aは、例えば撮影者の視線検出が可能なビューファインダー(視線検出センサ12a)が設けられたカメラ装置11aと、ユーザの身体に装着されたウェアラブルデバイス(センサデバイス13a)と、処理装置20および表示装置30を含む画像処理装置20aと、により構成されてもよい。
ビューファインダー(視線検出センサ12a)は、例えば赤外線視線トラッカーを搭載し、ビューファインダーを覗く撮影者の眼に照射した赤外線の反射により視線(瞳孔の動き)を検出し得る。また、ビューファインダー(視線検出センサ12a)は、カメラ装置11aに着脱可能であってもよい。
ウェアラブルデバイス(センサデバイス13a)は、例えばユーザ(撮影者)の腕に装着されるリストバンドであって、生体センサの一例として例えば動脈センサが搭載される。ウェアラブルデバイス(センサデバイス13a)は、検知した動脈データをカメラ装置11aにより無線/有線により送信する。
カメラ装置11aは、撮像画像と、当該撮像画像の撮影の際(例えばシャッターが半押しされてから全押しされるまでの間等、撮像の所定時間前から撮像までの間)におけるビューファインダー(視線検出センサ12a)から取得した撮影者の視線データ(時系列)と、同撮影の際におけるウェアラブルデバイス(センサデバイス13a)から取得した撮影者の動脈データ等の生体センサデータ(時系列)とを対応付けて記録する。
画像処理装置20aは、処理装置20と表示装置30が一体となった情報処理装置であって、例えばPC(パーソナルコンピュータ)、タブレット端末、スマートフォン、携帯電話端末、ゲーム機、テレビジョン装置、プロジェクタ等により実現される。画像処理装置20aは、上述したカメラ装置11aにより記録されたデータを有線/無線、または当該記録されたデータが書き込まれた記憶媒体から取得し、取得したデータに基づいて、撮像画像に写る1以上の被写体毎の撮影者の注目度や感情を算出する。そして、算出結果に基づいて撮像画像を加工し、撮影者の感情を反映した、より肉眼で見た(感じた)状態に近い撮像画像を表示部30aに表示する。
図4は、本実施形態による具体的なシステム構成の他の例を示す図である。図4に示すように、本実施形態による情報処理システム1bは、例えば撮影者に装着されるメガネ装置10b(入力装置10の一例)と、サーバ20b(処理装置20の一例)と、情報処理端末30b(表示装置30の一例)とにより構成されてもよい。
メガネ装置10bには、視線トラッキング用の内向きカメラ12b(視線検出センサ12の一例)と、撮影用カメラ11b(カメラ11の一例)と、生体センサ13a(センサデバイス13の一例)とが設けられる。内向きカメラ12bは、メガネ装置10bを装着しているユーザの眼を撮像し、視線検出を行う。また、撮影用カメラ11bは、メガネ装置10bを装着しているユーザの視線方向(視界)を撮像する。シャッタートリガは、例えばユーザの所定動作(例えばメガネ装置10bを所定回数/所定のリズムで叩く、所定の回数/所定のリズムで/ゆっくりと瞬きをする、所定キーワードを呟く、頭を振る、頷く等)により行われ得る。これらの動作は、メガネ装置10bに設けられたタッチセンサ、加速度センサ、ジャイロセンサ、マイクロホン、内向きカメラ12b等により検出される。若しくは、シャッタートリガは、メガネ装置10bとペアリングされたスマートフォンやスマートバンド、スマートイヤリング等の各種ユーザ端末に対するユーザ操作(画面操作、タッチ操作、ジェスチャー等)によりメガネ装置10bに発信されてもよい。
また、生体センサ13aは、例えばユーザの表情(眼の周囲や眉間の皮膚変形、表情筋の動き)や発汗を検知する。生体センサ13aは、具体的には、例えば皮膚電気容量ベースのセンサや反射光センサ等により実現され、メガネ装置10b内側のレンズ周辺等に1つまたは複数設けられる。
メガネ装置10bは、撮影用カメラ11bにより撮像した撮像画像と、当該撮像画像の撮影の際(例えばシャッターを切る(シャッタートリガが発信される)所定時間前からシャッターを切るまでの間)における内向きカメラ12bから取得した撮影者の視線データ(時系列データ)と、同撮影の際における生体センサ13aから取得した撮影者の表情筋データまたは発汗データ等の生体センサデータ(時系列データ)とを対応付けて記録する。また、メガネ装置10bは、対応付けたデータ(撮像画像、視線データ、および生体センサデータ)を、ネットワークを介してサーバ20bに送信する。
サーバ20bは、メガネ装置10bから送信されたデータに基づいて、撮像画像に写る1以上の被写体毎の撮影者の注目度や感情を算出し、算出結果に基づいて撮像画像を加工し、撮影者の感情を反映した、より肉眼で見た(感じた)状態に近い撮像画像を生成する。
情報処理端末30bは、表示装置30の構成を有する情報処理装置であって、例えばPC(パーソナルコンピュータ)、タブレット端末、スマートフォン、携帯電話端末、ゲーム機、テレビジョン装置、プロジェクタ等により実現される。情報処理端末30bは、ネットワークを介してサーバ20bから加工された撮像画像を受信し、表示部に表示する。
以上説明したシステム構成の具体例は一例であって、本開示のシステム構成はこれに限定されず、他の組み合わせによるシステム構成も当然に本開示の範囲に含まれる。
例えば、入力装置10のカメラ11、視線検出センサ12、およびセンサデバイス13の少なくともいずれかと表示装置30が一体となり、処理装置20とネットワークを介して通信接続してもよい。すなわち、例えば図3に示すカメラ装置11aと表示装置30が単一の装置(カメラ装置)により構成され、図4に示すサーバ20bと通信接続してもよい。また、処理装置20の機能が他の装置に分散されてもよい。例えば、カメラ装置11aにより被写体の認識と被写体毎の注目度や感情の算出が行われ、サーバ20bにより撮像画像と算出データに基づく画像加工処理が行われてもよい。
また、センサデバイス13は、センサデータの検出に限定されず、検出したデータを処理して出力してもよい。例えば、センサデバイス13は、撮影者の顔を撮像した撮像画像や表情筋から笑顔指数を算出し、算出した笑顔指数を出力してもよい(所謂スマイルセンサ)。
以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる処理装置20の具体的な構成について図面を参照して説明する。
<2.処理装置20の構成>
図5は、本実施形態による処理装置20の構成の一例を示すブロック図である。図5に示すように、処理装置20は、制御部21、通信部22、および記憶部23を有する。
制御部21は、演算処理装置および制御装置として機能し、各種プログラムに従って処理装置20内の動作全般を制御する。制御部21は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部21は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
また、本実施形態による制御部21は、図5に示すように、物体認識部211、注目度算出部212、センサデータ分析部213、被写体別感情推測部214、および画像処理部215としても機能する。
物体認識部211は、撮像画像を解析して物体(被写体)の認識(検知)を行う。具体的には、物体認識部211は、物体の境界特定し(x,y座標)、検知した各物体にIDを付与する。図6は、被写体の検知について説明する図である。物体認識部211は、例えば図6に示す撮像画像40から、被写体41(猫)、被写体42(蝶々)、被写体43(第1の花)、被写体44(第2の花)、および被写体45(第3の花)を認識し、それぞれにID(例えば、猫(x,y):ID1、蝶々(x,y):ID2、第1の花(x,y):ID3、第2の花(x,y):ID4、第3の花(x,y):ID5)を付与する。なお物体認識のアルゴリズムについては特に限定せず、例えば一般的に用いられる、入力画像から特徴を抽出して学習済み分類器により分類して物体を認識する一般物体認識や、入力画像から特徴を抽出して予め生成されたデータベースと照合して判断する特定物体認識等の技術を用いてもよい。また、物体が何であるか(カテゴリー名等)を判断せずとも、何らかの物体の存在を抽出(物体の境界の特定)ができればよい。
注目度算出部212は、撮影者の視線データに基づいて、各被写体に対する撮影者の注目度を算出する。視線データは、例えばシャッターが半押しされてから全押しされるまで等、撮像前からサンプリングされた、いつどこを見ていたかを示す時系列のデータである。注目度算出部212は、物体認識部211による撮像画像における物体(被写体)認識結果と、視線データに基づいて、各物体のピクセル内で視線が固定していた時間を算出する。固定していたか否かは、例えば被写体のピクセル内における視線の滞在時間や動き(視線の移動速度)等が所定条件を満たすか否かにより判断されてもよい。かかる視線の固定時間が長い程、その物体に注目していた(注目度が高い)と言える。例えば、複数の物体(被写体)について以下のように視線の固定時間を注目度として算出してもよい。
・被写体ID1:100msec
・被写体ID2:2000msec
・被写体ID3:0msec
・被写体ID4:0msec
・被写体ID5:200msec
なお、撮影者がどの被写体に注目していたかは、撮影者の視線データから検出する方法に限定されず、撮影者のマニュアル操作に基づいて判断してもよい。撮影者は、撮影時にカメラ装置やスマートフォン等に表示されたスルー画像に写る複数の被写体のうち注目している被写体をタップしてフォーカスを合わせたり、ピンチアウトして拡大したり等、注目対象に対して何らかの操作を行うことがある。若しくは、注目している(撮影したい)被写体を明示的に指定するよう撮影者に操作を促してもよい。注目度算出部212は、このような撮影者の操作情報を撮像画像と共に取得し、操作情報に基づいて被写体毎の注目度を算出することが可能である。また、注目度算出部212は、視線データに基づく手法とユーザ操作に基づく手法を併用して被写体毎の注目度を算出してもよい。
センサデータ分析部213は、撮影の際に撮影者をセンシングした各種センサデータを被写体毎に分析する。ここで、センサデータは、例えばシャッターが半押しされてから全押しされるまで等、撮像前からサンプリングされた、撮影者がいつどのような状態であったかを示す時系列のデータである。センサデータは、例えば、生体データ(例えば動脈、静脈、脈拍、心拍、体温、発汗、血圧、呼吸、筋電値、脳波等)、音声(発話)データ、撮像データ、モーションセンサデータ(例えば加速度、角速度、地磁気センサ値等)、または1以上のセンサデータから算出した処理データ(撮像画像や表情筋等から算出した笑顔指数、機械学習により取得したデータ等)等が想定される。
例えば、センサデータ分析部213は、物体認識部211による撮像画像における物体(被写体)認識結果と、視線データと、センサデータとに基づいて、各物体のピクセル内における視線の固定回数と、各物体の視線固定時間帯毎のセンサデータを分析する。例えば、ある被写体に視線が固定していた時間帯毎に、生体データの平均値を算出したり、笑顔指数を対応付けたりしてもよい。具体的には、例えば以下のように複数の物体(被写体)について撮影者の視線の固定回数毎のセンサデータが分析され得る。
・被写体ID1:視線固定1回目…脈拍平均78/sec,笑顔指数10
・被写体ID2:視線固定1回目…脈拍平均90/sec,笑顔指数70
視線固定2回目…脈拍平均90/sec,笑顔指数100
・被写体ID3:NA
・被写体ID4:NA
・被写体ID5:視線固定1回目…脈拍平均60/sec,笑顔指数0
被写体別感情推測部214は、注目度算出部212により算出された被写体毎の注目度や、センサデータ分析部213により算出された同被写体毎のセンサデータの分析結果に基づいて、被写体毎の撮影者の感情を推測する。ここで、「感情」とは、例えば「喜び」、「怒り」、「哀しみ」、「楽しさ」、「愛しさ」、「憎しみ」といった6つの基本感情と、これらの基本感情を2以上組み合わせた応用感情に分類されたものであってもよい。または、例えばラッセル(Russell)により提唱された、「活性(Activated)‐不活性(deactivated)」と「快(Pleasant)‐不快(Unpleasant)」の2次元の軸で表される平面上に円環状に並んでいるとする感情円環モデルを用いてもよい。ラッセルの円環モデルでは、幸福と喜びのような類義語は近接した円環上に配置され、幸福と悲しみのような反意語は円環上では対極の位置に配置される。また、各感情は2次元の座標軸上のベクトルの方向と大きさとして表示され、各感情間のベクトルの方向の差はそれぞれの相関係数を表す。具体的には、不快な(ネガティブな)感情は、怒り、イライラ、退屈、憂鬱といったものが想定され、快な(ポジティブな)感情は、幸福、喜び、嬉しさ、満足といったものが想定される。
感情の具体的な推測アルゴリズムについては特に限定しないが、様々な感情推測アルゴリズムを適用可能である。また、簡易アルゴリズムであってもよい。例えば、心拍平均が80/min以上かつ笑顔指数70以上であれば「嬉しい感情」といった所定の条件(閾値)に基づいて推測を行ってもよい。被写体別感情推測部214は、撮影者が被写体を注視していた時間帯(固定時間帯)におけるセンサデータに基づいて、撮影者の感情を推測し得る。具体的には、例えば被写体別感情推測部214は、被写体別の撮影者のセンサデータの分析結果(脈拍平均や笑顔指数等)に基づいて、感情の一例としてポジティブ感情指数を算出してもよい。また、被写体別感情推測部214は、さらにネガティブ感情指数を算出してもよいし、他の感情の指数を算出してもよい。また、被写体別感情推測部214は、さらに被写体別の注目度を考慮した感情指数(関心指数、注目感情指数)を算出してもよい(例えば笑顔で注目している場合はポジティブ感情指数を高く、嫌悪の表情で注目している場合はポジティブ感情指数を低く算出する等)。どのセンサデータを使用して何の感情を推測するか、視線(注目度)も考慮するか等は、予めシステム側で設定してもよいし、ユーザ(撮影者若しくは撮像画像の閲覧者)が選択出来るようにしてもよい。
被写体別感情推測部214は、例えば以下のように被写体別のポジティブ感情指数を算出する。
・被写体ID1:ポジティブ感情指数20
・被写体ID2:ポジティブ感情指数95
・被写体ID3:ポジティブ感情指数0
・被写体ID4:ポジティブ感情指数0
・被写体ID5:ポジティブ感情指数-50
画像処理部215は、被写体別感情推測部214により算出された被写体別の感情情報(感情指数)に基づいて、撮像画像に写る各被写体を加工する。または、画像処理部215は、注目度算出部212により算出された被写体別の注目度に基づいて、撮像画像に写る各被写体を加工してもよい。
画像加工例としては、例えば被写体自体の画素の加工(ぼかし、拡大縮小、削除、色変化等)が挙げられる。例えば、画像処理部215は、ポジティブ感情指数の高さに応じて該当する被写体を拡大したり、ポジティブ感情指数が所定値より低い場合(若しくは注目度が所定値より低い場合)は該当する被写体を削除したり、ポジティブ感情指数の低さに応じて該当する被写体をぼかしたりする。また、例えば画像処理部215は、ポジティブ感情指数が最も高い被写体(若しくは注目度が最も高い被写体)の色を目立たせるよう加工してもよい(例えば該当する被写体のみカラーで表現して他の領域を全て白黒やセピア調に変換する等)。
また、他の画像加工例として、例えば感情情報を文字や記号で表示(例えば被写体の近くに「嬉しい」、「悲しい」、「感動」、「幸せ」、「見ている」、「見ていない」等の文字を表示する)、また、被写体別の感情情報をグラフや図形、アイコン等の文字以外の表現で被写体の近くに可視化する方法も考えられる。
画像処理部215は、これらの少なくともいずれかを実施してもよいし、いずれかの組み合わせで実施してもよい。
なお、どのような画像加工方法を用いるかは予めシステム側で設定してもよいし、ユーザ(撮影者若しくは撮像画像の閲覧者)が選択してもよい。例えば分析された感情のうち特定の感情(例えば、「嬉しさ」だけ、「関心」だけ等)を使用して画像加工するようユーザが指定することも可能である。
また、画像処理部215は、ユーザの選択履歴等に基づいて機械学習を行い、最適な画像加工の手法(例えばユーザが好む画像加工の手法)を選択してもよい。
また、画像処理部215は、複数の画像加工を行って出力してもよい。この場合、ユーザは、複数の加工画像のうちお気に入りをブックマークしたり自身の端末に保存したりすることが可能である。
また、画像処理部215は、加工した撮像画像を表示装置30に出力する際、どのような感情に基づいて加工したのか、当該感情はどのようなセンサデータに基づいて推測したのか、どのような画像加工方法を用いたのか等の、加工に関する情報を併せて提示してもよい。これにより、ユーザが撮影者ではあれば自身の撮影時における各被写体に対する心情等(どの被写体に注目していたのか、どの被写体にポジティブな感情を持っていたのか等)を把握することができ、また、ユーザが撮影者以外であれば、撮影者の撮影時における各被写体に対する心情等を理解することができる。また、特に複数の加工画像を出力した場合に、各加工画像がそれぞれどのような情報に基づいて加工されたのかをユーザに示すことで、ユーザが撮影者ではあれば自身の撮影時における印象により近い撮像画像を選択したりすることができる。
(通信部22)
通信部22は、有線または無線により外部装置と接続し、外部装置とデータの送受信を行う。通信部22は、例えば有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、近距離通信、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により外部装置と通信接続する。
例えば、通信部22は、入力装置10から撮像画像、被写体別の撮影者の視線データ、および被写体別の撮影者のセンサデータを受信する。また、通信部22は、画像処理部215により生成された、被写体別の撮影者の感情情報に基づいて被写体が加工された画像、若しくは当該加工された画像を表示するための情報を、表示装置30(外部装置の一例)に送信する。
(記憶部23)
記憶部23は、制御部21の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。例えば、感情推測アルゴリズムや、画像加工アルゴリズムのプログラムや演算パラメータが記憶されている。
また、記憶部23には、撮像画像、被写体別視線データ、および被写体別センサデータが紐付けて記憶されている。また、記憶部23には、被写体別注目度および被写体別感情情報がさらに記憶されていてもよい。また、記憶部23は、被写体別注目度や感情情報に基づいて加工された画像がさらに記憶されていてもよい。
以上、本実施形態による処理装置20の構成について具体的に説明した。なお、図5に示す処理装置20の構成は一例であって、本実施形態はこれに限定されない。例えば処理装置20の少なくとも一部の構成が外部装置にあってもよいし、制御部21の各機能の少なくとも一部が外部装置にあってもよい。
また、例えば処理装置20がネットワーク上のサーバにより実現される場合、処理装置20の少なくとも一部の構成が、入力装置10または表示装置30、若しくは通信距離が比較的入力装置10または表示装置30に近い情報処理装置(例えば、いわゆるエッジサーバなど)により実現されてもよい。このように、処理装置20の各構成を適宜分散することで、リアルタイム性の向上や処理負担の軽減、さらにはセキュリティを担保することが可能となる。
また、図5に示す制御部21の各構成および記憶部23を全てカメラ11または表示装置30(若しくはカメラ11と表示装置30が一体となった単一の装置)に設け、本実施形態による情報処理システムをカメラ11または表示装置30(若しくはカメラ11と表示装置30が一体となった単一の装置)のアプリケーションにより実行するようにしてもよい。
<3.動作処理>
続いて、本実施形態による情報処理システムの動作処理について図7を用いて具体的に説明する。
図7は、本実施形態による画像処理の一例を示すフローチャートである。図7に示すように、まず、処理装置20の物体認識部211は、撮像画像から物体(被写体)を1以上認識する(ステップS103)。
次に、注目度算出部212は、当該撮像画像に対応する撮影の際の撮影者の視線データに基づいて、被写体毎の撮影者の注目度を算出する(ステップS106)。
次いで、被写体別感情推測部214は、当該撮像画像に対応する撮影の際の撮影者のセンサデータに基づいて、被写体毎の撮影者の状態を分析する(ステップS109)。
次に、制御部21は、撮像画像に、算出した被写体別注目度データと、分析した被写体別センサデータを紐付けて記憶部23に保存する(ステップS112)。
続いて、被写体別感情推測部214は、保存したデータ(被写体別注目度データまたは被写体別センサデータ)に基づいて、撮像画像における被写体別の撮影者の感情を推測する(ステップS115)。
そして、画像処理部215は、推測した被写体別の撮影者の感情情報に基づいて、当該撮像画像に対して所定の画像加工処理を行う(ステップS115)。なお、画像処理部215は、推測した被写体別の撮影者の注目度に基づいて当該撮像画像に対して所定の画像加工処理を行ってもよい。
以上、本実施形態による動作処理の一例を説明した。なお図7に示す動作処理は一例であって、本開示は図7に示す例に限定されない。例えば、本開示は、図7に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。例えば、ステップS106の処理とステップS109の処理は並列に処理されてもよいし、逆の順番で処理されてもよい。
また、図7に示す全ての処理が必ずしも実行されてなくともよい。例えば、ステップS112に示す保存処理がスキップされてもよい。
また、図7に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、ステップS103〜ステップS106の処理が入力装置10で行われ、ステップS109〜ステップS115の処理が処理装置20で行われ、ステップS118の処理が表示装置30で行われる等、複数の装置で行われてもよい。
また、図7に示す各処理が必ずしも時間的に順次行われなくともよい。例えば、ステップS103〜S112に示す処理が、新たな撮像画像を取得する度に即時、若しくは一定量の撮像画像が蓄積された際に行われ、その後、ステップS115〜S118に示す処理が、所定のタイミング(例えばユーザからのリクエストがあった時や、設定された周期等)で行われてもよい。
<4.画像加工例>
次に、図8を参照して本実施形態による画像加工の具体例について説明する。図8に示す例は、図6に示す撮像画像40に対し、被写体別の撮像者の感情情報または注目度に基づいて所定の画像加工を行った場合の具体例である。
例えば蝶々の被写体42(図6参照)のポジティブ感情指数が最も高かった場合、図8の加工画像40−1のように、当該被写体42を拡大したり、さらに被写体42の色を目立たせる加工処理(色を鮮明にする、濃くする、彩度を上げる、他の部分を薄くする、他の部分の彩度を下げる等)を行ってもよい。これにより、撮影者が肉眼で見た際に蝶々の存在を大きく感じて見ていたという実態により近い撮像画像を提示することができ、撮影者は肉眼で見て撮影した際と違和感なく見ることができ、また、閲覧者も撮影時の臨場感を体験することができる。
また、例えば第3の花の被写体45(図6参照)のポジティブ感情指数がマイナスだった場合(または注目度が0だった場合(見ていなかった場合)等)、図8の加工画像40−2のように、当該被写体45を削除する加工処理を行ってもよい。これにより、撮影者が肉眼で見た際にはほぼ印象の無かった花が削除され、撮影者は肉眼で見た印象の(花が景色を邪魔しない)撮像画像を取得することができる。
また、例えば第1の花の被写体43、第2の花の被写体44、および第3の花の被写体45(図6参照)のポジティブ感情指数が所定値より下回っていた場合、図8の加工画像40−3のように、当該被写体43、被写体44、および被写体45をぼかす加工処理を行ってもよい。これにより、撮影者が肉眼で見た際に印象の薄かった花がぼかされるので、撮影者が肉眼で見た印象の(花が景色を邪魔しない)撮像画像を取得することができる。
以上説明した図8に示す画像加工は一例であって、本実施形態はこれに限定されない。また、単一の撮像画像に対して複数の加工処理を施してもよい。例えば、被写体を拡大すること、ぼかすこと、削除すること等の加工処理を適宜組み合わせてもよい。
<5.ハードウェア構成>
以上、本開示の実施形態を説明した。上述した処理装置20の処理は、ソフトウェアと、以下に説明する情報処理装置のハードウェアとの協働により実現される。
図9は、本開示に係る処理装置20を実現する情報処理装置のハードウェア構成を示した説明図である。図9に示したように、情報処理装置は、CPU(Central Processing Unit)142と、ROM(Read Only Memory)144と、RAM(Random Access Memory)146と、ブリッジ148と、バス150と、インターフェース152と、入力装置154と、出力装置156と、ストレージ装置158と、ドライブ160と、接続ポート162と、通信装置164とを備える。
CPU142は、演算処理装置および制御装置として機能し、各種プログラムと協働して情報処理装置(処理装置20)内の物体認識部211、注目度算出部212、センサデータ分析部213、被写体別感情推測部214、および画像処理部215の動作を実現する。また、CPU142は、マイクロプロセッサであってもよい。ROM144は、CPU142が使用するプログラムまたは演算パラメータ等を記憶する。RAM146は、CPU142の実行にいて使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。ROM144およびRAM146により、情報処理装置(処理装置20)内の記憶部23の一部を実現する。CPU142、ROM144およびRAM146は、CPUバスなどから構成される内部バスにより相互に接続されている。
入力装置154は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロホン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置154は、ユーザが入力した情報に基づいて入力信号を生成してCPU142に出力する入力制御回路を含む。ユーザは、この入力装置154を操作することによって、情報処理装置(処理装置20)に対して各種のデータを入力したり処理動作を指示したりする。
出力装置156は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置156は、例えば、液晶ディスプレイ(LCD;Liquid Crystal Display)装置または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置156は、情報処理装置の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
ストレージ装置158は、情報処理装置(処理装置20)の記憶部23の一例として構成されたデータ格納用の装置である。ストレージ装置158は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置158は、例えばCPU142が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ160は、記憶媒体用リーダライタであり、情報処理装置に内蔵、あるいは外付けされる。ドライブ160は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM144に出力する。また、ドライブ160は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート162は、例えば、情報処理装置の外部の情報処理装置または周辺機器と接続するためのポートである。また、接続ポート162は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート162は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート162に外部接続機器を接続することで、情報処理装置と外部接続機器との間で各種のデータが交換されうる。また、接続ポート162は、例えば、UART(Universal Asynchronous Receiver Transmitter)、I2C(Inter-Integrated Circuit)、SPI(Serial Peripheral Interface)などのセンサ用シリアルI/Fや、MIPI(Mobile Industry Processor Interface)、PCI(Peripheral Component Interconnect)/PCI Expressなど(画像データなどのI/F)であってもよい。
通信装置164は、情報処理装置(処理装置20)の通信部22の一例として、例えば、ネットワークに接続するための通信デバイスで構成された通信インターフェースである。また、通信装置164は、赤外線通信対応装置であっても、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、Bluetooth(登録商標)通信対応装置であっても、Wi−Fi(登録商標)通信対応装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、情報処理装置(処理装置20)のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<6.まとめ>
上述したように、本開示の実施形態による情報処理システムでは、撮影画像の被写体別の撮影者の感情を撮像画像に反映させ、撮影者が感じていた情景の臨場感を再現することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した入力装置10、処理装置20、または表示装置30に内蔵されるCPU、ROM、およびRAM等のハードウェアに、入力装置10、処理装置20、または表示装置30の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本実施形態では、被写体別の撮影者の感情を反映させるが、ここで、「被写体」とは、基本的には上述したように物体認識により撮像画像から抽出される「物体」であるが、本開示はこれに限定されず、本明細書において「被写体」とは、撮像画像のうち境界で区切った領域(ピクセル)であればよい。例えば、撮像者が昔ここにベンチがあったなと思い出して道のある1点を注視し、懐かしいといった感情を向けながら思い出の場所を撮影するような場合、物体認識部211は、撮影者の視線検出データに基づいて、撮影者が注視していた領域(道の一部)を「被写体」として認識してもよい。この場合、画像処理部215は、例えばかかる「道の一部」が目立つよう(存在感が大きくなるよう)加工することで、撮影者の心情を反映し、撮影者が肉眼で見ていた時の印象により近い情景を再現することを可能とする。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
撮像画像から1以上の被写体を認識する認識部と、
前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、
前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、
を備える、情報処理装置。
(2)
前記視線データおよびセンサデータは、前記撮像画像を取得する所定時間前から取得までの時系列のデータである、前記(1)に記載の情報処理装置。
(3)
前記推測部は、前記視線データに基づいて判断される前記撮影者が前記被写体を注視していた時間帯における前記撮影者の感情を推測する、前記(2)に記載の情報処理装置。
(4)
前記推測部は、前記センサデータに基づいて前記撮影者の感情を推測する、前記(3)に記載の情報処理装置。
(5)
前記推測部は、前記視線データから算出される前記被写体への前記撮影者の注目度に基づいて前記撮影者の感情を推測する、前記(3)または(4)に記載の情報処理装置。
(6)
前記センサデータは、生体センサデータ、音声データ、撮像データ、モーションセンサデータ、または1以上のセンサデータから算出したデータの少なくともいずれかを含む、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記画像処理部は、被写体に対する前記撮影者の感情に応じて、当該被写体または当該被写体以外の領域を加工する、前記(2)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記画像処理部は、被写体に対する前記撮影者のポジティブな感情に応じて、当該被写体または当該被写体以外の領域における画素を変化させる、前記(7)に記載の情報処理装置。
(9)
前記画像処理部は、被写体に対する前記撮影者の感情を示す表示を前記撮像画像に追加する加工を行う、前記(2)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記撮影者の感情を示す表示は、文字、記号、グラフ、図形、またはアイコンの少なくともいずれかを含む、前記(9)に記載の情報処理装置。
(11)
前記画像処理部は、異なる感情の種類、異なるセンサデータを用いて推測された感情、または異なる加工方法を少なくとも用いて、複数の加工画像を生成する、前記(2)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記情報処理装置は、
前記画像処理部により生成された加工画像を外部装置に送信する送信部をさらに備える、前記(2)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記画像処理部により生成された加工画像を表示する表示部をさらに備える、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記情報処理装置は、画像加工に用いた感情の種類、感情の推測に用いたセンサデータ、または画像加工に用いた加工方法に関する情報を前記加工画像と共に出力する、前記(12)または(13)に記載の情報処理装置。
(15)
プロセッサが、
撮像画像から1以上の被写体を認識することと、
前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測することと、
前記被写体毎の感情を前記撮像画像に反映させる画像処理を行うことと、
を含む、情報処理方法。
(16)
コンピュータを、
撮像画像から1以上の被写体を認識する認識部と、
前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、
前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、
として機能させるための、プログラム。
1、1a、1b 情報処理システム
10 入力装置
10b メガネ装置
11 カメラ
11a カメラ装置
11b 撮影用カメラ
12 視線検出センサ
12b カメラ
13 センサデバイス
13a 生体センサ
20 処理装置
20a 画像処理装置
20b サーバ
21 制御部
211 物体認識部
212 注目度算出部
213 センサデータ分析部
214 被写体別感情推測部
215 画像処理部
22 通信部
23 記憶部
30 表示装置
30a 表示部
30b 情報処理端末

Claims (16)

  1. 撮像画像から1以上の被写体を認識する認識部と、
    前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、
    前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、
    を備える、情報処理装置。
  2. 前記視線データおよびセンサデータは、前記撮像画像を取得する所定時間前から取得までの時系列のデータである、請求項1に記載の情報処理装置。
  3. 前記推測部は、前記視線データに基づいて判断される前記撮影者が前記被写体を注視していた時間帯における前記撮影者の感情を推測する、請求項2に記載の情報処理装置。
  4. 前記推測部は、前記センサデータに基づいて前記撮影者の感情を推測する、請求項3に記載の情報処理装置。
  5. 前記推測部は、前記視線データから算出される前記被写体への前記撮影者の注目度に基づいて前記撮影者の感情を推測する、請求項3に記載の情報処理装置。
  6. 前記センサデータは、生体センサデータ、音声データ、撮像データ、モーションセンサデータ、または1以上のセンサデータから算出したデータの少なくともいずれかを含む、請求項2に記載の情報処理装置。
  7. 前記画像処理部は、被写体に対する前記撮影者の感情に応じて、当該被写体または当該被写体以外の領域を加工する、請求項2に記載の情報処理装置。
  8. 前記画像処理部は、被写体に対する前記撮影者のポジティブな感情に応じて、当該被写体または当該被写体以外の領域における画素を変化させる、請求項7に記載の情報処理装置。
  9. 前記画像処理部は、被写体に対する前記撮影者の感情を示す表示を前記撮像画像に追加する加工を行う、請求項2に記載の情報処理装置。
  10. 前記撮影者の感情を示す表示は、文字、記号、グラフ、図形、またはアイコンの少なくともいずれかを含む、請求項9に記載の情報処理装置。
  11. 前記画像処理部は、異なる感情の種類、異なるセンサデータを用いて推測された感情、または異なる加工方法を少なくとも用いて、複数の加工画像を生成する、請求項2に記載の情報処理装置。
  12. 前記情報処理装置は、
    前記画像処理部により生成された加工画像を外部装置に送信する送信部をさらに備える、請求項2に記載の情報処理装置。
  13. 前記情報処理装置は、
    前記画像処理部により生成された加工画像を表示する表示部をさらに備える、請求項2に記載の情報処理装置。
  14. 前記情報処理装置は、画像加工に用いた感情の種類、感情の推測に用いたセンサデータ、または画像加工に用いた加工方法に関する情報を前記加工画像と共に出力する、請求項12に記載の情報処理装置。
  15. プロセッサが、
    撮像画像から1以上の被写体を認識することと、
    前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測することと、
    前記被写体毎の感情を前記撮像画像に反映させる画像処理を行うことと、
    を含む、情報処理方法。
  16. コンピュータを、
    撮像画像から1以上の被写体を認識する認識部と、
    前記撮像画像に紐付けられた撮影者の視線データと撮影者のセンサデータに基づいて、前記認識した被写体毎における撮影者の感情を推測する推測部と、
    前記被写体毎の感情を前記撮像画像に反映させる画像処理を行う画像処理部と、
    として機能させるための、プログラム。
JP2017166484A 2017-08-31 2017-08-31 情報処理装置、情報処理方法、およびプログラム Pending JP2019047234A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017166484A JP2019047234A (ja) 2017-08-31 2017-08-31 情報処理装置、情報処理方法、およびプログラム
PCT/JP2018/023726 WO2019044135A1 (ja) 2017-08-31 2018-06-22 情報処理装置、情報処理方法、およびプログラム
US16/640,523 US11328187B2 (en) 2017-08-31 2018-06-22 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166484A JP2019047234A (ja) 2017-08-31 2017-08-31 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2019047234A true JP2019047234A (ja) 2019-03-22

Family

ID=65527571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166484A Pending JP2019047234A (ja) 2017-08-31 2017-08-31 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11328187B2 (ja)
JP (1) JP2019047234A (ja)
WO (1) WO2019044135A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042515A1 (ja) * 2021-09-15 2023-03-23 キヤノン株式会社 表示装置、制御装置、制御方法、及び、プログラム
WO2023175931A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 画像分類装置、画像分類方法、及び、記録媒体
JP7574880B1 (ja) 2023-05-24 2024-10-29 大日本印刷株式会社 記録装置およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7496677B2 (ja) * 2019-09-30 2024-06-07 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1762949A3 (en) 2001-12-26 2007-08-08 Eastman Kodak Company Digital imaging method using importance rating
JP2003299013A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 体験情報再現装置
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP2010226623A (ja) * 2009-03-25 2010-10-07 Casio Computer Co Ltd 撮像装置、撮像方法及び撮像プログラム
JP2011193275A (ja) * 2010-03-15 2011-09-29 Nikon Corp 表示装置
US9934425B2 (en) * 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US9014754B2 (en) * 2010-11-02 2015-04-21 Nec Casio Mobile Communications, Ltd. Information processing system and information processing method
JP2012257112A (ja) 2011-06-09 2012-12-27 Casio Comput Co Ltd 撮像装置およびプログラム
JP5866728B2 (ja) * 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
JP5787949B2 (ja) * 2013-08-28 2015-09-30 ヤフー株式会社 情報処理装置、特定方法および特定プログラム
TWM497992U (zh) * 2014-10-01 2015-04-01 Gimer Medical Co Ltd 人體植入式之醫療電子裝置
CN106562792B (zh) * 2015-10-08 2021-08-06 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
JP6520975B2 (ja) * 2017-03-16 2019-05-29 カシオ計算機株式会社 動画像処理装置、動画像処理方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042515A1 (ja) * 2021-09-15 2023-03-23 キヤノン株式会社 表示装置、制御装置、制御方法、及び、プログラム
WO2023175931A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 画像分類装置、画像分類方法、及び、記録媒体
JP7574880B1 (ja) 2023-05-24 2024-10-29 大日本印刷株式会社 記録装置およびプログラム

Also Published As

Publication number Publication date
US20200250498A1 (en) 2020-08-06
WO2019044135A1 (ja) 2019-03-07
US11328187B2 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
JP4367663B2 (ja) 画像処理装置、画像処理方法、プログラム
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
US8482651B2 (en) Image processing device and image processing method
KR102246310B1 (ko) 시선-기반 미디어 선택 및 편집을 위한 시스템들 및 방법들
JP4424364B2 (ja) 画像処理装置、画像処理方法
US8922481B1 (en) Content annotation
US9454220B2 (en) Method and system of augmented-reality simulations
KR102184272B1 (ko) 글래스 타입 단말기 및 이의 제어방법
JP2019145108A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
CN112118380B (zh) 相机操控方法、装置、设备及存储介质
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20100086204A1 (en) System and method for capturing an emotional characteristic of a user
JP4826485B2 (ja) 画像保存装置、画像保存方法
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
CN104584531A (zh) 图像处理装置以及图像显示装置
JP2010034685A (ja) デジタルカメラ
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017175447A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014143595A (ja) 画像記録装置
CN117061849A (zh) 捕获和存储物理环境的图像
JP2008167028A (ja) 撮像装置
US12033299B2 (en) Interaction training system for autistic patient using image warping, method for training image warping model, and computer readable storage medium including executions causing processor to perform same
US20240212272A1 (en) Interactions based on mirror detection and context awareness
CN112558767A (zh) 多个功能界面处理的方法和系统及其ar眼镜
WO2017169499A1 (ja) 制御装置、制御方法及びコンピュータプログラム