JP6778006B2 - 情報処理装置、プログラム及び情報処理システム - Google Patents

情報処理装置、プログラム及び情報処理システム Download PDF

Info

Publication number
JP6778006B2
JP6778006B2 JP2016071232A JP2016071232A JP6778006B2 JP 6778006 B2 JP6778006 B2 JP 6778006B2 JP 2016071232 A JP2016071232 A JP 2016071232A JP 2016071232 A JP2016071232 A JP 2016071232A JP 6778006 B2 JP6778006 B2 JP 6778006B2
Authority
JP
Japan
Prior art keywords
smile
level
mood
value
smile level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016071232A
Other languages
English (en)
Other versions
JP2017182594A (ja
Inventor
智子 石川
智子 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2016071232A priority Critical patent/JP6778006B2/ja
Priority to KR1020187032997A priority patent/KR20200003352A/ko
Priority to PCT/IB2017/000653 priority patent/WO2017168260A1/ja
Priority to US16/086,803 priority patent/US20190108390A1/en
Priority to EP17773376.3A priority patent/EP3438850A4/en
Publication of JP2017182594A publication Critical patent/JP2017182594A/ja
Application granted granted Critical
Publication of JP6778006B2 publication Critical patent/JP6778006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Neurology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Dermatology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Neurosurgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は情報処理装置、プログラム及び情報処理システムに関する。
人間の行った感情表現または、行った感情表現の度合いなどを思い出すために、行った感情表現を記録する記録装置は従来から知られている(例えば特許文献1参照)。
特開2012−174258号公報
従来の記録装置は、ユーザに例えば「怒」の感情表現を行った日時を認識させることにより今後の生活の改善を見込むものである。しかし、従来の記録装置はユーザの行った感情表現を記録するものであって、ユーザの感情状態を向上させるものではなかった。
本発明は上記した課題に鑑みなされたものであり、ユーザの感情状態を向上させることができる情報処理装置、プログラム及び情報処理システムを提供することを目的とする。
上記した課題を解決するために、本願請求項1の情報処理装置は、撮像画像に含まれるユーザの笑顔値を計測する笑顔値計測手段と、前記笑顔値計測手段により計測可能な笑顔値の範囲を複数に分け、それぞれの笑顔値の範囲を笑顔レベルと対応付ける笑顔レベル情報を記憶する笑顔レベル情報記憶手段と、前記笑顔値計測手段により計測された笑顔値と前記笑顔レベル情報記憶手段に記憶された笑顔レベル情報とに基づき、撮像画像に含まれるユーザの笑顔値を笑顔レベルに変換する笑顔レベル変換手段と、前記笑顔レベル変換手段により変換された前記笑顔レベルを記録する記録手段と、第1の顔画像提示部に提示する顔画像の笑顔レベルが前記記録手段に記録する記笑顔レベルよりも高くなるように補正する笑顔レベル補正手段と、を有することを特徴とする。
本発明によれば、ユーザの感情状態を向上させることができる。
本実施形態に係る情報処理システムの一例の構成図である。 本実施形態に係る情報処理装置の一例のハードウェア構成図である。 本実施形態に係る情報処理装置の一例のハードウェア構成図である。 本実施形態に係る笑顔フィードバック装置の一例の処理ブロック図である。 笑顔レベル情報の一例の構成図である。 コンテンツ画像の一例のイメージ図である。 気分アイコンの一例のイメージ図である。 本実施形態に係る笑顔フィードバック装置の全体処理の一例を示したフローチャートである。 笑顔フィードバック装置が表示する画面のイメージ図である。 記録画面表示処理の一例のフローチャートである。 キャラクターの顔画像を利用したコンテンツ画像の一例のイメージ図である。 ユーザ本人の顔画像を利用したコンテンツ画像の一例のイメージ図である。 笑顔値に対応する印象評価ワードの一例の説明図である。 終了画面表示処理の一例のフローチャートである。 第2の実施形態に係る笑顔フィードバック装置の一例の処理ブロック図である。 終了画面表示処理の一例のフローチャートである。 本実施形態に係る笑顔フィードバック装置の一例の処理ブロック図である。 笑顔レベル情報の一例の構成図である。 記録画面表示処理の一例のフローチャートである。 笑顔値と気分値とをパラメータとする2次元の表である。
次に、本発明の実施形態について、詳細に説明する。
[第1の実施形態]
<システム構成>
図1は、本実施形態に係る情報処理システムの一例の構成図である。本実施形態に係る情報処理システムは、図1(A)に示すように笑顔フィードバック装置10単体で構成してもよいし、図1(B)に示すようにネットワーク16で接続された笑顔フィードバックサーバ装置12及び笑顔フィードバッククライアント装置14で構成してもよい。
図1(A)の笑顔フィードバック装置10は例えば本実施形態の笑顔アプリケーションが搭載された情報処理装置により実現される。なお、笑顔フィードバック装置10という名称及び笑顔アプリケーションという名称は一例であって、他の名称であってもよい。笑顔フィードバック装置10はユーザが操作するPC、スマートフォン、タブレットなどの情報処理装置である。
図1(B)の情報処理システムは1台以上の笑顔フィードバッククライアント装置14と笑顔フィードバックサーバ装置12とがインターネット等のネットワーク16を介して接続されている。笑顔フィードバッククライアント装置14の名称と笑顔フィードバックサーバ装置12の名称とは一例であって、他の名称であってもよい。笑顔フィードバッククライアント装置14はユーザが操作するPC、スマートフォン、タブレットなどの情報処理装置である。笑顔フィードバックサーバ装置12は笑顔フィードバッククライアント装置14でユーザにより操作される笑顔アプリケーションの管理や制御等を行う。
このように、本実施形態に係る情報処理システムは、図1(A)に示すように単体の情報処理装置で実現しても、図1(B)に示すようにクライアント・サーバ型で実現してもよい。また、図1の情報処理システムは一例であって、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば図1(B)の笑顔フィードバックサーバ装置12は複数の情報処理装置に分散して構成してもよい。
<ハードウェア構成>
《笑顔フィードバック装置、笑顔フィードバッククライアント装置》
笑顔フィードバック装置10、笑顔フィードバッククライアント装置14は例えば図2に示すハードウェア構成の情報処理装置により実現される。図2は本実施形態に係る情報処理装置の一例のハードウェア構成図である。
図2(A)の情報処理装置は入力装置501、表示装置502、外部I/F503、RAM504、ROM505、CPU506、通信I/F507、HDD508、撮影装置509などを備えており、それぞれがバスBで相互に接続されている。なお、入力装置501及び表示装置502は内蔵されている形態であっても、必要なときに接続して利用する形態であってもよい。
入力装置501はユーザが各種信号を入力するのに用いるタッチパネル、操作キーやボタン、キーボードやマウスなどである。表示装置502は画面を表示する液晶や有機ELなどのディスプレイである。通信I/F507は、ローカルエリアネットワーク(LAN)やインターネットなどのネットワーク16に接続するインタフェースである。情報処理装置は通信I/F507を利用し、笑顔フィードバックサーバ装置12等と通信を行うことができる。
また、HDD508はプログラム等を格納する不揮発性の記憶装置の一例である。格納されるプログラムには基本ソフトウェアであるOS、笑顔アプリケーションなどのアプリケーションが含まれる。なお、HDD508は記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)やメモリカードなどの記憶装置に置き換えられていてもよい。外部I/F503は記録媒体503aなどの外部装置とのインタフェースである。図2(A)の情報処理装置は外部I/F503を利用して記録媒体503aの読み取り及び/又は書き込みを行うことができる。
記録媒体503aにはフレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどがある。ROM505は、電源を切ってもプログラム等を保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM505には、起動時に実行されるBIOSなどのプログラム、OS設定やネットワーク設定などの各種設定が格納されている。RAM504はプログラム等を一時保持する揮発性の半導体メモリ(記憶装置)の一例である。CPU506は、ROM505やHDD508などの記憶装置からプログラムをRAM504上に読み出し、処理を実行する演算装置である。撮影装置509はカメラにより撮影を行う。
本実施形態に係る笑顔フィードバック装置10及び笑顔フィードバッククライアント装置14は上記したハードウェア構成において笑顔アプリケーションを実行することにより後述するような各種処理を実現できる。なお、図2(A)の情報処理装置は撮影装置509を備える(内蔵された)構成であるが、例えば図2(B)に示すように、外部I/F503を介して接続した撮影装置509を利用する構成であってもよい。図2(B)の情報処理装置は、撮影装置509が外付けされている点で図2(A)に示した情報処理装置と異なっている。
《笑顔フィードバックサーバ装置》
笑顔フィードバックサーバ装置12は例えば図3に示すハードウェア構成の情報処理装置により実現される。図3は本実施形態に係る情報処理装置の一例のハードウェア構成図である。なお、図2と同一な部分についての説明は省略する。
図3の情報処理装置は、入力装置601、表示装置602、外部I/F603、RAM604、ROM605、CPU606、通信I/F607、及びHDD608などを備えており、それぞれがバスBで相互に接続されている。図3の情報処理装置は図2(A)の情報処理装置の撮影装置509が無い構成である。図3の情報処理装置は通信I/F607を利用し、笑顔フィードバッククライアント装置14等と通信を行う。本実施形態に係る笑顔フィードバックサーバ装置12は上記したハードウェア構成においてプログラムを実行することにより笑顔フィードバッククライアント装置14と連携して後述するような各種処理を実現できる。
<本実施形態の概要>
ここでは図1(A)に示した笑顔フィードバック装置10を例として、本実施形態の概要について説明する。本実施形態の笑顔フィードバック装置10は撮影装置509により撮影されたユーザの笑顔値を計測する。笑顔フィードバック装置10は撮影装置509により撮影されたユーザの顔画像を表示装置502に表示すると共に、その顔画像から計測したユーザの笑顔値を表示装置502に表示する。また、笑顔フィードバック装置10は計測したユーザの笑顔値を笑顔レベルに変換し、笑顔レベルに対応付けられて記憶されている顔画像を表示装置502に表示する。笑顔レベルに対応付けられて記憶されている顔画像は、その笑顔レベルにおける笑顔の度合い(強度)を表す顔画像となる。例えば最も低い笑顔レベルに対応付けられる顔画像は真顔となる。また、最も高い笑顔レベルに対応付けられる顔画像は「歯を見せ口角を最大に上げた顔」となる。
なお、笑顔レベルに対応付けられて記憶されている顔画像はキャラクター、本人、タレント、モデル、友人、家族などの顔画像であってもよい。このように、本実施形態の笑顔フィードバック装置10は撮影中のユーザの笑顔レベルをリアルタイム表示し、更に、笑顔レベルに対応付けられている顔画像を表示する。したがって、ユーザは表示装置502に表示される笑顔レベルと、その笑顔レベルに対応付けられている顔画像とを確認することにより、現在の笑顔の度合いを知ることができる。
さらに、本実施形態の笑顔フィードバック装置10は記録ボタンを備え、記録ボタンの押下をトリガーとして、撮影したユーザの顔画像と、その顔画像の笑顔値から変換した笑顔レベルと、を記録する。また、本実施形態の笑顔フィードバック装置10はユーザから気分の入力も受け付ける。そして、撮影したユーザの顔画像と、その顔画像の笑顔値から変換した笑顔レベルと、ユーザから入力された気分との登録が終了すると、本実施形態の笑顔フィードバック装置10は笑顔レベルに対応付けられている顔画像を表示する。
ところで、人は一般的に表情模倣という行為が備わっている。表情模倣は他者の表情を見て、自分も同じような表情を自動的・反射的に行う現象である。また、人は笑顔になることで笑顔を脳が模倣し、感情状態が向上し、ストレスが解消する。
そこで、本実施形態の笑顔フィードバック装置10は笑顔レベルに対応付けられている顔画像を表示する場合に、実際に計測した笑顔値の笑顔レベルよりも高い笑顔レベルの顔画像を表示する。このようにすることで、ユーザは自分の笑顔レベルよりも高い笑顔レベルの顔画像を見ることになり、表情模倣により笑顔レベルが上がる。したがって、本実施形態に係る笑顔フィードバック装置10の使用によりユーザは感情状態が向上し、ストレスが解消する。
なお、実際に計測した笑顔値の笑顔レベルよりも高い笑顔レベルの顔画像の表示は時間や疲労度などの条件を満たした場合に行うようにしてもよい。また、本実施形態に係る笑顔フィードバック装置10は、笑顔レベルに対応付けられている顔画像を表示する場面が複数ある場合に、少なくとも一の場面において、実際に計測した笑顔値の笑顔レベルよりも高い笑顔レベルの顔画像で表示するようにしてもよい。
<ソフトウェア構成>
ここでは図1(A)に示した笑顔フィードバック装置10を例として、本実施形態のソフトウェア構成について説明する。図4は本実施形態に係る笑顔フィードバック装置の一例の処理ブロック図である。笑顔フィードバック装置10は、画像入力部100、入力画像提示部101、笑顔値計測部102、笑顔レベル変換部103、笑顔レベル補正部104、時計部105、リアルタイム用コンテンツ生成部106、リアルタイム用コンテンツ提示部107、気分入力部108、気分−笑顔レベル変換部109、終了画面用コンテンツ生成部110、終了画面用コンテンツ提示部111、コンテンツ記憶部112、笑顔レベル情報記憶部113、気分−笑顔レベル情報記憶部114を有する構成である。
画像入力部100は撮影装置509が撮影した画像(入力画像)を取得する。画像入力部100は入力画像を入力画像提示部101と笑顔値計測部102とに提供する。入力画像提示部101は画像入力部100から取得した入力画像を、後述する記録画面1000の入力画像表示欄1002に表示する。笑顔値計測部102は画像入力部100から取得した入力画像に含まれる顔画像の笑顔値を計測する。なお、顔画像から笑顔値を計測する技術は公知であり、説明を省略する。
笑顔レベル情報記憶部113は笑顔値計測部102が計測可能な笑顔値の範囲を複数に分け、それぞれの笑顔値の範囲を笑顔レベルと対応付ける例えば図5に示すような笑顔レベル情報を記憶する。図5は笑顔レベル情報の一例の構成図である。図5の笑顔レベル情報は笑顔値計測部102が計測可能な笑顔値の範囲を7つに分け、7段階の笑顔レベルと対応付けている。
笑顔レベル変換部103は笑顔値計測部102が計測した笑顔値と図5の笑顔レベル情報とに基づき、笑顔値計測部102が計測した笑顔値を笑顔レベルに変換する。時計部105は現在時刻を提供する。笑顔レベル補正部104は時計部105から取得した現在時刻が笑顔レベルを補正する時間帯であれば、笑顔レベル変換部103で変換した笑顔レベルよりも笑顔レベルが高くなるように、笑顔レベルを補正する。なお、本実施形態では笑顔レベル補正部104が笑顔レベルを1段階引き上げるように笑顔レベルを補正する例を説明するが、1段階の引き上げに限定するものではない。笑顔レベル補正部104において補正する笑顔レベルの程度は、様々考えられる。
コンテンツ記憶部112は、笑顔レベルごとに対応付けられている顔画像(コンテンツ画像)を記憶する。以下では入力画像に含まれる顔画像と区別するため、コンテンツ記憶部112が記憶する顔画像をコンテンツ画像と呼ぶ。コンテンツ画像は例えば図6に示すようなものである。図6はコンテンツ画像の一例のイメージ図である。図6のコンテンツ画像は、笑顔レベルごとに、その笑顔レベルにおける笑顔の度合いをユーザ自身の顔画像で表したものである。リアルタイム用コンテンツ生成部106は笑顔レベル補正部104から笑顔レベルを取得すると、その笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。リアルタイム用コンテンツ提示部107はリアルタイム用コンテンツ生成部106から取得したコンテンツ画像を、後述する記録画面1000のリアルタイム用コンテンツ表示欄1004に表示する。
気分入力部108はユーザから現在の気分の入力を受け付ける。例えば気分入力部108は図7に示すような気分アイコンを使用し、ユーザに現在の気分を自己申告で選ばせるようにしてもよい。図7は気分アイコンの一例のイメージ図である。図7の気分アイコンは気分を6段階に分けた例を示している。
気分−笑顔レベル情報記憶部114はユーザに選択させる気分アイコンを笑顔レベルと対応付けた気分−笑顔レベル情報を記憶する。気分−笑顔レベル変換部109はユーザが選択した気分アイコンと気分−笑顔レベル情報とに基づき、ユーザの現在の気分を笑顔レベルに変換する。終了画面用コンテンツ生成部110は気分−笑顔レベル変換部109から笑顔レベルを取得すると、その笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。終了画面用コンテンツ提示部111は終了画面用コンテンツ生成部110から取得したコンテンツ画像を、後述する終了画面1100の終了画面用コンテンツ表示欄1102に表示する。
<処理>
《全体処理》
本実施形態に係る笑顔フィードバック装置10は、例えば図8に示すような手順で処理を行う。図8は、本実施形態に係る笑顔フィードバック装置の全体処理の一例を示したフローチャートである。笑顔フィードバック装置10はユーザにより笑顔アプリが実行されたあと、記録画面を表示する操作を受け付けると、ステップS11に進み、例えば図9に示す記録画面1000を表示するための記録画面表示処理を行う。
図9は笑顔フィードバック装置が表示する画面のイメージ図である。図9は記録画面1000及び終了画面1100の一例を示している。図9の記録画面1000は入力画像表示欄1002、リアルタイム用コンテンツ表示欄1004、気分選択欄1006及び記録ボタン1008を備えている。
入力画像表示欄1002は撮影装置509により撮影された画像(入力画像)がリアルタイムに表示される。リアルタイム用コンテンツ表示欄1004はコンテンツ記憶部112から前述のように読み出されたコンテンツ画像が表示される。気分選択欄1006は図7に示した気分アイコンを表示し、ユーザに現在の気分を選ばせる選択欄である。記録ボタン1008は、ユーザから入力画像、笑顔レベル、気分などの記録開始の指示を受け付けるボタンである。
また、図9の終了画面1100は入力画像、笑顔レベル、気分などの記録が終了した後に表示される画面の一例である。図9の終了画面1100は終了画面用コンテンツ表示欄1102を備えている。終了画面用コンテンツ表示欄1102はコンテンツ記憶部112から前述のように読み出されたコンテンツ画像が表示される。
図8に戻り、笑顔フィードバック装置10は記録ボタン1008がユーザにより押下されるまでステップS11の処理を繰り返す。したがって、記録画面1000の入力画像表示欄1002は入力画像がリアルタイムに表示される。また、記録画面1000のリアルタイム用コンテンツ表示欄1004には入力画像に含まれるユーザの笑顔レベル(補正された笑顔レベルを含む)と対応付けられたコンテンツ画像が表示される。記録ボタン1008が押下されると、笑顔フィードバック装置10はステップS13に進み、終了画面1100を表示するための終了画面表示処理を行う。
《S11:記録画面表示処理》
図10は記録画面表示処理の一例のフローチャートである。ステップS21において入力画像提示部101は記録画面1000の入力画像表示欄1002に対して入力画像の表示を行う。ステップS22に進み、笑顔値計測部102は入力画像に含まれる顔画像の笑顔値を計測する。ステップS23に進み、笑顔レベル変換部103はステップS22で計測された笑顔値を、笑顔レベル情報記憶部113に記憶されている例えば図5に示す笑顔レベル情報を用いて、笑顔レベルに変換する。
ステップS24に進み、笑顔レベル補正部104は、時計部105から取得した現在時刻が笑顔レベルを補正する時間帯(補正適用時刻)であれば、ステップS25において笑顔レベルを補正する処理を行う。ステップS25において行う笑顔レベルを補正する処理では、例えばステップS23で変換した笑顔レベルを1段階引き上げるように笑顔レベルを補正する。なお、補正適用時刻でなければ、笑顔レベル補正部104はステップS25の処理をスキップする。
ステップS26において、リアルタイム用コンテンツ生成部106は補正適用時刻であればステップS25で補正された笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。また、補正適用時刻でなければ、リアルタイム用コンテンツ生成部106はステップS23で変換された笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。そして、ステップS27に進み、リアルタイム用コンテンツ提示部107はステップS26で読み出したコンテンツ画像を、記録画面1000のリアルタイム用コンテンツ表示欄1004に表示する。
図10の記録画面表示処理によれば、笑顔フィードバック装置10は図11又は図12に示すように、補正適用時刻であるか否かで異なる笑顔レベルに対応付けられたコンテンツ画像を表示できる。図11はキャラクターの顔画像を利用したコンテンツ画像の一例のイメージ図である。また、図12はユーザ本人の顔画像を利用したコンテンツ画像の一例のイメージ図である。図11(A)及び図12(A)は補正適用時刻でない場合に表示されるコンテンツ画像(通常のフィードバック画像)であり、ステップS23で変換された笑顔レベルのコンテンツ画像となる。図11(B)及び図12(B)は補正適用時刻である場合に表示されるコンテンツ画像(1段階上のフィードバック画像)であり、ステップS25で1段階引き上げるように補正された笑顔レベルのコンテンツ画像となる。つまり図10の記録画面表示処理によれば、笑顔フィードバック装置10は補正適用時刻である場合に、実際に計測した笑顔値の笑顔レベルよりも高い笑顔レベルのコンテンツ画像を表示できる。例えば補正適用時刻として夜間など、ストレスが溜まりやすい時間帯を設定しておくことで、ユーザはストレスが溜まりやすい時間帯に自分の笑顔レベルよりも高い笑顔レベルのコンテンツ画像を見ることになり、感情状態の向上によるストレス解消の効果が期待される。
なお、ステップS27のリアルタイム用コンテンツの提示の際、リアルタイム用コンテンツ提示部107は図13に示すような笑顔値に対応する印象評価ワードを表示するようにしてもよい。図13は笑顔値に対応する印象評価ワードの一例の説明図である。「高野ルリ子:顔の印象評価におけるメーキャップと笑顔度の影響,日本顔学会誌,十巻一号,pp.37-48」には顔の印象評価における笑顔度の影響が報告されている。図13は、このような報告に基づき、笑顔値と印象評価ワードとを対応付けたものである。
《S13:終了画面表示処理》
図14は終了画面表示処理の一例のフローチャートである。ステップS31において気分−笑顔レベル変換部109はユーザが気分選択欄1006から選択した気分アイコンを気分−笑顔レベル情報を用いて笑顔レベルに変換する。ステップS32に進み、気分−笑顔レベル変換部109はステップS31で変換した笑顔レベルを補正する処理を行う。ステップS32において行う笑顔レベルを補正する処理では、例えばステップS31で変換した笑顔レベルを1段階引き上げるように笑顔レベルを補正する。
ステップS33において、終了画面用コンテンツ生成部110はステップS32で補正された笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。ステップS34に進み、終了画面用コンテンツ提示部111はステップS33で読み出したコンテンツ画像を、終了画面1100の終了画面用コンテンツ表示欄1102に表示する。
図14の終了画面表示処理によれば、笑顔フィードバック装置10はユーザの現在の気分に対応する笑顔レベルが1段階引き上げた笑顔レベルのコンテンツ画像を終了画面用コンテンツ表示欄1102に表示できる。つまり図14の終了画面表示処理によれば、笑顔フィードバック装置10はユーザの現在の気分よりも高い笑顔レベルのコンテンツ画像を表示できる。ユーザは、現在の気分よりも高い笑顔レベルのコンテンツ画像を見ることになり、感情状態の向上によるストレス解消の効果が期待される。
[第2の実施形態]
第1の実施形態は、ユーザが気分入力部108から入力した現在の気分を笑顔レベルに変換し、その笑顔レベルを1段階引き上げるように補正したあと、補正後の笑顔レベルのコンテンツ画像を、終了画面1100の終了画面用コンテンツ表示欄1102に表示していた。第2の実施形態は、入力画像に含まれる顔画像の笑顔レベルを1段階引き上げるように補正した補正後の笑顔レベルのコンテンツ画像を、終了画面1100の終了画面用コンテンツ表示欄1102に表示する。
なお、第2の実施形態は第1の実施形態と一部を除いて同様であるため、同一部分についての説明を適宜省略する。図15は、第2の実施形態に係る笑顔フィードバック装置の一例の処理ブロック図である。
図15の笑顔フィードバック装置10は図4の笑顔フィードバック装置10の気分−笑顔レベル変換部109が無い構成である。また、図15の笑顔フィードバック装置10の笑顔レベル補正部104はリアルタイム用コンテンツ生成部106に提供する笑顔レベルの補正を第1の実施形態に示したように行う他、終了画面用コンテンツ生成部110に提供する笑顔レベルの補正を行う。終了画面用コンテンツ生成部110に提供する笑顔レベルの補正は、時計部105から提供される現在時刻に関わらず行うようにしてもよいし、時計部105から提供される現在時刻が笑顔レベルを補正する時間帯であるときに行うようにしてもよい。そして、図15の笑顔フィードバック装置10の終了画面用コンテンツ生成部110は、笑顔レベル補正部104において1段階引き上げるように補正された笑顔レベルを取得する。さらに、図15の終了画面用コンテンツ生成部110はユーザが選択した気分を気分入力部108から取得する。
終了画面用コンテンツ生成部110は笑顔レベル補正部104から1段階引き上げるように補正された笑顔レベルを取得すると、その笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。終了画面用コンテンツ提示部111は終了画面用コンテンツ生成部110から取得したコンテンツ画像を、後述する終了画面1100の終了画面用コンテンツ表示欄1102に表示する。
図16は終了画面表示処理の一例のフローチャートである。ステップS41において終了画面用コンテンツ生成部110は笑顔レベル補正部104において1段階引き上げるように補正された笑顔レベルを取得する。ステップS42に進み、終了画面用コンテンツ生成部110は、ステップS41で取得した笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。ステップS43に進み、終了画面用コンテンツ提示部111はステップS42で読み出したコンテンツ画像を、終了画面1100の終了画面用コンテンツ表示欄1102に表示する。
図16の終了画面表示処理によれば、笑顔フィードバック装置10は入力画像に含まれるユーザの顔画像の笑顔レベルを1段階引き上げた笑顔レベルのコンテンツ画像を終了画面用コンテンツ表示欄1102に表示できる。笑顔フィードバック装置10は入力画面に含まれるユーザの笑顔レベルよりも高い笑顔レベルのコンテンツ画像を表示し、ユーザの感情状態を向上させることで、ユーザのストレスを解消する効果を実現する。
[第3の実施形態]
第1及び第2の実施形態は、入力画像に含まれるユーザの顔画像の笑顔値、又は、気分入力部108からユーザが入力した現在の気分、を笑顔レベルに変換している。第3の実施形態は、入力画像に含まれるユーザの顔画像の笑顔値、及び、ユーザの現在の気分を表す気分値に基づき、総合的な笑顔値(気分適応笑顔値)を算出し、その気分適応笑顔値を笑顔レベルに変換するものである。
なお、第3の実施形態も第1及び第2の実施形態と同一部分を含むため、同一部分についての説明を適宜省略する。ここでも、図1(A)に示した笑顔フィードバック装置10を例として、第3の実施形態のソフトウェア構成について説明する。図17は本実施形態に係る笑顔フィードバック装置の一例の処理ブロック図である。笑顔フィードバック装置10は、画像入力部100、入力画像提示部101、笑顔値計測部102、笑顔レベル変換部103、笑顔レベル補正部104、時計部105、コンテンツ記憶部112、笑顔レベル情報記憶部113、気分適応笑顔値計算部121、コンテンツ生成部122、コンテンツ提示部123を有する構成である。
画像入力部100は撮影装置509が撮影した画像(入力画像)を取得する。なお、画像入力部100は入力画像が動画である場合、ある時点の1フレームを入力画像として使用する。このように、本実施形態では静止画から笑顔値を計測する。画像入力部100は入力画像を入力画像提示部101と笑顔値計測部102とに提供する。入力画像提示部101は画像入力部100から取得した入力画像を、記録画面1000の入力画像表示欄1002に表示する。笑顔値計測部102は、画像入力部100から取得した入力画像に含まれる顔画像の笑顔認識を行い、例えば0.0〜1.0までの正規化された笑顔値を計測する。
気分入力部108は例えば図7に示した気分アイコンを使用し、ユーザに現在の気分を自己申告で選ばせる。例えば図7の気分アイコンでは一番左の悲しい顔を0.0、一番右の笑顔を1.0として設定する。また、図7の気分アイコンでは、一番左の気分アイコンと一番右の気分アイコンとの間にある気分アイコンの気分値として均等間隔の数値を設定している。
気分適応笑顔値計算部121は笑顔値計測部102が計測した笑顔値に対し、気分入力部108でユーザにより選択された気分アイコンの気分値を適応させた気分適応笑顔値を算出する。例えば気分適応笑顔値計算部121は例えば以下の式(1)により気分適応笑顔値を計算する。
式(1)においてSは笑顔値を表す。Mは気分値を表す。Wsは笑顔値の重み付け係数を表す。Wmは気分値の重み付け係数を表す。式(1)においては、気分値の影響をどの程度大きくするのかを重み付け係数Ws、Wmにより調整する。なお、2つの重み付け係数Ws、Wmの合計値は1.0とし、かつ、それぞれの重み付け係数Ws、Wmの値を0以上1以下とする。
例えば笑顔値Sが0.75、気分値Mが0.4、重み付け係数Wsが0.8、重み付け係数Wmが0.2である場合は、
気分適応笑顔値T=0.8×0.75+0.2×0.4=0.68となる。
また、笑顔値Sが0.75、気分値Mが0.4、重み付け係数Ws及びWmが同じ重み付け0.5である場合は、
気分適応笑顔値T=0.5×0.75+0.5×0.4=0.575となる。
さらに、重み付け係数Wmを0にすれば、式(1)は気分値Mを加味せず、笑顔値Sが気分適応笑顔値Tとなる。式(1)では笑顔値S及び気分値Mを0以上1以下に正規化しており、且つ、2つの重み付け係数Ws、Wmの合計値を1.0とすることで、算出される気分適応笑顔値Tも0以上1以下の正規化された値となる。
笑顔レベル情報記憶部113は気分適応笑顔値計算部121が算出する気分適応笑顔値Tの範囲0〜1を複数に分け、それぞれの気分適応笑顔値Tの範囲を笑顔レベルと対応付ける例えば図18に示すような笑顔レベル情報を記憶する。図18は笑顔レベル情報の一例の構成図である。図18の笑顔レベル情報は気分適応笑顔値計算部121が算出する気分適応笑顔値Tの範囲0〜1を7つに分け、範囲0〜1を笑顔レベルの数の7で除算した間隔(≒0.143)で均等に分割している。
なお、笑顔レベル情報は、気分適応笑顔値計算部121が算出する気分適応笑顔値Tの範囲0〜1を必ずしも均等に分割しなくてもよく、不均等に分割してもよい。例えば笑顔の苦手なユーザの練習には低い気分適応笑顔値Tが高い笑顔レベルに変換される笑顔レベル情報を利用するようにしてもよい。
笑顔レベル変換部103は気分適応笑顔値計算部121が計算した気分適応笑顔値と図18の笑顔レベル情報とに基づき、気分適応笑顔値Tを笑顔レベルに変換する。時計部105は現在時刻を提供する。笑顔レベル補正部104は時計部105から取得した現在時刻が笑顔レベルを補正する時間帯であれば、笑顔レベル変換部103で変換した笑顔レベルよりも笑顔レベルが高くなるように、笑顔レベルを補正する。なお、本実施形態では笑顔レベル補正部104が笑顔レベルを1段階引き上げるように笑顔レベルを補正する例を説明する。笑顔レベル変換部103が変換した笑顔レベルが最高レベル(例えば図18の笑顔レベル6)であった場合、笑顔レベル補正部104は笑顔レベル変換部103が変換した笑顔レベルを維持する。また、笑顔レベル補正部104は時計部105から取得した現在時刻が笑顔レベルを補正する時間帯でなければ、笑顔レベルの補正を行わない。
笑顔レベル補正部104による笑顔レベルの補正はユーザの実際の笑顔値や気分値よりも笑顔レベルが高いコンテンツ画像をユーザにフィードバックすることで、ユーザの気持ちを少しずつポジティブにし、ユーザのストレスを解消する効果を狙って行われる。本実施形態に係る笑顔フィードバック装置10は例えば1日の終わりである就寝前や起床時に1段階上の笑顔レベルのコンテンツ画像をユーザへのフィードバック画像とすることを想定している。
コンテンツ記憶部112は、笑顔レベルごとに対応付けられているコンテンツ画像を記憶する。また、コンテンツ生成部122は笑顔レベル補正部104から笑顔レベルを取得すると、その笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。コンテンツ提示部123はコンテンツ生成部122から取得したコンテンツ画像を、記録画面1000のリアルタイム用コンテンツ表示欄1004に表示する。
なお、図17の笑顔フィードバック装置10は必ずしもコンテンツ記憶部112に予め笑顔レベルと対応付けたコンテンツ画像を用意しておく必要はなく、モーフィングと呼ばれる技術を利用して、1枚のユーザの顔画像から笑顔レベルに応じた表情変化を付ける画像処理を行い、笑顔レベルと対応付けたコンテンツ画像を用意してもよい。
図19は記録画面表示処理の一例のフローチャートである。ステップS51において入力画像提示部101は記録画面1000の入力画像表示欄1002に対して入力画像の表示を行う。ステップS52に進み、笑顔値計測部102は入力画像に含まれる顔画像の笑顔値を計測する。
ステップS53に進み、気分適応笑顔値計算部121はユーザにより最後に選択された気分アイコンの気分値を気分入力部108から取得する。なお、ステップS53の処理はユーザによる気分アイコンの選択を待つ訳ではなく、ユーザが最後に選択した気分アイコンの気分値を取得するものとする。また、ユーザは図19に示す記録画面表示処理と関係なく、図9の気分選択欄1006から任意のタイミングで気分アイコンを選択できるものとする。
ユーザが気分選択欄1006から気分アイコンを選択済みでなく、ユーザにより最後に選択された気分アイコンの気分値を取得できない場合は、デフォルトの気分値を利用してもよいし、第1の実施形態のように笑顔値を笑顔レベルに変換してもよい。
ステップS54に進み、気分適応笑顔値計算部121は笑顔値計測部102が計測した笑顔値に対し、気分入力部108でユーザにより選択された気分アイコンの気分値を適応させた気分適応笑顔値を算出する。ステップS55に進み、笑顔レベル変換部103はステップS54で計算された気分適応笑顔値を、笑顔レベル情報記憶部113に記憶されている例えば図18に示す笑顔レベル情報を用いて、笑顔レベルに変換する。
ステップS56に進み、笑顔レベル補正部104は、時計部105から取得した現在時刻が笑顔レベルを補正する時間帯(補正適用時刻内)であれば、ステップS57において笑顔レベルを1段階上に補正する処理を行い、ステップS58に進む。ステップS58において、笑顔レベル補正部104はステップS57で変換した補正後の笑顔レベルが最高レベルを超えたか否かを判定する。補正後の笑顔レベルが最高レベルを超えていれば笑顔レベル補正部104はステップS59に進み、補正後の笑顔レベルを最高レベルに補正してステップS60に進む。なお、補正後の笑顔レベルが最高レベルを超えていなければ笑顔レベル補正部104はステップS58からステップS60に進む。
ステップS60においてコンテンツ生成部122は補正適用時刻であればステップS25で補正された笑顔レベル(最高レベル以下)のコンテンツ画像をコンテンツ記憶部112から読み出す。また、補正適用時刻でなければ、コンテンツ生成部122はステップS55で変換された笑顔レベルのコンテンツ画像をコンテンツ記憶部112から読み出す。そして、ステップS61に進み、コンテンツ提示部123はステップS60で読み出したコンテンツ画像を、記録画面1000のリアルタイム用コンテンツ表示欄1004に表示する。
図19の記録画面表示処理によれば、笑顔フィードバック装置10は図11又は図12に示したように、補正適用時刻であるか否かで異なる笑顔レベルに対応付けられたコンテンツ画像を表示できる。笑顔フィードバック装置10は補正適用時刻である場合に、実際に計測した笑顔値の笑顔レベルよりも高い笑顔レベルのコンテンツ画像を表示する。例えば補正適用時刻として夜間など、ストレスが溜まりやすい時間帯を設定しておくことによりユーザはストレスが溜まりやすい時間帯に自分の笑顔レベルよりも高い笑顔レベルのコンテンツ画像を見ることができ、ストレス解消の効果が期待できる。
なお、終了画面表示処理は第1の実施形態に示したように、ユーザの気分に対応付けられた笑顔レベルを1段階引き上げた笑顔レベルのコンテンツ画像を表示するように行うようにしてもよい。また、終了画面表示処理は第2の実施形態に示したように、入力画像に含まれるユーザの顔画像の笑顔レベルを1段階引き上げた笑顔レベルのコンテンツ画像を表示するようにしてもよい。さらに、終了画面表示処理は、笑顔レベル変換部103により気分適応笑顔値から変換された笑顔レベルを1段階引き上げた笑顔レベルのコンテンツ画像を表示するようにしてもよい。
また、フィードバック画像を表示する処理は笑顔フィードバック装置10が入力画像を取得したあと、ユーザが気分を入力したタイミングで行っていた。しかし、本実施形態の笑顔フィードバック装置10はユーザの気分を使用しないか、又は、入力画像に含まれるユーザの顔画像や生体情報から自動的に気分値を取得できるようにすれば、一連の処理を自動で繰り返し行うことも可能となる。
例えば笑顔フィードバック装置10は入力画像から連続的に顔画像を取得し、リアルタイムに笑顔値を計測することで、フィードバック画像の表示までの一連の処理を短時間に繰り返し行うことができる。なお、顔画像から気分値を計測する技術としては、顔画像から感情の推定を行う技術や音声から感情の推定を行う技術などを利用できる。
[他の実施形態]
本実施形態の笑顔フィードバック装置10はユーザから現在の気分の入力を手入力で受け付ける他、顔画像や生体情報から自動的に取得した現在のユーザの気分値を入力として受け付けてもよい。また、本実施形態の笑顔フィードバック装置10は笑顔値と気分値だけでなく、疲労度、緊張度など、より多くのパラメータを入力として受け付ける気分適応笑顔値計算部121を構成してもよい。例えば正規化済みのパラメータPがn種類ある場合に、それぞれのパラメータに重み付けを行った最終的なパラメータ適応笑顔値を一般化すると式(2)で表現できる。
また、単純な線形の重み付けが難しいパラメータの場合はパラメータの種類数に合わせてn次元の表を作成し、その表にパラメータ適応笑顔値を設定しておいてもよい。実際に取得したn種類のパラメータ値から対応する表の項目を参照することで、本実施形態に係る笑顔フィードバック装置10はパラメータ適応笑顔値を取得できる。この方式の利点は線形の重み付けでは表現が難しい笑顔値の分布を表現できることにある。
図20は笑顔値と気分値とをパラメータとする2次元の表である。この方式では図20に示すように、気分値が最大(1.0)であれば、笑顔値によらずパラメータ適応笑顔値も最大(1.0)となるような極端な表の作成も可能となる。人間の感覚は器械による計測と異なることも多く、実施に被験者を使って実験を行うと、線形ではない結果がでることも多々ある。このため、図20のような非線形の表を利用してパラメータ適応笑顔値を得られる方式は有用である。
また、フィードバック画像は上記の実施形態に示した顔画像の他、動画素材や音声を利用することも考えられる。例えばフィードバック画像は真顔から特定の笑顔レベルの笑顔に変化する動画であってもよいし、同時に「明日も笑顔で」というような音声を再生するようにしてもよい。また、フィードバック画像は笑顔レベルに合わせて、背景の音楽や効果音(SE)を変化させる提示方法も考えられる。
さらに、フィードバック画像は笑顔レベルに対応付いた印象的な言葉(図13に示した印象評価ワードなど)を同時に表示するようにしてもよい。例えば笑顔フィードバック装置10は笑顔レベルが最高の場合に「活発な笑顔です」という言葉、笑顔レベルが最低の場合に「信頼感のある表情です」という言葉、笑顔レベルが中間の場合に「魅力的な笑顔です」という言葉、というように特定の印象を表すキーワードを、フィードバック画像に表示してもよい。
さらに、本実施形態の笑顔フィードバック装置10は時間帯により笑顔レベルを1段階引き上げる補正を行う例を説明した。しかしながら、補正を行う条件は時間帯に限るものでなく、例えばユーザの疲労度により笑顔レベルの補正を行うことも考えられる。疲労度はユーザによる自己申告であってもよいし、自動的に入力するようにしてもよい。ウェアラブルの活動量計と連動して運動量の大小から推測する方法や、フリッカー値と呼ばれる指標を利用した疲労度計測などを利用する方法により、疲労度は自動的に入力できる。
なお、時間帯により笑顔レベルを1段階引き上げる補正を行う方式では、就寝前の時間に効果的なフィードバック画像を返すことが望ましい。一方で、就寝時間は個人差が大きいため、笑顔レベルを補正する時間帯をユーザによって可変できることが望ましい。例えば日々の就寝時間を学習する機能を利用することで、就寝前の時間の確度を上げることができる。最近のウェアラブル活動計は睡眠状態を計測できる機能が付いているものが多くあり、ユーザが何時に就寝し、何時に起床したかのデータを取得できるので、ウェアラブル活動計が計測したデータを活用してもよい。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば上記の実施形態では笑顔フィードバック装置10を例として説明したが、図4などに示した処理ブロックを図1(B)に示した笑顔フィードバックサーバ装置12及び笑顔フィードバッククライアント装置14に分散配置した構成であってもよいことは言うまでもないことである。
例えば図1(B)の構成によれば、ユーザが笑顔レベル及び気分を記録できるクラウドサービスなどにおいて実際のユーザの笑顔レベルよりも高い笑顔レベルの顔画像をユーザに提示することで、ユーザの感情状態を向上させる(ポジティブにする)メンタルヘルス機能を実現できる。
10 笑顔フィードバック装置
12 笑顔フィードバックサーバ装置
14 笑顔フィードバッククライアント装置
16 ネットワーク
100 画像入力部
101 入力画像提示部
102 笑顔値計測部
103 笑顔レベル変換部
104 笑顔レベル補正部
105 時計部
106 リアルタイム用コンテンツ生成部
107 リアルタイム用コンテンツ提示部
108 気分入力部
109 気分−笑顔レベル変換部
110 終了画面用コンテンツ生成部
111 終了画面用コンテンツ提示部
112 コンテンツ記憶部
113 笑顔レベル情報記憶部
114 気分−笑顔レベル情報記憶部
121 気分適応笑顔値計算部
122 コンテンツ生成部
123 コンテンツ提示部
501、601 入力装置
502、602 表示装置
503、603 外部I/F
503a、603a 記録媒体
504、604 RAM
505、605 ROM
506、606 CPU
507、607 通信I/F
508、608 HDD
509 撮影装置
B バス

Claims (9)

  1. 撮像画像に含まれるユーザの笑顔値を計測する笑顔値計測手段と、
    前記笑顔値計測手段により計測可能な笑顔値の範囲を複数に分け、それぞれの笑顔値の範囲を笑顔レベルと対応付ける笑顔レベル情報を記憶する笑顔レベル情報記憶手段と、
    前記笑顔値計測手段により計測された笑顔値と前記笑顔レベル情報記憶手段に記憶された笑顔レベル情報とに基づき、撮像画像に含まれるユーザの笑顔値を笑顔レベルに変換する笑顔レベル変換手段と、
    前記笑顔レベル変換手段により変換された前記笑顔レベルを記録する記録手段と、
    第1の顔画像提示部に提示する顔画像の笑顔レベルが前記記録手段に記録する記笑顔レベルよりも高くなるように補正する笑顔レベル補正手段と、
    を有する情報処理装置。
  2. 笑顔レベルごとに顔画像を記憶する顔画像記憶手段と、
    前記笑顔レベル補正手段により補正されたユーザの笑顔レベルの顔画像を前記顔画像記憶手段から読み出して前記第1の顔画像提示部に提示させる顔画像生成手段と、
    を更に有すること
    を特徴とする請求項1記載の情報処理装置。
  3. ユーザの気分を表す気分値の範囲を複数に分け、それぞれの気分値の範囲を笑顔レベルと対応付ける気分−笑顔情報を記憶する気分−笑顔レベル情報記憶手段と、
    前記気分−笑顔レベル情報記憶手段に記憶された気分−笑顔情報に基づき、撮像画像に含まれるユーザの気分値を笑顔レベルに変換する気分−笑顔レベル変換手段と、
    を更に有し、
    前記記録手段は、更に前記撮像画像に含まれるユーザの気分値を記録し、
    前記気分−笑顔レベル変換手段は、第2の顔画像提示部に提示する顔画像の笑顔レベルが前記記録手段に記録する前記ユーザの気分値の笑顔レベルよりも高くなるように補正すること
    を特徴とする請求項1又は2記載の情報処理装置。
  4. 前記笑顔値計測手段により計測された笑顔値にユーザの気分を表す気分値を適応させた気分適応笑顔値を計算する気分適応笑顔値計算手段、を更に有し、
    前記笑顔レベル情報記憶手段は、前記笑顔値計測手段により計測可能な範囲の笑顔値にユーザの気分を表す気分値を適応させた気分適応笑顔値の範囲を複数に分け、それぞれの気分適応笑顔値の範囲を笑顔レベルと対応付ける笑顔レベル情報を記憶し、
    前記笑顔レベル変換手段は、前記気分適応笑顔値計算手段により計算された気分適応笑顔値と前記笑顔レベル情報記憶手段に記憶された笑顔レベル情報とに基づき、撮像画像に含まれるユーザの気分適応笑顔値を笑顔レベルに変換すること
    を特徴とする請求項1又は2記載の情報処理装置。
  5. 前記顔画像記憶手段は、撮像画像に含まれるユーザの顔画像を笑顔レベルごとに記憶していること
    を特徴とする請求項2記載の情報処理装置。
  6. 前記顔画像生成手段は、前記第1の顔画像提示部に提示させる顔画像として前記笑顔レベル変換手段により変換されたユーザの笑顔レベルよりも笑顔レベルの高い顔画像を、撮像画像に含まれるユーザの顔画像からモーフィング技法により作成すること
    を特徴とする請求項2記載の情報処理装置。
  7. 前記笑顔レベル補正手段は、現在時刻が補正適用時刻内であれば、前記第1の顔画像提示部に提示する顔画像の笑顔レベルが前記笑顔レベル変換手段により変換されたユーザの笑顔レベルよりも高くなるように補正すること
    を特徴とする請求項1乃至6何れか一項記載の情報処理装置。
  8. コンピュータを、
    撮像画像に含まれるユーザの笑顔値を計測する笑顔値計測手段、
    前記笑顔値計測手段により計測可能な笑顔値の範囲を複数に分け、それぞれの笑顔値の範囲を笑顔レベルと対応付ける笑顔レベル情報を記憶する笑顔レベル情報記憶手段、
    前記笑顔値計測手段により計測された笑顔値と前記笑顔レベル情報記憶手段に記憶された笑顔レベル情報とに基づき、撮像画像に含まれるユーザの笑顔値を笑顔レベルに変換する笑顔レベル変換手段、
    前記笑顔レベル変換手段により変換された前記笑顔レベルを記録する記録手段、
    第1の顔画像提示部に提示する顔画像の笑顔レベルが前記記録手段に記録する記笑顔レベルよりも高くなるように補正する笑顔レベル補正手段、
    として機能させるためのプログラム。
  9. サーバ装置とクライアント装置とがネットワークを介して接続された情報処理システムであって、
    撮像画像に含まれるユーザの笑顔値を計測する笑顔値計測手段と、
    前記笑顔値計測手段により計測可能な笑顔値の範囲を複数に分け、それぞれの笑顔値の範囲を笑顔レベルと対応付ける笑顔レベル情報を記憶する笑顔レベル情報記憶手段と、
    前記笑顔値計測手段により計測された笑顔値と前記笑顔レベル情報記憶手段に記憶された笑顔レベル情報とに基づき、撮像画像に含まれるユーザの笑顔値を笑顔レベルに変換する笑顔レベル変換手段と、
    前記笑顔レベル変換手段により変換された前記笑顔レベルを記録する記録手段と、
    第1の顔画像提示部に提示する顔画像の笑顔レベルが前記記録手段に記録する記笑顔レベルよりも高くなるように補正する笑顔レベル補正手段と、
    を有する情報処理システム。
JP2016071232A 2016-03-31 2016-03-31 情報処理装置、プログラム及び情報処理システム Active JP6778006B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016071232A JP6778006B2 (ja) 2016-03-31 2016-03-31 情報処理装置、プログラム及び情報処理システム
KR1020187032997A KR20200003352A (ko) 2016-03-31 2017-05-31 정보처리 장치, 프로그램 및 정보처리 시스템
PCT/IB2017/000653 WO2017168260A1 (ja) 2016-03-31 2017-05-31 情報処理装置、プログラム及び情報処理システム
US16/086,803 US20190108390A1 (en) 2016-03-31 2017-05-31 Information processing apparatus, program, and information processing system
EP17773376.3A EP3438850A4 (en) 2016-03-31 2017-05-31 INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016071232A JP6778006B2 (ja) 2016-03-31 2016-03-31 情報処理装置、プログラム及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2017182594A JP2017182594A (ja) 2017-10-05
JP6778006B2 true JP6778006B2 (ja) 2020-10-28

Family

ID=59962673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016071232A Active JP6778006B2 (ja) 2016-03-31 2016-03-31 情報処理装置、プログラム及び情報処理システム

Country Status (5)

Country Link
US (1) US20190108390A1 (ja)
EP (1) EP3438850A4 (ja)
JP (1) JP6778006B2 (ja)
KR (1) KR20200003352A (ja)
WO (1) WO2017168260A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7496514B2 (ja) 2019-06-06 2024-06-07 パナソニックIpマネジメント株式会社 コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム
JP7388077B2 (ja) * 2019-09-18 2023-11-29 大日本印刷株式会社 顔日記管理システム、顔日記記録装置、サーバ、顔日記管理方法、及びプログラム
CN111639511B (zh) * 2019-09-26 2021-01-26 广州万燕科技文化传媒有限公司 舞台效果现场识别系统及方法
WO2021235355A1 (ja) * 2020-05-22 2021-11-25 富士フイルム株式会社 画像データ処理装置及び画像データ処理システム
CN114710553B (zh) * 2020-12-30 2024-07-12 本田技研工业(中国)投资有限公司 信息获取方法、信息推送方法以及终端设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242567A (ja) * 2004-02-25 2005-09-08 Canon Inc 動作評価装置及び方法
KR20050101006A (ko) * 2004-04-16 2005-10-20 삼성전자주식회사 멀티캐스트 멀티미디어 방송 서비스를 지원하는 이동통신시스템에서 제어 정보를 효율적으로 전송하는 방법
JP4197019B2 (ja) * 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置
JP5304294B2 (ja) * 2009-02-10 2013-10-02 株式会社ニコン 電子スチルカメラ
JP5353293B2 (ja) * 2009-02-23 2013-11-27 株式会社ニコン 画像処理装置及び電子スチルカメラ
JP2010219740A (ja) * 2009-03-16 2010-09-30 Nikon Corp 画像処理装置およびデジタルカメラ
JP2010226485A (ja) * 2009-03-24 2010-10-07 Nikon Corp 画像加工装置およびデジタルカメラ
JP2013080464A (ja) * 2011-09-21 2013-05-02 Nikon Corp 画像処理装置、撮像装置、及びプログラム
CA2942852C (en) * 2013-03-15 2023-03-28 Interaxon Inc. Wearable computing apparatus and method

Also Published As

Publication number Publication date
US20190108390A1 (en) 2019-04-11
WO2017168260A1 (ja) 2017-10-05
KR20200003352A (ko) 2020-01-09
EP3438850A1 (en) 2019-02-06
JP2017182594A (ja) 2017-10-05
EP3438850A4 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP6778006B2 (ja) 情報処理装置、プログラム及び情報処理システム
Zharkova Using ultrasound to quantify tongue shape and movement characteristics
JP6519798B2 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
CN108133709A (zh) 语音识别装置和语音识别方法
US11766224B2 (en) Visualized virtual agent
Dejonckere et al. Automated tracking of quantitative parameters from single line scanning of vocal folds: A case study of the ‘messa di voce’exercise
JP2013138870A (ja) 運動量測定方法およびそれを適用したディスプレイ装置
CN116807476B (zh) 基于界面式情感交互的多模态心理健康评估系统及方法
US20160136384A1 (en) System, method and kit for reminiscence therapy for people with dementia
JP2017176580A (ja) 感情制御装置、感情制御方法、およびプログラム
JP2017164215A (ja) 関心度推定装置、関心度推定方法、プログラムおよび記録媒体
JP6198530B2 (ja) 画像処理装置
WO2021250854A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム
WO2015074626A1 (zh) 热像分析装置、配置装置和热像分析方法、配置方法
JP6515899B2 (ja) 音声対話装置及びその制御方法
JP2016110181A (ja) データ管理システム及びデータ管理方法
US20160378836A1 (en) Method and apparatus for characterizing human relationships using sensor monitoring
JP6965114B2 (ja) 情報処理装置
Kim et al. Mediating individual affective experience through the emotional photo frame
WO2022113276A1 (ja) 情報処理装置、制御方法及び記憶媒体
US20230128546A1 (en) Data processing apparatus, data processing method and storage medium storing program
WO2023058321A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
TWI722705B (zh) 臉部肌肉特徵點自動標記方法
JP7518631B2 (ja) 生体情報処理装置、および、生体情報処理方法
US20240252290A1 (en) Facial shape classification method and denture design device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201009

R150 Certificate of patent or registration of utility model

Ref document number: 6778006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150