JP5720595B2 - Network system, server device, information processing device, and program - Google Patents
Network system, server device, information processing device, and program Download PDFInfo
- Publication number
- JP5720595B2 JP5720595B2 JP2012024372A JP2012024372A JP5720595B2 JP 5720595 B2 JP5720595 B2 JP 5720595B2 JP 2012024372 A JP2012024372 A JP 2012024372A JP 2012024372 A JP2012024372 A JP 2012024372A JP 5720595 B2 JP5720595 B2 JP 5720595B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- facial expression
- display
- association
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、ネットワークシステム、サーバ装置、情報処理装置及びプログラムに関する。 The present invention relates to a network system, a server device, an information processing device, and a program.
業務の関係者が遠方にいる場合はコミュニケーションの手段として電話やメール、テレビ会議等が利用される。コミュニケーションの手段として電話やメール、テレビ会議等を利用する場合は、直接、相手の表情や様子を伺うことができず、互いにモチベーションの変化や状況を知ることが難しくなる。 When business personnel are far away, telephone, e-mail, video conferencing, etc. are used as means of communication. When using telephone, e-mail, video conferencing, etc. as a means of communication, it is difficult to directly hear the other person's facial expression and appearance, and it becomes difficult to know changes and situations of motivation.
例えばメールや手紙等の文章では相手の感情や状況を察知することが難しいため、読み手の受け取り方に差がでることがある。また、電話の音声、テレビ会議やWebカメラの映像では一時的に相手の様子を知ることができるが、通信をしているときの相手の様子しか分からない。 For example, it is difficult to detect the emotions and situations of the other party in sentences such as e-mails and letters. In addition, although the voice of the telephone, the video conference, and the video of the Web camera can temporarily know the other party's state, only the other party's state during communication can be known.
従来、ユーザの気分をアイコンで示し、ユーザ同士で共有可能であるツールとして例えばニコニコカレンダーは既に知られている。ニコニコカレンダーはユーザの気分を「見える化」するツールである。また、状態表示用端末間において個人の気持ち等の状態情報を送信して表示する状態表示システムは従来から知られている(例えば特許文献1参照)。 Conventionally, for example, a happy calendar is already known as a tool that shows the user's mood with an icon and can be shared between users. The happy calendar is a tool that “visualizes” the user's mood. In addition, a state display system that transmits and displays state information such as personal feelings between state display terminals is conventionally known (see, for example, Patent Document 1).
しかしながら、従来のユーザの気分を「見える化」するツールはユーザの気分をユーザが手動で更新するため、ユーザが更新を忘れてしまったり、多忙により更新する時間がとれず、更新ができなかったりするという問題があった。 However, the conventional tool to “visualize” the mood of the user manually updates the user's mood, so the user forgets to update or cannot update due to busy time. There was a problem to do.
また、従来のユーザの気分を「見える化」するツールは更新するユーザの気分をユーザが自己判断によって決めるため、ユーザが更新を面倒に思い、いつも同じ気分で更新してしまったり、気分が沈んでいるときであっても、周囲に遠慮をして、気分が沈んでいることを表すアイコンに更新しなかったりするという問題があった。 In addition, the conventional tool to “visualize” the mood of the user decides the mood of the user to update by self-judgment, so the user is troublesome to update and always updates in the same mood or feels down There was a problem that even when I was on the road, I couldn't update the icon to indicate that I was feeling depressed because I refrained from surroundings.
従来のユーザの気分を「見える化」するツールは、上記のようにユーザの気分が正確に更新されない場合があり、本来期待されるべき効果が得られず、有効活用できないという問題があった。 Conventional tools for “visualizing” the user's mood have the problem that the user's mood may not be updated accurately as described above, and the expected effect cannot be obtained and cannot be effectively utilized.
本発明は、顔の表情に関する表示情報の更新を自動化できるネットワークシステム、サーバ装置、情報処理装置及びプログラムを提供することを目的とする。 An object of the present invention is to provide a network system, a server device, an information processing device, and a program that can automate updating of display information related to facial expressions.
上記課題を解決するため、請求項1に記載したネットワークシステムは、第1の装置と第2の装置とが接続されたネットワークシステムであって、ユーザ情報と画像データとを前記第1の装置で取得する取得手段と、前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、複数の顔の表情の中から前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、前記記憶手段で記憶されている表示情報の中から、前記識別手段で識別した顔の表情に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、前記特定手段で特定された表示情報と前記取得手段で取得したユーザ情報とを対応付けて前記第2の装置の表示部に表示させる表示手段とを有することを特徴とする。
In order to solve the above problem, a network system according to
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。 In addition, what applied the component, expression, or arbitrary combination of the component of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention.
本発明によれば、顔の表情に関する表示情報の更新を自動化できる。 According to the present invention, updating of display information related to facial expressions can be automated.
以下、本発明の実施の形態について、詳細に説明する。なお、本実施の形態におけるモチベーションとは、ユーザの気持ち、やる気、気分、状態、状況、感情等の意味を含むものとして取り扱う。 Hereinafter, embodiments of the present invention will be described in detail. Note that the motivation in the present embodiment is treated as including the meaning of the user's feelings, motivation, mood, state, situation, emotion, and the like.
図1はモチベーション可視化システムの一例の構成図である。図1のモチベーション可視化システム(以下、単にシステムと呼ぶ)1は、サーバ装置10及び1つ以上の端末装置11がインターネットやLANなどのネットワーク12経由で接続されている。端末装置11は、例えばPC(パーソナルコンピュータ)やPDA(Personal Digital Assistants)や携帯電話機や専用端末等である。
FIG. 1 is a configuration diagram of an example of a motivation visualization system. A motivation visualization system (hereinafter simply referred to as a system) 1 in FIG. 1 includes a
端末装置11はカメラを搭載する。端末装置11が搭載するカメラは内蔵又は外付けの何れであっても良い。端末装置11はモチベーションの可視化が行われるユーザにより操作される。端末装置11はサーバ装置10と接続して後述する処理を行い、ユーザのモチベーションを表す情報の更新を行う。なお、図1のシステム1におけるサーバ装置10と端末装置11との処理の切り分けは様々考えられるため、後述する。
The
図2はモチベーション可視化システムの他の例の構成図である。図2のモチベーション可視化システム(以下、単にシステムと呼ぶ)2は複数の端末装置11がインターネットやLANなどのネットワーク12経由で接続されている。端末装置11は、例えばPCやPDAや携帯電話機や専用端末等である。
FIG. 2 is a configuration diagram of another example of the motivation visualization system. In the motivation visualization system (hereinafter simply referred to as a system) 2 in FIG. 2, a plurality of
端末装置11はカメラを搭載する。端末装置11が搭載するカメラは内蔵又は外付けの何れであっても良い。端末装置11はモチベーションの可視化が行われるユーザにより操作される。端末装置11は他の端末装置11と接続して後述する処理を行い、ユーザのモチベーションを表す情報の更新を行う。なお、図2のシステム2はネットワーク12に含まれる単なる中継機器としてのサーバ装置を介して接続される形態を含む。
The
図3はサーバ装置の一例のハードウェア構成図である。サーバ装置10はバス28で相互に接続されている入力装置21、出力装置22、記録媒体読取装置23、補助記憶装置24、主記憶装置25、演算処理装置26及びインタフェース装置27を有する構成である。
FIG. 3 is a hardware configuration diagram of an example of the server apparatus. The
入力装置21はキーボードやマウス等である。入力装置21は各種信号を入力するために用いられる。出力装置22はディスプレイ装置等である。出力装置22は各種ウインドウやデータ等を表示するために用いられる。インタフェース装置27は、モデム、LANカード等である。インタフェース装置27は、ネットワーク12に接続するために用いられる。
The
モチベーション可視化プログラム等のシステム1を実現する為のプログラムは例えば記録媒体29の配布やネットワーク12からのダウンロードなどによって提供される。モチベーション可視化プログラム等のシステム1を実現する為のプログラムはサーバ装置10で実行されるプログラムの少なくとも一部である。
A program for realizing the
記録媒体29はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。記録媒体29は記録媒体読取装置23にセットされる。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは記録媒体29から記録媒体読取装置23を介して補助記憶装置24にインストールされる。
The
ネットワーク12からダウンロードされたモチベーション可視化プログラム等のシステム1を実現する為のプログラムはインタフェース装置27を介して補助記憶装置24にインストールされる。
A program for realizing the
補助記憶装置24はモチベーション可視化プログラム等のシステム1を実現する為のプログラム、必要なファイル、データ等を格納する。主記憶装置25はプログラムの起動時に補助記憶装置24からモチベーション可視化プログラム等のシステム1を実現する為のプログラムを読み出して格納する。演算処理装置26は主記憶装置25に格納されたモチベーション可視化プログラム等のシステム1を実現する為のプログラムに従って後述の各種機能を実現する。
The
図4は端末装置の一例のハードウェア構成図である。ここでは一例として端末装置11がPCであるときのハードウェア構成について説明する。端末装置11はバス39で相互に接続されている入力装置31、出力装置32、記録媒体読取装置33、補助記憶装置34、主記憶装置35、演算処理装置36、インタフェース装置37及びカメラ38を有する構成である。なお、カメラ38は端末装置11に内蔵されたものであっても、外付けされたものであってもよい。
FIG. 4 is a hardware configuration diagram of an example of the terminal device. Here, a hardware configuration when the
入力装置31はキーボードやマウス等である。入力装置31は各種信号を入力するために用いられる。出力装置32はディスプレイ装置等である。出力装置32は各種ウインドウやデータ等を表示するために用いられる。インタフェース装置37は、モデム、LANカード等である。インタフェース装置37は、ネットワーク12に接続するために用いられる。カメラ38はユーザの顔を撮影する。
The
モチベーション可視化プログラム等のシステム1又は2を実現する為のプログラムは例えば記録媒体40の配布やネットワーク12からのダウンロード等によって提供される。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは端末装置11で実行されるプログラムの少なくとも一部である。
A program for realizing the
記録媒体40はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。記録媒体40は記録媒体読取装置33にセットされる。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは記録媒体40から記録媒体読取装置33を介して補助記憶装置34にインストールされる。
The
ネットワーク12からダウンロードされたモチベーション可視化プログラム等のシステム1を実現する為のプログラムはインタフェース装置37を介して補助記憶装置34にインストールされる。
A program for realizing the
補助記憶装置34はモチベーション可視化プログラム等のシステム1を実現する為のプログラム、必要なファイル、データ等を格納する。主記憶装置35はプログラムの起動時に補助記憶装置34からモチベーション可視化プログラム等のシステム1を実現する為のプログラムを読み出して格納する。演算処理装置36は主記憶装置35に格納されたモチベーション可視化プログラム等のシステム1を実現する為のプログラムに従って後述の各種機能を実現する。
The
図5はモチベーション可視化システムの一例の機能ブロック図である。なお、図5は図1のシステム1における一例の機能ブロック図である。図5において、端末装置11は撮影部51、送信部52、UI処理部53、受信部54を有する。また、サーバ装置10は受信部61、静止画化部62、顔抽出部63、部位抽出部64、表情認識部65、指標化部66、アイコン決定部67、送信部68、表情DB69、指標DB70、履歴DB71及びアイコンDB72を有する。
FIG. 5 is a functional block diagram of an example of the motivation visualization system. FIG. 5 is a functional block diagram of an example in the
端末装置11の撮影部51はユーザの顔を撮影する。撮影部51はユーザの顔の動画を撮影してもよいし、静止画を撮影してもよい。撮影部51が静止画を撮影した場合は後述の静止画化部62の処理が不要となる。ここでは撮影部51が動画を撮影したものとして説明を続ける。送信部52は撮影部51が撮影した動画をサーバ装置10に送信する。
The photographing
UI処理部53は出力装置32にUIを表示する。受信部54はサーバ装置10から後述のアイコン更新要求を受け付ける。アイコン更新要求は後述のユーザのモチベーションを表すアイコンをUIに表示させる要求である。アイコン更新要求に基づき、UI処理部53はユーザのモチベーションを表すアイコンをUIに表示又は更新する。
The
サーバ装置10の受信部61はユーザの顔の動画を受信する。静止画化部62は受信部61が受信した動画を静止画化する。顔抽出部63は静止画化部62が静止画化した静止画から顔を抽出する。部位抽出部64は顔抽出部63が抽出した静止画上の顔から各部位を抽出する。ここで抽出する部位は表情の認識に役立つ部位であればよい。ここでは表情の認識に役立つ部位として目、眉、口を抽出する。
The receiving
表情認識部65は部位抽出部64が抽出した静止画上の顔の部位の形状(輪郭など)から各部位の表情を認識する。なお、各部位の表情の認識には、後述する表情DB69を用いる。指標化部66は表情認識部65が認識した各部位の表情を指標化し、指標の平均を算出する。各部位の表情の指標化には後述の指標DB70を用いる。指標化部66は後述の履歴DB71に算出した指標の平均を保存する。
The facial
アイコン決定部67は後述のアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。アイコンはユーザのモチベーションを表す情報の一例である。送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を端末装置11に送信する。
The
なお、履歴DB71に保存したユーザの指標の履歴は、端末装置11から参照要求があると、サーバ装置10から端末装置11に送信される。ユーザは例えばUIに表示されたユーザの指標の履歴を参照できる。
The user index history stored in the
なお、図5のシステム1では表情DB69、指標DB70、履歴DB71及びアイコンDB72がサーバ装置10に設けられているが、表情DB69、指標DB70、履歴DB71及びアイコンDB72の少なくとも一つを、他の1つ以上のサーバ装置に設けるようにしてもよい。
In the
また、図5のシステム1は例えばアイコン決定部67及びアイコンDB72を端末装置11に設けるようにしてもよい。アイコン決定部67及びアイコンDB72を端末装置11に設けたシステム1ではアイコン更新要求に変えて、指標化部66が算出した指標の平均が送信部68から端末装置11に送信される。更に、図5のシステム1は1台のサーバ装置10で構成される例を示しているが、複数台のサーバ装置で構成してもよい。
Further, the
図6は表情DBの一例の構成図である。図6の表情DB69は表情テーブル、目テーブル、眉テーブル及び口テーブルを有する。表情DB69は、それぞれの表情(例えば喜怒哀楽)の表情テーブルに対して、各部位のテーブルである目テーブル、眉テーブル及び口テーブルが関連付けられている。
FIG. 6 is a configuration diagram of an example of the facial expression DB. The
表情テーブルは表情ごとに表情ID(目)と表情ID(眉)と表情ID(口)とが設定されている。表情ID(目)と表情ID(眉)と表情ID(口)は例えば番号により設定される。表情ID(目)の場合、例えばe1、e2等の番号を想定する。 In the expression table, an expression ID (eyes), an expression ID (eyebrows), and an expression ID (mouth) are set for each expression. The expression ID (eyes), the expression ID (eyebrow), and the expression ID (mouth) are set by numbers, for example. In the case of the facial expression ID (eyes), for example, numbers such as e1 and e2 are assumed.
目テーブルは表情ID(目)と特徴(目)と軌跡(目)とが設定されている。眉テーブルは表情ID(眉)と特徴(眉)と軌跡(眉)とが設定されている。口テーブルは表情ID(口)と特徴(口)と軌跡(口)とが設定されている。目テーブルは目の特徴及び軌跡が設定されている。眉テーブルは眉の特徴及び軌跡が設定されている。口テーブルは口の特徴及び軌跡が設定されている。 In the eye table, facial expression IDs (eyes), features (eyes), and trajectories (eyes) are set. In the eyebrow table, an expression ID (eyebrow), a characteristic (eyebrow), and a locus (eyebrow) are set. In the mouth table, an expression ID (mouth), a feature (mouth), and a locus (mouth) are set. In the eye table, eye characteristics and trajectories are set. In the eyebrow table, the characteristics and locus of the eyebrows are set. The mouth table is set with mouth features and trajectories.
表情テーブルに対して、各部位のテーブルである目テーブルと眉テーブルと口テーブルとは表情ID(目)と表情ID(眉)と表情ID(口)により関連付けられている。各部位のテーブルである目テーブルと眉テーブルと口テーブルには、例えば特徴として各部位の輪郭の頂点の位置や角度などが設定され、軌跡として各部位の輪郭を縁取る点の集まりなどを設定することを想定する。例えば目テーブルには、特徴として目の輪郭の頂点の位置や角度などが設定され、軌跡として目の輪郭を縁取る点の集まりなどを想定する。 With respect to the expression table, the eye table, the eyebrow table, and the mouth table, which are tables of each part, are associated with each other by an expression ID (eye), an expression ID (eyebrow), and an expression ID (mouth). In the eye table, eyebrow table, and mouth table, which are tables of each part, for example, the position and angle of the vertex of the outline of each part are set as features, and a collection of points that border the outline of each part is set as a trajectory Assuming that For example, in the eye table, the positions and angles of the vertices of the eye outline are set as features, and a collection of points that border the eye outline is assumed as a trajectory.
表情DB69を参照する場合は部位抽出部64が抽出した静止画上の顔の部位の特徴及び軌跡をキーとして各部位のテーブルの特徴及び軌跡と比較し、特徴及び軌跡が似ている各部位テーブルの表情IDを取得する。例えば目の特徴及び軌跡をキーとして目テーブルの特徴及び軌跡と比較した場合は特徴及び軌跡が似ている目テーブルの表情ID(目)を取得する。
When referring to the
取得した表情IDをキーとして表情テーブルの表情IDを検索することで、表情認識部65はユーザの表情を認識できる。例えば表情ID(目)をキーとして表情テーブルの表情ID(目)を検索することで、表情認識部65はユーザの目の表情を認識できる。
The facial
また、図7は指標DBの一例の構成図である。図7の指標DB70は指標テーブルを有する。指標DB70は、各部位ごとに指標テーブルを有する。各部位ごとの指標テーブルは表情と指標(値)とが対応付けられて設定されている。つまり、指標DB70は、それぞれの表情に対しての指標を各部位ごとに対応付けて設定している。
FIG. 7 is a configuration diagram of an example of the index DB. The
指標DB70を参照する場合は表情認識部65が認識した静止画上の顔の各部位の表情をキーとして各部位の指標テーブルの表情と比較し、各部位の指標テーブルから一致する表情と対応付けられた指標を取得する。
When referring to the
また、図8は履歴DBの一例の構成図である。図8の履歴DB71は日付とユーザIDと指標(値)とが対応付けられて保存されている。つまり、履歴DB71はユーザIDと対応付けて日付ごとのユーザの指標を設定している。また、履歴DB71はユーザIDによりユーザ情報と対応付けられている。なお、図8のユーザ情報はユーザID、ユーザ名など、ユーザに関する情報が含まれる。ユーザ情報を利用することで、ユーザ名はユーザIDに変換することができる。履歴DB71を参照する場合はユーザIDをキーとして履歴DB71からユーザの指標を取得する。
FIG. 8 is a configuration diagram of an example of the history DB. The
また、図9はアイコンDBの一例の構成図である。図9のアイコンDB72はアイコンIDと指標の範囲と画像とが対応付けられて保存されている。つまり、アイコンDB72は指標の範囲と対応付けてアイコンIDと画像とを設定している。アイコンDB72を参照する場合はユーザの指標をキーとしてアイコンDB72からアイコンID及び画像を取得する。言い換えればユーザの指標がアイコンDB72の指標の範囲の何処に含まれるかによってアイコンDB72からは異なるアイコンID及び画像が取得される。
FIG. 9 is a configuration diagram of an example of an icon DB. The
図10はアイコンDBの一例のイメージ図である。図10のアイコンDB72は3種類のアイコンが保存されている例である。ユーザの指標がA1〜A2の場合、図10のアイコンDB72ではアイコンID「iconA」の画像が取得される。また、ユーザの指標がB1〜B2の場合、図10のアイコンDB72ではアイコンID「iconB」の画像が取得される。さらに、ユーザの指標がC1〜C2の場合、図10のアイコンDB72ではアイコンID「iconC」の画像が取得される。
FIG. 10 is an image diagram of an example of the icon DB. The
図10において、アイコンID「iconA」の画像は、笑った顔の一例のイメージである。アイコンID「iconB」の画像は、普通の顔の一例のイメージである。アイコンID「iconC」の画像は怒った顔の一例のイメージである。 In FIG. 10, the image with the icon ID “iconA” is an example of a smiled face. The image with the icon ID “iconB” is an example of an ordinary face. The image of the icon ID “iconC” is an example of an angry face.
図11はモチベーション可視化システムに含まれるサーバ装置の処理手順の一例を示すフローチャートである。なお、図11のフローチャートが開始されるタイミングは端末装置11を起動したとき、端末装置11でモチベーション可視化システムに関するプログラムを起動したとき、端末装置11で更新ボタンなどが押されたとき、所定時間間隔などが考えられる。
FIG. 11 is a flowchart illustrating an example of a processing procedure of the server device included in the motivation visualization system. 11 is started at a predetermined time interval when the
ステップS1において、サーバ装置10の受信部61は端末装置11からユーザの顔の動画を受信する。ステップS2において、静止画化部62は受信部61が受信した動画を複数枚の静止画にする。ステップS2の処理では例えばOpenCV(Open Computer Vision Library)を使用することで動画から複数枚の静止画を作成可能である。
In step S <b> 1, the receiving
OpenCVとは、画像認識に関連する機能のライブラリである。OpenCVはコンピュータビジョンと呼ばれる画像認識・解析に関するコンピューティング技術が主な用途として想定されている。OpenCVを用いることで、サーバ装置10ではコンピュータビジョンに関する高度な画像処理機能を利用できる。
OpenCV is a library of functions related to image recognition. OpenCV is assumed to be mainly used for computing technology related to image recognition and analysis called computer vision. By using OpenCV, the
なお、ステップS2において、静止画化部62は動画をN秒、サンプリング間隔をM秒とすると、N、Mの関係がN≧k×M(k>1)とする。ステップS3〜S6の処理はステップS2で作成した各静止画に対して行う。
Note that in step S2, the still
ステップS3において、顔抽出部63は静止画化部62が静止画化した静止画から顔の輪郭を抽出する。ステップS3の処理においてもOpenCVを使用することで静止画から顔の輪郭を抽出可能である。
In step S <b> 3, the
ステップS4において、部位抽出部64は顔抽出部63が抽出した静止画上の顔の輪郭から各部位として目、眉、口の輪郭を抽出する。例えば部位抽出部64は顔の輪郭の下半分から口の輪郭を抽出し、顔の輪郭の上半分から目、眉の輪郭を抽出する。ステップS4の処理においてもOpenCVを使用することで顔の輪郭から目、眉、口の輪郭を抽出可能である。
In step S <b> 4, the
ステップS5において、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭を用いて、表情DB69の目テーブル、眉テーブル、口テーブルの特徴、軌跡とのパターンマッチングを行い、表情を認識する。なお、パターンマッチングでは各部位の特徴、軌跡の他、各部位との距離を用いてもよい。ステップS5の処理の詳細は後述する。
In step S5, the facial
ステップS6において、指標化部66は表情認識部65が行った表情の認識結果を用いて1枚の静止画上のユーザの顔の目、眉、口の表情を指標化し、1枚の静止画上のユーザの顔の目、眉、口の表情の指標を平均して、1枚の静止画上のユーザの顔の指標として算出する。なお、指標化部66はユーザの顔の目、眉、口の表情の指標化に指標DB70を用いる。指標に関しては例えば表情が「喜」であった場合X、表情が「怒」であった場合Yとしたとき、X>Yとする。
In step S <b> 6, the
ステップS3〜S6の処理をステップS2で作成した各静止画に対して行った後、指標化部66はステップS7において、ステップS3〜S6で算出した各静止画のユーザの顔の指標から、全静止画のユーザの顔の指標の平均を算出する。ステップS8において、指標化部66はステップS7で算出した全静止画のユーザの顔の指標の平均を日付、ユーザIDと共に履歴DB71へ保存する。
After performing the processing of Steps S3 to S6 for each still image created in Step S2, the
ステップS9において、アイコン決定部67はアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。ステップS10において、送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を端末装置11に送信する。
In step S <b> 9, the
この後、端末装置11の受信部54は、サーバ装置10からアイコン更新要求を受け付ける。端末装置11のUI処理部53はユーザのモチベーションを表すアイコンをアイコン更新要求に基づき、UIに表示又は更新できる。
Thereafter, the receiving
図12はステップS5の処理の一例のフローチャートである。ステップS21〜S23の処理は、部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭それぞれについて行われる。
FIG. 12 is a flowchart of an example of the process in step S5. The processing in steps S21 to S23 is performed for each of the eyes, eyebrows, and mouth contours of the user's face on the still image extracted by the
ステップS21において、表情認識部65は3つの手法の形状マッチングを後述のように行う。ステップS22に進み表情認識部65はステップS21の形状マッチングの結果を合計する。ステップS23において、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の部位(目など)の特徴及び軌跡と、極めて近い特徴及び軌跡が設定された部位のテーブル(目テーブルなど)が見つかったか判定する。
In step S21, the facial
極めて近い特徴及び軌跡が設定された部位のテーブルが見つかっていなければ、表情認識部65はステップS21に戻り、次の部位のテーブルについて処理を続ける。極めて近い特徴及び軌跡が設定された部位のテーブルが見つかると、表情認識部65は、その時点でステップS24の処理を行う。また、表情認識部65は全ての部位のテーブルについて形状マッチングが終了したときもステップS24の処理を行う。
If a table of a part for which a very close feature and locus is set is not found, the facial
ステップS24において、表情認識部65は最も近い特徴及び軌跡が設定された部位のテーブルに設定された表情IDを取得し、取得した表情IDをキーとして表情テーブルの表情IDを検索することで、ユーザの顔の部位の表情を認識する。
In step S24, the facial
ここではステップS21の形状マッチングについて更に説明する。形状マッチングとは2つの入力画像に対して形状比較を行うものである。ステップS21の形状マッチングでは後述のOpenCVのサンプルコードのように、3種類の手法により形状マッチングを行うものとする。 Here, the shape matching in step S21 will be further described. Shape matching is to perform shape comparison on two input images. In the shape matching in step S21, it is assumed that the shape matching is performed by three kinds of methods as in the later-described OpenCV sample code.
opencv.jp - OpenCV: マッチング(Matching)サンプルコード - (「形状のマッチング」参照): http://opencv.jp/sample/matching.html
前述のOpenCVのサンプルコードの大まかな流れは、以下の通りである。
(1)入力画像と比較画像を読み込む。
(2)3種類の手法により形状比較を行う。
(3)形状比較の結果を画像に出力する。
(4)次の比較画像を読み込み、(2)に戻る。
opencv.jp-OpenCV: Matching sample code-(see "Matching shapes"): http://opencv.jp/sample/matching.html
The general flow of the above-described OpenCV sample code is as follows.
(1) Read an input image and a comparison image.
(2) Shape comparison is performed by three methods.
(3) Output the result of the shape comparison to an image.
(4) Read the next comparison image and return to (2).
ここで、前述のサンプルコードの流れ(2)で使用しているcvMatchShapesという関数は、2つの画像の形状がより似ている場合には「0」に近い数値を返す関数である。前述したcvMatchShapes関数が利用する形状比較の手法は、以下のリンク先に説明されている。 Here, the function called cvMatchShapes used in the above-described sample code flow (2) is a function that returns a numerical value close to “0” when the shapes of two images are more similar. The shape comparison technique used by the cvMatchShapes function described above is described in the following link.
構造解析と形状ディスクリプタ - opencv v2.1 documentation (「cvMatchShapes」参照)
http://opencv.jp/opencv-2.1/c/structural_analysis_and_shape_descriptors.html#cv-matchshapes
本実施の形態では、静止画から抽出したユーザの顔の部位(入力画像)と、表情DB69の部位のテーブルに設定された特徴、軌跡などのパターン(比較画像)との形状マッチングを(cvMatchShapes関数の3種類の形状比較)を行う。そして、本実施の形態では各形状比較の結果を平均した数値が、より0に近しいパターンが設定された部位のテーブルと関連付けられた表情を、ユーザの顔の部位の表情としている。
Structural analysis and shape descriptors-opencv v2.1 documentation (see cvMatchShapes)
http://opencv.jp/opencv-2.1/c/structural_analysis_and_shape_descriptors.html#cv-matchshapes
In the present embodiment, shape matching between a user's face part (input image) extracted from a still image and a pattern (comparison image) such as a feature or locus set in the part table of the
図13はステップS5の処理の一例のイメージ図である。表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭を用いて表情を判別する場合には図13に示すような目テーブル、眉テーブル、口テーブルの特徴、軌跡とのパターンとのパターンマッチングを行う。
FIG. 13 is an image diagram of an example of the process of step S5. When the facial
例えば図13は静止画上のユーザの顔の目の表情を判別する例を示している。表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目の輪郭であるユーザの目のパターンと、表情DB69の目テーブルに設定されている目の特徴や軌跡などのパターンとのパターンマッチングを行う。そして、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目のパターンに、より近い目テーブルに設定された目のパターンから目の表情を判別する。図13の例では目の表情として「楽」を判別している。
For example, FIG. 13 shows an example of determining the facial expression of the user's face on a still image. The facial
図14は端末装置に表示されるUIの一例のイメージ図である。図14のUIはユーザのモチベーションを表すアイコンを、ユーザ毎に各日付に対して表示している。例えばマウスカーソルをアイコンに重ねると、UI表示部53はユーザが入力したコメント等の補足的な情報を表示できるようにしてもよい。ユーザが入力したコメント等の補足的な情報を表示できるようにすると、UIはユーザ同士のモチベーションの共有を、より促進することが期待できる。
FIG. 14 is an image diagram of an example of a UI displayed on the terminal device. The UI in FIG. 14 displays an icon representing user motivation for each date for each user. For example, when the mouse cursor is overlaid on the icon, the
図15は端末装置に表示されるUIの他の例のイメージ図である。図15のUIは補助的な画面として、現在のユーザのモチベーションを表すアイコンを表示する。図15のUIは現在のユーザのモチベーションを確認したいようなケースが想定される場合にユーザの利便性の向上が期待できる。 FIG. 15 is an image diagram of another example of a UI displayed on the terminal device. The UI of FIG. 15 displays an icon representing the current user's motivation as an auxiliary screen. The UI of FIG. 15 can be expected to improve the convenience of the user when it is assumed that the current user's motivation is to be confirmed.
なお、図5のシステム1は一例であって、サーバ装置10が有する機能の少なくとも一部を端末装置11側に設ける構成も可能である。例えばシステム1は図5のサーバ装置10の機能のうちの履歴DB71をサーバ装置10が有し、図5の機能のうちの履歴DB71以外を端末装置11が有する構成とすることもできる。
Note that the
図5のサーバ装置10の機能のうちの履歴DB71をサーバ装置10が有し、図5の機能のうちの履歴DB71以外を端末装置11が有するシステム1では、サーバ装置10が端末装置11から受信したユーザの指標の履歴を保存し、サーバ装置10が端末装置11からの要求に基づき、ユーザの指標の履歴を提供する。
In the
以上、本実施の形態のシステム1によれば、端末装置11でユーザの顔を撮影し、撮影したユーザの顔の表情の認識結果に基づき、ユーザの表情を指標化することで、ユーザのモチベーションを表すアイコンをUIに表示できる。このように、本実施の形態のシステム1では、従来、手動で行っていたアイコンの更新を自動化できる。
As described above, according to the
また、本実施の形態のシステム1によれば、従来、ユーザが自己判断により決めていたユーザのモチベーションを表すアイコンを、撮影したユーザの顔の表情に基づいて自動的に決めるため、ユーザが更新を面倒に思い、いつも同じ気分で更新してしまったり、気分が沈んでいるときであっても、周囲に遠慮をして、気分が沈んでいることを表すアイコンに更新しなかったりするという問題を解決できる。つまり、本実施の形態のシステム1によれば、より正確なユーザのモチベーションを表すアイコンに更新できる。
Also, according to the
図2のモチベーション可視化システム2に含まれる端末装置11は例えば図16のように構成される。図16は端末装置の他の一例の機能ブロック図である。図16の端末装置11は、撮影部51、UI処理部53、受信部61、静止画化部62、顔抽出部63、部位抽出部64、表情認識部65、指標化部66、アイコン決定部67、送信部68、表情DB69、指標DB70、履歴DB71及びアイコンDB72を有する。
The
図16の端末装置11は図5のサーバ装置10及び端末装置11の機能ブロックを合わせた構成となっている。なお、図16の端末装置11の機能ブロックは、一部を除いて図5のサーバ装置10及び端末装置11の機能ブロックと同様な処理を行うため、説明を適宜省略する。
The
端末装置11の撮影部51はユーザの顔を撮影する。UI処理部53は出力装置32にUIを表示する。受信部54は、他の端末装置11から前述のアイコン更新要求を受け付ける。UI処理部53はユーザのモチベーションを表すアイコンを表示又は更新する。
The photographing
静止画化部62は撮影部51が撮影した動画を静止画化する。顔抽出部63は静止画化部62が静止画化した静止画から顔を抽出する。部位抽出部64は顔抽出部63が抽出した静止画上の顔から各部位を抽出する。
The still
表情認識部65は表情DB69を参照し、部位抽出部64が抽出した静止画上の顔の部位の形状(輪郭など)から各部位の表情を認識する。指標化部66は指標DB70を参照し、表情認識部65が認識した各部位の表情を指標化し、指標の平均を算出する。指標化部66は前述の履歴DB71に算出した指標の平均を保存する。
The facial
アイコン決定部67はアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。アイコン決定部67が決定したアイコンはUI処理部53によりUIに表示される。また、送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を他の端末装置11に送信する。
The
なお、履歴DB71に保存したユーザの指標の履歴は、他の端末装置11から参照要求があると、他の端末装置11に送信される。そして、他の端末装置11のUI処理部53は受信したユーザの指標の履歴を表示する。また、履歴DB71に保存したユーザの指標の履歴は、UI処理部53から参照要求があると、UIに表示される。ユーザは例えばUIに表示されたユーザの指標の履歴を参照できる。
Note that the user index history stored in the
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.
なお、特許請求の範囲に記載した装置は装置端末11に相当する。サーバ装置はサーバ装置10に相当する。ネットワークシステムはモチベーション可視化システム1に相当する。取得手段は撮影部51、UI処理部53に相当する。顔領域抽出手段は顔抽出部63に相当する。識別手段は部位抽出部64、表情認識部65、指標化部66に相当する。記憶手段はアイコンDB72に相当する。特定手段はアイコン決定部67に相当する。表示手段はUI処理部53に相当する。部位抽出手段は部位抽出部64に相当する。表情記憶手段は表情DB69に相当する。認識手段は表情認識部65、指標化部66に相当する。第1の送信手段は送信部52に相当する。第1の受信手段は受信部61に相当する。第2の送信手段は送信部68に相当する。第2の受信手段は受信部54に相当する。送信手段は送信部52に相当する。受信手段は受信部54に相当する。
The device described in the claims corresponds to the
1、2 モチベーション可視化システム
10 サーバ装置
11 端末装置
12 ネットワーク
21、31 入力装置
22、32 出力装置
23、33 記録媒体読取装置
24、34 補助記憶装置
25、35 主記憶装置
26、36 演算処理装置
27、37 インタフェース装置
28、39 バス
29、40 記録媒体
38 カメラ
51 撮影部
52 送信部
53 UI処理部
54、61 受信部
62 静止画化部
63 顔抽出部
64 部位抽出部
65 表情認識部
66 指標化部
67 アイコン決定部
68 送信部
69 表情DB
70 指標DB
71 履歴DB
72 アイコンDB
1, 2
70 Indicator DB
71 History DB
72 Icon DB
Claims (12)
複数の顔の表情毎に、該顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段と、
ユーザ情報と画像データとを前記第1の装置で取得する取得手段と、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
複数の顔の表情の中から前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
前記識別手段で識別した顔の表情に対応する表情識別情報と、前記取得手段で取得したユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段と、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報に関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段と
を有することを特徴とするネットワークシステム。 A network system in which a first device and a second device are connected,
First storage means for storing facial expression identification information indicating the facial expression and display information in association with each other for each facial expression;
Obtaining means for obtaining user information and image data in the first device;
Face area extraction means for extracting a face area included in the image data from the image data acquired by the acquisition means;
Identifying means for identifying facial expressions of the face area extracted by the face area extracting means from a plurality of facial expressions;
Second storage means for storing facial expression identification information corresponding to the facial expression identified by the identification means, user information obtained by the obtaining means, and date information indicating a date in association with each other;
From among the first of the plurality of display information relevant to stored respectively for each facial expression in the storage unit, the display being stored in association with the expression identification information stored in said second storage means specifying means for specifying information respectively,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information And a display unit that displays the data in a time series based on the date information stored in the second storage unit in association with the network.
前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
を有することを特徴とする請求項1記載のネットワークシステム。 The identification means includes
Part extraction means for extracting the shape of the part from the face of the face area extracted by the face area extraction means;
Facial expression storage means for storing the shape of the part and information indicating the facial expression in association with each other;
Recognizing means for recognizing information indicating the facial expression stored in association with the shape of the part extracted by the part extracting means from information indicating the facial expression stored in the facial expression storage means The network system according to claim 1, further comprising:
ことを特徴とする請求項2記載のネットワークシステム。 The recognizing means stores at least one outline of eyes, eyebrows, and mouth as the shape of the part and information indicating at least one expression of the eyes, eyebrows, and mouth as information indicating facial expressions. The information indicating at least one facial expression of the eyes, eyebrows, and mouth stored in association with at least one contour of the eyes, eyebrows, and mouth extracted by the part extracting means using the facial expression storage means The network system according to claim 2, wherein information indicating facial expressions is recognized.
前記第1の装置及び前記第2の装置は、前記サーバ装置を介して通信を行うこと The first device and the second device communicate via the server device.
を特徴とする請求項1乃至3何れか一項記載のネットワークシステム。The network system according to any one of claims 1 to 3, wherein:
前記第1の装置は、
ユーザ情報と画像データとを取得する取得手段と、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置に送信する送信手段と
を有し、
前記第2の装置は、
複数の顔の表情毎に、該顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段と、
前記第1の装置から送信された顔の表情に対応する表情識別情報及びユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段と、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報に関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段と
を有することを特徴とするネットワークシステム。 A network system in which a first device and a second device are connected,
The first device includes:
Acquisition means for acquiring user information and image data;
Face area extraction means for extracting a face area included in the image data from the image data acquired by the acquisition means;
An identification means for identifying facial expressions of the face area extracted by the face area extraction means from a plurality of facial expressions;
Transmission means for transmitting information indicating the facial expression identified by the identification means and user information acquired by the acquisition means to the second device;
The second device includes:
For each expression of the multiple faces, a first storage means for storing in association with expression identification information and the display information indicating a facial expression of the face,
Second storage means for storing facial expression identification information and user information corresponding to facial expressions transmitted from the first device in association with date information indicating a date;
The display stored in association with the facial expression identification information stored in the second storage means from among the display information stored in association with each of the plurality of facial expressions in the first storage means A specific means of identifying information,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information And a display means for displaying the images in time series based on the date information stored in the second storage means in association with the network.
前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
を有することを特徴とする請求項5記載のネットワークシステム。 The identification means includes
Part extraction means for extracting the shape of the part from the face of the face area extracted by the face area extraction means;
Facial expression storage means for storing the shape of the part and information indicating the facial expression in association with each other;
Recognizing means for recognizing information indicating the facial expression stored in association with the shape of the part extracted by the part extracting means from information indicating the facial expression stored in the facial expression storage means The network system according to claim 5, further comprising:
ことを特徴とする請求項6記載のネットワークシステム。 The recognizing means stores at least one outline of eyes, eyebrows, and mouth as the shape of the part and information indicating at least one expression of the eyes, eyebrows, and mouth as information indicating facial expressions. The information indicating at least one facial expression of the eyes, eyebrows, and mouth stored in association with at least one contour of the eyes, eyebrows, and mouth extracted by the part extracting means using the facial expression storage means The network system according to claim 6, wherein information indicating facial expressions is recognized.
を特徴とする請求項1乃至7何れか一項記載のネットワークシステム。The network system according to claim 1, wherein:
前記第1の装置として機能するときには、
ユーザ情報と画像データとを取得する取得手段と、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置として機能する他の情報処理装置に送信する送信手段と
を有し、
前記第2の装置として機能するときには、
複数の顔の表情毎に、該顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段と、
前記第1の装置として機能する他の情報処理装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段と、
前記識別手段で識別した顔の表情に対応する表情識別情報と、前記取得手段で取得したユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段と、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報に関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段と
を有することを特徴とする情報処理装置。 A first device that acquires user information and image data, and display information that indicates facial expressions of a facial area included in the image data acquired by the first device and the user information are associated with each other on the display unit. An information processing apparatus having any function with the second apparatus to be displayed,
When functioning as the first device,
Acquisition means for acquiring user information and image data;
Face area extraction means for extracting a face area included in the image data from the image data acquired by the acquisition means;
An identification means for identifying facial expressions of the face area extracted by the face area extraction means from a plurality of facial expressions;
Transmitting means for transmitting the information indicating the facial expression identified by the identifying means and the user information acquired by the acquiring means to another information processing device functioning as the second device;
When functioning as the second device,
For each expression of the multiple faces, a first storage means for storing in association with expression identification information and the display information indicating a facial expression of the face,
Receiving means for receiving facial information and user information transmitted from another information processing apparatus functioning as the first apparatus;
Second storage means for storing facial expression identification information corresponding to the facial expression identified by the identification means, user information obtained by the obtaining means, and date information indicating a date in association with each other;
From among the first of the plurality of display information relevant to stored respectively for each facial expression in the storage unit, the display being stored in association with the expression identification information stored in said second storage means and identifying means for identifying the information, respectively,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information An information processing apparatus comprising: a display unit configured to display the data in time series based on date information stored in the second storage unit in association with
を特徴とする請求項9記載の情報処理装置。The information processing apparatus according to claim 9.
前記プログラムは、前記情報処理装置を
ユーザ情報と画像データとを取得する取得手段、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段、
複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段、
前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置として機能する他の情報処理装置に送信する送信手段
を備えた前記第1の装置として機能させ、
さらに前記プログラムは、前記情報処理装置を、
複数の顔の表情毎に、該顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段、
前記第1の装置として機能する他の情報処理装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段、
前記識別手段で識別した顔の表情に対応する表情識別情報と、前記取得手段で取得したユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報に関連付けて記憶されている表示情報をそれぞれ特定する特定手段、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段
を備えた前記第2の装置として機能させるプログラム。 An information processing apparatus that associates display information indicating facial expressions of a face area included in image data acquired by the first apparatus that acquires user information and image data and the user information with the user information A program that functions as any of the second devices displayed on the display unit,
The program includes an acquisition unit that acquires user information and image data from the information processing apparatus,
A face area extracting means for extracting a face area included in the image data from the image data acquired by the acquiring means;
Identifying means for identifying facial expressions of the facial area extracted by the facial area extracting means from a plurality of facial expressions;
1st apparatus provided with the transmission means which transmits the information which shows the facial expression identified by the said identification means, and the user information acquired by the said acquisition means to the other information processing apparatus which functions as said 2nd apparatus Function as
Further, the program causes the information processing apparatus to
First storage means for storing, in association with each other, facial expression identification information indicating the facial expression and display information for each facial expression;
Receiving means for receiving information indicating facial expressions and user information transmitted from another information processing device functioning as the first device;
Second storage means for storing the facial expression identification information corresponding to the facial expression identified by the identification means, the user information acquired by the acquisition means, and date information indicating the date in association with each other;
From among the first storage means in the plurality of display information relevant to stored respectively for each facial expression, from the displayed information stored in the second storage means, said second storage specifying means for specifying respective display information stored in association with the expression identification information stored in means,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information A program that functions as the second device including display means that displays the data in time series based on the date information stored in the second storage means in association with the second storage means .
を特徴とする請求項11記載のプログラム。The program according to claim 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012024372A JP5720595B2 (en) | 2012-02-07 | 2012-02-07 | Network system, server device, information processing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012024372A JP5720595B2 (en) | 2012-02-07 | 2012-02-07 | Network system, server device, information processing device, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015062206A Division JP2015165407A (en) | 2015-03-25 | 2015-03-25 | network system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013161364A JP2013161364A (en) | 2013-08-19 |
JP5720595B2 true JP5720595B2 (en) | 2015-05-20 |
Family
ID=49173538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012024372A Active JP5720595B2 (en) | 2012-02-07 | 2012-02-07 | Network system, server device, information processing device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5720595B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3824848B2 (en) * | 2000-07-24 | 2006-09-20 | シャープ株式会社 | Communication apparatus and communication method |
JP2007213364A (en) * | 2006-02-10 | 2007-08-23 | Nec Corp | Image converter, image conversion method, and image conversion program |
JP5338350B2 (en) * | 2009-02-06 | 2013-11-13 | 富士ゼロックス株式会社 | Information processing apparatus and voice correction program |
-
2012
- 2012-02-07 JP JP2012024372A patent/JP5720595B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013161364A (en) | 2013-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4720167B2 (en) | Electronic camera and program | |
JP4552632B2 (en) | Portable device | |
CN103140862B (en) | User interface system and operational approach thereof | |
WO2020156034A1 (en) | Fingerprint input method and related device | |
CN110060262A (en) | A kind of image partition method and device, electronic equipment and storage medium | |
US10803988B2 (en) | Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment | |
CN107220614B (en) | Image recognition method, image recognition device and computer-readable storage medium | |
CN106462567A (en) | Augmented data view | |
CN111401318B (en) | Action recognition method and device | |
KR20110088273A (en) | Mobile terminal and method for forming human network using mobile terminal | |
US20210201478A1 (en) | Image processing methods, electronic devices, and storage media | |
AU2020309094B2 (en) | Image processing method and apparatus, electronic device, and storage medium | |
JPWO2017154136A1 (en) | Portable information terminal and information processing method used therefor | |
CN112529846A (en) | Image processing method and device, electronic equipment and storage medium | |
JP5420056B2 (en) | Image creation system, image creation application server, image creation method and program | |
TW201423660A (en) | System and method for analyzing interpersonal relationships | |
JP5048736B2 (en) | Image processing system, image processing method, and image processing program | |
CN113158918A (en) | Video processing method and device, electronic equipment and storage medium | |
CN105426904A (en) | Photo processing method, apparatus and device | |
JP2015165407A (en) | network system | |
JP5720595B2 (en) | Network system, server device, information processing device, and program | |
CN114205512A (en) | Shooting method and device | |
CN109376581B (en) | Object relation recognition method and device, storage medium and electronic device | |
JP6710440B1 (en) | Makeup evaluation device, makeup evaluation system, and makeup evaluation method | |
US10783666B2 (en) | Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140801 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20140801 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20140828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150309 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5720595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |