JP5720595B2 - Network system, server device, information processing device, and program - Google Patents

Network system, server device, information processing device, and program Download PDF

Info

Publication number
JP5720595B2
JP5720595B2 JP2012024372A JP2012024372A JP5720595B2 JP 5720595 B2 JP5720595 B2 JP 5720595B2 JP 2012024372 A JP2012024372 A JP 2012024372A JP 2012024372 A JP2012024372 A JP 2012024372A JP 5720595 B2 JP5720595 B2 JP 5720595B2
Authority
JP
Japan
Prior art keywords
information
facial expression
display
association
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012024372A
Other languages
Japanese (ja)
Other versions
JP2013161364A (en
Inventor
歩 小野
歩 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012024372A priority Critical patent/JP5720595B2/en
Publication of JP2013161364A publication Critical patent/JP2013161364A/en
Application granted granted Critical
Publication of JP5720595B2 publication Critical patent/JP5720595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ネットワークシステム、サーバ装置、情報処理装置及びプログラムに関する。   The present invention relates to a network system, a server device, an information processing device, and a program.

業務の関係者が遠方にいる場合はコミュニケーションの手段として電話やメール、テレビ会議等が利用される。コミュニケーションの手段として電話やメール、テレビ会議等を利用する場合は、直接、相手の表情や様子を伺うことができず、互いにモチベーションの変化や状況を知ることが難しくなる。   When business personnel are far away, telephone, e-mail, video conferencing, etc. are used as means of communication. When using telephone, e-mail, video conferencing, etc. as a means of communication, it is difficult to directly hear the other person's facial expression and appearance, and it becomes difficult to know changes and situations of motivation.

例えばメールや手紙等の文章では相手の感情や状況を察知することが難しいため、読み手の受け取り方に差がでることがある。また、電話の音声、テレビ会議やWebカメラの映像では一時的に相手の様子を知ることができるが、通信をしているときの相手の様子しか分からない。   For example, it is difficult to detect the emotions and situations of the other party in sentences such as e-mails and letters. In addition, although the voice of the telephone, the video conference, and the video of the Web camera can temporarily know the other party's state, only the other party's state during communication can be known.

従来、ユーザの気分をアイコンで示し、ユーザ同士で共有可能であるツールとして例えばニコニコカレンダーは既に知られている。ニコニコカレンダーはユーザの気分を「見える化」するツールである。また、状態表示用端末間において個人の気持ち等の状態情報を送信して表示する状態表示システムは従来から知られている(例えば特許文献1参照)。   Conventionally, for example, a happy calendar is already known as a tool that shows the user's mood with an icon and can be shared between users. The happy calendar is a tool that “visualizes” the user's mood. In addition, a state display system that transmits and displays state information such as personal feelings between state display terminals is conventionally known (see, for example, Patent Document 1).

しかしながら、従来のユーザの気分を「見える化」するツールはユーザの気分をユーザが手動で更新するため、ユーザが更新を忘れてしまったり、多忙により更新する時間がとれず、更新ができなかったりするという問題があった。   However, the conventional tool to “visualize” the mood of the user manually updates the user's mood, so the user forgets to update or cannot update due to busy time. There was a problem to do.

また、従来のユーザの気分を「見える化」するツールは更新するユーザの気分をユーザが自己判断によって決めるため、ユーザが更新を面倒に思い、いつも同じ気分で更新してしまったり、気分が沈んでいるときであっても、周囲に遠慮をして、気分が沈んでいることを表すアイコンに更新しなかったりするという問題があった。   In addition, the conventional tool to “visualize” the mood of the user decides the mood of the user to update by self-judgment, so the user is troublesome to update and always updates in the same mood or feels down There was a problem that even when I was on the road, I couldn't update the icon to indicate that I was feeling depressed because I refrained from surroundings.

従来のユーザの気分を「見える化」するツールは、上記のようにユーザの気分が正確に更新されない場合があり、本来期待されるべき効果が得られず、有効活用できないという問題があった。   Conventional tools for “visualizing” the user's mood have the problem that the user's mood may not be updated accurately as described above, and the expected effect cannot be obtained and cannot be effectively utilized.

本発明は、顔の表情に関する表示情報の更新を自動化できるネットワークシステム、サーバ装置、情報処理装置及びプログラムを提供することを目的とする。   An object of the present invention is to provide a network system, a server device, an information processing device, and a program that can automate updating of display information related to facial expressions.

上記課題を解決するため、請求項1に記載したネットワークシステムは、第1の装置と第2の装置とが接続されたネットワークシステムであって、ユーザ情報と画像データとを前記第1の装置で取得する取得手段と、前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、複数の顔の表情の中から前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、前記記憶手段で記憶されている表示情報の中から、前記識別手段で識別した顔の表情に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、前記特定手段で特定された表示情報と前記取得手段で取得したユーザ情報とを対応付けて前記第2の装置の表示部に表示させる表示手段とを有することを特徴とする。   In order to solve the above problem, a network system according to claim 1 is a network system in which a first device and a second device are connected, and user information and image data are transmitted by the first device. An acquiring means for acquiring, a face area extracting means for extracting a face area included in the image data from the image data acquired by the acquiring means, and a face extracted by the face area extracting means from a plurality of facial expressions. Identification means for identifying facial expressions in the area; storage means for storing facial expression identification information indicating facial expressions in association with display information for each of a plurality of facial expressions; and display stored in the storage means A specifying means for specifying display information stored in association with facial expression identification information corresponding to the facial expression identified by the identification means, the display information specified by the specifying means, and the acquiring means. It associates the acquired user information; and a display means for displaying on the display unit of the second device.

なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。   In addition, what applied the component, expression, or arbitrary combination of the component of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention.

本発明によれば、顔の表情に関する表示情報の更新を自動化できる。   According to the present invention, updating of display information related to facial expressions can be automated.

モチベーション可視化システムの一例の構成図である。It is a block diagram of an example of the motivation visualization system. モチベーション可視化システムの他の例の構成図である。It is a block diagram of the other example of the motivation visualization system. サーバ装置の一例のハードウェア構成図である。It is a hardware block diagram of an example of a server apparatus. 端末装置の一例のハードウェア構成図である。It is a hardware block diagram of an example of a terminal device. モチベーション可視化システムの一例の機能ブロック図である。It is a functional block diagram of an example of a motivation visualization system. 表情DBの一例の構成図である。It is a block diagram of an example of facial expression DB. 指標DBの一例の構成図である。It is a block diagram of an example of index DB. 履歴DBの一例の構成図である。It is a block diagram of an example of history DB. アイコンDBの一例の構成図である。It is a block diagram of an example of icon DB. アイコンDBの一例のイメージ図である。It is an image figure of an example of icon DB. モチベーション可視化システムに含まれるサーバ装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the server apparatus contained in a motivation visualization system. ステップS5の処理の一例のフローチャートである。It is a flowchart of an example of a process of step S5. ステップS5の処理の一例のイメージ図である。It is an image figure of an example of a process of step S5. 端末装置に表示されるUIの一例のイメージ図である。It is an image figure of an example of UI displayed on a terminal device. 端末装置に表示されるUIの他の例のイメージ図である。It is an image figure of the other example of UI displayed on a terminal device. 端末装置の他の一例の機能ブロック図である。It is a functional block diagram of another example of a terminal device.

以下、本発明の実施の形態について、詳細に説明する。なお、本実施の形態におけるモチベーションとは、ユーザの気持ち、やる気、気分、状態、状況、感情等の意味を含むものとして取り扱う。   Hereinafter, embodiments of the present invention will be described in detail. Note that the motivation in the present embodiment is treated as including the meaning of the user's feelings, motivation, mood, state, situation, emotion, and the like.

図1はモチベーション可視化システムの一例の構成図である。図1のモチベーション可視化システム(以下、単にシステムと呼ぶ)1は、サーバ装置10及び1つ以上の端末装置11がインターネットやLANなどのネットワーク12経由で接続されている。端末装置11は、例えばPC(パーソナルコンピュータ)やPDA(Personal Digital Assistants)や携帯電話機や専用端末等である。   FIG. 1 is a configuration diagram of an example of a motivation visualization system. A motivation visualization system (hereinafter simply referred to as a system) 1 in FIG. 1 includes a server device 10 and one or more terminal devices 11 connected via a network 12 such as the Internet or a LAN. The terminal device 11 is, for example, a PC (Personal Computer), a PDA (Personal Digital Assistant), a mobile phone, a dedicated terminal, or the like.

端末装置11はカメラを搭載する。端末装置11が搭載するカメラは内蔵又は外付けの何れであっても良い。端末装置11はモチベーションの可視化が行われるユーザにより操作される。端末装置11はサーバ装置10と接続して後述する処理を行い、ユーザのモチベーションを表す情報の更新を行う。なお、図1のシステム1におけるサーバ装置10と端末装置11との処理の切り分けは様々考えられるため、後述する。   The terminal device 11 is equipped with a camera. The camera mounted on the terminal device 11 may be either internal or external. The terminal device 11 is operated by a user who performs visualization of motivation. The terminal device 11 is connected to the server device 10 and performs processing to be described later, and updates information representing the user's motivation. In addition, since various processes of the server apparatus 10 and the terminal apparatus 11 in the system 1 of FIG.

図2はモチベーション可視化システムの他の例の構成図である。図2のモチベーション可視化システム(以下、単にシステムと呼ぶ)2は複数の端末装置11がインターネットやLANなどのネットワーク12経由で接続されている。端末装置11は、例えばPCやPDAや携帯電話機や専用端末等である。   FIG. 2 is a configuration diagram of another example of the motivation visualization system. In the motivation visualization system (hereinafter simply referred to as a system) 2 in FIG. 2, a plurality of terminal devices 11 are connected via a network 12 such as the Internet or a LAN. The terminal device 11 is, for example, a PC, a PDA, a mobile phone, a dedicated terminal, or the like.

端末装置11はカメラを搭載する。端末装置11が搭載するカメラは内蔵又は外付けの何れであっても良い。端末装置11はモチベーションの可視化が行われるユーザにより操作される。端末装置11は他の端末装置11と接続して後述する処理を行い、ユーザのモチベーションを表す情報の更新を行う。なお、図2のシステム2はネットワーク12に含まれる単なる中継機器としてのサーバ装置を介して接続される形態を含む。   The terminal device 11 is equipped with a camera. The camera mounted on the terminal device 11 may be either internal or external. The terminal device 11 is operated by a user who performs visualization of motivation. The terminal device 11 is connected to the other terminal device 11 to perform processing described later, and updates information representing the user's motivation. 2 includes a form in which the system 2 is connected via a server device as a simple relay device included in the network 12.

図3はサーバ装置の一例のハードウェア構成図である。サーバ装置10はバス28で相互に接続されている入力装置21、出力装置22、記録媒体読取装置23、補助記憶装置24、主記憶装置25、演算処理装置26及びインタフェース装置27を有する構成である。   FIG. 3 is a hardware configuration diagram of an example of the server apparatus. The server device 10 includes an input device 21, an output device 22, a recording medium reading device 23, an auxiliary storage device 24, a main storage device 25, an arithmetic processing device 26, and an interface device 27 that are connected to each other via a bus 28. .

入力装置21はキーボードやマウス等である。入力装置21は各種信号を入力するために用いられる。出力装置22はディスプレイ装置等である。出力装置22は各種ウインドウやデータ等を表示するために用いられる。インタフェース装置27は、モデム、LANカード等である。インタフェース装置27は、ネットワーク12に接続するために用いられる。   The input device 21 is a keyboard or a mouse. The input device 21 is used for inputting various signals. The output device 22 is a display device or the like. The output device 22 is used to display various windows and data. The interface device 27 is a modem, a LAN card, or the like. The interface device 27 is used for connecting to the network 12.

モチベーション可視化プログラム等のシステム1を実現する為のプログラムは例えば記録媒体29の配布やネットワーク12からのダウンロードなどによって提供される。モチベーション可視化プログラム等のシステム1を実現する為のプログラムはサーバ装置10で実行されるプログラムの少なくとも一部である。   A program for realizing the system 1 such as a motivation visualization program is provided by, for example, distribution of the recording medium 29 or download from the network 12. A program for realizing the system 1 such as a motivation visualization program is at least a part of a program executed by the server device 10.

記録媒体29はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。記録媒体29は記録媒体読取装置23にセットされる。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは記録媒体29から記録媒体読取装置23を介して補助記憶装置24にインストールされる。   The recording medium 29 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, or a semiconductor that electrically records information, such as a ROM or flash memory. Various types such as a memory can be used. The recording medium 29 is set in the recording medium reader 23. A program for realizing the system 1 such as a motivation visualization program is installed in the auxiliary storage device 24 from the recording medium 29 via the recording medium reader 23.

ネットワーク12からダウンロードされたモチベーション可視化プログラム等のシステム1を実現する為のプログラムはインタフェース装置27を介して補助記憶装置24にインストールされる。   A program for realizing the system 1 such as a motivation visualization program downloaded from the network 12 is installed in the auxiliary storage device 24 via the interface device 27.

補助記憶装置24はモチベーション可視化プログラム等のシステム1を実現する為のプログラム、必要なファイル、データ等を格納する。主記憶装置25はプログラムの起動時に補助記憶装置24からモチベーション可視化プログラム等のシステム1を実現する為のプログラムを読み出して格納する。演算処理装置26は主記憶装置25に格納されたモチベーション可視化プログラム等のシステム1を実現する為のプログラムに従って後述の各種機能を実現する。   The auxiliary storage device 24 stores a program for realizing the system 1 such as a motivation visualization program, necessary files, data, and the like. The main storage device 25 reads and stores a program for realizing the system 1 such as a motivation visualization program from the auxiliary storage device 24 when the program is started. The arithmetic processing unit 26 implements various functions to be described later according to a program for realizing the system 1 such as a motivation visualization program stored in the main storage device 25.

図4は端末装置の一例のハードウェア構成図である。ここでは一例として端末装置11がPCであるときのハードウェア構成について説明する。端末装置11はバス39で相互に接続されている入力装置31、出力装置32、記録媒体読取装置33、補助記憶装置34、主記憶装置35、演算処理装置36、インタフェース装置37及びカメラ38を有する構成である。なお、カメラ38は端末装置11に内蔵されたものであっても、外付けされたものであってもよい。   FIG. 4 is a hardware configuration diagram of an example of the terminal device. Here, a hardware configuration when the terminal device 11 is a PC will be described as an example. The terminal device 11 includes an input device 31, an output device 32, a recording medium reading device 33, an auxiliary storage device 34, a main storage device 35, an arithmetic processing device 36, an interface device 37, and a camera 38 that are connected to each other via a bus 39. It is a configuration. The camera 38 may be built in the terminal device 11 or may be externally attached.

入力装置31はキーボードやマウス等である。入力装置31は各種信号を入力するために用いられる。出力装置32はディスプレイ装置等である。出力装置32は各種ウインドウやデータ等を表示するために用いられる。インタフェース装置37は、モデム、LANカード等である。インタフェース装置37は、ネットワーク12に接続するために用いられる。カメラ38はユーザの顔を撮影する。   The input device 31 is a keyboard or a mouse. The input device 31 is used for inputting various signals. The output device 32 is a display device or the like. The output device 32 is used to display various windows and data. The interface device 37 is a modem, a LAN card, or the like. The interface device 37 is used for connecting to the network 12. The camera 38 captures the user's face.

モチベーション可視化プログラム等のシステム1又は2を実現する為のプログラムは例えば記録媒体40の配布やネットワーク12からのダウンロード等によって提供される。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは端末装置11で実行されるプログラムの少なくとも一部である。   A program for realizing the system 1 or 2 such as a motivation visualization program is provided by, for example, distribution of the recording medium 40 or downloading from the network 12. A program for realizing the system 1 such as a motivation visualization program is at least a part of a program executed by the terminal device 11.

記録媒体40はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。記録媒体40は記録媒体読取装置33にセットされる。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは記録媒体40から記録媒体読取装置33を介して補助記憶装置34にインストールされる。   The recording medium 40 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, or a semiconductor that electrically records information, such as a ROM or flash memory. Various types such as a memory can be used. The recording medium 40 is set in the recording medium reader 33. A program for realizing the system 1 such as a motivation visualization program is installed from the recording medium 40 to the auxiliary storage device 34 via the recording medium reader 33.

ネットワーク12からダウンロードされたモチベーション可視化プログラム等のシステム1を実現する為のプログラムはインタフェース装置37を介して補助記憶装置34にインストールされる。   A program for realizing the system 1 such as a motivation visualization program downloaded from the network 12 is installed in the auxiliary storage device 34 via the interface device 37.

補助記憶装置34はモチベーション可視化プログラム等のシステム1を実現する為のプログラム、必要なファイル、データ等を格納する。主記憶装置35はプログラムの起動時に補助記憶装置34からモチベーション可視化プログラム等のシステム1を実現する為のプログラムを読み出して格納する。演算処理装置36は主記憶装置35に格納されたモチベーション可視化プログラム等のシステム1を実現する為のプログラムに従って後述の各種機能を実現する。   The auxiliary storage device 34 stores a program for realizing the system 1 such as a motivation visualization program, necessary files, data, and the like. The main storage device 35 reads and stores a program for realizing the system 1 such as a motivation visualization program from the auxiliary storage device 34 when the program is started. The arithmetic processing unit 36 realizes various functions to be described later according to a program for realizing the system 1 such as a motivation visualization program stored in the main storage device 35.

図5はモチベーション可視化システムの一例の機能ブロック図である。なお、図5は図1のシステム1における一例の機能ブロック図である。図5において、端末装置11は撮影部51、送信部52、UI処理部53、受信部54を有する。また、サーバ装置10は受信部61、静止画化部62、顔抽出部63、部位抽出部64、表情認識部65、指標化部66、アイコン決定部67、送信部68、表情DB69、指標DB70、履歴DB71及びアイコンDB72を有する。   FIG. 5 is a functional block diagram of an example of the motivation visualization system. FIG. 5 is a functional block diagram of an example in the system 1 of FIG. In FIG. 5, the terminal device 11 includes an imaging unit 51, a transmission unit 52, a UI processing unit 53, and a reception unit 54. The server device 10 includes a receiving unit 61, a still image converting unit 62, a face extracting unit 63, a part extracting unit 64, a facial expression recognizing unit 65, an indexing unit 66, an icon determining unit 67, a transmitting unit 68, a facial expression DB 69, and an index DB 70. A history DB 71 and an icon DB 72.

端末装置11の撮影部51はユーザの顔を撮影する。撮影部51はユーザの顔の動画を撮影してもよいし、静止画を撮影してもよい。撮影部51が静止画を撮影した場合は後述の静止画化部62の処理が不要となる。ここでは撮影部51が動画を撮影したものとして説明を続ける。送信部52は撮影部51が撮影した動画をサーバ装置10に送信する。   The photographing unit 51 of the terminal device 11 photographs the user's face. The photographing unit 51 may photograph a moving image of the user's face or a still image. When the imaging unit 51 captures a still image, the processing of the later-described still image converting unit 62 becomes unnecessary. Here, the description is continued assuming that the photographing unit 51 has photographed a moving image. The transmission unit 52 transmits the moving image captured by the imaging unit 51 to the server device 10.

UI処理部53は出力装置32にUIを表示する。受信部54はサーバ装置10から後述のアイコン更新要求を受け付ける。アイコン更新要求は後述のユーザのモチベーションを表すアイコンをUIに表示させる要求である。アイコン更新要求に基づき、UI処理部53はユーザのモチベーションを表すアイコンをUIに表示又は更新する。   The UI processing unit 53 displays the UI on the output device 32. The receiving unit 54 receives a later-described icon update request from the server device 10. The icon update request is a request for displaying an icon representing the user's motivation described later on the UI. Based on the icon update request, the UI processing unit 53 displays or updates an icon representing the user's motivation on the UI.

サーバ装置10の受信部61はユーザの顔の動画を受信する。静止画化部62は受信部61が受信した動画を静止画化する。顔抽出部63は静止画化部62が静止画化した静止画から顔を抽出する。部位抽出部64は顔抽出部63が抽出した静止画上の顔から各部位を抽出する。ここで抽出する部位は表情の認識に役立つ部位であればよい。ここでは表情の認識に役立つ部位として目、眉、口を抽出する。   The receiving unit 61 of the server device 10 receives a moving image of the user's face. The still image converting unit 62 converts the moving image received by the receiving unit 61 into a still image. The face extraction unit 63 extracts a face from the still image that the still image converting unit 62 converts to a still image. The part extracting unit 64 extracts each part from the face on the still image extracted by the face extracting unit 63. The part extracted here may be a part useful for facial expression recognition. Here, eyes, eyebrows and mouth are extracted as parts useful for facial expression recognition.

表情認識部65は部位抽出部64が抽出した静止画上の顔の部位の形状(輪郭など)から各部位の表情を認識する。なお、各部位の表情の認識には、後述する表情DB69を用いる。指標化部66は表情認識部65が認識した各部位の表情を指標化し、指標の平均を算出する。各部位の表情の指標化には後述の指標DB70を用いる。指標化部66は後述の履歴DB71に算出した指標の平均を保存する。   The facial expression recognition unit 65 recognizes the facial expression of each part from the shape (contour etc.) of the facial part on the still image extracted by the part extraction unit 64. A facial expression DB 69 described later is used for recognizing facial expressions of each part. The indexing unit 66 indexes the facial expression of each part recognized by the facial expression recognition unit 65, and calculates the average of the indexes. An index DB 70, which will be described later, is used for indexing the facial expression of each part. The indexing unit 66 stores the average of the calculated indices in the history DB 71 described later.

アイコン決定部67は後述のアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。アイコンはユーザのモチベーションを表す情報の一例である。送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を端末装置11に送信する。   The icon determination unit 67 refers to an icon DB 72 described later, and determines an icon corresponding to the average of the indexes calculated by the indexing unit 66. The icon is an example of information indicating user motivation. The transmission unit 68 transmits an icon update request for an icon representing the user's motivation determined by the icon determination unit 67 to the terminal device 11.

なお、履歴DB71に保存したユーザの指標の履歴は、端末装置11から参照要求があると、サーバ装置10から端末装置11に送信される。ユーザは例えばUIに表示されたユーザの指標の履歴を参照できる。   The user index history stored in the history DB 71 is transmitted from the server device 10 to the terminal device 11 when a reference request is received from the terminal device 11. For example, the user can refer to the history of the index of the user displayed on the UI.

なお、図5のシステム1では表情DB69、指標DB70、履歴DB71及びアイコンDB72がサーバ装置10に設けられているが、表情DB69、指標DB70、履歴DB71及びアイコンDB72の少なくとも一つを、他の1つ以上のサーバ装置に設けるようにしてもよい。   In the system 1 of FIG. 5, the expression DB 69, the index DB 70, the history DB 71, and the icon DB 72 are provided in the server device 10, but at least one of the expression DB 69, the index DB 70, the history DB 71, and the icon DB 72 is replaced with another one. You may make it provide in two or more server apparatuses.

また、図5のシステム1は例えばアイコン決定部67及びアイコンDB72を端末装置11に設けるようにしてもよい。アイコン決定部67及びアイコンDB72を端末装置11に設けたシステム1ではアイコン更新要求に変えて、指標化部66が算出した指標の平均が送信部68から端末装置11に送信される。更に、図5のシステム1は1台のサーバ装置10で構成される例を示しているが、複数台のサーバ装置で構成してもよい。   Further, the system 1 of FIG. 5 may be provided with, for example, the icon determination unit 67 and the icon DB 72 in the terminal device 11. In the system 1 in which the icon determination unit 67 and the icon DB 72 are provided in the terminal device 11, instead of the icon update request, the average of the index calculated by the indexing unit 66 is transmitted from the transmission unit 68 to the terminal device 11. Furthermore, although the system 1 of FIG. 5 shows an example constituted by one server device 10, it may be constituted by a plurality of server devices.

図6は表情DBの一例の構成図である。図6の表情DB69は表情テーブル、目テーブル、眉テーブル及び口テーブルを有する。表情DB69は、それぞれの表情(例えば喜怒哀楽)の表情テーブルに対して、各部位のテーブルである目テーブル、眉テーブル及び口テーブルが関連付けられている。   FIG. 6 is a configuration diagram of an example of the facial expression DB. The expression DB 69 in FIG. 6 includes an expression table, an eye table, an eyebrow table, and a mouth table. In the expression DB 69, an eye table, an eyebrow table, and a mouth table, which are tables of each part, are associated with an expression table of each expression (for example, emotions).

表情テーブルは表情ごとに表情ID(目)と表情ID(眉)と表情ID(口)とが設定されている。表情ID(目)と表情ID(眉)と表情ID(口)は例えば番号により設定される。表情ID(目)の場合、例えばe1、e2等の番号を想定する。   In the expression table, an expression ID (eyes), an expression ID (eyebrows), and an expression ID (mouth) are set for each expression. The expression ID (eyes), the expression ID (eyebrow), and the expression ID (mouth) are set by numbers, for example. In the case of the facial expression ID (eyes), for example, numbers such as e1 and e2 are assumed.

目テーブルは表情ID(目)と特徴(目)と軌跡(目)とが設定されている。眉テーブルは表情ID(眉)と特徴(眉)と軌跡(眉)とが設定されている。口テーブルは表情ID(口)と特徴(口)と軌跡(口)とが設定されている。目テーブルは目の特徴及び軌跡が設定されている。眉テーブルは眉の特徴及び軌跡が設定されている。口テーブルは口の特徴及び軌跡が設定されている。   In the eye table, facial expression IDs (eyes), features (eyes), and trajectories (eyes) are set. In the eyebrow table, an expression ID (eyebrow), a characteristic (eyebrow), and a locus (eyebrow) are set. In the mouth table, an expression ID (mouth), a feature (mouth), and a locus (mouth) are set. In the eye table, eye characteristics and trajectories are set. In the eyebrow table, the characteristics and locus of the eyebrows are set. The mouth table is set with mouth features and trajectories.

表情テーブルに対して、各部位のテーブルである目テーブルと眉テーブルと口テーブルとは表情ID(目)と表情ID(眉)と表情ID(口)により関連付けられている。各部位のテーブルである目テーブルと眉テーブルと口テーブルには、例えば特徴として各部位の輪郭の頂点の位置や角度などが設定され、軌跡として各部位の輪郭を縁取る点の集まりなどを設定することを想定する。例えば目テーブルには、特徴として目の輪郭の頂点の位置や角度などが設定され、軌跡として目の輪郭を縁取る点の集まりなどを想定する。   With respect to the expression table, the eye table, the eyebrow table, and the mouth table, which are tables of each part, are associated with each other by an expression ID (eye), an expression ID (eyebrow), and an expression ID (mouth). In the eye table, eyebrow table, and mouth table, which are tables of each part, for example, the position and angle of the vertex of the outline of each part are set as features, and a collection of points that border the outline of each part is set as a trajectory Assuming that For example, in the eye table, the positions and angles of the vertices of the eye outline are set as features, and a collection of points that border the eye outline is assumed as a trajectory.

表情DB69を参照する場合は部位抽出部64が抽出した静止画上の顔の部位の特徴及び軌跡をキーとして各部位のテーブルの特徴及び軌跡と比較し、特徴及び軌跡が似ている各部位テーブルの表情IDを取得する。例えば目の特徴及び軌跡をキーとして目テーブルの特徴及び軌跡と比較した場合は特徴及び軌跡が似ている目テーブルの表情ID(目)を取得する。   When referring to the facial expression DB 69, each feature table having similar features and trajectories is compared with the features and trajectories of each part table using the facial features and trajectories on the still image extracted by the part extracting unit 64 as keys. The facial expression ID is acquired. For example, when the eye feature and trajectory are used as a key and compared with the feature and trajectory of the eye table, the facial expression ID (eye) of the eye table similar to the feature and trajectory is acquired.

取得した表情IDをキーとして表情テーブルの表情IDを検索することで、表情認識部65はユーザの表情を認識できる。例えば表情ID(目)をキーとして表情テーブルの表情ID(目)を検索することで、表情認識部65はユーザの目の表情を認識できる。   The facial expression recognition unit 65 can recognize the facial expression of the user by searching the facial expression ID in the facial expression table using the acquired facial expression ID as a key. For example, the facial expression recognition unit 65 can recognize the facial expression of the user's eyes by searching the facial expression ID (eyes) in the facial expression table using the facial expression ID (eyes) as a key.

また、図7は指標DBの一例の構成図である。図7の指標DB70は指標テーブルを有する。指標DB70は、各部位ごとに指標テーブルを有する。各部位ごとの指標テーブルは表情と指標(値)とが対応付けられて設定されている。つまり、指標DB70は、それぞれの表情に対しての指標を各部位ごとに対応付けて設定している。   FIG. 7 is a configuration diagram of an example of the index DB. The index DB 70 in FIG. 7 has an index table. The index DB 70 has an index table for each part. The index table for each part is set in association with facial expressions and indices (values). That is, the index DB 70 sets an index for each facial expression in association with each part.

指標DB70を参照する場合は表情認識部65が認識した静止画上の顔の各部位の表情をキーとして各部位の指標テーブルの表情と比較し、各部位の指標テーブルから一致する表情と対応付けられた指標を取得する。   When referring to the index DB 70, the facial expression of each part of the face on the still image recognized by the facial expression recognition unit 65 is compared with the facial expression in the index table of each part, and matched with the matching facial expression from the index table of each part. Get the index.

また、図8は履歴DBの一例の構成図である。図8の履歴DB71は日付とユーザIDと指標(値)とが対応付けられて保存されている。つまり、履歴DB71はユーザIDと対応付けて日付ごとのユーザの指標を設定している。また、履歴DB71はユーザIDによりユーザ情報と対応付けられている。なお、図8のユーザ情報はユーザID、ユーザ名など、ユーザに関する情報が含まれる。ユーザ情報を利用することで、ユーザ名はユーザIDに変換することができる。履歴DB71を参照する場合はユーザIDをキーとして履歴DB71からユーザの指標を取得する。   FIG. 8 is a configuration diagram of an example of the history DB. The history DB 71 in FIG. 8 stores a date, a user ID, and an index (value) in association with each other. That is, the history DB 71 sets a user index for each date in association with the user ID. The history DB 71 is associated with user information by a user ID. Note that the user information in FIG. 8 includes information about the user such as a user ID and a user name. By using the user information, the user name can be converted into a user ID. When referring to the history DB 71, the user index is acquired from the history DB 71 using the user ID as a key.

また、図9はアイコンDBの一例の構成図である。図9のアイコンDB72はアイコンIDと指標の範囲と画像とが対応付けられて保存されている。つまり、アイコンDB72は指標の範囲と対応付けてアイコンIDと画像とを設定している。アイコンDB72を参照する場合はユーザの指標をキーとしてアイコンDB72からアイコンID及び画像を取得する。言い換えればユーザの指標がアイコンDB72の指標の範囲の何処に含まれるかによってアイコンDB72からは異なるアイコンID及び画像が取得される。   FIG. 9 is a configuration diagram of an example of an icon DB. The icon DB 72 of FIG. 9 stores icon IDs, index ranges, and images in association with each other. That is, the icon DB 72 sets an icon ID and an image in association with the index range. When referring to the icon DB 72, an icon ID and an image are acquired from the icon DB 72 using a user index as a key. In other words, different icon IDs and images are acquired from the icon DB 72 depending on where the index of the user is included in the range of the index of the icon DB 72.

図10はアイコンDBの一例のイメージ図である。図10のアイコンDB72は3種類のアイコンが保存されている例である。ユーザの指標がA1〜A2の場合、図10のアイコンDB72ではアイコンID「iconA」の画像が取得される。また、ユーザの指標がB1〜B2の場合、図10のアイコンDB72ではアイコンID「iconB」の画像が取得される。さらに、ユーザの指標がC1〜C2の場合、図10のアイコンDB72ではアイコンID「iconC」の画像が取得される。   FIG. 10 is an image diagram of an example of the icon DB. The icon DB 72 in FIG. 10 is an example in which three types of icons are stored. When the user index is A1 to A2, the icon DB 72 of FIG. 10 acquires an image with the icon ID “iconA”. When the user index is B1 to B2, the icon DB 72 of FIG. 10 acquires an image with the icon ID “iconB”. Further, when the user index is C1 to C2, the icon DB 72 in FIG. 10 acquires an image with the icon ID “iconC”.

図10において、アイコンID「iconA」の画像は、笑った顔の一例のイメージである。アイコンID「iconB」の画像は、普通の顔の一例のイメージである。アイコンID「iconC」の画像は怒った顔の一例のイメージである。   In FIG. 10, the image with the icon ID “iconA” is an example of a smiled face. The image with the icon ID “iconB” is an example of an ordinary face. The image of the icon ID “iconC” is an example of an angry face.

図11はモチベーション可視化システムに含まれるサーバ装置の処理手順の一例を示すフローチャートである。なお、図11のフローチャートが開始されるタイミングは端末装置11を起動したとき、端末装置11でモチベーション可視化システムに関するプログラムを起動したとき、端末装置11で更新ボタンなどが押されたとき、所定時間間隔などが考えられる。   FIG. 11 is a flowchart illustrating an example of a processing procedure of the server device included in the motivation visualization system. 11 is started at a predetermined time interval when the terminal device 11 is activated, when a program related to the motivation visualization system is activated on the terminal device 11, or when an update button or the like is pressed on the terminal device 11. And so on.

ステップS1において、サーバ装置10の受信部61は端末装置11からユーザの顔の動画を受信する。ステップS2において、静止画化部62は受信部61が受信した動画を複数枚の静止画にする。ステップS2の処理では例えばOpenCV(Open Computer Vision Library)を使用することで動画から複数枚の静止画を作成可能である。   In step S <b> 1, the receiving unit 61 of the server device 10 receives a moving image of the user's face from the terminal device 11. In step S2, the still image converting unit 62 converts the moving image received by the receiving unit 61 into a plurality of still images. In the process of step S2, a plurality of still images can be created from a moving image by using, for example, OpenCV (Open Computer Vision Library).

OpenCVとは、画像認識に関連する機能のライブラリである。OpenCVはコンピュータビジョンと呼ばれる画像認識・解析に関するコンピューティング技術が主な用途として想定されている。OpenCVを用いることで、サーバ装置10ではコンピュータビジョンに関する高度な画像処理機能を利用できる。   OpenCV is a library of functions related to image recognition. OpenCV is assumed to be mainly used for computing technology related to image recognition and analysis called computer vision. By using OpenCV, the server device 10 can use advanced image processing functions related to computer vision.

なお、ステップS2において、静止画化部62は動画をN秒、サンプリング間隔をM秒とすると、N、Mの関係がN≧k×M(k>1)とする。ステップS3〜S6の処理はステップS2で作成した各静止画に対して行う。   Note that in step S2, the still image creating unit 62 assumes that the relationship between N and M is N ≧ k × M (k> 1) where the moving image is N seconds and the sampling interval is M seconds. The processes in steps S3 to S6 are performed for each still image created in step S2.

ステップS3において、顔抽出部63は静止画化部62が静止画化した静止画から顔の輪郭を抽出する。ステップS3の処理においてもOpenCVを使用することで静止画から顔の輪郭を抽出可能である。   In step S <b> 3, the face extraction unit 63 extracts a face outline from the still image that the still image converting unit 62 has converted into a still image. Even in the process of step S3, the face contour can be extracted from the still image by using OpenCV.

ステップS4において、部位抽出部64は顔抽出部63が抽出した静止画上の顔の輪郭から各部位として目、眉、口の輪郭を抽出する。例えば部位抽出部64は顔の輪郭の下半分から口の輪郭を抽出し、顔の輪郭の上半分から目、眉の輪郭を抽出する。ステップS4の処理においてもOpenCVを使用することで顔の輪郭から目、眉、口の輪郭を抽出可能である。   In step S <b> 4, the part extracting unit 64 extracts the outlines of eyes, eyebrows, and mouths as respective parts from the face outlines on the still image extracted by the face extracting unit 63. For example, the part extraction unit 64 extracts the outline of the mouth from the lower half of the face outline, and extracts the outlines of the eyes and eyebrows from the upper half of the face outline. Even in the process of step S4, the contours of eyes, eyebrows, and mouth can be extracted from the contours of the face by using OpenCV.

ステップS5において、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭を用いて、表情DB69の目テーブル、眉テーブル、口テーブルの特徴、軌跡とのパターンマッチングを行い、表情を認識する。なお、パターンマッチングでは各部位の特徴、軌跡の他、各部位との距離を用いてもよい。ステップS5の処理の詳細は後述する。   In step S5, the facial expression recognition unit 65 uses the eyes, eyebrows, and mouth contours of the user's face on the still image extracted by the part extraction unit 64 to use the eye table, eyebrow table, mouth table features and locus of the facial expression DB 69. And pattern matching to recognize facial expressions. In pattern matching, in addition to the features and trajectories of each part, the distance to each part may be used. Details of the processing in step S5 will be described later.

ステップS6において、指標化部66は表情認識部65が行った表情の認識結果を用いて1枚の静止画上のユーザの顔の目、眉、口の表情を指標化し、1枚の静止画上のユーザの顔の目、眉、口の表情の指標を平均して、1枚の静止画上のユーザの顔の指標として算出する。なお、指標化部66はユーザの顔の目、眉、口の表情の指標化に指標DB70を用いる。指標に関しては例えば表情が「喜」であった場合X、表情が「怒」であった場合Yとしたとき、X>Yとする。   In step S <b> 6, the indexing unit 66 uses the facial expression recognition result performed by the facial expression recognition unit 65 to index the facial expression of the user's face, eyebrows, and mouth on a single still image. The index of facial expression of the upper user's face, eyebrows, and mouth is averaged and calculated as the index of the user's face on one still image. The indexing unit 66 uses the index DB 70 for indexing the facial expressions of the user's face, eyebrows, and mouth. Regarding the index, for example, X> Y when the facial expression is “joy”, and X is Y when the facial expression is “anger”.

ステップS3〜S6の処理をステップS2で作成した各静止画に対して行った後、指標化部66はステップS7において、ステップS3〜S6で算出した各静止画のユーザの顔の指標から、全静止画のユーザの顔の指標の平均を算出する。ステップS8において、指標化部66はステップS7で算出した全静止画のユーザの顔の指標の平均を日付、ユーザIDと共に履歴DB71へ保存する。   After performing the processing of Steps S3 to S6 for each still image created in Step S2, the indexing unit 66 calculates all the still image user face indices calculated in Steps S3 to S6 from Step S7. The average of the face index of the user of the still image is calculated. In step S8, the indexing unit 66 stores the average of the user's face indices of all still images calculated in step S7 in the history DB 71 together with the date and user ID.

ステップS9において、アイコン決定部67はアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。ステップS10において、送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を端末装置11に送信する。   In step S <b> 9, the icon determination unit 67 refers to the icon DB 72 and determines an icon corresponding to the average of the indexes calculated by the indexing unit 66. In step S <b> 10, the transmission unit 68 transmits an icon update request for an icon representing the user's motivation determined by the icon determination unit 67 to the terminal device 11.

この後、端末装置11の受信部54は、サーバ装置10からアイコン更新要求を受け付ける。端末装置11のUI処理部53はユーザのモチベーションを表すアイコンをアイコン更新要求に基づき、UIに表示又は更新できる。   Thereafter, the receiving unit 54 of the terminal device 11 receives an icon update request from the server device 10. The UI processing unit 53 of the terminal device 11 can display or update an icon representing the user's motivation on the UI based on the icon update request.

図12はステップS5の処理の一例のフローチャートである。ステップS21〜S23の処理は、部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭それぞれについて行われる。   FIG. 12 is a flowchart of an example of the process in step S5. The processing in steps S21 to S23 is performed for each of the eyes, eyebrows, and mouth contours of the user's face on the still image extracted by the part extraction unit 64.

ステップS21において、表情認識部65は3つの手法の形状マッチングを後述のように行う。ステップS22に進み表情認識部65はステップS21の形状マッチングの結果を合計する。ステップS23において、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の部位(目など)の特徴及び軌跡と、極めて近い特徴及び軌跡が設定された部位のテーブル(目テーブルなど)が見つかったか判定する。   In step S21, the facial expression recognition unit 65 performs shape matching of the three methods as described later. Proceeding to step S22, the facial expression recognition unit 65 sums up the results of shape matching in step S21. In step S23, the facial expression recognizing unit 65 sets a table (eye table) in which features and trajectories of the user's face (such as eyes) on the still image extracted by the region extracting unit 64 and features and trajectories that are very close are set. Etc.) is found.

極めて近い特徴及び軌跡が設定された部位のテーブルが見つかっていなければ、表情認識部65はステップS21に戻り、次の部位のテーブルについて処理を続ける。極めて近い特徴及び軌跡が設定された部位のテーブルが見つかると、表情認識部65は、その時点でステップS24の処理を行う。また、表情認識部65は全ての部位のテーブルについて形状マッチングが終了したときもステップS24の処理を行う。   If a table of a part for which a very close feature and locus is set is not found, the facial expression recognition unit 65 returns to step S21 and continues processing for the table of the next part. When a table of a part where a very close feature and locus are set is found, the facial expression recognition unit 65 performs the process of step S24 at that time. The facial expression recognition unit 65 also performs the process of step S24 when shape matching has been completed for all the parts of the table.

ステップS24において、表情認識部65は最も近い特徴及び軌跡が設定された部位のテーブルに設定された表情IDを取得し、取得した表情IDをキーとして表情テーブルの表情IDを検索することで、ユーザの顔の部位の表情を認識する。   In step S24, the facial expression recognition unit 65 acquires the facial expression ID set in the table of the part where the closest feature and locus are set, and searches the facial expression ID in the facial expression table using the acquired facial expression ID as a key, thereby Recognize facial expressions on the face.

ここではステップS21の形状マッチングについて更に説明する。形状マッチングとは2つの入力画像に対して形状比較を行うものである。ステップS21の形状マッチングでは後述のOpenCVのサンプルコードのように、3種類の手法により形状マッチングを行うものとする。   Here, the shape matching in step S21 will be further described. Shape matching is to perform shape comparison on two input images. In the shape matching in step S21, it is assumed that the shape matching is performed by three kinds of methods as in the later-described OpenCV sample code.

opencv.jp - OpenCV: マッチング(Matching)サンプルコード - (「形状のマッチング」参照): http://opencv.jp/sample/matching.html
前述のOpenCVのサンプルコードの大まかな流れは、以下の通りである。
(1)入力画像と比較画像を読み込む。
(2)3種類の手法により形状比較を行う。
(3)形状比較の結果を画像に出力する。
(4)次の比較画像を読み込み、(2)に戻る。
opencv.jp-OpenCV: Matching sample code-(see "Matching shapes"): http://opencv.jp/sample/matching.html
The general flow of the above-described OpenCV sample code is as follows.
(1) Read an input image and a comparison image.
(2) Shape comparison is performed by three methods.
(3) Output the result of the shape comparison to an image.
(4) Read the next comparison image and return to (2).

ここで、前述のサンプルコードの流れ(2)で使用しているcvMatchShapesという関数は、2つの画像の形状がより似ている場合には「0」に近い数値を返す関数である。前述したcvMatchShapes関数が利用する形状比較の手法は、以下のリンク先に説明されている。   Here, the function called cvMatchShapes used in the above-described sample code flow (2) is a function that returns a numerical value close to “0” when the shapes of two images are more similar. The shape comparison technique used by the cvMatchShapes function described above is described in the following link.

構造解析と形状ディスクリプタ - opencv v2.1 documentation (「cvMatchShapes」参照)
http://opencv.jp/opencv-2.1/c/structural_analysis_and_shape_descriptors.html#cv-matchshapes
本実施の形態では、静止画から抽出したユーザの顔の部位(入力画像)と、表情DB69の部位のテーブルに設定された特徴、軌跡などのパターン(比較画像)との形状マッチングを(cvMatchShapes関数の3種類の形状比較)を行う。そして、本実施の形態では各形状比較の結果を平均した数値が、より0に近しいパターンが設定された部位のテーブルと関連付けられた表情を、ユーザの顔の部位の表情としている。
Structural analysis and shape descriptors-opencv v2.1 documentation (see cvMatchShapes)
http://opencv.jp/opencv-2.1/c/structural_analysis_and_shape_descriptors.html#cv-matchshapes
In the present embodiment, shape matching between a user's face part (input image) extracted from a still image and a pattern (comparison image) such as a feature or locus set in the part table of the facial expression DB 69 is performed (cvMatchShapes function). 3 types of shape comparison). In the present embodiment, the facial expression associated with the table of the part where the pattern that is closer to 0 is obtained by averaging the results of the shape comparisons is used as the facial expression of the user's face.

図13はステップS5の処理の一例のイメージ図である。表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭を用いて表情を判別する場合には図13に示すような目テーブル、眉テーブル、口テーブルの特徴、軌跡とのパターンとのパターンマッチングを行う。   FIG. 13 is an image diagram of an example of the process of step S5. When the facial expression recognition unit 65 determines facial expressions using the contours of the user's face eyes, eyebrows, and mouth on the still image extracted by the region extraction unit 64, the eye table, eyebrow table, mouth as shown in FIG. Performs pattern matching with table features and trajectory patterns.

例えば図13は静止画上のユーザの顔の目の表情を判別する例を示している。表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目の輪郭であるユーザの目のパターンと、表情DB69の目テーブルに設定されている目の特徴や軌跡などのパターンとのパターンマッチングを行う。そして、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目のパターンに、より近い目テーブルに設定された目のパターンから目の表情を判別する。図13の例では目の表情として「楽」を判別している。   For example, FIG. 13 shows an example of determining the facial expression of the user's face on a still image. The facial expression recognition unit 65 is a user's eye pattern that is the contour of the user's face on the still image extracted by the part extraction unit 64, and patterns such as eye features and trajectories set in the eye table of the facial expression DB 69. And pattern matching. Then, the facial expression recognition unit 65 determines the facial expression of the eyes from the eye pattern set in the eye table closer to the eye pattern of the user's face on the still image extracted by the part extraction unit 64. In the example of FIG. 13, “Easy” is determined as the facial expression of the eyes.

図14は端末装置に表示されるUIの一例のイメージ図である。図14のUIはユーザのモチベーションを表すアイコンを、ユーザ毎に各日付に対して表示している。例えばマウスカーソルをアイコンに重ねると、UI表示部53はユーザが入力したコメント等の補足的な情報を表示できるようにしてもよい。ユーザが入力したコメント等の補足的な情報を表示できるようにすると、UIはユーザ同士のモチベーションの共有を、より促進することが期待できる。   FIG. 14 is an image diagram of an example of a UI displayed on the terminal device. The UI in FIG. 14 displays an icon representing user motivation for each date for each user. For example, when the mouse cursor is overlaid on the icon, the UI display unit 53 may display supplementary information such as a comment input by the user. If supplementary information such as comments input by the user can be displayed, the UI can be expected to further promote the sharing of motivation among users.

図15は端末装置に表示されるUIの他の例のイメージ図である。図15のUIは補助的な画面として、現在のユーザのモチベーションを表すアイコンを表示する。図15のUIは現在のユーザのモチベーションを確認したいようなケースが想定される場合にユーザの利便性の向上が期待できる。   FIG. 15 is an image diagram of another example of a UI displayed on the terminal device. The UI of FIG. 15 displays an icon representing the current user's motivation as an auxiliary screen. The UI of FIG. 15 can be expected to improve the convenience of the user when it is assumed that the current user's motivation is to be confirmed.

なお、図5のシステム1は一例であって、サーバ装置10が有する機能の少なくとも一部を端末装置11側に設ける構成も可能である。例えばシステム1は図5のサーバ装置10の機能のうちの履歴DB71をサーバ装置10が有し、図5の機能のうちの履歴DB71以外を端末装置11が有する構成とすることもできる。   Note that the system 1 in FIG. 5 is an example, and a configuration in which at least a part of the functions of the server device 10 is provided on the terminal device 11 side is also possible. For example, the system 1 may have a configuration in which the server apparatus 10 has the history DB 71 of the functions of the server apparatus 10 in FIG. 5 and the terminal apparatus 11 has functions other than the history DB 71 in the functions of FIG.

図5のサーバ装置10の機能のうちの履歴DB71をサーバ装置10が有し、図5の機能のうちの履歴DB71以外を端末装置11が有するシステム1では、サーバ装置10が端末装置11から受信したユーザの指標の履歴を保存し、サーバ装置10が端末装置11からの要求に基づき、ユーザの指標の履歴を提供する。   In the system 1 in which the server apparatus 10 has the history DB 71 among the functions of the server apparatus 10 in FIG. 5 and the terminal apparatus 11 has functions other than the history DB 71 in the functions in FIG. 5, the server apparatus 10 receives from the terminal apparatus 11. The server device 10 provides a history of the user index based on a request from the terminal device 11.

以上、本実施の形態のシステム1によれば、端末装置11でユーザの顔を撮影し、撮影したユーザの顔の表情の認識結果に基づき、ユーザの表情を指標化することで、ユーザのモチベーションを表すアイコンをUIに表示できる。このように、本実施の形態のシステム1では、従来、手動で行っていたアイコンの更新を自動化できる。   As described above, according to the system 1 of the present embodiment, the user's motivation is obtained by photographing the user's face with the terminal device 11 and indexing the user's facial expression based on the recognition result of the photographed facial expression of the user. Can be displayed on the UI. As described above, in the system 1 according to the present embodiment, it is possible to automate the icon update that has been performed manually.

また、本実施の形態のシステム1によれば、従来、ユーザが自己判断により決めていたユーザのモチベーションを表すアイコンを、撮影したユーザの顔の表情に基づいて自動的に決めるため、ユーザが更新を面倒に思い、いつも同じ気分で更新してしまったり、気分が沈んでいるときであっても、周囲に遠慮をして、気分が沈んでいることを表すアイコンに更新しなかったりするという問題を解決できる。つまり、本実施の形態のシステム1によれば、より正確なユーザのモチベーションを表すアイコンに更新できる。   Also, according to the system 1 of the present embodiment, the user automatically updates the icon representing the user's motivation that has been determined by the user's self-judgment based on the facial expression of the photographed user's face. The problem is that you always update with the same mood, even if you are feeling depressed, withholding the surroundings and not updating the icon to indicate that you are feeling depressed Can be solved. That is, according to the system 1 of the present embodiment, it can be updated to an icon representing more accurate user motivation.

図2のモチベーション可視化システム2に含まれる端末装置11は例えば図16のように構成される。図16は端末装置の他の一例の機能ブロック図である。図16の端末装置11は、撮影部51、UI処理部53、受信部61、静止画化部62、顔抽出部63、部位抽出部64、表情認識部65、指標化部66、アイコン決定部67、送信部68、表情DB69、指標DB70、履歴DB71及びアイコンDB72を有する。   The terminal device 11 included in the motivation visualization system 2 of FIG. 2 is configured as shown in FIG. 16, for example. FIG. 16 is a functional block diagram of another example of the terminal device. The terminal device 11 of FIG. 16 includes an imaging unit 51, a UI processing unit 53, a receiving unit 61, a still image converting unit 62, a face extracting unit 63, a part extracting unit 64, a facial expression recognizing unit 65, an indexing unit 66, and an icon determining unit. 67, a transmission unit 68, an expression DB 69, an index DB 70, a history DB 71, and an icon DB 72.

図16の端末装置11は図5のサーバ装置10及び端末装置11の機能ブロックを合わせた構成となっている。なお、図16の端末装置11の機能ブロックは、一部を除いて図5のサーバ装置10及び端末装置11の機能ブロックと同様な処理を行うため、説明を適宜省略する。   The terminal device 11 in FIG. 16 has a configuration in which the functional blocks of the server device 10 and the terminal device 11 in FIG. 5 are combined. The functional blocks of the terminal device 11 in FIG. 16 perform the same processing as the functional blocks of the server device 10 and the terminal device 11 in FIG.

端末装置11の撮影部51はユーザの顔を撮影する。UI処理部53は出力装置32にUIを表示する。受信部54は、他の端末装置11から前述のアイコン更新要求を受け付ける。UI処理部53はユーザのモチベーションを表すアイコンを表示又は更新する。   The photographing unit 51 of the terminal device 11 photographs the user's face. The UI processing unit 53 displays the UI on the output device 32. The receiving unit 54 receives the icon update request described above from another terminal device 11. The UI processing unit 53 displays or updates an icon representing the user's motivation.

静止画化部62は撮影部51が撮影した動画を静止画化する。顔抽出部63は静止画化部62が静止画化した静止画から顔を抽出する。部位抽出部64は顔抽出部63が抽出した静止画上の顔から各部位を抽出する。   The still image converting unit 62 converts the moving image captured by the image capturing unit 51 into a still image. The face extraction unit 63 extracts a face from the still image that the still image converting unit 62 converts to a still image. The part extracting unit 64 extracts each part from the face on the still image extracted by the face extracting unit 63.

表情認識部65は表情DB69を参照し、部位抽出部64が抽出した静止画上の顔の部位の形状(輪郭など)から各部位の表情を認識する。指標化部66は指標DB70を参照し、表情認識部65が認識した各部位の表情を指標化し、指標の平均を算出する。指標化部66は前述の履歴DB71に算出した指標の平均を保存する。   The facial expression recognition unit 65 refers to the facial expression DB 69 and recognizes the facial expression of each part from the shape (contour etc.) of the facial part on the still image extracted by the part extraction unit 64. The indexing unit 66 refers to the index DB 70, indexes the facial expressions of each part recognized by the facial expression recognition unit 65, and calculates the average of the indexes. The indexing unit 66 stores the average of the calculated indices in the history DB 71 described above.

アイコン決定部67はアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。アイコン決定部67が決定したアイコンはUI処理部53によりUIに表示される。また、送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を他の端末装置11に送信する。   The icon determination unit 67 refers to the icon DB 72 and determines an icon corresponding to the average of the indexes calculated by the indexing unit 66. The icon determined by the icon determination unit 67 is displayed on the UI by the UI processing unit 53. In addition, the transmission unit 68 transmits an icon update request for an icon representing the user's motivation determined by the icon determination unit 67 to the other terminal device 11.

なお、履歴DB71に保存したユーザの指標の履歴は、他の端末装置11から参照要求があると、他の端末装置11に送信される。そして、他の端末装置11のUI処理部53は受信したユーザの指標の履歴を表示する。また、履歴DB71に保存したユーザの指標の履歴は、UI処理部53から参照要求があると、UIに表示される。ユーザは例えばUIに表示されたユーザの指標の履歴を参照できる。   Note that the user index history stored in the history DB 71 is transmitted to another terminal device 11 when a reference request is received from another terminal device 11. Then, the UI processing unit 53 of the other terminal device 11 displays the received user index history. Further, the history of the user index stored in the history DB 71 is displayed on the UI when a reference request is received from the UI processing unit 53. For example, the user can refer to the history of the index of the user displayed on the UI.

本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.

なお、特許請求の範囲に記載した装置は装置端末11に相当する。サーバ装置はサーバ装置10に相当する。ネットワークシステムはモチベーション可視化システム1に相当する。取得手段は撮影部51、UI処理部53に相当する。顔領域抽出手段は顔抽出部63に相当する。識別手段は部位抽出部64、表情認識部65、指標化部66に相当する。記憶手段はアイコンDB72に相当する。特定手段はアイコン決定部67に相当する。表示手段はUI処理部53に相当する。部位抽出手段は部位抽出部64に相当する。表情記憶手段は表情DB69に相当する。認識手段は表情認識部65、指標化部66に相当する。第1の送信手段は送信部52に相当する。第1の受信手段は受信部61に相当する。第2の送信手段は送信部68に相当する。第2の受信手段は受信部54に相当する。送信手段は送信部52に相当する。受信手段は受信部54に相当する。   The device described in the claims corresponds to the device terminal 11. The server device corresponds to the server device 10. The network system corresponds to the motivation visualization system 1. The acquisition unit corresponds to the photographing unit 51 and the UI processing unit 53. The face area extracting means corresponds to the face extracting unit 63. The identification means corresponds to the part extraction unit 64, facial expression recognition unit 65, and indexing unit 66. The storage means corresponds to the icon DB 72. The specifying means corresponds to the icon determining unit 67. The display means corresponds to the UI processing unit 53. The part extracting means corresponds to the part extracting unit 64. The facial expression storage means corresponds to the facial expression DB 69. The recognition means corresponds to the facial expression recognition unit 65 and the indexing unit 66. The first transmission means corresponds to the transmission unit 52. The first receiving unit corresponds to the receiving unit 61. The second transmission means corresponds to the transmission unit 68. The second receiving unit corresponds to the receiving unit 54. The transmission means corresponds to the transmission unit 52. The receiving means corresponds to the receiving unit 54.

1、2 モチベーション可視化システム
10 サーバ装置
11 端末装置
12 ネットワーク
21、31 入力装置
22、32 出力装置
23、33 記録媒体読取装置
24、34 補助記憶装置
25、35 主記憶装置
26、36 演算処理装置
27、37 インタフェース装置
28、39 バス
29、40 記録媒体
38 カメラ
51 撮影部
52 送信部
53 UI処理部
54、61 受信部
62 静止画化部
63 顔抽出部
64 部位抽出部
65 表情認識部
66 指標化部
67 アイコン決定部
68 送信部
69 表情DB
70 指標DB
71 履歴DB
72 アイコンDB
1, 2 Motivation visualization system 10 Server device 11 Terminal device 12 Network 21, 31 Input device 22, 32 Output device 23, 33 Recording medium reader 24, 34 Auxiliary storage device 25, 35 Main storage device 26, 36 Arithmetic processing device 27 37 Interface device 28, 39 Bus 29, 40 Recording medium 38 Camera 51 Imaging unit 52 Transmission unit 53 UI processing unit 54, 61 Reception unit 62 Still image forming unit 63 Face extraction unit 64 Site extraction unit 65 Expression recognition unit 66 Indexing Part 67 icon determination part 68 transmission part 69 facial expression DB
70 Indicator DB
71 History DB
72 Icon DB

特開2004−192297号公報JP 2004-192297 A

Claims (12)

第1の装置と第2の装置とが接続されたネットワークシステムであって、
複数の顔の表情毎に、該顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段と、
ユーザ情報と画像データとを前記第1の装置で取得する取得手段と、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
複数の顔の表情の中から前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
前記識別手段で識別した顔の表情に対応する表情識別情報と、前記取得手段で取得したユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段と、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段と
を有することを特徴とするネットワークシステム。
A network system in which a first device and a second device are connected,
First storage means for storing facial expression identification information indicating the facial expression and display information in association with each other for each facial expression;
Obtaining means for obtaining user information and image data in the first device;
Face area extraction means for extracting a face area included in the image data from the image data acquired by the acquisition means;
Identifying means for identifying facial expressions of the face area extracted by the face area extracting means from a plurality of facial expressions;
Second storage means for storing facial expression identification information corresponding to the facial expression identified by the identification means, user information obtained by the obtaining means, and date information indicating a date in association with each other;
From among the first of the plurality of display information relevant to stored respectively for each facial expression in the storage unit, the display being stored in association with the expression identification information stored in said second storage means specifying means for specifying information respectively,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information And a display unit that displays the data in a time series based on the date information stored in the second storage unit in association with the network.
前記識別手段は、
前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
を有することを特徴とする請求項1記載のネットワークシステム。
The identification means includes
Part extraction means for extracting the shape of the part from the face of the face area extracted by the face area extraction means;
Facial expression storage means for storing the shape of the part and information indicating the facial expression in association with each other;
Recognizing means for recognizing information indicating the facial expression stored in association with the shape of the part extracted by the part extracting means from information indicating the facial expression stored in the facial expression storage means The network system according to claim 1, further comprising:
前記認識手段は、前記部位の形状としての目、眉、口の少なくとも一つの輪郭と前記顔の表情を示す情報としての前記目、眉、口の少なくとも一つの表情を示す情報とを関連付けて記憶する表情記憶手段を用いて、前記部位抽出手段で抽出した前記目、眉、口の少なくとも一つの輪郭と関連付けられて記憶されている前記目、眉、口の少なくとも一つの表情を示す情報から前記顔の表情を示す情報を認識する
ことを特徴とする請求項2記載のネットワークシステム。
The recognizing means stores at least one outline of eyes, eyebrows, and mouth as the shape of the part and information indicating at least one expression of the eyes, eyebrows, and mouth as information indicating facial expressions. The information indicating at least one facial expression of the eyes, eyebrows, and mouth stored in association with at least one contour of the eyes, eyebrows, and mouth extracted by the part extracting means using the facial expression storage means The network system according to claim 2, wherein information indicating facial expressions is recognized.
前記ネットワークシステムはサーバ装置を更に有し、The network system further includes a server device,
前記第1の装置及び前記第2の装置は、前記サーバ装置を介して通信を行うこと  The first device and the second device communicate via the server device.
を特徴とする請求項1乃至3何れか一項記載のネットワークシステム。The network system according to any one of claims 1 to 3, wherein:
第1の装置と第2の装置とが接続されたネットワークシステムであって、
前記第1の装置は、
ユーザ情報と画像データとを取得する取得手段と、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置に送信する送信手段と
を有し、
前記第2の装置は、
複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段と、
前記第1の装置から送信された顔の表情に対応する表情識別情報及びユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段と、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報に関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段と
を有することを特徴とするネットワークシステム。
A network system in which a first device and a second device are connected,
The first device includes:
Acquisition means for acquiring user information and image data;
Face area extraction means for extracting a face area included in the image data from the image data acquired by the acquisition means;
An identification means for identifying facial expressions of the face area extracted by the face area extraction means from a plurality of facial expressions;
Transmission means for transmitting information indicating the facial expression identified by the identification means and user information acquired by the acquisition means to the second device;
The second device includes:
For each expression of the multiple faces, a first storage means for storing in association with expression identification information and the display information indicating a facial expression of the face,
Second storage means for storing facial expression identification information and user information corresponding to facial expressions transmitted from the first device in association with date information indicating a date;
The display stored in association with the facial expression identification information stored in the second storage means from among the display information stored in association with each of the plurality of facial expressions in the first storage means A specific means of identifying information,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information And a display means for displaying the images in time series based on the date information stored in the second storage means in association with the network.
前記識別手段は、
前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
を有することを特徴とする請求項記載のネットワークシステム。
The identification means includes
Part extraction means for extracting the shape of the part from the face of the face area extracted by the face area extraction means;
Facial expression storage means for storing the shape of the part and information indicating the facial expression in association with each other;
Recognizing means for recognizing information indicating the facial expression stored in association with the shape of the part extracted by the part extracting means from information indicating the facial expression stored in the facial expression storage means The network system according to claim 5, further comprising:
前記認識手段は、前記部位の形状としての目、眉、口の少なくとも一つの輪郭と前記顔の表情を示す情報としての前記目、眉、口の少なくとも一つの表情を示す情報とを関連付けて記憶する表情記憶手段を用いて、前記部位抽出手段で抽出した前記目、眉、口の少なくとも一つの輪郭と関連付けられて記憶されている前記目、眉、口の少なくとも一つの表情を示す情報から前記顔の表情を示す情報を認識する
ことを特徴とする請求項記載のネットワークシステム。
The recognizing means stores at least one outline of eyes, eyebrows, and mouth as the shape of the part and information indicating at least one expression of the eyes, eyebrows, and mouth as information indicating facial expressions. The information indicating at least one facial expression of the eyes, eyebrows, and mouth stored in association with at least one contour of the eyes, eyebrows, and mouth extracted by the part extracting means using the facial expression storage means The network system according to claim 6, wherein information indicating facial expressions is recognized.
前記表示情報はアイコンであることThe display information is an icon
を特徴とする請求項1乃至7何れか一項記載のネットワークシステム。The network system according to claim 1, wherein:
ユーザ情報と画像データとを取得する第1の装置と、該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置とのいずれの機能も備えた情報処理装置であって、
前記第1の装置として機能するときには、
ユーザ情報と画像データとを取得する取得手段と、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置として機能する他の情報処理装置に送信する送信手段と
を有し、
前記第2の装置として機能するときには、
複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段と、
前記第1の装置として機能する他の情報処理装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段と、
前記識別手段で識別した顔の表情に対応する表情識別情報と、前記取得手段で取得したユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段と、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段と
を有することを特徴とする情報処理装置。
A first device that acquires user information and image data, and display information that indicates facial expressions of a facial area included in the image data acquired by the first device and the user information are associated with each other on the display unit. An information processing apparatus having any function with the second apparatus to be displayed,
When functioning as the first device,
Acquisition means for acquiring user information and image data;
Face area extraction means for extracting a face area included in the image data from the image data acquired by the acquisition means;
An identification means for identifying facial expressions of the face area extracted by the face area extraction means from a plurality of facial expressions;
Transmitting means for transmitting the information indicating the facial expression identified by the identifying means and the user information acquired by the acquiring means to another information processing device functioning as the second device;
When functioning as the second device,
For each expression of the multiple faces, a first storage means for storing in association with expression identification information and the display information indicating a facial expression of the face,
Receiving means for receiving facial information and user information transmitted from another information processing apparatus functioning as the first apparatus;
Second storage means for storing facial expression identification information corresponding to the facial expression identified by the identification means, user information obtained by the obtaining means, and date information indicating a date in association with each other;
From among the first of the plurality of display information relevant to stored respectively for each facial expression in the storage unit, the display being stored in association with the expression identification information stored in said second storage means and identifying means for identifying the information, respectively,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information An information processing apparatus comprising: a display unit configured to display the data in time series based on date information stored in the second storage unit in association with
前記表示情報はアイコンであることThe display information is an icon
を特徴とする請求項9記載の情報処理装置。The information processing apparatus according to claim 9.
情報処理装置を、ユーザ情報と画像データとを取得する第1の装置及び該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置のいずれの装置としても機能させるプログラムであって、
前記プログラムは、前記情報処理装置を
ユーザ情報と画像データとを取得する取得手段、
前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段、
複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段、
前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置として機能する他の情報処理装置に送信する送信手段
を備えた前記第1の装置として機能させ、
さらに前記プログラムは、前記情報処理装置を、
複数の顔の表情毎に、該顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する第1の記憶手段、
前記第1の装置として機能する他の情報処理装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段、
前記識別手段で識別した顔の表情に対応する表情識別情報と、前記取得手段で取得したユーザ情報と、日付を示す日付情報とを関連付けて記憶する第2の記憶手段、
前記第1の記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表示情報の中から、前記第2の記憶手段で記憶されている表情識別情報関連付けて記憶されている表示情報をそれぞれ特定する特定手段、
前記特定手段により特定された表示情報と前記取得手段で取得したユーザ情報とを前記第2の装置の表示部に対応付けて表示させる表示手段であって、該表示情報それぞれを、該表示情報それぞれに関連付けて前記第2の記憶手段に記憶されている日付情報に基づいて時系列に並べて表示させる表示手段
を備えた前記第2の装置として機能させるプログラム。
An information processing apparatus that associates display information indicating facial expressions of a face area included in image data acquired by the first apparatus that acquires user information and image data and the user information with the user information A program that functions as any of the second devices displayed on the display unit,
The program includes an acquisition unit that acquires user information and image data from the information processing apparatus,
A face area extracting means for extracting a face area included in the image data from the image data acquired by the acquiring means;
Identifying means for identifying facial expressions of the facial area extracted by the facial area extracting means from a plurality of facial expressions;
1st apparatus provided with the transmission means which transmits the information which shows the facial expression identified by the said identification means, and the user information acquired by the said acquisition means to the other information processing apparatus which functions as said 2nd apparatus Function as
Further, the program causes the information processing apparatus to
First storage means for storing, in association with each other, facial expression identification information indicating the facial expression and display information for each facial expression;
Receiving means for receiving information indicating facial expressions and user information transmitted from another information processing device functioning as the first device;
Second storage means for storing the facial expression identification information corresponding to the facial expression identified by the identification means, the user information acquired by the acquisition means, and date information indicating the date in association with each other;
From among the first storage means in the plurality of display information relevant to stored respectively for each facial expression, from the displayed information stored in the second storage means, said second storage specifying means for specifying respective display information stored in association with the expression identification information stored in means,
Display means for displaying the display information specified by the specifying means and the user information acquired by the acquisition means in association with the display unit of the second device, wherein each of the display information A program that functions as the second device including display means that displays the data in time series based on the date information stored in the second storage means in association with the second storage means .
前記表示情報はアイコンであることThe display information is an icon
を特徴とする請求項11記載のプログラム。The program according to claim 11.
JP2012024372A 2012-02-07 2012-02-07 Network system, server device, information processing device, and program Active JP5720595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012024372A JP5720595B2 (en) 2012-02-07 2012-02-07 Network system, server device, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012024372A JP5720595B2 (en) 2012-02-07 2012-02-07 Network system, server device, information processing device, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015062206A Division JP2015165407A (en) 2015-03-25 2015-03-25 network system

Publications (2)

Publication Number Publication Date
JP2013161364A JP2013161364A (en) 2013-08-19
JP5720595B2 true JP5720595B2 (en) 2015-05-20

Family

ID=49173538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012024372A Active JP5720595B2 (en) 2012-02-07 2012-02-07 Network system, server device, information processing device, and program

Country Status (1)

Country Link
JP (1) JP5720595B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3824848B2 (en) * 2000-07-24 2006-09-20 シャープ株式会社 Communication apparatus and communication method
JP2007213364A (en) * 2006-02-10 2007-08-23 Nec Corp Image converter, image conversion method, and image conversion program
JP5338350B2 (en) * 2009-02-06 2013-11-13 富士ゼロックス株式会社 Information processing apparatus and voice correction program

Also Published As

Publication number Publication date
JP2013161364A (en) 2013-08-19

Similar Documents

Publication Publication Date Title
JP4720167B2 (en) Electronic camera and program
JP4552632B2 (en) Portable device
CN103140862B (en) User interface system and operational approach thereof
WO2020156034A1 (en) Fingerprint input method and related device
CN110060262A (en) A kind of image partition method and device, electronic equipment and storage medium
US10803988B2 (en) Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
CN107220614B (en) Image recognition method, image recognition device and computer-readable storage medium
CN106462567A (en) Augmented data view
CN111401318B (en) Action recognition method and device
KR20110088273A (en) Mobile terminal and method for forming human network using mobile terminal
US20210201478A1 (en) Image processing methods, electronic devices, and storage media
AU2020309094B2 (en) Image processing method and apparatus, electronic device, and storage medium
JPWO2017154136A1 (en) Portable information terminal and information processing method used therefor
CN112529846A (en) Image processing method and device, electronic equipment and storage medium
JP5420056B2 (en) Image creation system, image creation application server, image creation method and program
TW201423660A (en) System and method for analyzing interpersonal relationships
JP5048736B2 (en) Image processing system, image processing method, and image processing program
CN113158918A (en) Video processing method and device, electronic equipment and storage medium
CN105426904A (en) Photo processing method, apparatus and device
JP2015165407A (en) network system
JP5720595B2 (en) Network system, server device, information processing device, and program
CN114205512A (en) Shooting method and device
CN109376581B (en) Object relation recognition method and device, storage medium and electronic device
JP6710440B1 (en) Makeup evaluation device, makeup evaluation system, and makeup evaluation method
US10783666B2 (en) Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140801

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140801

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150309

R151 Written notification of patent or utility model registration

Ref document number: 5720595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151