JP2015165407A - ネットワークシステム - Google Patents

ネットワークシステム Download PDF

Info

Publication number
JP2015165407A
JP2015165407A JP2015062206A JP2015062206A JP2015165407A JP 2015165407 A JP2015165407 A JP 2015165407A JP 2015062206 A JP2015062206 A JP 2015062206A JP 2015062206 A JP2015062206 A JP 2015062206A JP 2015165407 A JP2015165407 A JP 2015165407A
Authority
JP
Japan
Prior art keywords
facial expression
information
facial
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015062206A
Other languages
English (en)
Inventor
歩 小野
Ayumi Ono
歩 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015062206A priority Critical patent/JP2015165407A/ja
Publication of JP2015165407A publication Critical patent/JP2015165407A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、顔の表情に関する表示情報の更新を自動化できるネットワークシステム、サーバ装置、情報処理装置及びプログラムを提供することを課題とする。【解決手段】第1及び第2の装置11が接続されたネットワークシステム2であって、ユーザ情報と画像データとを第1の装置11で取得する取得手段と、取得した画像データに含まれる顔領域を抽出する抽出手段と、抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、表示情報の中から、識別手段で識別した顔の表情に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、特定された表示情報と取得手段で取得したユーザ情報とを対応付けて第2の装置11の表示部に表示させる表示手段とを有することにより上記課題を解決する。【選択図】図2

Description

本発明は、ネットワークシステム、サーバ装置、情報処理装置及びプログラムに関する。
業務の関係者が遠方にいる場合はコミュニケーションの手段として電話やメール、テレビ会議等が利用される。コミュニケーションの手段として電話やメール、テレビ会議等を利用する場合は、直接、相手の表情や様子を伺うことができず、互いにモチベーションの変化や状況を知ることが難しくなる。
例えばメールや手紙等の文章では相手の感情や状況を察知することが難しいため、読み手の受け取り方に差がでることがある。また、電話の音声、テレビ会議やWebカメラの映像では一時的に相手の様子を知ることができるが、通信をしているときの相手の様子しか分からない。
従来、ユーザの気分をアイコンで示し、ユーザ同士で共有可能であるツールとして例えばニコニコカレンダーは既に知られている。ニコニコカレンダーはユーザの気分を「見える化」するツールである。また、状態表示用端末間において個人の気持ち等の状態情報を送信して表示する状態表示システムは従来から知られている(例えば特許文献1参照)。
しかしながら、従来のユーザの気分を「見える化」するツールはユーザの気分をユーザが手動で更新するため、ユーザが更新を忘れてしまったり、多忙により更新する時間がとれず、更新ができなかったりするという問題があった。
また、従来のユーザの気分を「見える化」するツールは更新するユーザの気分をユーザが自己判断によって決めるため、ユーザが更新を面倒に思い、いつも同じ気分で更新してしまったり、気分が沈んでいるときであっても、周囲に遠慮をして、気分が沈んでいることを表すアイコンに更新しなかったりするという問題があった。
従来のユーザの気分を「見える化」するツールは、上記のようにユーザの気分が正確に更新されない場合があり、本来期待されるべき効果が得られず、有効活用できないという問題があった。
本発明は、顔の表情に関する表示情報の更新を自動化できるネットワークシステム、サーバ装置、情報処理装置及びプログラムを提供することを目的とする。
上記課題を解決するため、請求項1に記載したネットワークシステムは、第1の装置と第2の装置とが接続されたネットワークシステムであって、ユーザ情報と画像データとを前記第1の装置で取得する取得手段と、前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、複数の顔の表情の中から前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、前記記憶手段で記憶されている表示情報の中から、前記識別手段で識別した顔の表情に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、前記特定手段で特定された表示情報と前記取得手段で取得したユーザ情報とを対応付けて前記第2の装置の表示部に表示させる表示手段とを有することを特徴とする。
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。
本発明によれば、顔の表情に関する表示情報の更新を自動化できる。
モチベーション可視化システムの一例の構成図である。 モチベーション可視化システムの他の例の構成図である。 サーバ装置の一例のハードウェア構成図である。 端末装置の一例のハードウェア構成図である。 モチベーション可視化システムの一例の機能ブロック図である。 表情DBの一例の構成図である。 指標DBの一例の構成図である。 履歴DBの一例の構成図である。 アイコンDBの一例の構成図である。 アイコンDBの一例のイメージ図である。 モチベーション可視化システムに含まれるサーバ装置の処理手順の一例を示すフローチャートである。 ステップS5の処理の一例のフローチャートである。 ステップS5の処理の一例のイメージ図である。 端末装置に表示されるUIの一例のイメージ図である。 端末装置に表示されるUIの他の例のイメージ図である。 端末装置の他の一例の機能ブロック図である。
以下、本発明の実施の形態について、詳細に説明する。なお、本実施の形態におけるモチベーションとは、ユーザの気持ち、やる気、気分、状態、状況、感情等の意味を含むものとして取り扱う。
図1はモチベーション可視化システムの一例の構成図である。図1のモチベーション可視化システム(以下、単にシステムと呼ぶ)1は、サーバ装置10及び1つ以上の端末装置11がインターネットやLANなどのネットワーク12経由で接続されている。端末装置11は、例えばPC(パーソナルコンピュータ)やPDA(Personal Digital Assistants)や携帯電話機や専用端末等である。
端末装置11はカメラを搭載する。端末装置11が搭載するカメラは内蔵又は外付けの何れであっても良い。端末装置11はモチベーションの可視化が行われるユーザにより操作される。端末装置11はサーバ装置10と接続して後述する処理を行い、ユーザのモチベーションを表す情報の更新を行う。なお、図1のシステム1におけるサーバ装置10と端末装置11との処理の切り分けは様々考えられるため、後述する。
図2はモチベーション可視化システムの他の例の構成図である。図2のモチベーション可視化システム(以下、単にシステムと呼ぶ)2は複数の端末装置11がインターネットやLANなどのネットワーク12経由で接続されている。端末装置11は、例えばPCやPDAや携帯電話機や専用端末等である。
端末装置11はカメラを搭載する。端末装置11が搭載するカメラは内蔵又は外付けの何れであっても良い。端末装置11はモチベーションの可視化が行われるユーザにより操作される。端末装置11は他の端末装置11と接続して後述する処理を行い、ユーザのモチベーションを表す情報の更新を行う。なお、図2のシステム2はネットワーク12に含まれる単なる中継機器としてのサーバ装置を介して接続される形態を含む。
図3はサーバ装置の一例のハードウェア構成図である。サーバ装置10はバス28で相互に接続されている入力装置21、出力装置22、記録媒体読取装置23、補助記憶装置24、主記憶装置25、演算処理装置26及びインタフェース装置27を有する構成である。
入力装置21はキーボードやマウス等である。入力装置21は各種信号を入力するために用いられる。出力装置22はディスプレイ装置等である。出力装置22は各種ウインドウやデータ等を表示するために用いられる。インタフェース装置27は、モデム、LANカード等である。インタフェース装置27は、ネットワーク12に接続するために用いられる。
モチベーション可視化プログラム等のシステム1を実現する為のプログラムは例えば記録媒体29の配布やネットワーク12からのダウンロードなどによって提供される。モチベーション可視化プログラム等のシステム1を実現する為のプログラムはサーバ装置10で実行されるプログラムの少なくとも一部である。
記録媒体29はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。記録媒体29は記録媒体読取装置23にセットされる。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは記録媒体29から記録媒体読取装置23を介して補助記憶装置24にインストールされる。
ネットワーク12からダウンロードされたモチベーション可視化プログラム等のシステム1を実現する為のプログラムはインタフェース装置27を介して補助記憶装置24にインストールされる。
補助記憶装置24はモチベーション可視化プログラム等のシステム1を実現する為のプログラム、必要なファイル、データ等を格納する。主記憶装置25はプログラムの起動時に補助記憶装置24からモチベーション可視化プログラム等のシステム1を実現する為のプログラムを読み出して格納する。演算処理装置26は主記憶装置25に格納されたモチベーション可視化プログラム等のシステム1を実現する為のプログラムに従って後述の各種機能を実現する。
図4は端末装置の一例のハードウェア構成図である。ここでは一例として端末装置11がPCであるときのハードウェア構成について説明する。端末装置11はバス39で相互に接続されている入力装置31、出力装置32、記録媒体読取装置33、補助記憶装置34、主記憶装置35、演算処理装置36、インタフェース装置37及びカメラ38を有する構成である。なお、カメラ38は端末装置11に内蔵されたものであっても、外付けされたものであってもよい。
入力装置31はキーボードやマウス等である。入力装置31は各種信号を入力するために用いられる。出力装置32はディスプレイ装置等である。出力装置32は各種ウインドウやデータ等を表示するために用いられる。インタフェース装置37は、モデム、LANカード等である。インタフェース装置37は、ネットワーク12に接続するために用いられる。カメラ38はユーザの顔を撮影する。
モチベーション可視化プログラム等のシステム1又は2を実現する為のプログラムは例えば記録媒体40の配布やネットワーク12からのダウンロード等によって提供される。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは端末装置11で実行されるプログラムの少なくとも一部である。
記録媒体40はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。記録媒体40は記録媒体読取装置33にセットされる。モチベーション可視化プログラム等のシステム1を実現する為のプログラムは記録媒体40から記録媒体読取装置33を介して補助記憶装置34にインストールされる。
ネットワーク12からダウンロードされたモチベーション可視化プログラム等のシステム1を実現する為のプログラムはインタフェース装置37を介して補助記憶装置34にインストールされる。
補助記憶装置34はモチベーション可視化プログラム等のシステム1を実現する為のプログラム、必要なファイル、データ等を格納する。主記憶装置35はプログラムの起動時に補助記憶装置34からモチベーション可視化プログラム等のシステム1を実現する為のプログラムを読み出して格納する。演算処理装置36は主記憶装置35に格納されたモチベーション可視化プログラム等のシステム1を実現する為のプログラムに従って後述の各種機能を実現する。
図5はモチベーション可視化システムの一例の機能ブロック図である。なお、図5は図1のシステム1における一例の機能ブロック図である。図5において、端末装置11は撮影部51、送信部52、UI処理部53、受信部54を有する。また、サーバ装置10は受信部61、静止画化部62、顔抽出部63、部位抽出部64、表情認識部65、指標化部66、アイコン決定部67、送信部68、表情DB69、指標DB70、履歴DB71及びアイコンDB72を有する。
端末装置11の撮影部51はユーザの顔を撮影する。撮影部51はユーザの顔の動画を撮影してもよいし、静止画を撮影してもよい。撮影部51が静止画を撮影した場合は後述の静止画化部62の処理が不要となる。ここでは撮影部51が動画を撮影したものとして説明を続ける。送信部52は撮影部51が撮影した動画をサーバ装置10に送信する。
UI処理部53は出力装置32にUIを表示する。受信部54はサーバ装置10から後述のアイコン更新要求を受け付ける。アイコン更新要求は後述のユーザのモチベーションを表すアイコンをUIに表示させる要求である。アイコン更新要求に基づき、UI処理部53はユーザのモチベーションを表すアイコンをUIに表示又は更新する。
サーバ装置10の受信部61はユーザの顔の動画を受信する。静止画化部62は受信部61が受信した動画を静止画化する。顔抽出部63は静止画化部62が静止画化した静止画から顔を抽出する。部位抽出部64は顔抽出部63が抽出した静止画上の顔から各部位を抽出する。ここで抽出する部位は表情の認識に役立つ部位であればよい。ここでは表情の認識に役立つ部位として目、眉、口を抽出する。
表情認識部65は部位抽出部64が抽出した静止画上の顔の部位の形状(輪郭など)から各部位の表情を認識する。なお、各部位の表情の認識には、後述する表情DB69を用いる。指標化部66は表情認識部65が認識した各部位の表情を指標化し、指標の平均を算出する。各部位の表情の指標化には後述の指標DB70を用いる。指標化部66は後述の履歴DB71に算出した指標の平均を保存する。
アイコン決定部67は後述のアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。アイコンはユーザのモチベーションを表す情報の一例である。送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を端末装置11に送信する。
なお、履歴DB71に保存したユーザの指標の履歴は、端末装置11から参照要求があると、サーバ装置10から端末装置11に送信される。ユーザは例えばUIに表示されたユーザの指標の履歴を参照できる。
なお、図5のシステム1では表情DB69、指標DB70、履歴DB71及びアイコンDB72がサーバ装置10に設けられているが、表情DB69、指標DB70、履歴DB71及びアイコンDB72の少なくとも一つを、他の1つ以上のサーバ装置に設けるようにしてもよい。
また、図5のシステム1は例えばアイコン決定部67及びアイコンDB72を端末装置11に設けるようにしてもよい。アイコン決定部67及びアイコンDB72を端末装置11に設けたシステム1ではアイコン更新要求に変えて、指標化部66が算出した指標の平均が送信部68から端末装置11に送信される。更に、図5のシステム1は1台のサーバ装置10で構成される例を示しているが、複数台のサーバ装置で構成してもよい。
図6は表情DBの一例の構成図である。図6の表情DB69は表情テーブル、目テーブル、眉テーブル及び口テーブルを有する。表情DB69は、それぞれの表情(例えば喜怒哀楽)の表情テーブルに対して、各部位のテーブルである目テーブル、眉テーブル及び口テーブルが関連付けられている。
表情テーブルは表情ごとに表情ID(目)と表情ID(眉)と表情ID(口)とが設定されている。表情ID(目)と表情ID(眉)と表情ID(口)は例えば番号により設定される。表情ID(目)の場合、例えばe1、e2等の番号を想定する。
目テーブルは表情ID(目)と特徴(目)と軌跡(目)とが設定されている。眉テーブルは表情ID(眉)と特徴(眉)と軌跡(眉)とが設定されている。口テーブルは表情ID(口)と特徴(口)と軌跡(口)とが設定されている。目テーブルは目の特徴及び軌跡が設定されている。眉テーブルは眉の特徴及び軌跡が設定されている。口テーブルは口の特徴及び軌跡が設定されている。
表情テーブルに対して、各部位のテーブルである目テーブルと眉テーブルと口テーブルとは表情ID(目)と表情ID(眉)と表情ID(口)により関連付けられている。各部位のテーブルである目テーブルと眉テーブルと口テーブルには、例えば特徴として各部位の輪郭の頂点の位置や角度などが設定され、軌跡として各部位の輪郭を縁取る点の集まりなどを設定することを想定する。例えば目テーブルには、特徴として目の輪郭の頂点の位置や角度などが設定され、軌跡として目の輪郭を縁取る点の集まりなどを想定する。
表情DB69を参照する場合は部位抽出部64が抽出した静止画上の顔の部位の特徴及び軌跡をキーとして各部位のテーブルの特徴及び軌跡と比較し、特徴及び軌跡が似ている各部位テーブルの表情IDを取得する。例えば目の特徴及び軌跡をキーとして目テーブルの特徴及び軌跡と比較した場合は特徴及び軌跡が似ている目テーブルの表情ID(目)を取得する。
取得した表情IDをキーとして表情テーブルの表情IDを検索することで、表情認識部65はユーザの表情を認識できる。例えば表情ID(目)をキーとして表情テーブルの表情ID(目)を検索することで、表情認識部65はユーザの目の表情を認識できる。
また、図7は指標DBの一例の構成図である。図7の指標DB70は指標テーブルを有する。指標DB70は、各部位ごとに指標テーブルを有する。各部位ごとの指標テーブルは表情と指標(値)とが対応付けられて設定されている。つまり、指標DB70は、それぞれの表情に対しての指標を各部位ごとに対応付けて設定している。
指標DB70を参照する場合は表情認識部65が認識した静止画上の顔の各部位の表情をキーとして各部位の指標テーブルの表情と比較し、各部位の指標テーブルから一致する表情と対応付けられた指標を取得する。
また、図8は履歴DBの一例の構成図である。図8の履歴DB71は日付とユーザIDと指標(値)とが対応付けられて保存されている。つまり、履歴DB71はユーザIDと対応付けて日付ごとのユーザの指標を設定している。また、履歴DB71はユーザIDによりユーザ情報と対応付けられている。なお、図8のユーザ情報はユーザID、ユーザ名など、ユーザに関する情報が含まれる。ユーザ情報を利用することで、ユーザ名はユーザIDに変換することができる。履歴DB71を参照する場合はユーザIDをキーとして履歴DB71からユーザの指標を取得する。
また、図9はアイコンDBの一例の構成図である。図9のアイコンDB72はアイコンIDと指標の範囲と画像とが対応付けられて保存されている。つまり、アイコンDB72は指標の範囲と対応付けてアイコンIDと画像とを設定している。アイコンDB72を参照する場合はユーザの指標をキーとしてアイコンDB72からアイコンID及び画像を取得する。言い換えればユーザの指標がアイコンDB72の指標の範囲の何処に含まれるかによってアイコンDB72からは異なるアイコンID及び画像が取得される。
図10はアイコンDBの一例のイメージ図である。図10のアイコンDB72は3種類のアイコンが保存されている例である。ユーザの指標がA1〜A2の場合、図10のアイコンDB72ではアイコンID「iconA」の画像が取得される。また、ユーザの指標がB1〜B2の場合、図10のアイコンDB72ではアイコンID「iconB」の画像が取得される。さらに、ユーザの指標がC1〜C2の場合、図10のアイコンDB72ではアイコンID「iconC」の画像が取得される。
図10において、アイコンID「iconA」の画像は、笑った顔の一例のイメージである。アイコンID「iconB」の画像は、普通の顔の一例のイメージである。アイコンID「iconC」の画像は怒った顔の一例のイメージである。
図11はモチベーション可視化システムに含まれるサーバ装置の処理手順の一例を示すフローチャートである。なお、図11のフローチャートが開始されるタイミングは端末装置11を起動したとき、端末装置11でモチベーション可視化システムに関するプログラムを起動したとき、端末装置11で更新ボタンなどが押されたとき、所定時間間隔などが考えられる。
ステップS1において、サーバ装置10の受信部61は端末装置11からユーザの顔の動画を受信する。ステップS2において、静止画化部62は受信部61が受信した動画を複数枚の静止画にする。ステップS2の処理では例えばOpenCV(Open Computer Vision Library)を使用することで動画から複数枚の静止画を作成可能である。
OpenCVとは、画像認識に関連する機能のライブラリである。OpenCVはコンピュータビジョンと呼ばれる画像認識・解析に関するコンピューティング技術が主な用途として想定されている。OpenCVを用いることで、サーバ装置10ではコンピュータビジョンに関する高度な画像処理機能を利用できる。
なお、ステップS2において、静止画化部62は動画をN秒、サンプリング間隔をM秒とすると、N、Mの関係がN≧k×M(k>1)とする。ステップS3〜S6の処理はステップS2で作成した各静止画に対して行う。
ステップS3において、顔抽出部63は静止画化部62が静止画化した静止画から顔の輪郭を抽出する。ステップS3の処理においてもOpenCVを使用することで静止画から顔の輪郭を抽出可能である。
ステップS4において、部位抽出部64は顔抽出部63が抽出した静止画上の顔の輪郭から各部位として目、眉、口の輪郭を抽出する。例えば部位抽出部64は顔の輪郭の下半分から口の輪郭を抽出し、顔の輪郭の上半分から目、眉の輪郭を抽出する。ステップS4の処理においてもOpenCVを使用することで顔の輪郭から目、眉、口の輪郭を抽出可能である。
ステップS5において、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭を用いて、表情DB69の目テーブル、眉テーブル、口テーブルの特徴、軌跡とのパターンマッチングを行い、表情を認識する。なお、パターンマッチングでは各部位の特徴、軌跡の他、各部位との距離を用いてもよい。ステップS5の処理の詳細は後述する。
ステップS6において、指標化部66は表情認識部65が行った表情の認識結果を用いて1枚の静止画上のユーザの顔の目、眉、口の表情を指標化し、1枚の静止画上のユーザの顔の目、眉、口の表情の指標を平均して、1枚の静止画上のユーザの顔の指標として算出する。なお、指標化部66はユーザの顔の目、眉、口の表情の指標化に指標DB70を用いる。指標に関しては例えば表情が「喜」であった場合X、表情が「怒」であった場合Yとしたとき、X>Yとする。
ステップS3〜S6の処理をステップS2で作成した各静止画に対して行った後、指標化部66はステップS7において、ステップS3〜S6で算出した各静止画のユーザの顔の指標から、全静止画のユーザの顔の指標の平均を算出する。ステップS8において、指標化部66はステップS7で算出した全静止画のユーザの顔の指標の平均を日付、ユーザIDと共に履歴DB71へ保存する。
ステップS9において、アイコン決定部67はアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。ステップS10において、送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を端末装置11に送信する。
この後、端末装置11の受信部54は、サーバ装置10からアイコン更新要求を受け付ける。端末装置11のUI処理部53はユーザのモチベーションを表すアイコンをアイコン更新要求に基づき、UIに表示又は更新できる。
図12はステップS5の処理の一例のフローチャートである。ステップS21〜S23の処理は、部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭それぞれについて行われる。
ステップS21において、表情認識部65は3つの手法の形状マッチングを後述のように行う。ステップS22に進み表情認識部65はステップS21の形状マッチングの結果を合計する。ステップS23において、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の部位(目など)の特徴及び軌跡と、極めて近い特徴及び軌跡が設定された部位のテーブル(目テーブルなど)が見つかったか判定する。
極めて近い特徴及び軌跡が設定された部位のテーブルが見つかっていなければ、表情認識部65はステップS21に戻り、次の部位のテーブルについて処理を続ける。極めて近い特徴及び軌跡が設定された部位のテーブルが見つかると、表情認識部65は、その時点でステップS24の処理を行う。また、表情認識部65は全ての部位のテーブルについて形状マッチングが終了したときもステップS24の処理を行う。
ステップS24において、表情認識部65は最も近い特徴及び軌跡が設定された部位のテーブルに設定された表情IDを取得し、取得した表情IDをキーとして表情テーブルの表情IDを検索することで、ユーザの顔の部位の表情を認識する。
ここではステップS21の形状マッチングについて更に説明する。形状マッチングとは2つの入力画像に対して形状比較を行うものである。ステップS21の形状マッチングでは後述のOpenCVのサンプルコードのように、3種類の手法により形状マッチングを行うものとする。
opencv.jp - OpenCV: マッチング(Matching)サンプルコード - (「形状のマッチング」参照): http://opencv.jp/sample/matching.html
前述のOpenCVのサンプルコードの大まかな流れは、以下の通りである。
(1)入力画像と比較画像を読み込む。
(2)3種類の手法により形状比較を行う。
(3)形状比較の結果を画像に出力する。
(4)次の比較画像を読み込み、(2)に戻る。
ここで、前述のサンプルコードの流れ(2)で使用しているcvMatchShapesという関数は、2つの画像の形状がより似ている場合には「0」に近い数値を返す関数である。前述したcvMatchShapes関数が利用する形状比較の手法は、以下のリンク先に説明されている。
構造解析と形状ディスクリプタ - opencv v2.1 documentation (「cvMatchShapes」参照)
http://opencv.jp/opencv-2.1/c/structural_analysis_and_shape_descriptors.html#cv-matchshapes
本実施の形態では、静止画から抽出したユーザの顔の部位(入力画像)と、表情DB69の部位のテーブルに設定された特徴、軌跡などのパターン(比較画像)との形状マッチングを(cvMatchShapes関数の3種類の形状比較)を行う。そして、本実施の形態では各形状比較の結果を平均した数値が、より0に近しいパターンが設定された部位のテーブルと関連付けられた表情を、ユーザの顔の部位の表情としている。
図13はステップS5の処理の一例のイメージ図である。表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目、眉、口の輪郭を用いて表情を判別する場合には図13に示すような目テーブル、眉テーブル、口テーブルの特徴、軌跡とのパターンとのパターンマッチングを行う。
例えば図13は静止画上のユーザの顔の目の表情を判別する例を示している。表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目の輪郭であるユーザの目のパターンと、表情DB69の目テーブルに設定されている目の特徴や軌跡などのパターンとのパターンマッチングを行う。そして、表情認識部65は部位抽出部64が抽出した静止画上のユーザの顔の目のパターンに、より近い目テーブルに設定された目のパターンから目の表情を判別する。図13の例では目の表情として「楽」を判別している。
図14は端末装置に表示されるUIの一例のイメージ図である。図14のUIはユーザのモチベーションを表すアイコンを、ユーザ毎に各日付に対して表示している。例えばマウスカーソルをアイコンに重ねると、UI表示部53はユーザが入力したコメント等の補足的な情報を表示できるようにしてもよい。ユーザが入力したコメント等の補足的な情報を表示できるようにすると、UIはユーザ同士のモチベーションの共有を、より促進することが期待できる。
図15は端末装置に表示されるUIの他の例のイメージ図である。図15のUIは補助的な画面として、現在のユーザのモチベーションを表すアイコンを表示する。図15のUIは現在のユーザのモチベーションを確認したいようなケースが想定される場合にユーザの利便性の向上が期待できる。
なお、図5のシステム1は一例であって、サーバ装置10が有する機能の少なくとも一部を端末装置11側に設ける構成も可能である。例えばシステム1は図5のサーバ装置10の機能のうちの履歴DB71をサーバ装置10が有し、図5の機能のうちの履歴DB71以外を端末装置11が有する構成とすることもできる。
図5のサーバ装置10の機能のうちの履歴DB71をサーバ装置10が有し、図5の機能のうちの履歴DB71以外を端末装置11が有するシステム1では、サーバ装置10が端末装置11から受信したユーザの指標の履歴を保存し、サーバ装置10が端末装置11からの要求に基づき、ユーザの指標の履歴を提供する。
以上、本実施の形態のシステム1によれば、端末装置11でユーザの顔を撮影し、撮影したユーザの顔の表情の認識結果に基づき、ユーザの表情を指標化することで、ユーザのモチベーションを表すアイコンをUIに表示できる。このように、本実施の形態のシステム1では、従来、手動で行っていたアイコンの更新を自動化できる。
また、本実施の形態のシステム1によれば、従来、ユーザが自己判断により決めていたユーザのモチベーションを表すアイコンを、撮影したユーザの顔の表情に基づいて自動的に決めるため、ユーザが更新を面倒に思い、いつも同じ気分で更新してしまったり、気分が沈んでいるときであっても、周囲に遠慮をして、気分が沈んでいることを表すアイコンに更新しなかったりするという問題を解決できる。つまり、本実施の形態のシステム1によれば、より正確なユーザのモチベーションを表すアイコンに更新できる。
図2のモチベーション可視化システム2に含まれる端末装置11は例えば図16のように構成される。図16は端末装置の他の一例の機能ブロック図である。図16の端末装置11は、撮影部51、UI処理部53、受信部61、静止画化部62、顔抽出部63、部位抽出部64、表情認識部65、指標化部66、アイコン決定部67、送信部68、表情DB69、指標DB70、履歴DB71及びアイコンDB72を有する。
図16の端末装置11は図5のサーバ装置10及び端末装置11の機能ブロックを合わせた構成となっている。なお、図16の端末装置11の機能ブロックは、一部を除いて図5のサーバ装置10及び端末装置11の機能ブロックと同様な処理を行うため、説明を適宜省略する。
端末装置11の撮影部51はユーザの顔を撮影する。UI処理部53は出力装置32にUIを表示する。受信部54は、他の端末装置11から前述のアイコン更新要求を受け付ける。UI処理部53はユーザのモチベーションを表すアイコンを表示又は更新する。
静止画化部62は撮影部51が撮影した動画を静止画化する。顔抽出部63は静止画化部62が静止画化した静止画から顔を抽出する。部位抽出部64は顔抽出部63が抽出した静止画上の顔から各部位を抽出する。
表情認識部65は表情DB69を参照し、部位抽出部64が抽出した静止画上の顔の部位の形状(輪郭など)から各部位の表情を認識する。指標化部66は指標DB70を参照し、表情認識部65が認識した各部位の表情を指標化し、指標の平均を算出する。指標化部66は前述の履歴DB71に算出した指標の平均を保存する。
アイコン決定部67はアイコンDB72を参照し、指標化部66が算出した指標の平均に応じたアイコンを決定する。アイコン決定部67が決定したアイコンはUI処理部53によりUIに表示される。また、送信部68はアイコン決定部67が決定したユーザのモチベーションを表すアイコンへのアイコン更新要求を他の端末装置11に送信する。
なお、履歴DB71に保存したユーザの指標の履歴は、他の端末装置11から参照要求があると、他の端末装置11に送信される。そして、他の端末装置11のUI処理部53は受信したユーザの指標の履歴を表示する。また、履歴DB71に保存したユーザの指標の履歴は、UI処理部53から参照要求があると、UIに表示される。ユーザは例えばUIに表示されたユーザの指標の履歴を参照できる。
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
なお、特許請求の範囲に記載した装置は装置端末11に相当する。サーバ装置はサーバ装置10に相当する。ネットワークシステムはモチベーション可視化システム1に相当する。取得手段は撮影部51、UI処理部53に相当する。顔領域抽出手段は顔抽出部63に相当する。識別手段は部位抽出部64、表情認識部65、指標化部66に相当する。記憶手段はアイコンDB72に相当する。特定手段はアイコン決定部67に相当する。表示手段はUI処理部53に相当する。部位抽出手段は部位抽出部64に相当する。表情記憶手段は表情DB69に相当する。認識手段は表情認識部65、指標化部66に相当する。第1の送信手段は送信部52に相当する。第1の受信手段は受信部61に相当する。第2の送信手段は送信部68に相当する。第2の受信手段は受信部54に相当する。送信手段は送信部52に相当する。受信手段は受信部54に相当する。
1、2 モチベーション可視化システム
10 サーバ装置
11 端末装置
12 ネットワーク
21、31 入力装置
22、32 出力装置
23、33 記録媒体読取装置
24、34 補助記憶装置
25、35 主記憶装置
26、36 演算処理装置
27、37 インタフェース装置
28、39 バス
29、40 記録媒体
38 カメラ
51 撮影部
52 送信部
53 UI処理部
54、61 受信部
62 静止画化部
63 顔抽出部
64 部位抽出部
65 表情認識部
66 指標化部
67 アイコン決定部
68 送信部
69 表情DB
70 指標DB
71 履歴DB
72 アイコンDB
特開2004−192297号公報
本発明は、ネットワークシステムに関する。
本発明は、顔の表情に関する表示情報の更新を自動化できるネットワークシステムを提供することを目的とする。
上記課題を解決するため、請求項1に記載したネットワークシステムは、第1の装置と、複数の第2の装置とが接続されたネットワークシステムであって、前記複数の第2の装置をそれぞれ操作しているユーザのユーザ情報と画像データとを、前記複数の第2の装置それぞれで取得する取得手段と、前記取得手段でそれぞれ取得したそれぞれの画像データから、該画像データに含まれる顔領域をそれぞれ抽出する顔領域抽出手段と、数の顔の表情毎に、顔の表情を示す表情識別情報と該顔の表情を示す表示情報とを関連付けて記憶する記憶手段と、前記記憶手段で前記複数の顔の表情毎にそれぞれ関連付けて記憶されている表示情報の中から、前記顔領域抽出手段で抽出したそれぞれの顔領域の顔の表情に対応する表情識別情報とそれぞれ関連付けて記憶されている表示情報をそれぞれ特定する特定手段と、前記取得手段で前記複数の第1の装置それぞれから取得したそれぞれのユーザ情報と、前記特定手段で特定されたそれぞれの表示情報とそれぞれ対応付けて前記第の装置の表示部に表示させる表示手段とを有することを特徴とする。

Claims (15)

  1. 第1の装置と第2の装置とが接続されたネットワークシステムであって、
    ユーザ情報と画像データとを前記第1の装置で取得する取得手段と、
    前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
    複数の顔の表情の中から前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
    複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、
    前記記憶手段で記憶されている表示情報の中から、前記識別手段で識別した顔の表情に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、
    前記特定手段で特定された表示情報と前記取得手段で取得したユーザ情報とを対応付けて前記第2の装置の表示部に表示させる表示手段と
    を有することを特徴とするネットワークシステム。
  2. 前記識別手段は、
    前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
    前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
    前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
    を有することを特徴とする請求項1記載のネットワークシステム。
  3. 前記認識手段は、前記部位の形状としての目、眉、口の少なくとも一つの輪郭と前記顔の表情を示す情報としての前記目、眉、口の少なくとも一つの表情を示す情報とを関連付けて記憶する表情記憶手段を用いて、前記部位抽出手段で抽出した前記目、眉、口の少なくとも一つの輪郭と関連付けられて記憶されている前記目、眉、口の少なくとも一つの表情を示す情報から前記顔の表情を示す情報を認識する
    ことを特徴とする請求項2記載のネットワークシステム。
  4. 第1の装置と第2の装置とがサーバ装置を介して接続されたネットワークシステムであって、
    前記第1の装置は、
    ユーザ情報と画像データとを取得する取得手段と、
    前記取得手段で取得したユーザ情報と画像データとを前記サーバ装置に送信する第1の送信手段と
    を有し、
    前記サーバ装置は、
    前記第1の装置から送信されるユーザ情報と画像データとを受信する第1の受信手段と、
    前記第1の受信手段で受信した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
    複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
    前記識別手段により識別された顔の表情を示す情報と前記第1の受信手段で受信したユーザ情報とを前記第2の装置に送信する第2の送信手段と
    を有し、
    前記第2の装置は、
    複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、
    前記サーバ装置から送信された顔の表情を示す情報とユーザ情報とを受信する第2の受信手段と、
    前記記憶手段で記憶されている表示情報の中から、前記第2の受信手段で受信した顔の表情を示す情報に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、
    前記特定手段で特定された表示情報と前記第2の受信手段で受信したユーザ情報とを対応付けて表示部に表示させる表示手段と
    を有することを特徴とするネットワークシステム。
  5. 前記識別手段は、
    前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
    前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
    前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
    を有することを特徴とする請求項4記載のネットワークシステム。
  6. 前記認識手段は、前記部位の形状としての目、眉、口の少なくとも一つの輪郭と前記顔の表情を示す情報としての前記目、眉、口の少なくとも一つの表情を示す情報とを関連付けて記憶する表情記憶手段を用いて、前記部位抽出手段で抽出した前記目、眉、口の少なくとも一つの輪郭と関連付けられて記憶されている前記目、眉、口の少なくとも一つの表情を示す情報から前記顔の表情を示す情報を認識する
    ことを特徴とする請求項5記載のネットワークシステム。
  7. 第1の装置と第2の装置とが接続されたネットワークシステムであって、
    前記第1の装置は、
    ユーザ情報と画像データとを取得する取得手段と、
    前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
    複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
    前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置に送信する送信手段と
    を有し、
    前記第2の装置は、
    複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、
    前記第1の装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段と、
    前記記憶手段で記憶されている表示情報の中から、前記受信手段で受信した顔の表情を示す情報に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、
    前記特定手段で特定された表示情報と前記受信手段で受信したユーザ情報とを対応付けて表示部に表示させる表示手段と
    を有することを特徴とするネットワークシステム。
  8. 前記識別手段は、
    前記顔領域抽出手段で抽出した顔領域の顔から部位の形状を抽出する部位抽出手段と、
    前記部位の形状と前記顔の表情を示す情報とを対応付けて記憶する表情記憶手段と、
    前記表情記憶手段で記憶されている前記顔の表情を示す情報の中から、前記部位抽出手段で抽出した前記部位の形状と関連付けて記憶されている前記顔の表情を示す情報を認識する認識手段と
    を有することを特徴とする請求項7記載のネットワークシステム。
  9. 前記認識手段は、前記部位の形状としての目、眉、口の少なくとも一つの輪郭と前記顔の表情を示す情報としての前記目、眉、口の少なくとも一つの表情を示す情報とを関連付けて記憶する表情記憶手段を用いて、前記部位抽出手段で抽出した前記目、眉、口の少なくとも一つの輪郭と関連付けられて記憶されている前記目、眉、口の少なくとも一つの表情を示す情報から前記顔の表情を示す情報を認識する
    ことを特徴とする請求項8記載のネットワークシステム。
  10. ユーザ情報と画像データとを取得する第1の装置と、該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置とにネットワークを介して接続されるサーバ装置であって、
    前記第1の装置で取得されたユーザ情報と画像データとを受信する受信手段と、
    前記受信手段で受信した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
    複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
    前記識別手段により識別された顔の表情を示す情報と前記受信手段で受信したユーザ情報とを前記第2の装置に送信する送信手段と
    を有することを特徴とするサーバ装置。
  11. ユーザ情報と画像データとを取得する第1の装置と、該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置とにネットワークを介して接続されるサーバ装置を、
    前記第1の装置で取得されたユーザ情報と画像データとを受信する受信手段、
    前記受信手段で受信した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段、
    複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段、
    前記識別手段により識別された顔の表情を示す情報と前記受信手段で受信したユーザ情報とを前記第2の装置に送信する送信手段
    として機能させるためのプログラム。
  12. ユーザ情報と画像データとを取得する第1の装置と、該第1の装置とサーバ装置を介して接続され、該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置とのいずれの機能も備えた情報処理装置であって、
    前記第1の装置として機能するときには、
    ユーザ情報と画像データとを取得する取得手段と、
    前記取得手段で取得したユーザ情報と画像データとを前記サーバ装置に送信する送信手段と
    を有し、
    記第2の装置として機能するときには、
    複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、
    前記サーバ装置が、前記第1の装置として機能する他の情報処理装置から送信された画像データから該画像データに含まれる顔領域を抽出し、さらに抽出した顔領域の顔の表情を複数の顔の表情の中から識別して得た顔の表情を示す情報と、前記第1の装置として機能する他の情報処理装置から送信されたユーザ情報とを前記サーバ装置から受信する受信手段と、
    前記記憶手段で記憶されている表示情報の中から、前記受信手段で受信した顔の表情を示す情報に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、
    前記特定手段で特定された表示情報と前記受信手段で受信したユーザ情報とを対応付けて表示部に表示させる表示手段と
    を有することを特徴とする情報処理装置。
  13. 情報処理装置を、ユーザ情報と画像データとを取得する第1の装置、及び該第1の装置とサーバ装置を介して接続され、前記第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置のいずれの機能も備えた情報処理装置をいずれの装置としても機能させるプログラムであって、
    前記プログラムは、前記情報処理装置を、
    ユーザ情報と画像データとを取得する取得手段、
    前記取得手段で取得したユーザ情報と画像データとを前記サーバ装置に送信する送信手段
    を備えた前記第1の装置として機能させ、
    さらに前記プログラムは、前記情報処理装置を、
    前記サーバ装置が、前記第1の装置として機能する他の情報処理装置から送信された画像データから該画像データに含まれる顔領域を抽出し、さらに抽出した顔領域の顔の表情を複数の顔の表情の中から識別して得た顔の表情を示す情報と、前記第1の装置として機能する他の情報処理装置から送信されたユーザ情報とを前記サーバ装置から受信する受信手段、
    複数の顔の表情毎に顔の表情を示す表情識別情報と表示情報とを関連付けて記憶部に記憶されている表示情報の中から、前記受信手段で受信した顔の表情を示す情報に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段、
    前記特定手段で特定された表示情報と前記受信手段で受信したユーザ情報とを対応付けて表示部に表示させる表示手段
    を備えた前記第2の装置として機能させるプログラム。
  14. ユーザ情報と画像データとを取得する第1の装置と、該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置とのいずれの機能も備えた情報処理装置であって、
    前記第1の装置として機能するときには、
    ユーザ情報と画像データとを取得する取得手段と、
    前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段と、
    複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段と、
    前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置として機能する他の情報処理装置に送信する送信手段と
    を有し、
    前記第2の装置として機能するときには、
    複数の顔の表情毎に、顔の表情を示す表情識別情報と表示情報とを関連付けて記憶する記憶手段と、
    前記第1の装置として機能する他の情報処理装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段と、
    前記記憶手段で記憶されている表示情報の中から、前記受信手段で受信した顔の表情を示す情報に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段と、
    前記特定手段で特定された表示情報と前記受信手段で受信したユーザ情報とを対応付けて表示部に表示させる表示手段と
    を有することを特徴とする情報処理装置。
  15. 情報処理装置を、ユーザ情報と画像データとを取得する第1の装置及び該第1の装置で取得した画像データに含まれる顔領域の顔の表情を示す表示情報と前記ユーザ情報とを対応付けて表示部に表示させる第2の装置のいずれの装置としても機能させるプログラムであって、
    前記プログラムは、前記情報処理装置を
    ユーザ情報と画像データとを取得する取得手段、
    前記取得手段で取得した画像データから、該画像データに含まれる顔領域を抽出する顔領域抽出手段、
    複数の顔の表情の中から、前記顔領域抽出手段で抽出した顔領域の顔の表情を識別する識別手段、
    前記識別手段により識別された顔の表情を示す情報と前記取得手段で取得したユーザ情報とを前記第2の装置として機能する他の情報処理装置に送信する送信手段
    を備えた前記第1の装置として機能させ、
    さらに前記プログラムは、前記情報処理装置を、
    前記第1の装置として機能する他の情報処理装置から送信された顔の表情を示す情報とユーザ情報とを受信する受信手段、
    複数の顔の表情毎に顔の表情を示す表情識別情報と表示情報とを関連付けて記憶部に記憶されている表示情報の中から、前記受信手段で受信した顔の表情を示す情報に対応する表情識別情報と関連付けて記憶されている表示情報を特定する特定手段、
    前記特定手段で特定された表示情報と前記受信手段で受信したユーザ情報とを対応付けて表示部に表示させる表示手段
    を備えた前記第2の装置として機能させるプログラム。
JP2015062206A 2015-03-25 2015-03-25 ネットワークシステム Pending JP2015165407A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015062206A JP2015165407A (ja) 2015-03-25 2015-03-25 ネットワークシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015062206A JP2015165407A (ja) 2015-03-25 2015-03-25 ネットワークシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012024372A Division JP5720595B2 (ja) 2012-02-07 2012-02-07 ネットワークシステム、サーバ装置、情報処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2015165407A true JP2015165407A (ja) 2015-09-17

Family

ID=54187849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062206A Pending JP2015165407A (ja) 2015-03-25 2015-03-25 ネットワークシステム

Country Status (1)

Country Link
JP (1) JP2015165407A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173714A (ja) * 2019-04-12 2020-10-22 株式会社竹中工務店 対話支援装置、対話支援システム、及び対話支援プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270305A (ja) * 1999-03-12 2000-09-29 Kansai Tlo Kk 多地点会議システム
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002176632A (ja) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp 携帯電話機及び画像伝送方法
JP2002230011A (ja) * 2001-02-05 2002-08-16 Seiko Epson Corp 感情認識システム
JP2002251365A (ja) * 2001-02-21 2002-09-06 Square Co Ltd 電子会議システム、そのクライアント、電子会議方法およびクライアント用プログラム
JP2002259315A (ja) * 2001-02-27 2002-09-13 Fujitsu Ltd 会議サーバプログラム
JP2005277462A (ja) * 2004-03-22 2005-10-06 Fujitsu Ltd 会議支援システム、議事録生成方法、およびコンピュータプログラム
JP2009253931A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 電子データ編集装置、電子データ編集方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270305A (ja) * 1999-03-12 2000-09-29 Kansai Tlo Kk 多地点会議システム
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002176632A (ja) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp 携帯電話機及び画像伝送方法
JP2002230011A (ja) * 2001-02-05 2002-08-16 Seiko Epson Corp 感情認識システム
JP2002251365A (ja) * 2001-02-21 2002-09-06 Square Co Ltd 電子会議システム、そのクライアント、電子会議方法およびクライアント用プログラム
JP2002259315A (ja) * 2001-02-27 2002-09-13 Fujitsu Ltd 会議サーバプログラム
JP2005277462A (ja) * 2004-03-22 2005-10-06 Fujitsu Ltd 会議支援システム、議事録生成方法、およびコンピュータプログラム
JP2009253931A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 電子データ編集装置、電子データ編集方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173714A (ja) * 2019-04-12 2020-10-22 株式会社竹中工務店 対話支援装置、対話支援システム、及び対話支援プログラム
JP7323098B2 (ja) 2019-04-12 2023-08-08 三菱電機株式会社 対話支援装置、対話支援システム、及び対話支援プログラム

Similar Documents

Publication Publication Date Title
CN112528850B (zh) 人体识别方法、装置、设备和存储介质
JP4720167B2 (ja) 電子カメラおよびプログラム
JP6200483B2 (ja) 画像処理システム、画像処理方法、および画像処理プログラム
KR20190129826A (ko) 생체 검측 방법 및 장치, 시스템, 전자 기기, 저장 매체
CN110060262A (zh) 一种图像分割方法及装置、电子设备和存储介质
JP2002175538A (ja) 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
CN111597918A (zh) 人脸活体检测模型的训练、检测方法、装置及电子设备
US20120313964A1 (en) Information processing apparatus, information processing method, and program
US10803988B2 (en) Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
CN107220614B (zh) 图像识别方法、装置及计算机可读存储介质
CN111401318B (zh) 动作识别方法及装置
CN106462567A (zh) 增强的数据视图
JP6046501B2 (ja) 特徴点出力装置、特徴点出力プログラム、特徴点出力方法、検索装置、検索プログラムおよび検索方法
JPWO2017154136A1 (ja) 携帯情報端末及びそれに用いる情報処理方法
CN111783517B (zh) 图像识别方法、装置、电子设备及存储介质
CN112529846A (zh) 图像处理方法及装置、电子设备和存储介质
CN110334590B (zh) 图像采集引导方法以及装置
CN110826487A (zh) 一种人脸表情数据采集方法
JP6204315B2 (ja) 似顔絵画像生成装置、似顔絵画像生成方法及び似顔絵画像生成プログラム
JP5048736B2 (ja) 画像処理システム、画像処理方法及び画像処理プログラム
CN113158918A (zh) 视频处理方法及装置、电子设备和存储介质
JP2014006873A (ja) 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム
CN103353879B (zh) 图像处理方法及设备
JP2015165407A (ja) ネットワークシステム
CN112116548A (zh) 人脸图像的合成方法、装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161206