JP6547290B2 - 画像センシングシステム - Google Patents

画像センシングシステム Download PDF

Info

Publication number
JP6547290B2
JP6547290B2 JP2014255531A JP2014255531A JP6547290B2 JP 6547290 B2 JP6547290 B2 JP 6547290B2 JP 2014255531 A JP2014255531 A JP 2014255531A JP 2014255531 A JP2014255531 A JP 2014255531A JP 6547290 B2 JP6547290 B2 JP 6547290B2
Authority
JP
Japan
Prior art keywords
sensing
face
application
information
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014255531A
Other languages
English (en)
Other versions
JP2016116174A (ja
Inventor
誠一 真鍋
誠一 真鍋
達哉 村上
達哉 村上
艶萍 呂
艶萍 呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014255531A priority Critical patent/JP6547290B2/ja
Priority to DE112015005688.2T priority patent/DE112015005688T5/de
Priority to PCT/JP2015/083122 priority patent/WO2016098547A1/ja
Priority to US15/516,101 priority patent/US10262125B2/en
Publication of JP2016116174A publication Critical patent/JP2016116174A/ja
Application granted granted Critical
Publication of JP6547290B2 publication Critical patent/JP6547290B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置で撮影した画像から人や顔に関する情報を取得するための技術に関する。
画像センシングと呼ばれる技術が実用化されている。画像センシングとは、撮像装置で撮影した画像を解析することにより、顔・人体・手の検出、個人識別、表情・年齢・視線・顔向きの推定などを行う技術である。この種の技術は、例えば、デジタルカメラの顔検出機能、監視カメラの顔認証機能、スマートフォンでの本人認証や視線入力アプリなど、様々な分野の装置に応用されている(例えば、特許文献1参照)。
特開2014−206932号公報
従来、画像センシングのモジュールは、それを利用する機器内に組み込まれた形態(以下「組み込み型」と呼ぶ。)で提供されるのが一般的であった。これに対し、本発明者らは、画像センシングの機能のみを独立させた新たな形態(以下「独立型」と呼ぶ。)の機器の検討を進めている。すなわち、撮像装置と画像処理モジュールからなる画像センシングに特化した専用装置(以下「センシング装置」と呼ぶ。)を、センシング結果を利用する機器(例えば、スマートフォン、PC、家電機器、産業機器など。以下「アプリケーション装置」と呼ぶ。)とは独立した別装置とし、センシング装置とアプリケーション装置の間のデータの受け渡しには無線通信を利用するというものである。このような独立型のセンシング装置を用いることにより、例えば、スマートフォンなどにおいて高度な画像センシングを利用するアプリを簡単に実現できたり、1台のセンシング装置のセンシング結果を複数のアプリケーション装置で受信したり、撮像装置を持たない機器や低速なプロセッサしかない機器においても画像センシングを利用した機能を実装できたりと、今までにない利用形態や新たな価値を提供できるものと期待される。
ところで、上記のように、センシング結果を装置間で送受信する構成の場合には、個人情報の漏えいや目的外使用に対する十分な配慮が必要となる。顔画像のように個人を特定し得るデータは「個人情報」に該当する可能性があるからである。このような問題への対策として、例えば、センシング装置とアプリケーション装置の間で強固な暗号化通信プロトコルを用いることも考えられる。しかしながら、暗号化/復号処理のためにアプリケーション装置側のリソースを消費してしまうのは好ましくない。また暗号化通信プロトコルに非対応の機器ではセンシング結果を利用できないとなると、独立型センシング装置の普及の妨げとなってしまう。また、たとえ暗号化したとしても、誤送信や通信傍受による情報漏えいのリスクはゼロではないので、個人情報の取り扱いに関心の高いユーザの抵抗感を払しょくすることは難しい。
本発明は上記実情に鑑みなされたものであって、画像センシングを行うセンシング装置とセンシング結果を利用するアプリケーション装置とが別々の装置からなるシステムにおいて、個人情報の漏えいの防止とセンシング結果の利用性の向上を両立するための技術を提供することを目的とする。
上記目的を達成するために、本発明では、別々の装置であるセンシング装置とアプリケーション装置により画像センシングシステムを構成する。センシング装置は、撮像装置と、前記撮像装置で取り込まれた画像から人の全体又は一部分をセンシング対象として検出し、検出されたセンシング対象に関する情報を抽出する画像処理部と、前記画像処理部で抽出された情報を含むセンシング結果を無線通信により送出する無線通信部と、を有する。また、アプリケーション装置は、前記センシング装置から前記センシング結果を受信する通信部と、前記通信部で受信した前記センシング結果に含まれる情報を利用した処理を実行するアプリケーション処理部と、を有する。そして、前記センシング装置からセンシング結果として送出される情報には、前記撮像装置で取り込まれた画像、及び、前記検出されたセンシング対象の個人を直接特定可能な情報のいずれも含まれていないことを特徴とする。
このような構成によれば、センシング装置からアプリケーション装置に送られる情報には、人が写った画像や個人を直接特定可能な情報が一切含まれないため、仮に誤送信や通信傍受が起きたとしても個人情報の漏えいは発生しない。したがって、センシング装置とアプリケーション装置の間の通信に高度なセキュリティを設ける必要がなくなり、センシング装置とアプリケーション装置双方の通信モジュールの簡易化を図ることができる。通信にかかるオーバーヘッドが小さければ、処理能力が低い機器やリソースが少ない機器でもアプリケーション装置になり得ることから、センシング装置及びセンシング結果の利用機会を拡大し、独立型センシング装置の普及を促進できるという利点がある。なお、本発明においても、情報の送受信の安全性をより高めるために、暗号化などのセキュアな通信を用いても構わない。つまり、本発明は、セキュリティの低い通信方式からセキュリティの高い通信方式まで幅広く適用可能である。
センシング対象となる「人の全体又は一部分」は、例えば、人の全身、人の半身、人の顔、人の手などである。センシング対象として、人の顔を検出し、顔に関する情報(顔情報)を抽出する構成が好ましい。
前記センシング装置からセンシング結果として受信する情報は、前記検出された顔の状態を表す顔状態情報を含んでおり、前記アプリケーション処理部は、前記顔状態情報に基づいて前記検出された顔の状態を表示装置に出力する処理を行うことが好ましい。この構成によれば、センシング装置のセンシング結果をアプリケーション装置側で確認することができ、アプリケーション装置のユーザの利便性を高めることができる。
ここで、「顔の状態」とは、検出された顔の画像中での様子(画像にどの様に写っているか)であり、例えば、表情の種類(真顔/喜び/驚き/怒り/悲しみなど)、笑顔の度合い、顔向き、視線方向、目つむりなどを例示できる。センシング装置からセンシング結果として送信される顔状態情報は、例えば「表情=喜び50」「笑顔度=30」「顔向き=右30」というように、数値(スコア)や符号(コード)を用いて顔の状態を記述したデータとなる。
ところで、アプリケーション装置側で顔の状態を出力する際に、上記のような数値や符号を単に表示するだけでは、ユーザフレンドリネスが極めて低い。ユーザは、数値や符号だけでは顔の状態を理解するのが難しく、センシング結果の適否を確認することができないからである。従来の組み込み型の装置のようにセンシングに用いた元画像が存在する場合には、元画像とセンシング結果を同時に表示することでセンシング結果の確認を容易にすることが可能であるが、本発明のような独立型の場合には、アプリケーション装置側で元画像を利用できないため、ユーザフレンドリネス向上のための特別な工夫が必要となる。
そこで、アニメーション、アバター、又は、顔画像を用いて、複数種類の顔の状態を表現可能な仮想顔のデータを予め格納している記憶部を設け、前記アプリケーション処理部は、前記センシング装置から受信した顔状態情報に応じた仮想顔を前記表示装置に出力することにより、前記検出された顔の状態を表現することが好ましい。この構成によれば、(元画像の代わりに)アニメーション、アバター、又は、顔画像による仮想顔を用いて、顔の状態が表現されるため、ユーザはセンシング結果を直観的かつ即座に確認することが可能となる。この構成は、本発明のようにセンシングに用いた元画像が利用できない構成において非常に有用である。
前記アプリケーション処理部は、前記センシング装置から逐次受信する顔状態情報の変化に合わせて、前記表示装置に出力する仮想顔を変化させるとよい。この構成によれば、アプリケーション装置側に表示される仮想顔を見ることで、センシング対象の顔の状態変化をリアルタイムに確認することが可能となる。
前記顔状態情報は、前記検出された顔の笑顔の度合いを示す笑顔度の情報を含んでおり、前記アプリケーション処理部は、前記センシング装置から受信した笑顔度に応じた笑顔を表現する仮想顔を前記表示装置に出力するとよい。この構成によれば、アプリケーション装置側に表示される仮想顔の表情を見ることで、センシング対象が笑っているかどうかや笑顔の度合いを容易に確認することが可能となる。
このような笑顔度判定の技術は様々なアプリケーションに応用が期待できる。例えば、前記アプリケーション処理部は、笑顔度を利用した判定アプリを提供するものであり、前記判定アプリは、前記センシング装置から逐次受信する笑顔度の変化を監視し、制限時間内に笑顔度が閾値を超えるか否かを判定する処理を行うとよい。
なお、本発明は、上記構成ないし機能の少なくとも一部を有するアプリケーション装置もしくはセンシング装置、又は、アプリケーション装置とセンシング装置からなる画像センシングシステムとして捉えることができる。また本発明は、上記処理の少なくとも一部を含む画像センシング方法、又は、かかる方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、画像センシングを行うセンシング装置とセンシング結果を利用するアプリケーション装置とが別々の装置からなるシステムにおいて、個人情報の漏えいの防止とセンシング結果の利用性の向上を両立することができる。
本発明の実施形態に係る画像センシングシステムの構成例を示す図。 センシング装置とアプリケーション装置の内部構成を示す図。 センシング装置とアプリケーション装置の間の連携及びデータ通信の手順を示す図。 センシング結果の一例を示す図。 笑顔度を利用した判定アプリの処理フローを示す図。 判定アプリで利用する仮想顔データの例を示す図。 判定アプリの画面遷移を示す図。 笑顔度の時系列データを記録するアプリの動作を示す図。
(システムの全体構成)
図1は、本発明の実施形態に係る画像センシングシステムの構成例を示す図である。画像センシングシステムは、画像センシングによって、センシング対象(例えば人の顔)に関する各種の情報を取得するためのシステムである。図1では、センシング対象とシステムのユーザとを分けて描いているが、ユーザ自身がセンシング対象になることもできる。
本実施形態の画像センシングシステムは、センシング装置1とアプリケーション装置2の2種類のデバイスで構成される。センシング装置1は、画像センシングに特化した独立型のデバイスであり、アプリケーション装置2などの外部機器に対してセンシング結果を提供する機能を有する。一方のアプリケーション装置2は、センシング装置1から取得したセンシング結果を利用するデバイスである。センシング装置1とアプリケーション装置2の間のデータ送受信は、Bluetooth、Wi−Fi、赤外線通信などの無線通信を利用して行われる。セキュリティ及び通信処理の簡易化の観点からはセンシング装置1とアプリケーション装置2とが直接通信する構成が好ましいが、無線LANルータやアクセスポイントのような他のネットワーク装置、又は、インターネットを介して、センシング装置1とアプリケーション装置2とが通信する構成を採用してもよい。あるいは、USBケーブルなどでセンシング装置1とアプリケーション装置2を接続し、有線通信によるデータ送受信を行えるようにしてもよい。
図1では、アプリケーション装置2の例としてスマートフォンを示しているが、パーソナルコンピュータ、タブレット端末、携帯電話、ゲーム機、家電機器、産業機器など、無線通信機能を有するあらゆる種類のデバイスがアプリケーション装置2になり得る。また、図1では、一台のセンシング装置1と一台のアプリケーション装置2による一対一のシステム構成が例示されているが、一台のセンシング装置1と複数台のアプリケーション装置2、複数台のセンシング装置1と一台のアプリケーション装置2、複数台のセンシング装置1と複数台のアプリケーション装置2といったシステム構成も可能である。
(センシング装置)
図2に、センシング装置1の内部構成を模式的に示す。
センシング装置1は、主な構成として、撮像装置10と、画像処理部11と、無線通信部12を備えて構成される。撮像装置10はカラー又はモノクロの画像を取り込む撮像ユニットであり、例えばレンズ一体型のCCDモジュールなどで構成される。画像処理部11は、撮像装置10で取り込まれた画像から人の全体又は一部分をセンシング対象として検出し、検出されたセンシング対象に関する情報を抽出する機能を有するユニットである。また、無線通信部12は、アプリケーション装置2との間で無線通信によるデータ送受信を行うユニットであり、例えばBluetooth通信モジュールやWi−Fi通信モジュールなどで構成される。
本実施形態では、CPU(プロセッサ)、メモリ、及び、画像センシング処理のプログラムを格納したROM(リードオンリーメモリ)により画像処理部11を構成する。すなわち、センシング装置1の動作時は、CPUがROMから必要なプログラムを読み込み実行することで、画像処理部11の機能が実現される。ただし、この構成は一例であり、撮像装置10及び無線通信部12を制御するCPUとは別に、画像センシング処理を専用に行う画像処理プロセッサを設けてもよい。
画像処理部11で実行可能な画像センシング処理には、顔検出、人体検出、手検出、性別推定、年齢推定、視線推定、顔向き推定、表情推定、笑顔度判定、目つむり推定などがある。顔検出とは、画像の中から人の顔を検出する処理である。人体検出とは、画像の中から人の全身又は上半身を検出する処理であり、手検出は、画像の中から人の手を検出す
る処理である。性別推定は、画像から検出された人(顔)の性別を推定する処理、年齢推定は、画像から検出された人(顔)の年齢又は年代を推定する処理である。視線推定は、画像から検出された顔の視線方向を推定する処理であり、顔向き推定は、画像から検出された顔の向き(正面/上向き/下向き/右向き/左向きなど)を推定する処理である。表情推定は、画像から検出された顔の表情(満足/不満足の分類。真顔/喜び/驚き/怒り/悲しみの5つの表情の分類など)を推定する処理である。笑顔度判定は、画像から検出された顔の笑顔の度合いを判定する処理である。目つむり推定は、画像から検出された顔の瞼が閉じているか開いているかを判定する処理である。これらの処理には従来から知られているアルゴリズムを採用できるため、ここでは詳しい説明は割愛する。
(アプリケーション装置)
図2に、アプリケーション装置2の内部構成を模式的に示す。
アプリケーション装置2は、主な構成として、通信部20と、アプリケーション処理部21と、記憶部22と、表示装置23と、入力装置24を備えて構成される。通信部20は、センシング装置1との間で無線通信によるデータ送受信を行うユニットであり、例えばBluetooth通信モジュールやWi−Fi通信モジュールなどで構成される。アプリケーション処理部21は、センシング装置1から受信したセンシング結果に含まれる情報を利用した処理を実行するユニットである。記憶部22は、アプリケーション処理部21で利用する各種のデータを記憶しているユニットである。後述する笑顔度判定アプリにおいて利用される仮想顔のデータなどは、この記憶部22内に格納されている。表示装置23は、取得した顔情報やアプリケーション装置2の処理結果などを表示するためのデバイスであり、入力装置24は、アプリケーション装置2に対し情報入力を行うためのデバイスである。
本実施形態では、アプリケーション装置2としてスマートフォンを利用する。したがって、通信部20は内蔵の無線通信モジュールにより構成され、記憶部22は内蔵メモリ又はフラッシュメモリにより構成され、表示装置23及び入力装置24はタッチパネルディスプレイにより構成される。また、アプリケーション処理部21は、CPU(プロセッサ)、メモリ、及び、アプリケーション装置2にインストールされたアプリケーションプログラム(単に「アプリ」とも呼ばれる)により構成される。アプリを入れ替えたり追加したりすることで、アプリケーション装置2は顔情報を利用した様々な機能を提供することができる。
(システムの動作)
図3を参照して、画像センシングシステムの動作、特にセンシング装置1とアプリケーション装置2の間の連携及びデータ通信について説明する。
まず最初に、センシング装置1の無線通信部12とアプリケーション装置2の通信部20の間でのデータ通信を可能にするための接続処理を行う。図3に、一例として、アプリケーション装置2がマスタ(セントラル)、センシング装置1がスレーブ(ペリフェラル)となり、BluetoothLEのコネクションを確立する手順を示す。
センシング装置1の電源を投入すると、スレーブ(センシング装置1)はすぐに接続要求状態に遷移し、定期的に(例えば100msec間隔)アドバタイズメントパケットをブロードキャストし、自機の存在を周囲に知らせる。一方、マスタ(アプリケーション装置2)は起動後に接続検索状態に遷移し、アドバタイズメントパケットの受信を待つ。マスタ(アプリケーション装置2)は近くに存在するスレーブ(センシング装置1)からアドバタイズメントパケットを受信すると、そのパケットに含まれる情報に基づき接続可能なデバイスか否かを判定する。接続可能なデバイスが見つかると、マスタ(アプリケーシ
ョン装置2)は参加要請を送信して接続状態へと遷移する。スレーブ(センシング装置1)はマスタからの参加要請を受信すると、接続状態へ遷移する。これにより、マスタ(アプリケーション装置2)とスレーブ(センシング装置1)の間のコネクションが確立し、以後、データチャネルを利用したパケット通信が可能となる。
センシング装置1は、接続状態になると、撮像装置10からの画像取込及び画像処理部11による画像センシング処理を開始する。画像取込及び画像センシング処理は、コネクションが切断されるまで、定期的に(例えば、1sec間隔)実行される。なお、画像データ及びセンシング結果のデータは、直近の数フレーム分のデータをメモリに残し、古いデータは順次削除(破棄)されていく。
アプリケーション装置2は、任意のタイミングでセンシング装置1に対しセンシング要求を送出することができる。センシング装置1は、アプリケーション装置2からセンシング要求を受信すると、最も新しいセンシング結果のデータをメモリから読み出し、アプリケーション装置2へと送出する。これにより、アプリケーション装置2は、センシング対象の情報を必要なときにほぼリアルタイムに取得し、センシング対象の情報を利用したアプリケーション処理を実行することができる。
センシング対象の情報としては、顔検出、人体検出、手検出、性別推定、年齢推定、視線推定、顔向き推定、表情推定、笑顔度判定、目つむり推定などの処理結果を取得することが可能である。顔検出・人体検出・手検出の結果としては、検出個数、矩形位置座標(顔、人体、又は手を包含する矩形の左上と右下の座標)、矩形中心座標、矩形サイズ(ピクセル数)、検出の信頼度などを出力可能である。性別推定の結果としては、性別(男性/女性)と推定の信頼度などを出力可能である。年齢推定の結果としては、年齢(数値)、年代(数値範囲)、推定の信頼度などを出力可能である。視線推定の結果としては、視線の左右方向の角度、上下方向の角度、推定の信頼度などを出力可能である。顔向き推定の結果としては、左右方向の角度、上下方向の角度、傾き角度(回転角度)、推定の信頼度などを出力可能である。表情推定の結果としては、5表情(真顔/喜び/驚き/怒り/悲しみ)のいずれかとそのスコア(例えば、0〜100)、満足(ポジティブ)/不満足(ネガティブ)の度合いなどを出力可能である。笑顔度判定の結果としては、笑顔の度合い(例えば0〜100のスコア)を出力可能である。目つむり推定の結果としては、右目と左目それぞれの目の開き度合い(例えば、閉状態=0〜全開状態=1000のスコア)を出力可能である。
図4(A)に、センシング装置1から送出されるセンシング結果の一例を模式的に示す。この例では、センシング結果の取得日時、画像から検出された顔の数、及び、顔ごとの顔情報が、テキストで記述されている。[]で囲まれた文字列は顔情報の種類(項目)を表し、=に続く数値又は符号が顔情報の値を表している。すなわち、図4(A)のセンシング結果からは、画像から2つの顔が検出されたこと、「顔1」は、顔矩形の左上と右下のXY座標がそれぞれ(30,60)、(60,90)であり、性別が男性であり、年齢が30歳であり、顔向きが右方向30度であり、視線向きが右方向30度及び下方向10度であり、右目と左目の目つむり度がそれぞれ200、250であり、表情が喜び70%であり、笑顔度が65点であることが分かる。
このように本実施形態では、画像から抽出した情報を数値化もしくは符号化したデータのみをセンシング結果として送出し、画像データはもちろんのこと、画像中の人物を直接特定可能な情報は外部に送出しない。したがって、個人情報の漏えいのリスクを最小限にすることができる。
図4(B)は、センシング結果のサブセットの例を示す。アプリケーション装置2側で
全項目の情報を受け取る必要がない場合には、センシング要求の中で希望の項目を指定することで、図4(B)のように一部の顔情報のみを取得することができる。このように必要な顔情報のみを取得するようコントロールすれば、アプリケーション装置2とセンシング装置1の間の通信負荷を低減することができる。この方法は、一対多もしくは多対多の通信を行う場合や、アプリケーション装置2の処理能力が低い場合などに、有効である。
(笑顔度を利用した判定アプリの例)
図5〜図7を参照して、アプリケーション装置2で提供されるアプリの一例を説明する。図5は、笑顔度を利用した判定アプリの処理フローであり、図6は、判定アプリで利用する仮想顔データの例であり、図7は、判定アプリの画面遷移図である。
判定アプリを起動すると、アプリケーション処理部21は、図7(A)に示す初期画面を表示装置23に表示する。この判定アプリは、制限時間内に笑顔度が基準点(閾値)を超えると成功、というルールのゲームアプリである。初期画面には、ゲームのルール説明とともに、スタートボタンと設定ボタンが表示されている。初期状態では、制限時間が5分、クリアの基準点が80点に設定されているが、設定ボタンをタップすると表示される難易度設定画面において、制限時間及び基準点を変更することができる。
ユーザがスタートボタンをタップすると、図5のフローが開始される。ステップS500において、アプリケーション処理部21は、通信部20を介して、センシング装置1からセンシング結果を取得する。顔が検出できなかった場合は(ステップS501;N)、「顔がみつかりません」というエラーメッセージを表示し、ステップS500の処理を繰り返す。ゲーム参加者の顔が検出できた場合は(ステップS501;Y)、アプリケーション処理部21は、ゲーム開始の合図として「3、2、1、スタート!」というアニメーションを表示装置23に表示した後、ゲーム開始からの経過時間のカウントを開始する(ステップS502)。ゲームの残り時間は、図7(B)に示すように、画面に表示される(ステップS503)。
アプリケーション処理部21は、通信部20を介して、定期的に(例えば1sec間隔)センシング装置1からセンシング結果を取得する(ステップS504)。もしゲームの途中で顔が検出できなくなった場合は(ステップS505;N)、ゲームを中断する(ステップS510)。顔が検出できた場合(ステップS505;Y)、アプリケーション処理部21は、センシング結果から笑顔度のデータを抽出し、図7(B)に示すように、笑顔度(スコア)を画面に表示する(ステップS506)。
このとき、センシング装置1で撮影したゲーム参加者の画像(元画像)を笑顔度と一緒に画面に表示することができれば、ゲーム参加者の実際の表情とアプリの判定結果を見比べることができ、大変分かりやすい。しかしながら、本システムでは、個人情報の漏えい防止のため、アプリケーション装置2側では元画像を利用することができない。そこで、本システムでは、センシング結果に含まれる顔状態情報に応じた仮想顔をアプリケーション装置2側で生成し、元画像の代わりに、画面に表示する。
ここで、仮想顔とは、顔の状態(表情、笑顔の度合い、視線の方向、顔の向きなど)を表現するための画像である。仮想顔としては、アニメーションやアバターのようなイラスト(線画)を用いることもできるし、顔画像などの写真画像を用いることもできる(例えば、予めアプリケーション装置2側でゲーム参加者の顔を撮影し、その顔画像を使って仮想顔を生成してもよい。)。複数種類の顔の状態を表現可能とするために、様々な種類の仮想顔データがあらかじめ記憶部22に登録されている。一例として、図6は、4段階の笑顔を表現するための仮想顔データ「egao00.gif」〜「egao03.gif」と、複数の顔向きを表現するための仮想顔データ「normal.gif」、「up.gif」・・・を示している。
例えば、笑顔度のスコアが30点であった場合は、記憶部22から「egao00.gif」が読み込まれ画面に表示され(図7(B)参照)、笑顔度のスコアが55点であった場合は、「egao01.gif」が読み込まれ画面に表示される(図7(C)参照)。このように、笑顔度のスコアだけでなく笑顔度に応じた仮想顔を表示することで、ゲーム参加者の笑顔の度合いを直観的かつ即座に確認可能な分かりやすいインターフェイスを提供できる。
続いて、アプリケーション処理部21は、笑顔度と基準点とを比較し(ステップS507)、笑顔度が基準点を超えていれば、図7(D)に示すように、画面に「CLEAR!!」という成功アニメーションを表示し(ステップS508)、ゲームを終了する。一方、笑顔度が基準点に満たない場合は(ステップS507;N)、ステップS503へと戻り、笑顔度が基準点を超えるまで処理を繰り返す。ただし、制限時間内に基準点を超えることができなかった場合は(ステップS509;Y)、図7(E)に示すように、画面に「NOT CLEAR」という失敗アニメーションの表示を行い(ステップS510)、ゲームを終了する。
(本実施形態の利点)
以上述べた本実施形態の構成は次のような利点を有する。センシング装置1からアプリケーション装置2に送られる情報には、人が写った画像や個人を直接特定可能な情報が一切含まれないため、仮に誤送信や通信傍受が起きたとしても個人情報の漏えいは発生しない。したがって、センシング装置1とアプリケーション装置2の間の通信に高度なセキュリティを設ける必要がなくなり、センシング装置1とアプリケーション装置2双方の通信モジュールの簡易化を図ることができる。通信にかかるオーバーヘッドが小さければ、例えば家電機器の組み込みマイコンのように、処理能力が低い機器やリソースが少ない機器でもアプリケーション装置2になり得る。アプリケーション装置2の適用範囲が広がれば、センシング装置1及びセンシング結果の利用機会を拡大できるため、センシング装置1の普及を促進できるという利点がある。
また、本実施形態のアプリケーション装置2のように、センシング対象の状態を画面表示すると、センシング装置1のセンシング結果をアプリケーション装置2側で確認することができ、ユーザの利便性を高めることができる。さらにこのとき、上記判定アプリのように、アニメーション、アバター、又は、顔画像による仮想顔を用いて顔の状態を表現すると、センシング結果の直観的な理解が容易となり、ユーザフレンドリネスの向上を図ることができる。
(他のアプリの例)
前述の笑顔度判定の技術は様々なアプリケーションに応用することができる。以下にその一例を挙げる。
図8(A)は、笑顔度の時系列データを記録するアプリケーションのフロー図である。ユーザがアプリに対し「記録開始」を指示すると(ステップS801)、アプリケーション処理部21がセンシング装置1からセンシング結果を取得し(ステップS802)、笑顔度のスコアを時刻情報とともに記憶部22に記録する(ステップS803)。以降、ユーザが「記録終了」を指示するか、所定の記録時間に到達するまで、定期的に(例えば、1sec間隔)笑顔度の取得及び記録が行われる(ステップS804)。記録が終了すると、アプリケーション処理部21が、記録された笑顔度の時系列データを表示装置23にグラフ表示する(ステップS805)。
図8(B)は、表示装置23に表示された笑顔度の時系列データの一例である。このような時系列データのグラフをみることで、この人物の笑顔度の推移を簡単に把握すること
ができる。この例では、笑顔度が閾値(図の破線)を超えた期間が2回あることが分かる。
このようなアプリケーションは、コメディアンやコメディショーの面白さを記録もしくは採点するための採点器(笑いメーター)に利用することができる。例えば、観客(採点者)の顔を撮影するようにセンシング装置1を設置し、コメディアン(演者)が芸を演じている間の観客の笑顔度をアプリケーション装置2で記録する。図8(B)のような笑顔度の時系列データが得られると、その演者もしくは演目の面白さを客観的な指標で評価することが可能となる。したがって、例えば、複数の演者が競い合うコンテストにおいて、採点器で記録された笑顔度の高さで優勝を争ったり、笑顔度が閾値を超えた時間の長さで優勝を争ったり、予め指定された笑顔度に近いスコアを出せたかどうかで勝ち負けを争ったりなど、いろいろな活用が可能である。また、笑顔度の推移をリアルタイムで監視できるので、例えば、笑顔度が閾値を超えるまでの時間を比べ、誰が最も早く観客を笑わせるかを競わせることもできる。また、複数の演者でチームを組み、チームの笑顔度の合計や平均でチーム対抗戦を行うことも可能である。
上述した実施形態の構成は本発明の一具体例を示したものにすぎず、本発明の範囲を限定する趣旨のものではない。本発明はその技術思想を逸脱しない範囲において、種々の具体的構成を採り得るものである。
1:センシング装置
2:アプリケーション装置
10:撮像装置
11:画像処理部
12:無線通信部
20:通信部
21:アプリケーション処理部
22:記憶部
23:表示装置
24:入力装置

Claims (8)

  1. 撮像装置と、前記撮像装置で取り込まれた画像から人の全体又は一部分をセンシング対象として検出し、検出されたセンシング対象に関する情報を抽出する画像処理部と、前記画像処理部で抽出された情報を含むセンシング結果を無線通信により送出する無線通信部と、を有するセンシング装置と、
    前記センシング装置から前記センシング結果を受信する通信部と、前記通信部で受信した前記センシング結果に含まれる情報を利用した処理を実行するアプリケーション処理部と、を有するアプリケーション装置と、
    を有する画像センシングシステムにおいて、
    前記センシング装置からセンシング結果として送出される情報には、前記検出された顔の状態を表す顔状態情報が含まれ、かつ、前記撮像装置で取り込まれた画像、及び、前記検出されたセンシング対象の個人を直接特定可能な情報のいずれも含まれておらず、
    前記アプリケーション処理部は、前記顔状態情報を基準値と比較し、前記顔状態情報と前記基準値との比較結果に応じて表示装置に表示を行う
    ことを特徴とする画像センシングシステム。
  2. 撮像装置と、前記撮像装置で取り込まれた画像から人の全体又は一部分をセンシング対象として検出し、検出されたセンシング対象に関する情報を抽出する画像処理部と、前記画像処理部で抽出された情報を含むセンシング結果を無線通信により送出する無線通信部と、を有するセンシング装置から、前記センシング結果を受信する通信部と、
    前記通信部で受信した前記センシング結果に含まれる情報を利用した処理を実行するアプリケーション処理部と、を有するアプリケーション装置において、
    前記センシング装置からセンシング結果として受信する情報には、前記検出された顔の状態を表す顔状態情報が含まれ、かつ、前記撮像装置で取り込まれた画像、及び、前記検出されたセンシング対象の個人を直接特定可能な情報のいずれも含まれておらず、
    前記アプリケーション処理部は、前記顔状態情報を基準値と比較し、前記顔状態情報と前記基準値との比較結果に応じて表示装置に表示を行う
    ことを特徴とするアプリケーション装置。
  3. 前記センシング対象は、人の顔である
    ことを特徴とする請求項に記載のアプリケーション装置。
  4. アニメーション、アバター、又は、顔画像を用いて、複数種類の顔の状態を表現可能な仮想顔のデータを予め格納している記憶部をさらに有しており、
    前記アプリケーション処理部は、前記センシング装置から受信した顔状態情報に応じた仮想顔を前記表示装置に出力することにより、前記検出された顔の状態を表現する
    ことを特徴とする請求項2又は3に記載のアプリケーション装置。
  5. 前記アプリケーション処理部は、前記センシング装置から逐次受信する顔状態情報の変化に合わせて、前記表示装置に出力する仮想顔を変化させる
    ことを特徴とする請求項に記載のアプリケーション装置。
  6. 前記顔状態情報は、前記検出された顔の笑顔の度合いを示す笑顔度の情報を含んでおり、
    前記アプリケーション処理部は、前記センシング装置から受信した笑顔度に応じた笑顔を表現する仮想顔を前記表示装置に出力する
    ことを特徴とする請求項又はに記載のアプリケーション装置。
  7. 前記アプリケーション処理部は、笑顔度を利用した判定アプリを提供するものであり、
    前記判定アプリは、前記センシング装置から逐次受信する笑顔度の変化を監視し、制限時間内に笑顔度が閾値を超えるか否かを判定する処理を行う
    ことを特徴とする請求項に記載のアプリケーション装置。
  8. コンピュータを、請求項2〜7のいずれか1項に記載されたアプリケーション装置として機能させ
    とを特徴とするプログラム。
JP2014255531A 2014-12-17 2014-12-17 画像センシングシステム Active JP6547290B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014255531A JP6547290B2 (ja) 2014-12-17 2014-12-17 画像センシングシステム
DE112015005688.2T DE112015005688T5 (de) 2014-12-17 2015-11-25 Bilderkennungssystem
PCT/JP2015/083122 WO2016098547A1 (ja) 2014-12-17 2015-11-25 画像センシングシステム
US15/516,101 US10262125B2 (en) 2014-12-17 2015-11-25 Image sensing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255531A JP6547290B2 (ja) 2014-12-17 2014-12-17 画像センシングシステム

Publications (2)

Publication Number Publication Date
JP2016116174A JP2016116174A (ja) 2016-06-23
JP6547290B2 true JP6547290B2 (ja) 2019-07-24

Family

ID=56126444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255531A Active JP6547290B2 (ja) 2014-12-17 2014-12-17 画像センシングシステム

Country Status (4)

Country Link
US (1) US10262125B2 (ja)
JP (1) JP6547290B2 (ja)
DE (1) DE112015005688T5 (ja)
WO (1) WO2016098547A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430600B2 (en) * 2016-01-20 2019-10-01 International Business Machines Corporation Mechanisms for need to know and leak avoidance
US10613827B2 (en) * 2018-03-06 2020-04-07 Language Line Services, Inc. Configuration for simulating a video remote interpretation session
CN113784084B (zh) * 2021-09-27 2023-05-23 联想(北京)有限公司 一种处理方法及装置
US11853509B1 (en) 2022-05-09 2023-12-26 Microsoft Technology Licensing, Llc Using a camera to supplement touch sensing
CN118233708A (zh) * 2022-12-19 2024-06-21 北京京东乾石科技有限公司 一种数据处理方法、装置、设备和计算机可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325238A (ja) * 2001-04-26 2002-11-08 Seiko Instruments Inc 簡易動画送受信システム及び動画送受信方法
JP4296976B2 (ja) * 2004-03-25 2009-07-15 沖電気工業株式会社 通信端末装置
JP4671192B2 (ja) * 2006-05-02 2011-04-13 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP4659088B2 (ja) * 2008-12-22 2011-03-30 京セラ株式会社 カメラ付き携帯端末
JP5332818B2 (ja) 2009-03-31 2013-11-06 ブラザー工業株式会社 通信制御装置、通信制御方法、通信制御プログラム
US9398262B2 (en) * 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
JP2014206932A (ja) 2013-04-15 2014-10-30 オムロン株式会社 認証装置、認証方法、制御プログラムおよび記録媒体
US9898610B1 (en) * 2014-10-22 2018-02-20 State Farm Mutual Automobile Insurance Company System and method for concealing sensitive data on a computing device

Also Published As

Publication number Publication date
WO2016098547A1 (ja) 2016-06-23
JP2016116174A (ja) 2016-06-23
US20170316193A1 (en) 2017-11-02
US10262125B2 (en) 2019-04-16
DE112015005688T5 (de) 2017-08-31

Similar Documents

Publication Publication Date Title
JP6547290B2 (ja) 画像センシングシステム
US10187690B1 (en) Systems and methods to detect and correlate user responses to media content
JP6200483B2 (ja) 画像処理システム、画像処理方法、および画像処理プログラム
CN108108012B (zh) 信息交互方法和装置
JP6081440B2 (ja) スマートグラスに基づくプロンプティングのための方法及び装置
JP2013504933A5 (ja)
KR101514061B1 (ko) 노인 관리용 무선 카메라 장치 및 이를 통한 노인 관리 시스템
KR102413269B1 (ko) 정보 처리 장치
JP6619542B1 (ja) ビデオフレームの複数の部分のフィンガープリントを生成することによって立体ビデオを検出するための方法、システム、および媒体
JP6456286B2 (ja) ビデオ会議中の参加者の映像ミュートを可能にするための方法および装置
CN107003819B (zh) 多用户的基于传感器的交互
WO2017219497A1 (zh) 消息生成方法及装置
JP6649005B2 (ja) ロボット撮影システムおよび画像管理方法
JP2017084100A (ja) 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム
US20190132711A1 (en) Systems and associated methods for sharing image files
CN104202556B (zh) 信息获取方法、信息获取装置及用户设备
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
KR101805347B1 (ko) 개인 내 영역 네트워크에 관한 라이프로그 카메라 및 제어 방법
JP6711621B2 (ja) ロボット、ロボット制御方法およびロボットプログラム
JP5988697B2 (ja) 内視鏡システム及びプログラム
CN106375646B (zh) 一种信息处理方法及终端
EP3248304B1 (en) Device, system, and method for displaying an image together with a superimposed light component representing a code
KR20190056679A (ko) 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법
US20180169524A1 (en) Information processing device, system, and information processing method
TW202133627A (zh) 線上直播的即時互動方法及應用於線上直播之即時互動的用戶端手持式裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250