JP2018136766A - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP2018136766A
JP2018136766A JP2017031076A JP2017031076A JP2018136766A JP 2018136766 A JP2018136766 A JP 2018136766A JP 2017031076 A JP2017031076 A JP 2017031076A JP 2017031076 A JP2017031076 A JP 2017031076A JP 2018136766 A JP2018136766 A JP 2018136766A
Authority
JP
Japan
Prior art keywords
task
user
information processing
information
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017031076A
Other languages
English (en)
Inventor
拓也 池田
Takuya Ikeda
拓也 池田
脩 繁田
Osamu Shigeta
脩 繁田
誠司 鈴木
Seiji Suzuki
誠司 鈴木
彩耶 川井
Aya KAWAI
彩耶 川井
やすし 的場
Yasushi MATOBA
やすし 的場
一郎 椎尾
Ichiro Shiio
一郎 椎尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017031076A priority Critical patent/JP2018136766A/ja
Priority to PCT/JP2018/004291 priority patent/WO2018155199A1/ja
Priority to US16/485,884 priority patent/US20200019233A1/en
Publication of JP2018136766A publication Critical patent/JP2018136766A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】対面でのコミュニケーションを促すことができるようにする。【解決手段】本技術の一側面に係る情報処理装置は、複数の人物を識別し、複数の人物が一緒に行う特定の動作を検出し、特定の動作が検出された場合、複数の人物の組み合わせに応じた処理を行う。例えば、タスク管理アプリケーションの実行中、タスクの登録は、タスクを担当するユーザ同士がハイタッチや握手などの動作を行うことに応じて行われる。タスクを終え、そのタスクを完了させる際にも、タスクを行ったユーザ同士がハイタッチや握手などの動作を行うことが求められる。本技術は、プロジェクタから映像を投影させて情報を提示するシステムに適用することができる。【選択図】図1

Description

本技術は、情報処理装置、情報処理方法、プログラムに関し、特に、対面でのコミュニケーションを促すことができるようにした情報処理装置、情報処理方法、プログラムに関する。
近年、家族が集まる機会はあるものの、スマートフォンなどを各自が使用することによって会話が減少していることが問題になっている。
家族が暮らしていく上では、食事の準備、掃除、洗濯、買い物を含む家事や、旅行の計画などの様々なタスクがあるが、それらのタスクを誰がやるのかですら、面と向かって話して決めるのではなく、SNS上のやりとりで決めてしまうこともある。
ビジネスの場面でも、タスク管理などの作業が、ネットワーク上のサーバが提供するツールを用いて行われることがある。
特開2005−222246号公報
上述したようなツールは、いつでもどこでも閲覧したり更新したりすることができるため、効率的かつ便利なものではであるが、その反面、face to faceでのコミュニケーションが不足しがちになる。
本技術はこのような状況に鑑みてなされたものであり、対面でのコミュニケーションを促すことができるようにするものである。
本技術の一側面の情報処理装置は、複数の人物を識別する個人識別部と、前記複数の人物が一緒に行う特定の動作を検出する動作検出部と、前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う処理制御部とを備える。
前記動作検出部には、近くにいる前記複数の人物が行う前記特定の動作を検出させることができる。
前記動作検出部には、前記複数の人物が触れ合って行う動作を前記特定の動作として検出させることができる。
前記動作検出部には、前記複数の人物が所定の言葉を発する動作を前記特定の動作として検出させることができる。
前記個人識別部には、予め登録しておいた前記複数の人物を、センサにより検出された情報に基づいて、または、前記複数の人物による入力操作に基づいて識別させることができる。
前記処理制御部には、タスク管理に用いられる管理画面において登録対象のタスクが選択され、前記特定の動作が検出された場合、前記登録対象のタスクを、前記特定の動作を行った前記複数の人物が協力して行うタスクとして登録させることができる。
前記処理制御部には、登録したタスクの内容、期限、協力して行う人物、および、タスク終了時の動作を表す情報を含むタスク情報を記憶させることができる。
前記処理制御部には、前記タスク情報により表される人物が、前記特定の動作としての、前記タスク終了時の動作を行ったことが検出された場合、前記タスク情報により表される内容のタスクが終了したものとして管理させることができる。
前記処理制御部には、前記特定の動作が検出された場合の前記管理画面の表示が、前記複数の人物の組み合わせに応じて変わるように前記管理画面の表示を制御させることができる。
前記処理制御部には、投影装置によって投影される前記管理画面の表示を制御させることができる。
前記処理制御部には、制御対象となる機器のロックを解除する処理を行わせることができる。
本技術の一側面においては、複数の人物が識別され、前記複数の人物が一緒に行う特定の動作が検出される。また、前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理が行われる。
本技術によれば、対面でのコミュニケーションを促すことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る情報処理システムの使用状態の例を示す図である。 テーブルに投影された画面の操作の例を示す図である。 特定の動作の例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 情報処理装置の基本的な処理について説明するフローチャートである。 動作の例を示す図である。 動作の他の例を示す図である。 情報処理装置のタスク管理処理について説明するフローチャートである。 タスク情報とユーザ関連情報のデータ構造の例を示す図である。 タスク管理画面の構成例を示す図である。 タスク登録時の画面遷移の例を示す図である。 タスク登録時の画面遷移の例を示す図12に続く図である。 タスク管理画面の表示例を示す図である。 タスク完了時の画面遷移の例を示す図である。 タスク完了時の画面遷移の例を示す図15に続く図である。 情報処理システムの他の構成例を示す図である。 回路構成の例を示す図である。 情報処理システムの構成例を示す図である。 図19の情報処理システムを実現する情報処理装置の機能構成例を示すブロック図である。 情報処理装置の機器制御処理について説明するフローチャートである。 制限情報のデータ構造の例を示す図である。 仮想空間におけるコミュニケーションの例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.想定する基本システム構成
2.基本となる処理の流れ
3.情報処理システムの適用例(タスク管理に適用した例)
4.情報処理システムの適用例(ペアレンタルロックに適用した例)
5.効果と変形例
[1.想定する基本システム構成]
<<1.1 使用状態の例>>
図1は、本技術の一実施形態に係る情報処理システムの使用状態の例を示す図である。
図1の情報処理システム1は、例えば家の部屋の中で家族により用いられるものである。情報処理システム1は、映像を投影して情報を提示するために用いられる。図1の例においては、部屋に置かれたテーブルTの天板表面が映像の投影面として用いられている。テーブルTの周りには、家族であるユーザU1乃至U4が座っているものとする。
図1に示すように、情報処理システム1は、情報処理装置11、映像表示装置12、およびセンサ装置13から構成される。
図1の例においては、プロジェクタである映像表示装置12は、光の照射方向をテーブルTに向けた状態で部屋の天井付近に設置されている。映像表示装置12は、情報処理装置11による制御に従って、情報処理装置11が実行するアプリケーションの画面などの所定の映像V1をテーブルTに投影する。
センサ装置13は、映像表示装置12の投影面を含む範囲の状況を検出可能な状態で設置される。図1の例においては、センサ装置13は映像表示装置12の近傍に設置されている。センサ装置13は、例えば、双眼のカメラや赤外線深度センサなどを搭載し、三次元画像を取得可能なデプスセンサである。三次元画像により、人を含む各物体の形状、各物体までの距離などが表される。
センサ装置13は、三次元画像により表される、各物体の形状や距離を表すデプス情報をセンサデータとして情報処理装置11に送信する。センサ装置13から送信されたセンサデータは、人検出および動作検出などに用いられる。
テーブルTに投影された画面の操作は、例えば図2に示すように、ユーザが、テーブルTの上に手を伸ばし、画面を構成するアイコンやボタンなどに触れることによって行われる。センサ装置13が送信するセンサデータは、このような、テーブルTに投影された画面に対するユーザの操作の検出などにも用いられる。
部屋の所定の位置に設置された情報処理装置11と映像表示装置12の間、情報処理装置11とセンサ装置13の間の情報の送受信は、有線の通信により、または、無線LAN(Local Area Network)、Bluetooth(登録商標)などの所定の規格の無線による通信を介して行われる。
情報処理装置11は、センサ装置13から送信されたセンサデータに基づいて、検出範囲にいる人の検出を行った後、人登録情報を参照し、検出した人を識別する。また、情報処理装置11は、動作登録情報を参照することによって、識別した人が、特定の動作を行ったか否かを判定する。情報処理装置11は、「誰が、何の動作を行ったか」の判断結果に応じて処理の内容を決定し、決定した処理を実行する。
このような構成を有する情報処理システム1においては、人と人が直接対面し、特定の動作を一緒に行うことをトリガーとして処理を行うシステムが実現される。
すなわち、情報処理システム1の利用者であるユーザU1乃至U4は、図3に示すようにハイタッチなどの特定の動作を行うことによって、アプリケーションの機能を利用することになる。図3の例においてはユーザU1とユーザU2が右手を挙げ、ハイタッチを行っている。
情報処理システム1においては、ハイタッチを行ったユーザがユーザU1とユーザU2の組み合わせであり、一緒に行う特定の動作としてのハイタッチが行われたという判断結果をトリガーとして、所定の処理が行われる。
このように、情報処理システム1を、対象者が同じ空間にいないと動作しないシステムとすることにより、対面でのコミュニケーションを促進することが可能になる。また、アプリケーションの機能を利用するために特定の動作を一緒に行うことが求められるため、それぞれのユーザは、達成感や協力感といったものを感じ、チームワークを深めることが可能になる。
なお、図1の例においては、情報を提示する機器としてプロジェクタである映像表示装置12が設けられているが、天板に大型のディスプレイが設けられたテーブル型のディスプレイが映像表示装置12として設けられるようにしてもよい。
また、ユーザの動きがデプスセンサであるセンサ装置13の出力に基づいて検出されるものとしているが、ユーザが身に着けたセンサの出力に基づいて検出されるようにしてもよいし、テーブルTに設置されたセンサの出力に基づいて検出されるようにしてもよい。
情報処理システム1が公共機関などの民家以外の建物の中で用いられるようにしてもよいし、屋外で用いられるようにしてもよい。また、映像表示装置12の投影面として、テーブルの天板表面ではなく、壁面、床面などの、ユーザの操作を検出可能な各種の平面が用いられるようにしてもよい。平面ではなく、自動車の表面、椅子の表面などの各種の面を投影面とするようにしてもよい。投影面の位置に応じて、映像表示装置12とセンサ装置13の設置位置は適宜変更される。
映像表示装置12の機能がセンサ装置13に搭載され、映像表示装置12の機能とセンサ装置13の機能が1つの装置により実現されるようにしてもよい。
<<1.2 各装置の構成例>>
図4は、情報処理装置11のハードウェア構成例を示すブロック図である。
図4に示すように、情報処理装置11は、CPU31、ROM32、RAM33、入力部35、出力部36、記憶部37、および通信部38が、バス34を介して接続されることによって構成される。
CPU(Central Processing Unit)31は、例えばROM(Read Only Memory)32に格納されているプログラムをRAM(Random Access Memory)33上で実行し、情報処理装置11の全体の動作を制御する。
入力部35は、キーボード、マウスなどよりなり、情報処理システム1のユーザによる操作を受け付ける。
出力部36は、図示せぬディスプレイやスピーカなどより構成される。アプリケーションの画面のデータが通信部38からではなく出力部36から出力されるようにしてもよい。この場合、出力部36は、画面のビデオデータを出力するインタフェースとして機能する。
記憶部37は、ハードディスクやフラッシュメモリなどにより構成される。記憶部37は、CPU31により実行されるプログラムなどの各種の情報を記憶する。
通信部38は、有線または無線による通信を、映像表示装置12、センサ装置13との間で行う。例えば、通信部38は、センサ装置13から送信されてきたセンサデータを受信する。また、通信部38は、映像表示装置12に対してアプリケーションの画面のデータを送信する。通信部38は、適宜、インターネットを介して外部の機器と通信を行う。
図5は、情報処理装置11の機能構成例を示すブロック図である。図5に示す情報処理装置11の機能部のうちの少なくとも一部は、図4のCPU31により所定のプログラムが実行されることによって実現される。
図5に示すように、情報処理装置11においては、人検出部51、人識別部52、人登録情報記憶部53、動作検出部54、動作判定部55、動作登録情報記憶部56、処理制御部57、映像表示制御部58、および制御部71が実現される。センサ装置13から送信され、通信部38において受信されたセンサデータは人検出部51と動作検出部54に入力される。
人検出部51は、センサデータとして入力されたデプス情報に基づいて、テーブルTの周囲にいるユーザを検出する。例えば、ユーザの検出は、デプス情報により表される、頭部、片、腕などの、人の体の部位の形状に基づいて行われる。人検出部51は、検出したそれぞれのユーザの位置を表す情報を人識別部52に出力する。人識別部52に対してはセンサデータも供給される。
人識別部52は、人登録情報記憶部53に記憶されている人登録情報を参照し、人検出部51により検出されたユーザを識別する。例えば、ユーザの識別は、デプス情報により表される、身長や肩幅などの身体的特徴に基づいて行われる。この場合、人登録情報記憶部53には、各ユーザの身体的特徴を表す情報が人登録情報として記憶されている。人識別部52は、テーブルTの周囲にいるユーザが誰であるのかを表す識別情報を処理制御部57に出力する。
人登録情報記憶部53は、情報処理システム1を利用する各ユーザの人登録情報を記憶する。情報処理システム1を利用する各ユーザは、初期登録時などの所定のタイミングで、自身の身体的特徴を表す人登録情報を情報処理装置11に登録させておく必要がある。人登録情報の登録は、例えば、初期登録時に検出されたデプス情報などに基づいて行われる。
動作検出部54は、センサデータとして入力されたデプス情報の時系列に基づいて、テーブルTの周囲にいるユーザの動作を検出する。例えば、ユーザの動作の検出は、デプス情報に基づいて人の手を認識し、認識した手の位置を追跡することによって行われる。動作検出部54は、どのような動作をユーザが行っているのかを表す情報を動作判定部55に出力する。
動作判定部55は、動作登録情報記憶部56に記憶されている動作登録情報を参照し、特定の動作がユーザにより行われたか否かを判定する。例えば、動作登録情報記憶部56には、ハイタッチや握手などの、特定の動作を複数のユーザが一緒になって行うときの手の位置の時系列変化を表す情報が動作登録情報として記憶されている。動作判定部55は、特定の動作が行われたと判定した場合、ユーザが行った動作を表す識別情報を処理制御部57に出力する。
動作登録情報記憶部56は、動作登録情報を記憶する。動作登録情報記憶部56には、例えば、複数の動作の判定に用いられる動作登録情報が記憶されている。
処理制御部57は、人識別部52から供給されたユーザの識別情報と、動作判定部55から供給された動作の識別情報に基づいて、テーブルTの周囲にいて、特定の動作を行ったユーザが誰であるのかを認識する。処理制御部57は、特定の動作を行ったユーザの組み合わせに基づいて、実行する処理の内容を決定する。
処理制御部57は、特定の動作を行ったユーザの組み合わせに応じた処理を実行する。処理制御部57は、適宜、映像表示制御部58を制御し、処理の結果を画面の表示に反映させる。
映像表示制御部58は、処理制御部57から供給された情報に基づいて、表示中の画面を更新し、更新後の画面のビデオデータを映像表示装置12に送信する。映像表示装置12においては、映像表示制御部58から供給されたビデオデータに基づいて画面の表示が行われる。
制御部71は、情報処理装置11に対するユーザの入力操作を検出するなどの各種の処理を行う。
[2.基本となる処理の流れ]
ここで、図6のフローチャートを参照して、以上のような構成を有する情報処理装置11の基本的な処理について説明する。
図6の処理の開始前、ユーザの登録処理が行われ、センサ装置13から出力されたセンサデータに基づいて、各ユーザの身体的特徴を表す情報が人登録情報として人登録情報記憶部53に記憶される。
ステップS1において、人検出・個人識別処理が行われる。人検出・個人識別処理により、センサデータとして入力されたデプス情報に基づいて、テーブルTの周りにいるとして検出されたユーザが識別される。
ステップS2において、人識別部52は、識別したユーザが、登録された人物であるか否かを判定する。登録された人物ではないとステップS2において判定された場合、ステップS1に戻り、以上の処理が繰り返される。
一方、識別したユーザが登録された人物であるとステップS2において判定された場合、処理はステップS3に進む。登録された人物であるとして判定されたユーザの識別情報が処理制御部57に供給される。
ステップS3において、動作検出処理が行われる。動作検出処理により、センサデータとして入力されたデプス情報に基づいて、各ユーザの動作が検出される。
ステップS4において、動作判定部55は、特定の動作がユーザにより行われたか否かを判定する。特定の動作が行われていないとステップS4において判定された場合、ステップS3に戻り、以上の処理が繰り返される。
一方、特定の動作が行われたとステップS4において判定された場合、処理はステップS5に進む。ユーザにより行われた動作の識別情報が処理制御部57に供給される。
ステップS5において、特定の動作を行ったユーザの組み合わせに基づいて所定の処理が行われる。すなわち、処理制御部57は、ハイタッチなどを行ったユーザが誰と誰であるのかに応じて処理を行う。処理が行われることによって、アプリケーションの画面表示の更新などが行われる。
ステップS6において、処理制御部57は、処理を終了するか否かを判定する。処理を終了しないとステップS6において判定された場合、ステップS3に戻り、以上の処理が繰り返される。一方、例えばアプリケーションの終了が指示されたことから、処理を終了するとステップS6において判定された場合、処理は終了される。
以上のような基本的な処理が、所定のアプリケーションの実行時においても行われる。アプリケーションの実行時には、図6に示す各ステップの処理以外の各種の処理も行われる。
以下、ステップS1において行われる人検出・個人識別処理、ステップS3において行われる動作検出処理の詳細について説明する。
<<2.1 人検出・個人識別処理>>
<2.1.1 人検出>
ステップS1において行われる人検出は、センサ装置13により検出された、テーブルTの上を含む、テーブルTの周囲の状況を表すデプス情報に基づいて人検出部51により行われる。
センサ装置13が、テーブルTの周囲の状況を撮影範囲に含むカメラを有している場合、カメラによって撮影した画像を解析することによって、ユーザの検出が行われるようにしてもよい。例えば、画像を解析することによって、顔の特徴となる部位が検出され、その検出結果に基づいて、テーブルTの周りにユーザがいるか否かが判定される。
全方位カメラもしくは複数のカメラが例えばテーブルTの中央に設置され、これらのカメラによって撮影された画像を用いてユーザの検出が行われるようにしてもよい。
また、テーブルTの周りに置かれた椅子の座面に圧力センサを設置し、そのセンサ値の時系列変化に基づいて、ユーザの検出が行われるようにしてもよい。
これらの検出手段を複数統合してユーザの検出が行われるようにしてもよい。これにより、ユーザの検出精度を向上させることが可能になる。
<2.1.2 個人識別>
ステップS1において行われる個人識別は、センサ装置13により検出されたデプス情報により表される、身長や肩幅などの身体的特徴に基づいて人識別部52により行われる。
上述したようにセンサ装置13がカメラを有している場合、カメラによって撮影した画像を解析することによって、ユーザの識別が行われるようにしてもよい。例えば、画像を解析することによって、顔の部位の特徴量が検出され、その検出結果を予め登録された特徴量と比較することによって、ユーザが識別される。この場合、人登録情報記憶部53には、各ユーザの顔の特徴量を表す情報が人登録情報として登録される。
また、上述したように椅子の座面に圧力センサが設けられている場合、圧力センサにより検出されたセンサ値(体重)に基づいてユーザの識別が行われるようにしてもよい。この場合、人登録情報記憶部53には、各ユーザの体重を表す情報が人登録情報として登録される。
誰がどこにいるのかの選択に用いられる画面(UI(User Interface))が映像表示装置12により表示され、情報処理システム1の利用開始前に、各ユーザに能動的に選択させることによってユーザの識別が行われるようにしてもよい。
センサ装置13が、テーブルTの周囲の音を集音する音声入力機器(マイクロホン)を有している場合、マイクロホンによって検出された音声に対して音声認識が行われ、ユーザの検出と識別が行われるようにしてもよい。各ユーザに、情報処理システム1の利用開始前に例えば「○○です」といったように自身の名前を言わせるようにしてもよい。この場合、センサ装置13から送信されてきた音声データは例えば人識別部52に供給され、音声認識に用いられる。
また、情報処理装置11と各ユーザが持つスマートフォンなどの携帯端末の間(情報処理装置11が実行するアプリケーションと携帯端末の間)で通信が行われ、携帯端末から情報処理装置11に対して送信された情報に基づいて、ユーザの検出と識別が行われるようにしてもよい。この場合、人登録情報記憶部53には、各ユーザが使用する識別情報などが人登録情報として登録される。SNSサービスのアカウント情報とアプリケーションを対応付けた情報がデータベース化され、人登録情報記憶部53に登録されるようにしてもよい。
情報処理装置11が実行するアプリケーションが、アカウント名やパスワードなどのユーザの情報を管理しておき、ログイン時にユーザにより入力された情報に基づいてユーザの検出と識別が行われるようにしてもよい。
これらの識別手段を複数統合してユーザの識別が行われるようにしてもよい。これにより、ユーザの識別精度を向上させることが可能になる。
<2.2 動作検出処理>
ステップS3において行われる動作検出は、デプス情報の時系列に基づいて、人の手を認識し、その位置を追跡することによって動作検出部54により行われる。例えば、ハイタッチの検出は、高い位置で複数のユーザが手を合わせたか否かを判定することにより行われる。
図7は、動作検出部54が検出する動作の例を示す図である。
図7Aに示すハイタッチや図7Cに示す握手の他に、拳と拳を突き合わせるいわゆるグータッチ(図7B)、あるユーザが立てた指を他のユーザが握るいわゆるこの指止まれ(図7D)などの触れ合う動作が検出される。
オッケーサイン(図7E)、ピース(図7F)、親指を立てる(図7G)などの、触れ合わない動作が検出されるようにしてもよい。このような触れ合わない動作を複数のユーザが一緒に行ったことをトリガーとして所定の処理が行われるようにすることも可能である。例えばオッケーサインを向き合って同時に行うことも、対面でのコミュニケーションとなる。
挙手、ガッツポーズ、複数のユーザが手をかざして重ねる、などの他の動作が検出されるようにしてもよい。
国や地域によってジェスチャーなどの動作の意味が異なる。情報処理システム1が用いられる国や地域の文化に合わせた動作が検出されるようにしてもよい。例えば、中国においては図8A乃至Cに示すような動作が検出されるようにしてもよい。また、アメリカにおいては図8C、図8Dに示すような動作が検出されるようにしてもよい。
また、テーブルTに表示された画面に対する動作(操作)が検出されるようにしてもよい。この場合、テーブルTの表面と手との距離がデプス情報に基づいて検出され、所定の箇所に複数のユーザが一緒にタッチ(接触)したか、などが判断される。
センサ装置13が、テーブルTの周囲の音を集音するマイクロホンを有している場合、合い言葉を発する動作が検出されるようにしてもよい。この場合、センサ装置13から送信されてきた音声データは例えば動作検出部54に供給され、音声認識が行われる。動作判定部55は、音声認識の結果に基づいて、所定の合い言葉が発せられたか否かを判定し、所定の合い言葉が発せられたと判定した場合、その内容を表す識別情報を処理制御部57に出力する。
合い言葉を発する動作とハイタッチなどの動作を組み合わせた動作が検出されるようにしてもよい。これにより動作のバリエーションを増やすことが可能になる。
また、情報処理装置11と各ユーザが持つ携帯端末の間で通信が行われ、携帯端末に表示された画面に対する操作が、ユーザの動作として動作検出部54により検出されるようにしてもよい。この場合、携帯端末の画面には所定のボタンなどが表示され、ボタンに対する操作が行われたときに、そのことを表す情報が情報処理装置11に対して送信される。
これらの検出手段を複数統合してユーザの動作が検出されるようにしてもよい。これにより、ユーザの動作の検出精度を向上させることが可能になる。
[3.情報処理システムの適用例(タスク管理に適用した例)]
ここで、情報処理システム1を、タスクを管理するアプリケーションであるタスク管理アプリケーションを実行するシステムに適用した場合について説明する。タスク(ToDo)は、やらなければいけないこと、忘れてはいけないことなどを表す。
タスク管理アプリケーションを情報処理装置11が実行することによって実現される情報処理システム1を家族間で利用することにより、タスク管理を通して、家族間のコミュニケーションの促進を図ることが可能になる。
図9のフローチャートを参照して、タスク管理アプリケーションを実行する情報処理装置11のタスク管理処理について説明する。
ステップS11において、人検出・個人識別処理が行われる。ステップS11において行われる人検出・個人識別処理は、図6のステップS1の処理に対応する処理である。
すなわち、センサデータとして入力されたデプス情報に基づいて、テーブルTの周りにいるユーザが検出され、検出されたユーザの識別が行われる。人登録情報記憶部53には、家族を構成するそれぞれのユーザを識別するための人登録情報が記憶されている。
家族の一員であるとして登録されているユーザ全員が識別された場合、ステップS12以降の処理が行われる。ステップS12の以降の各処理の詳細については適宜まとめて後述する。
ステップS12において、処理内容の選択処理が行われる。タスク管理のための処理として、例えば、タスク登録処理、タスク完了処理、タスクキャンセル処理が用意されている。
タスク登録処理は、新たなタスクを登録するときに行われる処理である。タスク完了処理は、登録済みのタスクを完了するときに行われる処理である。タスクキャンセル処理は、登録済みのタスクをキャンセルするときに行われる処理である。
ステップS13において、制御部71は、選択された処理の内容を判定する。タスク登録処理が選択されたとステップS13において判定された場合、処理はステップS14に進む。
ステップS14において、タスク内容の入力処理が行われる。
タスク内容が入力された場合、ステップS15において、タスク期限の入力処理が行われる。
タスク期限が入力された場合、ステップS16において、タスク登録用の動作の検出処理が行われる。
タスク登録用の動作をユーザが行ったことが検出された場合、ステップS17において、タスク登録処理が行われる。
一方、タスク完了処理が選択されたとステップS13において判定された場合、処理はステップS18に進む。
ステップS18において、完了するタスクの選択処理が行われる。
完了するタスクが選択された場合、ステップS19において、タスク完了用の動作の検出処理が行われる。
タスク完了用の動作をユーザが行ったことが検出された場合、ステップS20において、タスク完了処理が行われる。
一方、タスクキャンセル処理が選択されたとステップS13において判定された場合、処理はステップS21に進む。
ステップS21において、キャンセルするタスクの選択処理が行われる。
キャンセルするタスクが選択された場合、ステップS22において、タスクキャンセル用の動作の検出処理が行われる。
タスクキャンセル用の動作をユーザが行ったことが検出された場合、ステップS23において、タスクキャンセル処理が行われる。
ステップS17のタスク登録処理、ステップS20のタスク完了処理、またはステップS23のタスクキャンセル処理が行われた場合、ステップS24において、処理を終了するか否かが判定される。
処理を終了しないとステップS24において判定された場合、ステップS12に戻り、以上の処理が繰り返される。一方、処理を終了するとステップS24において判定された場合、タスク管理アプリケーションの実行が終了され、処理は終了となる。
<<3.1 処理内容の選択処理>>
ステップS12において行われる処理内容の選択は、テーブルTに投影されたタスク管理画面を用いて行われる。タスク管理画面には、それぞれの処理を選択するために用いられるボタンが表示される。
処理内容の選択は、タスク管理画面に表示されたボタンに対して、家族全員が手をかざしたりタッチしたりすることによって行われる。タスク管理画面に表示されたボタンに対するユーザの操作は例えば動作検出部54により検出される。
処理内容の選択が音声を用いて行われるようにしてもよい。この場合、ユーザは、「タスクを登録」、「タスクを完了」、「タスクをキャンセル」などの、処理内容を表す言葉を発することになる。例えば動作検出部54は、マイクロホンによって検出された音声に対して音声認識を行う。制御部71は、動作検出部54による音声認識の結果を取得し、ユーザによる選択を受け付ける。
過去に登録されたタスクの履歴情報が保持されている場合、履歴情報に基づいて、登録すべきタスクの内容が選択され、制御部71による制御によってユーザに通知されるようにしてもよい。例えば、毎週登録されている「週に1度行う庭の水やり」などの定期的なタスクが登録されていない場合、そのことが通知され、通知に対してユーザにより操作が行われたときに、タスク登録処理が選択される。
定期的なタスクの通知は、例えば、発話装置(スピーカ)から音声を出力することにより、または、通知内容を表す情報をタスク管理画面に表示させることにより行われる。期限が近いタスクがあることがユーザに対して通知されるようにしてもよい。
<<3.2 タスク登録処理>>
<3.2.1 タスク内容の入力処理>
ステップS14において行われるタスク内容の入力は、テーブルTに投影されたタスク管理画面を用いて行われる。タスク管理画面には、文字入力を行うためのボタンなどが表示される。制御部71は、ボタンなどに対して操作が行われたことが動作検出部54により検出された場合、ユーザの操作に応じてタスク内容の入力を受け付ける。
タスク内容の入力が音声によって行われるようにしてもよい。また、入力部35を構成するマスクやキーボードに対する操作によってタスク内容が入力されるようにしてもよい。
<3.2.2 タスク期限の入力処理>
ステップS15において行われるタスク期限の入力は、テーブルTに投影されたタスク管理画面を用いて行われる。タスク管理画面には例えばカレンダーが表示される。制御部71は、カレンダーに対して操作が行われたことが動作検出部54により検出された場合、ユーザにより選択された日にちを期限とするようにしてタスク期限の入力を受け付ける。
タスク期限の入力が音声によって行われるようにしてもよい。
入力されたタスク期限の情報がユーザの携帯端末に対して送信され、携帯端末にインストールされているカレンダーアプリケーション等の各種のアプリケーションが管理するスケジュール情報に自動的に反映されるようにしてもよい。
<3.2.3 タスク登録用の動作検出処理>
ステップS16において行われるタスク登録用の動作検出処理により、どのユーザが、予め決められたタスク登録用の動作を行ったかが検出される。この例においては、タスク登録用の動作を行ったユーザが、タスクの担当者として設定される。
ステップS16において行われるタスク登録用の動作検出処理は、図6のステップS3の処理に対応する処理である。すなわち、上記2.2で説明した処理と同様の処理が行われ、ユーザの動作が動作検出部54により検出される。また、検出された動作が、タスク登録用の動作であるか否かが動作判定部55により判定され、その判定結果が処理制御部57に出力される。
処理制御部57は、タスク登録用の動作を行ったユーザを人識別部52による識別結果に基づいて特定し、特定したユーザを、タスクの担当者として設定する。例えばハイタッチを行って触れ合ったユーザ同士が、タスクの担当者として設定されることになる。情報処理システム1においては、複数のユーザが協力して行うタスクが管理される。
<3.2.4 タスク登録処理>
ステップS17において行われるタスク登録処理により、タスク情報が処理制御部57により生成され、管理される。タスク情報は、記憶部37に記憶して管理される。タスク情報のデータ構造については後述する。
このように、タスク登録処理時、タスク登録用の動作を行った複数のユーザをタスクの担当者として設定し、登録する処理が行われる。また、適宜、タスク管理画面に、担当者として設定されたことを表す情報が表示される。
タスク登録用の動作を行ったユーザをタスクの担当者として登録するとともに、タスク登録用の動作が行われることに応じてタスク管理画面を表示する処理が、図6のステップS5において行われる処理に相当する。これらの処理は、タスク登録用の動作を行ったユーザの組み合わせに応じて内容が変わる処理である。
タスク登録処理が行われた後、処理はステップS24に進み、それ以降の処理が行われる。
<<3.3 タスク完了処理>>
<3.3.1 タスクの選択処理>
ステップS18において行われるタスクの選択は、テーブルTに投影されたタスク管理画面を用いて行われる。タスク管理画面には、登録済みのタスクを表すアイコン(画像)や文字などの情報が表示される。制御部71は、アイコンなどに対して操作が行われたことが動作検出部54により検出された場合、ユーザにより選択されたタスクを完了対象とするようにしてタスクの選択を受け付ける。
完了するタスクの選択が音声によって行われるようにしてもよい。
<3.3.2 タスク完了用の動作検出処理>
ステップS19において行われるタスク完了用の動作検出処理により、どのユーザが、予め決められたタスク完了用の動作を行ったかが検出される。この例においては、タスクが完了させるためには、タスクを行ったユーザが、タスク完了用の動作を一緒に行う必要がある。
ステップS19において行われるタスク完了用の動作検出処理は、図6のステップS3の処理に対応する処理である。すなわち、上記2.2で説明した処理と同様の処理が行われ、ユーザの動作が動作検出部54により検出される。また、検出された動作が、タスク完了用の動作であるか否かが動作判定部55により判定され、その判定結果が処理制御部57に出力される。
処理制御部57は、タスク完了用の動作を行ったユーザを人識別部52による識別結果に基づいて特定し、特定したユーザが、タスクの担当者として設定されているユーザと一致するか否かを判定する。例えばタスク完了用の動作がハイタッチであり、ハイタッチを行って触れ合ったユーザが、タスクの担当者として設定されていた場合、処理制御部57は、タスク完了用の動作を行ったユーザと担当者として設定されているユーザが一致すると判定する。
タスク完了用の動作を行ったユーザと担当者として設定されているユーザが一致しない場合、処理制御部57は、処理を行わないか、エラーであることのフィードバックを行う。エラーであることのフィードバックは、例えば映像表示装置12を制御してそのことを表す情報を表示させることにより、または音声により行われる。
<3.3.3 タスク完了処理>
ステップS20において行われるタスク完了処理は、タスク完了用の動作を行ったユーザが、タスクの担当者として設定されているユーザと一致すると判定された場合に行われる。タスク完了処理により、処理制御部57は、完了対象として選択されたタスクを削除するようにタスク情報を更新する。
全てのタスクが完了した場合、そのことを表すエフェクト画像がタスク管理画面に表示されるようにしてもよい。
タスク情報が更新された後、タスクが残っている場合は、再度、タスクの選択処理(ステップS18)に戻り、以上の処理が繰り返されるようにしてもよい。また、タスク情報が更新された後、タスクの入力処理(ステップS14)に進むようにしてもよいし、未完了タスク・期限切れのタスクがある場合は、タスク期限の入力処理(ステップS15)に進むようにしてもよい。
このように、タスク完了処理時、タスク完了用の動作を行ったユーザが担当者となっていたタスクを完了させる処理が行われる。また、適宜、タスク管理画面に、タスクが完了したことを表す情報が表示される。
タスク完了用の動作を行ったユーザのタスク情報を更新するとともに、タスク完了用の動作が行われることに応じてタスク管理画面を表示する処理が、図6のステップS5において行われる処理に相当する。これらの処理は、タスク完了用の動作を行ったユーザの組み合わせに応じて内容が変わる処理である。
<<3.4 タスクキャンセル処理>>
<3.4.1 タスクの選択処理>
ステップS21において行われるタスクの選択は、テーブルTに投影されたタスク管理画面を用いて行われる。タスク管理画面には、登録済みのタスクを表すアイコンや文字などの情報が表示される。制御部71は、アイコンなどに対して操作が行われたことが動作検出部54により検出された場合、ユーザにより選択されたタスクをキャンセル対象とするようにしてタスクの選択を受け付ける。
キャンセルするタスクの選択が音声によって行われるようにしてもよい。
<3.4.2 タスクキャンセルの動作>
ステップS22において行われるタスクキャンセル用の動作検出処理により、どのユーザが、予め決められたタスクキャンセル用の動作を行ったかが検出される。この例においては、タスクをキャンセルするためには、タスクをキャンセルするユーザが、タスクキャンセル用の動作を行う必要がある。
ステップS22において行われるタスク完了用の動作検出処理は、図6のステップS3の処理に対応する処理である。すなわち、上記2.2で説明した処理と同様の処理が行われ、ユーザの動作が動作検出部54により検出される。また、検出された動作が、タスクキャンセル用の動作であるか否かが動作判定部55により判定され、その判定結果が処理制御部57に出力される。
処理制御部57は、タスクキャンセル用の動作を行ったユーザを人識別部52による識別結果に基づいて特定し、特定したユーザが、タスクの担当者として設定されているユーザと一致するか否かを判定する。
タスクキャンセル用の動作を、キャンセル対象のタスクを表すアイコンをタスク管理画面に表示されたゴミ箱に移動させる動作とすることが可能である。アイコンを移動させる動作を行ったユーザが、タスクの担当者として設定されていた場合、処理制御部57は、タスクキャンセル用の動作を行ったユーザと担当者として設定されているユーザが一致すると判定する。
タスクキャンセル用の動作として、所定の言葉を発するという動作が用いられるようにしてもよい。例えば、タスク名を発した後に「ゴミ箱へ」といった言葉を発する動作によってタスクのキャンセルが行われるようにすることが可能である。
タスクキャンセル用の動作を行ったユーザと担当者として設定されているユーザが一致しない場合、処理制御部57は、処理を行わないか、エラーであることのフィードバックを行う。エラーであることのフィードバックは、例えば映像表示装置12を制御してそのことを表す情報を表示させることにより、または音声により行われる。
<3.4.3 タスクキャンセル処理>
ステップS23において行われるタスクキャンセル処理は、タスクキャンセル用の動作を行ったユーザが、タスクの担当者として設定されているユーザと一致すると判定された場合に行われる。タスクキャンセル処理により、処理制御部57は、キャンセル対象として選択されたタスクを削除するようにタスク情報を更新する。
タスク情報が更新された後、タスクが残っている場合は、再度、タスクの選択処理(ステップS21)に戻り、以上の処理が繰り返されるようにしてもよい。全てのタスクがキャンセルされた場合は、タスクの入力処理(ステップS14)に進むようにしてもよい。
このように、タスクキャンセル処理時、タスクキャンセル用の動作を行ったユーザが担当者となっていたタスクをキャンセルする処理が行われる。また、適宜、タスク管理画面の表示が、タスクをキャンセルさせたことを表すように更新される。
タスクキャンセル用の動作を行ったユーザのタスク情報を更新するとともに、タスクキャンセル用の動作が行われることに応じてタスク管理画面を表示する処理が、図6のステップS5において行われる処理に相当する。これらの処理は、タスクキャンセル用の動作を行ったユーザの組み合わせに応じて内容が変わる処理である。
<<3.5 データ構造>>
図10は、タスク情報とユーザ関連情報のデータ構造の例を示す図である。
図10Aに示すように、タスク情報には、タスク名、定期的なタスクであるか否か、期限、担当者、完了日時、タスクの分配量、および、タスク登録用/タスク完了用/タスクキャンセル用のそれぞれの動作を表す情報が含まれる。タスク毎に、タスク登録用/タスク完了用/タスクキャンセル用のそれぞれの動作が紐付けて管理されることになる。なお、タスクの分配量は、担当者間のタスクの分担を表し、タスク管理画面を用いてユーザにより入力される。
このようなタスク情報がタスク登録処理において生成され、ユーザ関連情報と対応付けて処理制御部57により管理される。
図10Bに示すように、ユーザ関連情報には、個人識別情報、性別、年齢、未完了のタスク、完了したタスク、および、家族ステータスを表す情報が含まれる。個人識別情報は、名前、ユーザ名、パスワード、センサ装置13により検出されたセンサデータに基づいて個人識別を行う際に必要となる特徴情報などである。また、家族ステータスは、父、母、長女、次男などの続柄を表す。
このような各情報を含むユーザ関連情報が例えば記憶部37に記憶され、制御部71により管理される。ユーザ関連情報に含まれる個人識別情報のうちの特徴情報が、人登録情報として人登録情報記憶部53に記憶される。
<<3.6 その他の機能>>
<3.6.1 処理内容ごとに動作を割り当てる機能>
タスク管理アプリケーションの初期設定時などの所定のタイミングで、タスク登録処理を行うための動作、タスク完了処理を行うための動作、タスクキャンセル処理を行うための動作をそれぞれ設定することができるようにしてもよい。
例えば、タスク登録処理を行うための動作として指切りの動作を割り当てるといったように、処理内容に合う意味の動作を割り当てることにより、ユーザは、タスク登録処理を直感的に開始させることができる。日本においては、指切りは約束を結ぶときに使われる動作であり、タスク登録に合う意味の動作といえる。
同様に、タスク完了処理を行うための動作としてハイタッチの動作を割り当て、タスクキャンセル処理を行うための動作として、両手をクロスしてバツ印を作る動作を割り当てるようにしてもよい。
担当者の人数に応じて動作が割り当てられるようにしてもよい。例えば、担当者が2人であるタスクの処理に対しては、握手などの2人で一緒に行う動作が割り当てられる。また、3人以上であるタスクの処理に対しては、ハイタッチやオッケーサインなどの、複数人で一緒に行うことができる動作が割り当てられる。
<3.6.2 動作のカスタマイズ>
各処理のトリガーとなる動作は、初期データとして予め設定されているようにしてもよいし、タスク管理アプリケーションが動作を登録する機能を有している場合、初期設定時などの所定のタイミングでユーザにより登録されるようにしてもよい。
動作の登録時、ユーザは、センサ装置13によるセンシングが可能な範囲で、登録したい動作を行う。動作検出部54は、センサ装置13から送信されるセンサデータに基づいて動作を検出し、検出した動作のデータを動作登録情報記憶部56に記憶させることによって、処理のトリガーとなる動作として登録する。
各ユーザが登録させた動作データを管理するサーバが用意され、そのサーバから、動作データをインターネットを介してダウンロードすることができるようにしてもよい。
<3.6.3 担当者変更機能>
担当者として設定済みのユーザと非担当者のユーザが所定の動作を行うことによって、担当者が変更されるようにしてもよい。例えば、処理制御部57は、担当者のユーザと非担当者のユーザが握手などの所定の動作を行ったと判定した場合、担当者のユーザと非担当者のユーザを入れ替えるようにタスク情報を更新する。
このように、担当者の変更などの各種の処理に対しても、対象者が対面してコミュニケーションをとることが求められるようにすることが可能である。
<3.6.4 タスクの提案機能>
各家庭に設けられている情報処理システム1が管理しているユーザ関連情報をインターネット上のサーバにおいて活用し、サーバによる制御に従って、タスクの提案が行われるようにしてもよい。これにより、例えば、ある家庭に対して、他の家庭で登録されたタスクを提案することが可能になる。
<<3.7 タスク管理時のUI表現の例>>
図11は、タスク管理画面の構成例を示す図である。
図11に示すように、タスク管理画面101は略正方形状の画面であり、操作領域101−1乃至101−4の4つの略正方形状の領域から構成される。操作領域101−1は、例えば矢印#1の方向に座るユーザU1用の領域であり、操作領域101−2は、例えば矢印#2の方向に座るユーザU2用の領域である。操作領域101−3は、例えば矢印#3の方向に座るユーザU3用の領域であり、操作領域101−4は、例えば矢印#4の方向に座るユーザU4用の領域である。
操作領域101−1乃至101−4の各領域には、菱形状の配置領域111−1乃至111−4が表示される。図11の例においては配置領域111−1乃至111−4に何も表示されていないが、ユーザによる操作に応じて、タスクを表す画像などが配置される。
図12、図13は、タスク登録時の画面遷移の例を示す図である。
例えば、ユーザU2が登録対象のタスクとして「掃除」を入力した場合(図9のステップS14)、図12の左端に示すように、配置領域111−2には、掃除のタスクを表す画像が表示される。
登録対象のタスクの入力は、上述したようにタスク管理画面101に表示されたボタンや音声により行われる。掃除のタスクを表す画像が操作領域101−2に表示されており、それを配置領域111−2に移動させる操作によってタスクの入力が行われるようにしてもよい。
続けて、ユーザU4が登録対象のタスクとして掃除を入力した場合、矢印#11の先に示すように、配置領域111−4には、掃除のタスクを表す画像が表示される。
掃除のタスクに対しては、適宜、ユーザU2とユーザU4によりそれぞれ期限が入力される(図9のステップS15)。
ユーザU2とユーザU4が登録対象のタスクとして同じ掃除のタスクを入力した状態で、例えばハイタッチを行った場合、そのことが検出され(図9のステップS16)、矢印#12の先に示すように、配置領域111−2と配置領域111−4を直線L1で結ぶような演出が行われる。
このような演出も、特定の動作を行ったユーザの組み合わせに応じて行われる処理に含まれる(図9のステップS17)。
図12の右端に示すタスク管理画面101が表示されている状態で、ユーザU1とユーザU2が登録対象のタスクとして掃除を入力した場合、図13の左端に示すように、配置領域111−1と配置領域111−4には、それぞれ、掃除のタスクを表す画像が表示される
この状態で例えばユーザU1とユーザU3がハイタッチを行い、続けて、ユーザU1とユーザU2がハイタッチを行った場合、矢印#13の先に示すように、それぞれのタイミングで、配置領域111−1と配置領域111−3を直線L2で結ぶ演出が行われ、配置領域111−1と配置領域111−2を直線L3で結ぶ演出が行われる。
続けて、ユーザU4が、ユーザU1,U2,U3とそれぞれハイタッチを行った場合、各配置領域を直線で結ぶ演出が行われる。その後、タスク管理画面101の状態は、矢印#14の先に示すように、配置領域111−1乃至111−4の近傍にアイコンI1−1乃至I1−4が表示される状態になる。アイコンI1−1乃至I1−4は、それぞれ、配置領域111−1乃至111−4に表示されていた画像を縮小した画像であり、掃除のタスクが登録されていることを表す。
このように、タスクの登録は、誰と誰が担当者として登録されたのかが直感的に分かるようなUIを用いて行われる。直線で結ばれた表示領域を使っているユーザ同士が、担当者として登録されたことになる。
図14は、タスク管理画面101の表示例を示す図である。
図14に示すタスク管理画面101の状態は、登録済みのタスクが一覧表示されている状態を示す。操作領域101−1乃至101−4に表示されている各アイコンは、それぞれタスクを表す。上述したような表示を用いたタスクの登録が繰り返されることによって、タスク管理画面101には、登録済みのタスクを表すアイコンが複数表示される。操作領域101−1乃至101−4の所定の位置には、掃除のタスクを表すアイコンI1−1乃至I1−4がそれぞれ表示されている。
図15、図16は、タスク完了時の画面遷移の例を示す図である。
例えば、ユーザU1乃至U4がそれぞれ、掃除のタスクを終え、完了対象のタスクとして掃除を選択した場合(図9のステップS18)、図15の左端に示すように、アイコンI1−1乃至I1−4は、それぞれ、操作領域101−1乃至101−4の、ユーザに近い隅に表示される。
すなわち、図14に示す状態は、ユーザU3だけが、完了対象のタスクを入力していない状態を表す。ユーザU3が完了対象のタスクとして掃除を選択した場合、アイコンI1−3が、図15の左端に示すように操作領域101−3の隅に移動する。
完了対象のタスクの選択は、上述したようにタスク管理画面101に表示されたボタンや音声により行われる。掃除のタスクを表すアイコンを各表示領域の隅に移動させる操作によってタスクの入力が行われるようにしてもよい。例えば、アイコンに指の先をタッチさせ、その状態のまま手を動かすことによって、アイコンの位置が移動するような表示が行われる。
ユーザU1乃至U4が完了対象のタスクとして同じ掃除のタスクを選択した状態で、例えばユーザU2とユーザU3がハイタッチを行った場合、そのことが検出され(図9のステップS19)、矢印#21の先に示すように、アイコンI1−2とアイコンI1−3を直線L11で結ぶような演出が行われる。
このような演出も、特定の動作を行ったユーザの組み合わせに応じて行われる処理に含まれる(図9のステップS20)。
続けて、ユーザU1とユーザU3がハイタッチを行い、そのことが検出された場合、矢印#22の先に示すように、アイコンI1−1とアイコンI1−3を直線L12で結ぶような演出が行われる。
同様に、それぞれのユーザ同士がハイタッチを行い、そのことが検出された場合、図16の左端に示すように、アイコンI1−1乃至I1−4をそれぞれ直線で結ぶ演出が行われる。
家族全員がハイタッチを行い、図16の左端の表示が行われた後、矢印#23の先に示すように、アイコンI1−1乃至I1−4が画面の中央に移動し、各アイコンが消えるようなアニメーションが表示される。アイコンが消えるアニメーションとともに、例えば、花火のアニメーションが表示され、家族全員でタスクを終えたことを祝福するような演出が行われる。
各演出の終了後、タスク管理画面101の状態は、矢印#24の先に示すように、各ユーザのスコアを表示する状態になる。スコアは、登録済みのタスクの数に対する、完了したタスクの数の割合を表す。このような表示から、各ユーザは、終わっていないタスクの数を確認することができる。
タスク管理画面101の表示が以上のようにして切り替えられることにより、各ユーザは、家族とコミュニケーションをとりながら、タスクの管理を直感的に行うことができる。
タスク管理画面101における各タスクの表現の仕方は適宜変更可能である。例えば、各タスクの期限や各タスクの内容の重要度に応じて、タスクを表すアイコンの大きさや色が変更されるようにしてもよい。例えば、期限が近いタスクのアイコンほど大きく表示されたり、目立つ色で強調して表示されたりする。
<<3.8 触れ合う動作の検出例>>
以上においては、主に、ハイタッチや握手などの触れ合う動作の検出がセンサ装置13により検出されたセンサデータに基づいて行われるものとしたが、他の方法によって行われるようにしてもよい。
図17は、情報処理システム1の他の構成例を示す図である。
図17に示す構成のうち、図1等を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図17の例においては、テーブルTにはタスク管理画面101が投影されている。ユーザU1乃至U4は、タスク管理画面101を用いて、上述したようにしてタスク管理を行う。
図17に斜線を付して示すように、例えばテーブルTの天板の隅などの所定の位置には電極A乃至Dが設けられる。電極A乃至Dは、それぞれ、センサ装置13の代わりに設けられた検出装置201に接続される。検出装置201は、電圧の変動から、誰と誰が触れ合う動作を行ったのかを検出可能な装置である。検出装置201は、例えばテーブルTの天板の裏側などに取り付けられる。
タスク管理画面101を用いてタスク管理を行うユーザU1乃至U4は、それぞれ、片方の手を近くにある電極に触れた状態でタスク管理画面101の操作を行い、適宜、空いている方の手を使って、ハイタッチや握手などの触れ合う動作を行う。例えば、ユーザU1は片方の手を電極Aに触れ、ユーザU2は片方の手を電極Bに触れる。また、ユーザU3は片方の手を電極Cに触れ、ユーザU4は片方の手を電極Dに触れる。
検出装置201による検出結果は、無線により、または有線の通信を介して情報処理装置11に送信される。検出装置201が送信する検出結果は、例えば情報処理装置11の処理制御部57に入力され、触れ合う動作を行ったユーザの特定に用いられる。
図18は、検出装置201の構成を含む回路構成の例を示す図である。
図18に示すように、検出装置201を構成する検出部211の出力端子には抵抗R1(プルアップ抵抗)が接続され、その先に、フォトカプラ(Photocoupler)リレーを構成するフォトカプラPc1乃至Pc8が設けられる。フォトカプラPc1とフォトカプラPc5、フォトカプラPc2とフォトカプラPc6、フォトカプラPc3とフォトカプラPc7、フォトカプラPc4とフォトカプラPc8はそれぞれ直列に接続される。
フォトカプラPc1とフォトカプラPc5の間には電極Aが接続され、フォトカプラPc2とフォトカプラPc6の間には電極Bが接続される。また、フォトカプラPc3とフォトカプラPc7の間には電極Cが接続され、フォトカプラPc4とフォトカプラPc8の間には電極Dが接続される。点線で囲んで示すフォトカプラリレーと各電極は、抵抗R2として表される。抵抗R2は、ユーザU1乃至U4の体を経由した身体電気抵抗となる。
抵抗R1と抵抗R2の間の電圧が、検出部211の入力端子(アナログ入力端子)に入力される。検出部211は、入力端子に入力される電圧の変動を表す情報を情報処理装置11に送信する。
このような構成を有する回路においては、フォトカプラリレーのオン/オフの組み合わせを所定のパターンで高速に切り替えて、電圧変動が検出される。例えば、あるタイミングでは、上段に示すフォトカプラPc1乃至Pc4のうちの1つと、下段に示すフォトカプラPc5乃至Pc8のうちの1つが同時にオンとなり、それ以外の6つのフォトカプラがオフとなるようにオン/オフが切り替えられる。
例えば、フォトカプラPc1とフォトカプラPc6がオンになっているタイミングで電圧の降下が検出された場合、そのことは、電極Aに触れているユーザU1と、電極Bに触れているユーザU2が、空いている方の手で触れ合う動作を行ったことを表す。
また、フォトカプラPc3とフォトカプラPc8がオンになっているタイミングで電圧の降下が検出された場合、そのことは、電極Cに触れているユーザU3と、電極Dに触れているユーザU4が、空いている方の手で触れ合う動作を行ったことを表す。
検出部211は、このような電圧降下を表す情報を情報処理装置11に送信する。情報処理装置11においては、検出装置201から送信されてきた情報に基づいて、誰と誰が触れ合う動作を行ったのかが特定されることになる。
このように、電極に手を触れた状態のユーザ同士が接触したときに生じる、身体電気抵抗による電圧値の低下に基づいて、誰と誰が触れ合う動作を行ったのかが特定されるようにしてもよい。
[4.情報処理システムの適用例(ペアレンタルロックに適用した例)]
次に、情報処理システム1を、ペアレンタルロックを管理するアプリケーションである制限管理アプリケーションを実行するシステムに適用した場合について説明する。
制限管理アプリケーションを情報処理装置11が実行することによって実現される情報処理システム1を親子で利用することにより、ペアレンタルロックを通して、親子間のコミュニケーションの促進を図ることが可能になる。例えば、子どもがお菓子を食べるという行動を、親が制限する場合について説明する。
図19は、ペアレンタルロックを実現する情報処理システム1の構成例を示す図である。
図19に示す構成のうち、図1等を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。図20以降においても同様である。
図19に示す情報処理システム1においては、制御対象の機器として、扉の開閉機構を有する冷蔵庫301が設けられる。冷蔵庫301は、無線により、または有線の通信を介して情報処理装置11と通信を行い、情報処理装置11による制御に従って、扉の開閉を行う。冷蔵庫301の近傍には、デプスセンサなどよりなるセンサ装置13が設けられる。
例えば、冷蔵庫301の開閉を制御することによって、冷蔵庫301の中にあるアイスを食べるという子どもU12の行動が適宜制限される。親U11は、ハイタッチなどの特定の動作を子どもU12と一緒に行うことによって、お菓子を食べるという子どもU12の行動を承認する。
反対に、親U11は、ハイタッチなどの特定の動作を行わないことによって、お菓子を食べるという子どもU12の行動を制限する。親U11が承認者、子どもU12が非承認者という関係になる。
情報処理装置11は、センサ装置13から送信されてきたセンサデータに基づいて、親U11と子どもU12が特定の動作を行ったことを検出した場合、扉のロックを解除するように冷蔵庫301を制御する。このような情報処理装置11による制御は、冷蔵庫301の扉を誰が開けようとしているのかが認識され、子どもU12が扉を開けようとしている場合に行われる。
図20は、図19の情報処理システム1を実現する情報処理装置11の機能構成例を示すブロック図である。
図20に示すように、情報処理装置11には、図5の映像表示制御部58に代えて機器制御部311が設けられる。機器制御部311は、通信部38を制御して冷蔵庫301と通信を行い、処理制御部57による判定結果に基づいて、冷蔵庫301の扉のロック状態の保持/解除を制御する。
図21のフローチャートを参照して、制限管理アプリケーションを実行する情報処理装置11の機器制御処理について説明する。
ステップS51において、人検出・個人識別処理が行われる。ステップS51において行われる人検出・個人識別処理は、図6のステップS1の処理に対応する処理である。
すなわち、センサデータとして入力されたデプス情報に基づいて、冷蔵庫301の周りにいるユーザが検出され、検出されたユーザの識別が行われる。人登録情報記憶部53には、親U11と子どもU12を含む、家族を構成するそれぞれのユーザを識別するための人登録情報が記憶されている。
ステップS52において、処理制御部57は、冷蔵庫301の周りにいるユーザが、承認者として設定されている親U11であるか、または、非承認者として設定されている子どもU12であるかを判定する。
冷蔵庫301の周りにいるユーザが承認者として設定されている親U11であるとステップS52において判定された場合、ステップS53においてロックが解除される。すなわち、機器制御部311は、冷蔵庫301を制御し、扉のロックを解除させる。
一方、冷蔵庫301の周りにいるユーザが非承認者として設定されている子どもU12であるとステップS52において判定された場合、ステップS54において、非承認者である子どもU12により、承認者である親U11の呼び出しが行われる。ステップS54において、情報処理装置11は、親U11が呼び出されるのを待機する。親U11が呼び出されたことは、ステップS51の人検出・個人識別処理と同様の処理によって特定される。
親U11が呼び出された場合、ステップS55において、ロック解除用の動作の検出処理が行われる。
親U11と子どもU12がロック解除用の動作を行ったことが検出された場合、ステップS56において、ロック解除処理が行われる。
ステップS53またはステップS56においてロックが解除された後、ステップS57において、処理を終了するか否かが判定される。処理を終了しないとステップS57において判定された場合、ステップS52に戻り、以上の処理が繰り返される。一方、処理を終了するとステップS57において判定された場合、処理は終了される。
以上の処理により、ロック解除用の特定の動作を一緒に行ったユーザの組み合わせに応じた処理が行われるシステムが実現される。特定の動作を行ったユーザの組み合わせが、承認者の親U11と非承認者の子どもU12の組み合わせであるときには、ロックを解除する処理が行われ、それ以外のユーザの組み合わせであるときには、そのようなロックを解除する処理が行われない。これにより、ペアレンタルロックを通して、親子間のコミュニケーションの促進を図ることが可能になる。
<<4.1 登録>>
情報処理システム1を用いたペアレンタルロックの前処理として、制御対象となる機器の登録、制御する機能の登録などの各種の設定が必要になる。
<4.1.1 制御対象機器の登録>
制限管理アプリケーションを実行する情報処理装置11と制御対象となる機器である冷蔵庫301が、ネットワークを介して接続される。情報処理装置11は、冷蔵庫301と通信を行うことによって例えば冷蔵庫301の機能に関する情報を受信し、冷蔵庫301を制御するための機器情報を登録する。
<4.1.2 ロック機能の登録>
制限管理アプリケーションを実行する情報処理装置11は、例えば承認者としての親U11による操作に応じて冷蔵庫301と通信を行い、アイスなどの所定の物を入れた際にロックする機能の設定を冷蔵庫301に対して行う。音声による操作に応じてこのような設定が行われるようにしてもよい。
冷蔵庫301に入れる物に関係なく、ユーザ関連情報に含まれる年齢や性別などに基づいて、ロック機能が設定されるようにしてもよい。ロックを解除する条件(例えば、子どもU12が担当する家事や宿題)が設定されるようにしてもよい。
<4.1.3 承認者、権限の指定、代理人権限の委譲>
誰が承認者となるのか、誰が非承認者となるのか、および、承認者の権限が例えば親U11による操作に応じて設定される。情報処理装置11は、これらの設定内容を表す制限情報を管理する。承認者等の設定は、例えば、冷蔵庫301のボタンを操作することにより、または親U11が携帯端末を操作することによって行われる。
ユーザ関連情報に含まれる年齢や性別などに基づいて、承認者や権限の内容が自動的に決定されるようにしてもよい。例えば、所定の年齢以上の人に対しては、冷蔵庫301の扉を開ける権限が認められる。
承認者、非承認者等の設定が音声による操作に応じて行われるようにしてもよい。承認者としての親U11が代理人となる人を設定し、承認者の権限が代理人にも認められるようにしてもよい。
<<4.2 非承認者の利用>>
<4.2.1 アプリケーションの開始>
非承認者である子どもU12が冷蔵庫301の近くにいて、冷蔵庫301の扉を開けようとしていることが検出された場合に制限管理アプリケーションが起動するようにしてもよい。制限管理アプリケーションが起動した後、ステップS54以降の処理が行われる。
子どもU12が所定の操作を行うことによって制限管理アプリケーションを起動させることができるようにしてもよい。例えば、音声による操作によって、制限管理アプリケーションの起動が行われる。このとき、宿題や担当している家事を子どもU12が行ったかなどの条件を満たしているか否かのチェックが行われるようにしてもよい。
<4.2.2 承認者の呼び出し>
ステップS54において行われる承認者の呼び出しは、例えば、スマートフォンを用いて、子どもU12が親U11に対して通知をかけることによって行われる。家の中にあるスピーカを用いた館内放送によって承認者の呼び出しが行われるようにしてもよい。非承認者が直接呼び出してもよい。
<4.2.3 ロック解除用の動作検出処理>
ステップS55において行われるロック解除用の動作検出処理は、図6のステップS3の処理に対応する処理である。すなわち、上記2.2で説明した処理と同様の処理が行われ、呼び出された親U11と子どもU12の動作が動作検出部54により検出される。また、検出された動作が、ロック解除用の動作であるか否かが動作判定部55により判定され、その判定結果が処理制御部57に出力される。
処理制御部57は、人識別部52により識別された親U11と子どもU12が、ロック解除用の動作を行った場合、そのことを表す情報を機器制御部311に出力する。
ハイタッチなどのロック解除用の動作を行う前に、親U11が、ロック解除のための上述した条件を確認するようにしてもよい。
<4.2.4 ロック解除処理>
ステップS56において行われるロック解除処理により、機器制御部311により、冷蔵庫301の扉のロックが解除される。これにより、子どもU12は、冷蔵庫301の扉を開け、中のアイスを取り出すことができる。
冷蔵庫301の扉のロック解除の状態は、例えば一定時間だけ継続される。一定時間経過後、再度ロックされた状態になる。
<<4.3 データ構造>>
図22は、制限情報のデータ構造の例を示す図である。
図22に示すように、制限情報には、登録機器、承認者、非承認者、ロック解除時間、ロック解除回数、ロック解除用の動作、および、承認を得るための条件を表す情報が含まれる。承認を得るための条件は、例えば、宿題を行うこと、タスクを行うこと、日常の動作の評価(歯磨き、野菜食べる、○時までに寝るなど)である。
[5.効果と変形例]
以上のように、情報処理システム1を用いることによって、人と人による対面でのコミュニケーションの機会を増やすことが可能になる。触れ合う動作などを行うためには当然会話が必要になるから、以上の処理は、会話を行う機会をも増やすことに繋がることになる。
一緒の動作を行うことによってタスクを登録してからタスクを一緒に行い、その後、一緒の動作を行うことによってタスクを完了させるといったように一緒の行動をとる機会が多いため、情報処理システム1のユーザは達成感や協力感を得ることができる。これにより、ユーザ同士の仲がよくなったり、チームワークがよくなったりすることが期待できる。
トリガーとなる動作として各種の動作を用いることができるし、トリガーとなる動作に応じて情報処理装置11により行われる処理として各種の処理を用いることができる。例えば、居酒屋に情報処理システム1が設けられている場合、乾杯時のグラスを突き合わせる動作をトリガーとして、写真の撮影が行われるようにしてもよい。乾杯の動作を行ったユーザの組み合わせが男性の組み合わせであるときには動画の撮影が行われ、女性の組み合わせであるときには静止画の撮影が行われるといったように、ユーザの組み合わせに応じて処理の内容を変えるようにしてもよい。
また、制限管理アプリケーションの機能により、特定の人物が特定の行動を一人で行うことを制限することが可能になる。制限の対象となる機器は、冷蔵庫に限られるものではなく、各種の機器とすることが可能である。
例えば、ゲーム機や金庫が制限の対象として用いられるようにしてもよい。金庫の扉のロック解除といったようにセキュリティに関する処理については、登録された複数人のユーザが金庫の周囲に揃ったときに扉のロックが解除されるといったような制御が行われるようにしてもよい。
<構成の変形例>
情報処理装置11がネットワーク上の装置として設けられ、情報処理装置11と映像表示装置12、情報処理装置11とセンサ装置13の間の通信がそれぞれインターネットなどのネットワークを介して行われるようにしてもよい。
上述したように映像表示装置12の機能とセンサ装置13の機能が1つの装置に搭載されるようにするだけでなく、情報処理装置11の機能までが、1つの装置に搭載されるようにしてもよい。
また、図5等に示す情報処理装置11の構成が、複数の装置上で実現されるようにしてもよい。この場合、図5に示す情報処理装置11の構成を分担して実現する複数の装置はネットワークを介して接続される。
<その他の例>
以上においては、特定の動作を行うユーザが、テーブルTの周りといったように近くにいるものとしたが、互いに遠隔にいるユーザが一緒の動作を行うことによって、その動作をトリガーとした処理が行われるようにしてもよい。
例えば、ユーザU1とユーザU2が遠隔にいて、特定の動作を同じタイミングで一緒に行ったことを検出した場合、情報処理装置11は、特定の動作を行ったユーザU1とユーザU2の組み合わせに応じた処理を行うことになる。この場合、情報処理装置11は、ユーザU1がいる空間に設置されたセンサ装置13から送信されてきたセンサデータに基づいてユーザU1の動作を検出し、ユーザU2がいる空間に設置されたセンサ装置13から送信されてきたセンサデータに基づいてユーザU2の動作を検出することになる。
対面で行うものではないものの、このような処理によっても、ユーザ同士のコミュニケーションを促すことが可能になる。
同じ仮想空間にいるユーザが特定の動作を行うことをトリガーとして所定の処理が行われるようにしてもよい。
図23は、同じ仮想空間にいるユーザの例を示す図である。
図23の例においては、互いに離れた環境(場所)である環境A乃至Cが示されており、それぞれの環境にユーザA乃至Cがいるものとする。仮想空間は、例えばサーバによって実現される仮想的な空間である。
例えば、ユーザA乃至Cは、VR(Virtual Reality)やAR(Augmented Reality)に対応したHMD(Head Mounted Display)を装着しているユーザや、仮想空間の映像が投影された環境にいるユーザである。ユーザA乃至Cは、それぞれが有している装置を操作して仮想空間のコミュニティに参加し、同じコミュニティに参加している他のユーザとコミュニケーションを図ることができる。
このような状況において複数のユーザが特定の動作を行うことに応じて、以上のような各種の処理が行われるようにしてもよい。
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU1001、ROM1002、RAM1003は、バス1004により相互に接続される。
バス1004には、さらに、入出力インタフェース1005が接続される。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
複数の人物を識別する個人識別部と、
前記複数の人物が一緒に行う特定の動作を検出する動作検出部と、
前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う処理制御部と
を備える情報処理装置。
(2)
前記動作検出部は、近くにいる前記複数の人物が行う前記特定の動作を検出する
前記(1)に記載の情報処理装置。
(3)
前記動作検出部は、前記複数の人物が触れ合って行う動作を前記特定の動作として検出する
前記(1)または(2)に記載の情報処理装置。
(4)
前記動作検出部は、前記複数の人物が所定の言葉を発する動作を前記特定の動作として検出する
前記(1)または(2)に記載の情報処理装置。
(5)
前記個人識別部は、予め登録しておいた前記複数の人物を、センサにより検出された情報に基づいて、または、前記複数の人物による入力操作に基づいて識別する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記処理制御部は、タスク管理に用いられる管理画面において登録対象のタスクが選択され、前記特定の動作が検出された場合、前記登録対象のタスクを、前記特定の動作を行った前記複数の人物が協力して行うタスクとして登録する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記処理制御部は、登録したタスクの内容、期限、協力して行う人物、および、タスク終了時の動作を表す情報を含むタスク情報を記憶する
前記(6)に記載の情報処理装置。
(8)
前記処理制御部は、前記タスク情報により表される人物が、前記特定の動作としての、前記タスク終了時の動作を行ったことが検出された場合、前記タスク情報により表される内容のタスクが終了したものとして管理する
前記(7)に記載の情報処理装置。
(9)
前記処理制御部は、前記特定の動作が検出された場合の前記管理画面の表示が、前記複数の人物の組み合わせに応じて変わるように前記管理画面の表示を制御する
前記(6)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記処理制御部は、投影装置によって投影される前記管理画面の表示を制御する
前記(6)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記処理制御部は、制御対象となる機器のロックを解除する処理を行う
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(12)
複数の人物を識別し、
前記複数の人物が一緒に行う特定の動作を検出し、
前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う
ステップを含む情報処理方法。
(13)
コンピュータに、
複数の人物を識別し、
前記複数の人物が一緒に行う特定の動作を検出し、
前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う
ステップを含む処理を実行させるプログラム。
1 情報処理システム, 11 情報処理装置, 12 映像表示装置, 13 センサ装置, 51 検出部, 52 人識別部, 53 人登録情報記憶部, 54 動作検出部, 55 動作判定部, 56 動作登録情報記憶部, 57 処理制御部, 58 映像表示制御部, 71 制御部, 311 機器制御部

Claims (13)

  1. 複数の人物を識別する個人識別部と、
    前記複数の人物が一緒に行う特定の動作を検出する動作検出部と、
    前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う処理制御部と
    を備える情報処理装置。
  2. 前記動作検出部は、近くにいる前記複数の人物が行う前記特定の動作を検出する
    請求項1に記載の情報処理装置。
  3. 前記動作検出部は、前記複数の人物が触れ合って行う動作を前記特定の動作として検出する
    請求項1に記載の情報処理装置。
  4. 前記動作検出部は、前記複数の人物が所定の言葉を発する動作を前記特定の動作として検出する
    請求項1に記載の情報処理装置。
  5. 前記個人識別部は、予め登録しておいた前記複数の人物を、センサにより検出された情報に基づいて、または、前記複数の人物による入力操作に基づいて識別する
    請求項1に記載の情報処理装置。
  6. 前記処理制御部は、タスク管理に用いられる管理画面において登録対象のタスクが選択され、前記特定の動作が検出された場合、前記登録対象のタスクを、前記特定の動作を行った前記複数の人物が協力して行うタスクとして登録する
    請求項1に記載の情報処理装置。
  7. 前記処理制御部は、登録したタスクの内容、期限、協力して行う人物、および、タスク終了時の動作を表す情報を含むタスク情報を記憶する
    請求項6に記載の情報処理装置。
  8. 前記処理制御部は、前記タスク情報により表される人物が、前記特定の動作としての、前記タスク終了時の動作を行ったことが検出された場合、前記タスク情報により表される内容のタスクが終了したものとして管理する
    請求項7に記載の情報処理装置。
  9. 前記処理制御部は、前記特定の動作が検出された場合の前記管理画面の表示が、前記複数の人物の組み合わせに応じて変わるように前記管理画面の表示を制御する
    請求項6に記載の情報処理装置。
  10. 前記処理制御部は、投影装置によって投影される前記管理画面の表示を制御する
    請求項6に記載の情報処理装置。
  11. 前記処理制御部は、制御対象となる機器のロックを解除する処理を行う
    請求項1に記載の情報処理装置。
  12. 複数の人物を識別し、
    前記複数の人物が一緒に行う特定の動作を検出し、
    前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う
    ステップを含む情報処理方法。
  13. コンピュータに、
    複数の人物を識別し、
    前記複数の人物が一緒に行う特定の動作を検出し、
    前記特定の動作が検出された場合、前記複数の人物の組み合わせに応じた処理を行う
    ステップを含む処理を実行させるプログラム。
JP2017031076A 2017-02-22 2017-02-22 情報処理装置、情報処理方法、プログラム Pending JP2018136766A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017031076A JP2018136766A (ja) 2017-02-22 2017-02-22 情報処理装置、情報処理方法、プログラム
PCT/JP2018/004291 WO2018155199A1 (ja) 2017-02-22 2018-02-08 情報処理装置、情報処理方法、プログラム
US16/485,884 US20200019233A1 (en) 2017-02-22 2018-02-08 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017031076A JP2018136766A (ja) 2017-02-22 2017-02-22 情報処理装置、情報処理方法、プログラム

Publications (1)

Publication Number Publication Date
JP2018136766A true JP2018136766A (ja) 2018-08-30

Family

ID=63253242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017031076A Pending JP2018136766A (ja) 2017-02-22 2017-02-22 情報処理装置、情報処理方法、プログラム

Country Status (3)

Country Link
US (1) US20200019233A1 (ja)
JP (1) JP2018136766A (ja)
WO (1) WO2018155199A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023148800A1 (ja) * 2022-02-01 2023-08-10 日本電気株式会社 制御装置、制御システム、制御方法及びプログラム
WO2023162499A1 (ja) * 2022-02-24 2023-08-31 株式会社Nttドコモ 表示制御装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11281439B2 (en) * 2018-07-25 2022-03-22 Avaya Inc. System and method for creating a contextualized after call workflow
US20220180257A1 (en) * 2020-12-08 2022-06-09 Avaya Management L.P. Dynamic generation of custom post-call workflow
CN113596418B (zh) * 2021-07-06 2024-07-12 北京云思智学科技有限公司 辅助批改的投影方法、装置、系统和计算机程序产品

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US20070112926A1 (en) * 2005-11-03 2007-05-17 Hannon Brett Meeting Management Method and System
US9325749B2 (en) * 2007-01-31 2016-04-26 At&T Intellectual Property I, Lp Methods and apparatus to manage conference call activity with internet protocol (IP) networks
EP2201761B1 (en) * 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
US20090187834A1 (en) * 2008-01-17 2009-07-23 Disney Enterprises, Inc. Method and system for implementing a single user computer application in a multi-user session
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
EP3734426A1 (en) * 2012-11-09 2020-11-04 Sony Corporation Information processing apparatus, information processing method, and computer-readable recording medium
JP2015088086A (ja) * 2013-11-01 2015-05-07 ソニー株式会社 情報処理装置および情報処理方法
US20150249718A1 (en) * 2014-02-28 2015-09-03 Chris Huybregts Performing actions associated with individual presence
CN106933465B (zh) * 2015-12-31 2021-01-15 北京三星通信技术研究有限公司 一种基于智能桌面的内容显示方法和智能桌面终端
US10395220B2 (en) * 2016-04-20 2019-08-27 International Business Machines Corporation Auto-generation of actions of a collaborative meeting

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023148800A1 (ja) * 2022-02-01 2023-08-10 日本電気株式会社 制御装置、制御システム、制御方法及びプログラム
WO2023162499A1 (ja) * 2022-02-24 2023-08-31 株式会社Nttドコモ 表示制御装置

Also Published As

Publication number Publication date
US20200019233A1 (en) 2020-01-16
WO2018155199A1 (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
WO2018155199A1 (ja) 情報処理装置、情報処理方法、プログラム
US20230082492A1 (en) User interface for managing controllable external devices
US10311383B2 (en) Device, method, and graphical user interface for meeting space management and interaction
Shafer et al. Interaction issues in context-aware intelligent environments
KR102179470B1 (ko) 제어가능한 외부 디바이스들을 관리하기 위한 사용자 인터페이스
US11937021B2 (en) Camera and visitor user interfaces
US20180173404A1 (en) Providing a user experience with virtual reality content and user-selected, real world objects
CN105940411B (zh) 在个人设备上显示隐私信息
US11194437B2 (en) Information processing device and information processing method
CN110471582A (zh) 用于控制或呈现电子设备上的设备使用的用户界面
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN109219796A (zh) 实时视频上的数字触摸
CN110460799A (zh) 创意相机
CN108702540A (zh) 多用户设备的基于运动的配置
CN109690540B (zh) 虚拟环境中的基于姿势的访问控制
CN103076967A (zh) 处理用于改变焦点的手势
CN110457096A (zh) 多参与者实时通信用户界面
CN109828732A (zh) 一种显示控制方法及终端设备
CN105137788B (zh) 提供ui的显示装置和系统及提供显示装置的ui的方法
CN109002340A (zh) 一种锁屏方法及电子设备
US20220253808A1 (en) Virtual environment
US20230262100A1 (en) Information processing device, information processing method, program, and system
JP6055151B1 (ja) イベントを管理するためのシステム、方法、及びプログラム
Chopra Evaluating User Preferences for Augmented Reality Interactions for the Internet of Things
CN110456935A (zh) 用于调整通知的提供的设备和方法