JP2013196594A - 情報処理装置、操作権限付与プログラム及び投影システム - Google Patents

情報処理装置、操作権限付与プログラム及び投影システム Download PDF

Info

Publication number
JP2013196594A
JP2013196594A JP2012065525A JP2012065525A JP2013196594A JP 2013196594 A JP2013196594 A JP 2013196594A JP 2012065525 A JP2012065525 A JP 2012065525A JP 2012065525 A JP2012065525 A JP 2012065525A JP 2013196594 A JP2013196594 A JP 2013196594A
Authority
JP
Japan
Prior art keywords
user
role
unit
processing apparatus
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012065525A
Other languages
English (en)
Other versions
JP5982917B2 (ja
Inventor
Satoshi Mitsui
聖 三井
和寛 ▲高▼澤
Kazuhiro Takazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012065525A priority Critical patent/JP5982917B2/ja
Priority to US13/842,704 priority patent/US20130249788A1/en
Publication of JP2013196594A publication Critical patent/JP2013196594A/ja
Application granted granted Critical
Publication of JP5982917B2 publication Critical patent/JP5982917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B31/00Associated working of cameras or projectors with sound-recording or sound-reproducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ジェスチャ操作の操作性を向上させることを課題とする。
【解決手段】情報処理装置は、ユーザの動作に関する動作情報と、ユーザの役割とを対応付けて記憶する役割記憶部を有する。また、情報処理装置は、ユーザの動作を検出し、検出したユーザの動作に関する動作情報に対応する役割を役割記憶部に基づいて決定する。また、情報処理装置は、ユーザの所定動作に対して操作の実行対象となる実行対象装置に対する決定された役割に対応する操作権限をユーザに付与する。
【選択図】図2

Description

本発明は、情報処理装置、操作権限付与プログラム及び投影システムに関する。
従来、スクリーンに画像を投影するプロジェクタ等の投影装置に触れることなく、離れた場所から操作可能な技術がある。例えば、リモコンやレーザポインタ等の操作媒体から、各種操作の指示を出力することで投影装置を操作する技術が知られている。他の技術としては、投影装置を操作するために行なわれるユーザによる動作であるジェスチャを検出し、検出したジェスチャに応じた投影装置の各種操作を実現する技術が知られている。
また、特許文献1(特開2010−277176号公報)では、操作対象機器を操作するための操作権限を得るために行なわれるユーザによる所定動作を行なったユーザに投影装置(画像表示装置)の操作権限を与え、操作権限を有するユーザの視点方向が所定範囲の場合に、操作対象機器を操作するために行なわれるユーザによる動作であるジェスチャに応じた各種操作を実現する。
しかしながら、従来技術では、各種ジェスチャ操作が煩雑になる可能性があるという問題がある。従来技術において、ユーザは、投影装置の各種操作を行なう場合に、操作権限を獲得するための動作を行なわなければならないため、操作権限を獲得するための動作を意識することになる。この結果、従来技術では、ユーザに対して、操作権限を獲得するための動作を意識させてしまうことにより、本来行なわれるべきジェスチャ操作が煩雑になってしまう可能性がある。
本発明は、上記に鑑みてなされたものであって、ジェスチャ操作の操作性を向上させることが可能である情報処理装置、操作権限付与プログラム及び投影システムを提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明に係る情報処理装置は、ユーザの動作に関する動作情報と、前記ユーザの役割とを対応付けて記憶する役割記憶部と、前記ユーザの動作を検出する検出部と、前記検出部によって検出された前記ユーザの動作に関する動作情報に対応する前記役割を前記役割記憶部に基づいて決定する決定部と、前記ユーザの所定動作に対して操作の実行対象となる実行対象装置に対する前記決定部によって決定された前記役割に対応する操作権限を、前記ユーザに付与する操作権限付与部とを有する。
また、本発明に係る操作権限付与プログラムは、ユーザの動作を検出するステップと、検出された前記ユーザの動作に関する動作情報に対応する前記役割を、前記ユーザの動作に関する動作情報と前記ユーザの役割とを対応付けて記憶する役割記憶部に基づいて決定するステップと、前記ユーザの所定動作に対して操作の実行対象となる実行対象装置に対する、決定された前記役割に対応する操作権限を、前記ユーザに付与するステップとをコンピュータに実行させる。
また、本発明に係る投影システムは、情報処理装置と、ユーザの所定動作に対して操作の実行対象となる投影装置とを有する投影システムであって、前記情報処理装置は、前記ユーザの動作に関する動作情報と、前記ユーザの役割とを対応付けて記憶する役割記憶部と、前記ユーザの動作を検出する検出部と、前記検出部によって検出された前記ユーザの動作に関する動作情報に対応する前記役割を前記役割記憶部に基づいて決定する決定部と、前記投影装置に対する前記決定部によって決定された前記役割に対する操作権限を、前記ユーザに付与する操作権限付与部と、前記検出部によって検出された前記ユーザの動作が前記所定動作である場合に、該ユーザに対して前記決定部によって決定された前記役割に対応する前記操作権限付与部によって付与された前記操作権限における、前記所定動作に対する操作に応じた前記投影装置への制御を行なう操作制御部とを有し、前記投影装置は、前記情報処理装置の前記操作制御部による制御により、所定の投影処理を実行する投影処理部を有する。
本発明の一つの様態によれば、ジェスチャ操作の操作性を向上させることができるという効果を奏する。
図1は、実施の形態1に係る投影システムの構成例を示す図である。 図2は、実施の形態1に係る情報処理装置の構成例を示す機能ブロック図である。 図3は、役割記憶部に記憶される情報例を示す図である。 図4は、操作権限の遷移を説明する図である。 図5は、実施の形態1に係る全体処理の流れの例を示すフローチャートである。 図6は、実施の形態1に係る具体的な処理の流れの例を示すフローチャートである。 図7は、実施の形態1に係る具体的な処理の流れの例を示すフローチャートである。 図8は、実施の形態1に係る具体的な処理の流れの例を示すフローチャートである。 図9は、操作権限付与プログラムがコンピュータを用いて実現されることを示す図である。
以下に添付図面を参照して、本発明に係る情報処理装置、操作権限付与プログラム及び投影システムの実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。
(実施の形態1)
[システム構成]
図1を用いて、実施の形態1に係る投影システムの構成を説明する。図1は、実施の形態1に係る投影システムの構成例を示す図である。
図1に示すように、投影システム1では、プロジェクタ2と、カメラ3と、マイク4と、情報処理装置100とがそれぞれインターネットやLAN(Local Area Network)等のネットワーク5に接続されている。これらのうち、プロジェクタ2は、情報処理装置100による制御により、所定画像をスクリーン等の投影面に投影する投影装置である。また、プロジェクタ2は、会議等の参加者であるユーザの所定動作に対して操作の実行対象となる機器である。ユーザの所定動作とは、例えば、手や指等を動かす動作であり、「ジェスチャ(ジェスチャ操作)」と呼ばれる場合がある。なお、ユーザのジェスチャ操作の実行対象となる機器は、プロジェクタ2に限られるわけではなく、PC(Personal Computer)等の所定の機器であっても良い。以下では、ジェスチャ操作の実行対象となる機器として、プロジェクタ2を例に挙げて説明する。
カメラ3は、情報処理装置100の周辺を撮像するカメラである。かかるカメラ3は、可視光を捉えるカメラ又は赤外光を捉えるカメラの何れであっても良い。カメラ3が可視光を捉えるカメラである場合には、ユーザの位置を正確に把握するために、複数台のカメラを、間隔をおいて設置することが好ましい。一方、カメラ3が赤外光を捉えるカメラである場合には、図1に示す投影システム1に、赤外光を発信するための光源がさらに含まれることになる。また、カメラ3は、撮像した映像を、ネットワーク5を介して情報処理装置100に送信する。
マイク4は、音声(例えば、ユーザの発話等)を収集する。また、マイク4は、収集した音声を、ネットワーク5を介して情報処理装置100に送信する。なお、詳細については後述するが、マイク4は、本実施の形態において利用されない場合がある。
情報処理装置100は、ユーザの自然な動作に応じてプロジェクタ2の操作権限をユーザに付与するPC等の機器である。また、情報処理装置100は、ユーザの動作に関する動作情報、ユーザの位置に関する位置情報及びユーザの音声に関する音声情報と、会議におけるユーザの役割とを対応付けて記憶する記憶部を有する。この記憶部は、会議の参加者であるユーザの役割を決定するために利用される。そして、情報処理装置100は、カメラ3によって送信された映像を受信するとともに、マイク4によって送信された音声(ユーザの発話を含む)を必要に応じて受信する。
続いて、情報処理装置100は、カメラ3から受信した映像によりユーザの動作や位置を検出するとともに、マイク4から受信した音声によりユーザが発話していることを検出する。また、情報処理装置100は、記憶部に記憶された情報に基づいて、検出したユーザの動作に関する動作情報、位置に関する位置情報或いは発話している旨等の音声情報に対応する該ユーザの役割を決定する。その後、情報処理装置100は、ユーザによるジェスチャに対して操作の実行対象となるプロジェクタ2に対する決定した役割に対応する操作権限を該ユーザに付与する。これらにより、操作権限を付与されたユーザは、特定のジェスチャを行なうことによりプロジェクタ2を操作することができる。つまり、情報処理装置100は、操作権限を獲得するための動作をユーザに意識させることなく操作権限を付与するので、ジェスチャ操作の操作性を向上させることができる。
[情報処理装置の構成]
次に、図2を用いて、実施の形態1に係る情報処理装置100の構成を説明する。図2は、実施の形態1に係る情報処理装置100の構成例を示す機能ブロック図である。
図2に示すように、情報処理装置100は、役割記憶部111と、ユーザ情報記憶部112と、ジェスチャ操作記憶部113と、検出部121と、決定部122と、操作権限付与部123と、操作制御部124とを有する。また、プロジェクタ2は、投影処理部2aを有する。投影処理部2aは、情報処理装置100による制御により、画像をスクリーンに投影する等の所定の投影処理を実行する。
役割記憶部111は、ユーザの動作情報、ユーザの位置情報及びユーザの音声情報と、会議におけるユーザの役割とを対応付けて記憶する。図3は、役割記憶部111に記憶される情報例を示す図である。図3に示すように、役割記憶部111は、ジェスチャ操作の実行対象となるプロジェクタ2を利用する各ユーザの会議等における動作情報、位置情報、音声情報と、該各ユーザの会議等における役割とを対応付けて記憶する。ここで、動作情報、位置情報、音声情報は、「動作」と、「動作、位置」と、「動作、音声」と、「動作、位置、音声」とに分類されている。また、役割は、「発表者」と、「聴衆」と、「進行役」とに分類されている。また、動作情報、位置情報、音声情報のうち何れの分類を利用するかについては、会議室の規模や参加人数等により事前に設定されても良いし、動作のみを基本として判定していき、複数のユーザによる同様の動作が検出された場合に、位置や音声等の条件も加味するようにしても良い。このため、情報処理装置100は、少なくとも、カメラ3から受信された映像から検出するユーザの動作をもとに役割を決定し、必要に応じて、カメラ3から受信された映像から検出するユーザの位置や、マイク4から受信された音声から検出するユーザが発話した旨等をもとに役割を決定する。
例を挙げると、役割記憶部111は、動作情報「動作」において、「起立する」と、「発表者」とを対応付けて記憶する。また、役割記憶部111は、動作情報「動作」において、「挙手する」と、「聴衆」とを対応付けて記憶する。また、役割記憶部111は、動作情報「動作」において、「所定動作を行なう」と、「進行役」とを対応付けて記憶する。ここでの所定動作は、ジェスチャではなく、進行役として自然に行なう動作のことを指す。この例では、「動作」である場合には、起立したユーザは発表者、挙手したユーザは聴衆、所定動作(進行役としての自然な動作)を行なったユーザは進行役として操作権限がそれぞれ付与される。
他の例を挙げると、役割記憶部111は、動作情報及び位置情報「動作、位置」において、「起立する、前に出る(スクリーン方向に向かう)」と、「発表者」とを対応付けて記憶する。また、役割記憶部111は、動作情報及び位置情報「動作、位置」において、「起立する、自席に位置する」と、「聴衆」とを対応付けて記憶する。また、役割記憶部111は、動作情報及び位置情報「動作、位置」において、「所定動作を行なう、前方の一定位置に居る」と、「進行役」とを対応付けて記憶する。この例では、「動作、位置」である場合には、起立して前に出たユーザは発表者、起立して自席に位置するユーザは聴衆、所定動作(進行役としての自然な動作)を行なった前方の一定位置に居るユーザは進行役として操作権限がそれぞれ付与される。
他の例を挙げると、役割記憶部111は、動作情報及び音声情報「動作、音声」において、「最も長時間に渡り発話する」と、「発表者」とを対応付けて記憶する。また、役割記憶部111は、動作情報及び音声情報「動作、音声」において、「発話する」と、「聴衆」とを対応付けて記憶する。また、役割記憶部111は、動作情報及び音声情報「動作、音声」において、「拍手の後、所定動作を行なう」と、「進行役」とを対応付けて記憶する。この例では、「動作、音声」である場合には、最も長時間に渡り発話したユーザは発表者、発話したユーザは聴衆、拍手の後所定動作(進行役としての自然な動作)を行なったユーザは進行役として操作権限がそれぞれ付与される。
他の例を挙げると、役割記憶部111は、動作情報、位置情報及び音声情報「動作、位置、音声」において、「起立する、前に出る(スクリーン方向に向かう)、発話する」と、「発表者」とを対応付けて記憶する。また、役割記憶部111は、動作情報、位置情報及び音声情報「動作、位置、音声」において、「起立する、自席に位置する、発話する」と、「聴衆」とを対応付けて記憶する。また、役割記憶部111は、動作情報、位置情報及び音声情報「動作、位置、音声」において、「前方の一定位置に居る、拍手の後所定動作を行なう」と、「進行役」とを対応付けて記憶する。この例では、「動作、位置、音声」である場合には、起立して前に出て発話したユーザは発表者、起立して自席で発話したユーザは聴衆、前方の一定位置に居て拍手の後所定動作(進行役としての自然な動作)を行なったユーザは進行役として操作権限がそれぞれ付与される。
検出部121は、カメラ3から受信された映像を利用して、ユーザの動作や位置を検出する。ユーザの動作は、所定フレームごとのユーザの特徴の差分から検出する。また、ユーザの位置は、映像におけるユーザの位置から検出する。なお、これらの検出については、任意の技術を利用すれば良い。また、検出部121は、マイク4から受信された音声により、該ユーザが発話したことを検出する。ユーザの動作、位置或いは発話を検出した検出部121は、検出した各種情報をユーザ情報記憶部112に格納する。ユーザ情報記憶部112は、どの位置に存在するユーザがどんな動作をとったり発話したりしているかを記憶する。ユーザ情報記憶部112に記憶された各種情報は、必要に応じて、操作権限付与部123や操作制御部124に渡される。
決定部122は、ユーザの動作、位置及び音声に対応する役割を決定する。より具体的には、決定部122は、検出部121によって検出されたユーザの動作、位置或いは発話を検出した旨に対応する役割を、役割記憶部111を参照して決定する。
操作権限付与部123は、決定された役割ごとに異なるプロジェクタ2の操作権限をユーザに付与する。より具体的には、操作権限付与部123は、決定部122によって決定された役割に対応する権限である、ユーザのジェスチャ操作の実行対象となるプロジェクタ2の操作権限を該ユーザに付与する。ここで、操作権限付与部123によるユーザに対する操作権限の付与は、公知の手法で行なわれ、種々の手法があるが、一例としては、ユーザ登録を行なうためのユーザデータベースにおいて、ユーザに対応付けて、付与する操作権限を登録する等の手法があげられる。本実施の形態では、上述したユーザ情報記憶部112に記憶されたユーザ情報に対応付けて操作権限を登録すれば良い。但し、操作権限の付与の手法はこれに限定されるものではない。なお、ユーザの動作、位置或いは発話の検出に応じた役割を決定する処理の例については後述する。
ジェスチャ操作記憶部113は、ジェスチャに対応するプロジェクタ2の操作内容を記憶する。より具体的には、ジェスチャ操作記憶部113は、プロジェクタ2を操作可能な特定のジェスチャに対応付けて、ページの移行、表示の拡大や縮小、色や明るさの調整等のプロジェクタ2による投影に係る各種操作内容を、操作権限ごとに記憶する。
操作制御部124は、ユーザのジェスチャ操作に応じたプロジェクタ2への制御を行なう。より具体的には、操作制御部124は、検出部121によって検出されたユーザの動作がジェスチャ操作である場合に、操作権限付与部123によって付与された操作権限をもとに、ジェスチャ操作記憶部113から操作内容を取得する。そして、操作制御部124は、取得した操作内容によりプロジェクタ2の制御を行なう。例を挙げると、操作制御部124は、ユーザの操作権限と該ユーザによるジェスチャとをもとにジェスチャ操作記憶部113から「次ページへの移行」という操作内容を取得すると、プロジェクタ2に対して、現在投影している画像のページを次ページに移行するための制御を行なう。
[操作権限の遷移]
次に、図4を用いて、操作権限の遷移について説明する。図4は、操作権限の遷移を説明する図である。
図4に示すように、「ユーザA」が操作権限を有する状態において、「ユーザB」が起立して発表者(役割)の切り替わりとなる「イベント1」が発生した場合に、情報処理装置100は、「ユーザB」に対する役割「発表者」を決定するとともに、発表者としての操作権限を付与する。これにより、操作権限は、「ユーザA」から「ユーザB」に遷移する。但し、「ユーザB」の操作権限は発表者としての操作権限であるため、「ユーザB」が聴衆や進行役としてのジェスチャを行なったとしても、この時点ではその操作権限がないため受け付けられない。
また、「ユーザB」が操作権限を有する状態において、「ユーザC」が起立して発表者(役割)の切り替わりとなる「イベント2」が発生した場合に、情報処理装置100は、「ユーザC」に対する役割「発表者」を決定するとともに、発表者としての操作権限を付与する。これにより、操作権限は、「ユーザB」から「ユーザC」に遷移する。但し、「ユーザC」の操作権限は発表者としての操作権限であるため、「ユーザC」が聴衆や進行役としてのジェスチャを行なったとしても、この時点ではその操作権限がないため受け付けられない。
また、「ユーザC」が操作権限を有する状態において、「ユーザA」が挙手して聴衆(役割)となる「イベント3」が発生した場合に、情報処理装置100は、「ユーザA」に対する役割「聴衆」を決定するとともに、聴衆としての操作権限を付与する。これにより、操作権限は、「ユーザC」から「ユーザA」に遷移する。但し、「ユーザA」の操作権限は聴衆としての操作権限であるため、「ユーザA」が発表者や進行役としてのジェスチャを行なったとしても、この時点ではその操作権限がないため受け付けられない。
これらのように、情報処理装置100は、各ユーザに付与する操作権限を、ユーザの自然な動作であるイベントが発生した場合に遷移させていく。
[全体処理フロー]
次に、図5を用いて、実施の形態1に係る全体処理の流れについて説明する。図5は、実施の形態1に係る全体処理の流れの例を示すフローチャートである。
図5に示すように、検出部121によって検出されたユーザの動作がジェスチャ操作でない場合に(ステップS101否定)、決定部122は、発表者、聴衆又は進行役等の特定の役割に対応する動作であるか否かを判定する(ステップS102)。このとき、決定部122は、特定の役割に対応する動作であると判定した場合に(ステップS102肯定)、ユーザの役割を決定する(ステップS103)。また、操作権限付与部123は、決定部122によって役割が決定されたユーザに操作権限を付与する(ステップS104)。一方、決定部122によって、特定の役割に対応する動作でないと判定された場合には(ステップS102否定)、再度ステップS101の処理が実行される。特定の役割に対応する動作であるか否かについては、役割記憶部111を参照することにより判定される。
また、検出部121によって検出されたユーザの動作がジェスチャ操作である場合に(ステップS101肯定)、操作制御部124は、ジェスチャ操作を行なったユーザが操作権限を有するか否かを判定する(ステップS105)。操作権限を有するか否かについては、操作権限付与部123によって付与されたユーザに対する操作権限に係る情報(例えば、ユーザデータベースに登録されたユーザに対応付けられた操作権限の内容)から判定される。このとき、操作制御部124は、ジェスチャ操作を行なったユーザが操作権限を有すると判定した場合に(ステップS105肯定)、ジェスチャ操作に応じた操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう(ステップS106)。但し、該当ユーザが特定の役割の操作権限を有していたとしても、該ユーザが行なったジェスチャ操作が特定の役割の操作権限に対応したものでなければ、該ジェスチャ操作は受け付けられない。一方、操作制御部124によって、ジェスチャ操作を行なったユーザが操作権限を有さないと判定された場合に(ステップS105否定)、再度ステップS101の処理が実行される。
[処理例1]
次に、図6を用いて、実施の形態1に係る具体的な処理の流れについて説明する。図6は、実施の形態1に係る具体的な処理の流れの例を示すフローチャートである。なお、図6では、動作情報のうち、「動作」が主に利用される場合を例に挙げて説明する。
図6に示すように、カメラ3から受信された映像から、検出部121によってユーザが起立したことが検出された場合に(ステップS201肯定)、決定部122は、起立したユーザの役割を発表者として決定する(ステップS202)。以下の図6の説明では、発表者として決定されたユーザを「ユーザX」と呼ぶ場合がある。一方、検出部121は、ユーザが起立したことを検出していない場合に(ステップS201否定)、再度ステップS201の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が発表者として決定された「ユーザX」に操作権限を付与する(ステップS203)。なお、発表者である「ユーザX」に操作権限が付与されている状態において、「ユーザX」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
また、検出部121は、カメラ3から受信された映像から、発表者である「ユーザX」が着席していないと判定した場合に(ステップS204否定)、発表者である「ユーザX」以外のユーザが起立したか否かを判定する(ステップS205)。このとき、検出部121によって、発表者である「ユーザX」以外のユーザが起立したことが検出された場合に(ステップS205肯定)、決定部122は、起立したユーザの役割を聴衆として決定する(ステップS206)。以下の図6の説明では、聴衆として決定されたユーザを「ユーザY」と呼ぶ場合がある。
一方、検出部121は、発表者である「ユーザX」以外のユーザが起立したことを検出していない場合に(ステップS205否定)、再度ステップS204の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が聴衆として決定された「ユーザY」に操作権限を付与する(ステップS207)。つまり、この時点で、操作権限は、発表者である「ユーザX」から聴衆である「ユーザY」に移行する。なお、聴衆である「ユーザY」に操作権限が付与されている状態において、「ユーザY」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
また、カメラ3から受信された映像から、検出部121によって、聴衆である「ユーザY」が着席したと判定された場合に(ステップS208肯定)、操作権限付与部123は、発表者である「ユーザX」に操作権限を付与する(ステップS203)。つまり、この時点で、操作権限は、聴衆である「ユーザY」から発表者である「ユーザX」に移行する。なお、発表者である「ユーザX」に操作権限が付与されている状態において、「ユーザX」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。一方、検出部121は、カメラ3から受信された映像から、聴衆である「ユーザY」が着席していないと判定した場合に(ステップS208否定)、再度ステップS208の処理を実行する。
また、カメラ3から受信された映像から、検出部121によって、発表者である「ユーザX」が着席した(又は着席している)と判定された場合に(ステップS204肯定)、操作権限付与部123は、「ユーザX」や「ユーザY」等の各ユーザに対する役割と操作権限とをリセット、すなわち何れのユーザに対しても役割と操作権限とが与えられていない状態にする(ステップS209)。
また、カメラ3から受信された映像から、検出部121によって、所定動作(進行役としての自然な動作)を行なったユーザが居ることが検出された場合に(ステップS210肯定)、決定部122は、所定動作(進行役としての自然な動作)を行なったユーザの役割を進行役として決定する(ステップS211)。一方、検出部121は、所定動作(進行役としての自然な動作)を行なったユーザが居ないと判定した場合に(ステップS210否定)、再度ステップS201の処理を実行する。そして、操作権限付与部123は、役割を進行役として決定したユーザに操作権限を付与する(ステップS212)。なお、進行役であるユーザに操作権限が付与されている状態において、該ユーザによってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
[処理例2]
次に、図7を用いて、実施の形態1に係る具体的な処理の流れについて説明する。図7は、実施の形態1に係る具体的な処理の流れの例を示すフローチャートである。なお、図7では、動作情報のうち、「動作、位置」が主に利用される場合を例に挙げて説明する。
図7に示すように、カメラ3から受信された映像から、検出部121によってユーザが起立し、スクリーン方向に向かったことが検出された場合に(ステップS301肯定)、決定部122は、起立しスクリーン方向に向かったユーザの役割を発表者として決定する(ステップS302)。以下の図7の説明では、発表者として決定されたユーザを「ユーザX」と呼ぶ場合がある。一方、検出部121は、ユーザが起立し、スクリーン方向に向かったことを検出していない場合に(ステップS301否定)、再度ステップS301の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が発表者として決定された「ユーザX」に操作権限を付与する(ステップS303)。なお、発表者である「ユーザX」に操作権限が付与されている状態において、「ユーザX」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
また、検出部121は、カメラ3から受信された映像から、発表者である「ユーザX」が自席に戻っていないと判定した場合に(ステップS304否定)、発表者である「ユーザX」以外のユーザが挙手したか否かを判定する(ステップS305)。このとき、検出部121によって、発表者である「ユーザX」以外のユーザが挙手したことが検出された場合に(ステップS306肯定)、決定部122は、挙手したユーザの役割を聴衆として決定する(ステップS306)。以下の図7の説明では、聴衆として決定されたユーザを「ユーザY」と呼ぶ場合がある。
一方、検出部121は、発表者である「ユーザX」以外のユーザが挙手したことを検出していない場合に(ステップS305否定)、再度ステップS304の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が聴衆として決定された「ユーザY」に操作権限を付与する(ステップS307)。つまり、この時点で、操作権限は、発表者である「ユーザX」から聴衆である「ユーザY」に移行する。なお、聴衆である「ユーザY」に操作権限が付与されている状態において、「ユーザY」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
また、カメラ3から受信された映像から、検出部121によって、発表者である「ユーザX」がマイクを持ったと判定された場合に(ステップS308肯定)、操作権限付与部123は、発表者である「ユーザX」に操作権限を付与する(ステップS303)。つまり、この時点で、操作権限は、聴衆である「ユーザY」から発表者である「ユーザX」に移行する。なお、発表者である「ユーザX」に操作権限が付与されている状態において、「ユーザX」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。一方、検出部121は、カメラ3から受信された映像から、発表者である「ユーザX」がマイクを持っていないと判定した場合に(ステップS308否定)、再度ステップS308の処理を実行する。
また、カメラ3から受信された映像から、検出部121によって、発表者である「ユーザX」が自席に戻った(又は自席に戻っている)と判定された場合に(ステップS304肯定)、操作権限付与部123は、「ユーザX」や「ユーザY」等の各ユーザに対する役割と操作権限とをリセットすることにより、何れのユーザに対しても役割と操作権限とが与えられていない状態にする(ステップS309)。
また、カメラ3から受信された映像から、検出部121によって、前方の一定位置に居るユーザが所定動作(進行役としての自然な動作)を行なったことが検出された場合に(ステップS310肯定)、決定部122は、該ユーザの役割を進行役として決定する(ステップS311)。一方、検出部121は、前方の一定位置に居るユーザが所定動作(進行役としての自然な動作)を行なっていないと判定した場合に(ステップS310否定)、再度ステップS301の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が進行役として決定されたユーザに操作権限を付与する(ステップS312)。なお、進行役であるユーザに操作権限が付与されている状態において、該ユーザによってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
[処理例3]
次に、図8を用いて、実施の形態1に係る具体的な処理の流れについて説明する。図8は、実施の形態1に係る具体的な処理の流れの例を示すフローチャートである。なお、図8では、動作情報のうち、「動作、位置、音声」が主に利用される場合を例に挙げて説明する。
図8に示すように、カメラ3から受信された映像から、検出部121によってユーザが起立し、スクリーン方向に向かったことが検出された場合に(ステップS401肯定)、決定部122は、起立しスクリーン方向に向かったユーザの役割を発表者として決定する(ステップS402)。以下の図8の説明では、発表者として決定されたユーザを「ユーザX」と呼ぶ場合がある。一方、検出部121は、ユーザが起立し、スクリーン方向に向かったことを検出していない場合に(ステップS401否定)、再度ステップS401の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が発表者として決定された「ユーザX」に操作権限を付与する(ステップS403)。なお、発表者である「ユーザX」に操作権限が付与されている状態において、「ユーザX」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
また、検出部121は、カメラ3から受信された映像や、マイク4から受信された音声から、会議室内等で拍手が起きたことを検出していない場合に(ステップS404否定)、発表者である「ユーザX」以外のユーザが発話したか否かを判定する(ステップS405)。このとき、検出部121は、発表者である「ユーザX」以外のユーザが発話したと判定した場合に(ステップS405肯定)、該ユーザが所定時間以上発話したか否かを判定する(ステップS406)。そして、検出部121によって、発表者である「ユーザX」以外のユーザが所定時間以上発話したと判定された場合に(ステップS406肯定)、決定部122は、所定時間以上発話したユーザの役割を聴衆として決定する(ステップS407)。以下の図8の説明では、聴衆として決定されたユーザを「ユーザY」と呼ぶ場合がある。
一方、検出部121は、発表者である「ユーザX」以外のユーザが発話していない場合(ステップS405否定)、又は、発表者である「ユーザX」以外のユーザ所定時間以上発話しなかった場合に(ステップS406否定)、再度ステップS404の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が聴衆として決定された「ユーザY」に操作権限を付与する(ステップS408)。つまり、この時点で、操作権限は、発表者である「ユーザX」から聴衆である「ユーザY」に移行する。なお、聴衆である「ユーザY」に操作権限が付与されている状態において、「ユーザY」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
また、カメラ3から受信された映像から、検出部121によって、発表者である「ユーザX」がマイクを持ったと判定された場合に(ステップS409肯定)、操作権限付与部123は、発表者である「ユーザX」に操作権限を付与する(ステップS403)。つまり、この時点で、操作権限は、聴衆である「ユーザY」から発表者である「ユーザX」に移行する。なお、発表者である「ユーザX」に操作権限が付与されている状態において、「ユーザX」によってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。一方、検出部121は、カメラ3から受信された映像から、発表者である「ユーザX」がマイクを持っていないと判定した場合に(ステップS409否定)、再度ステップS409の処理を実行する。
また、カメラ3から受信された映像や、マイク4から受信された音声から、検出部121によって、会議室内等で拍手が起きたことが検出された場合に(ステップS404肯定)、操作権限付与部123は、「ユーザX」や「ユーザY」等の各ユーザに対する役割と操作権限とをリセットすることにより、何れのユーザに対しても役割と操作権限とが与えられていない状態にする(ステップS410)。
また、カメラ3から受信された映像から、検出部121によって、前方の一定位置に居るユーザが所定動作(進行役としての自然な動作)を行なったことが検出された場合に(ステップS411肯定)、決定部122は、該ユーザの役割を進行役として決定する(ステップS412)。一方、検出部121は、前方の一定位置に居るユーザが所定動作(進行役としての自然な動作)を行なっていないと判定した場合に(ステップS411否定)、再度ステップS401の処理を実行する。そして、操作権限付与部123は、決定部122によって役割が進行役として決定されたユーザに操作権限を付与する(ステップS413)。なお、進行役であるユーザに操作権限が付与されている状態において、該ユーザによってプロジェクタ2を操作するためのジェスチャが行なわれた場合に、操作制御部124は、ジェスチャに対応する操作内容をジェスチャ操作記憶部113から取得し、取得した操作内容によりプロジェクタ2の制御を行なう。
[実施の形態1による効果]
上述したように、情報処理装置100は、会議等におけるユーザの動作情報と役割とを対応付けて記憶する役割記憶部を有し、ユーザの動作、位置或いは音声等を検出し、検出したユーザの動作、位置或いは音声等に応じた役割を役割記憶部に基づいて決定する。そして、情報処理装置100は、決定したユーザの役割に対応するジェスチャ操作の実行対象となるプロジェクタ2の操作権限を該ユーザに付与する。これらの結果、情報処理装置100は、ユーザの自然な動作等に応じて操作権限を付与するので、操作権限を獲得するための動作をユーザに意識させてしまう従来技術と比較して、ジェスチャ操作の操作性を向上させることができる。
(実施の形態2)
さて、これまで本発明に係る情報処理装置100の実施の形態について説明したが、上述した実施の形態以外にも種々の異なる形態にて実施されて良いものである。そこで、(1)構成、(2)プログラム、について異なる実施の形態を説明する。
(1)構成
上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。例えば、役割記憶部111によって記憶される情報は、図示のものに限られるわけではなく、適宜変更することができる。
また、図示した情報処理装置100の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合することができる。例えば、操作制御部124は、ユーザのジェスチャを認識する「ジェスチャ認識部」と、認識したジェスチャに応じた操作内容によりプロジェクタ2を制御する「制御部」とに分散しても良い。
(2)プログラム
図9は、操作権限付与プログラムがコンピュータを用いて実現されることを示す図である。例えば、図9に示すように、情報処理装置100としてのコンピュータ1000は、バス1009で接続された、CPU(Central Processing Unit)1001等の制御装置と、ROM(Read Only Memory)1002やRAM(Random Access Memory)1003等の記憶装置と、HDD(Hard Disk Drive)1004、ディスクドライブ1005等の外部記憶装置と、ディスプレイ1006等の表示装置と、キーボード1007やマウス1008等の入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
情報処理装置100で実行される操作権限付与プログラムは、一つの様態として、インストール可能な形式又は実行可能な形式ファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、情報処理装置100で実行される操作権限付与プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、情報処理装置100で実行される操作権限付与プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。また、操作権限付与プログラムを、ROM等に組み込んで提供するように構成しても良い。
情報処理装置100で実行される操作権限付与プログラムは、上述した各機能部(検出部121、決定部122、操作権限付与部123)を含むモジュール構成となっており、実際のハードウェアとしてCPU(プロセッサ)が記憶媒体から操作権限付与プログラムを読み出して実行することにより、上記各機能部が主記憶装置上にロードされ、検出部121、決定部122、操作権限付与部123が主記憶装置上に生成されるようになっている。
1 投影システム
2 プロジェクタ
3 カメラ
4 マイク
100 情報処理装置
111 役割記憶部
112 ユーザ情報記憶部
113 ジェスチャ操作記憶部
121 検出部
122 決定部
123 操作権限付与部
124 操作制御部
特開2010−277176号公報

Claims (7)

  1. ユーザの動作に関する動作情報と、前記ユーザの役割とを対応付けて記憶する役割記憶部と、
    前記ユーザの動作を検出する検出部と、
    前記検出部によって検出された前記ユーザの動作に関する動作情報に対応する前記役割を前記役割記憶部に基づいて決定する決定部と、
    前記ユーザの所定動作に対して操作の実行対象となる実行対象装置に対する前記決定部によって決定された前記役割に対応する操作権限を、前記ユーザに付与する操作権限付与部と
    を有することを特徴とする情報処理装置。
  2. 前記検出部によって検出された前記ユーザの動作が前記所定動作である場合に、該ユーザに対して前記決定部によって決定された前記役割に対応する前記操作権限付与部によって付与された前記操作権限における、前記所定動作に対する操作に応じた前記実行対象装置への制御を行なう操作制御部をさらに有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記役割記憶部は、前記ユーザの位置に関する位置情報と、前記役割とを対応付けてさらに記憶し、
    前記検出部は、前記ユーザの位置をさらに検出し、
    前記決定部は、前記検出部によって検出された前記ユーザの動作に関する動作情報と、前記検出部によって検出された前記ユーザの位置に関する位置情報とに対応する前記役割を前記役割記憶部に基づいて決定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記役割記憶部は、前記ユーザの音声に関する音声情報と、前記役割とを対応付けてさらに記憶し、
    前記検出部は、前記ユーザの音声をさらに検出し、
    前記決定部は、前記検出部によって検出された前記ユーザの動作に関する動作情報と、前記検出部によって検出された前記ユーザの音声に関する音声情報とに対応する前記役割を前記役割記憶部に基づいて決定することを特徴とする請求項1又は2に記載の情報処理装置。
  5. 前記役割記憶部は、前記ユーザの位置に関する位置情報と、前記ユーザの音声に関する音声情報と、前記役割とを対応付けてさらに記憶し、
    前記検出部は、前記ユーザの位置及び音声をさらに検出し、
    前記決定部は、前記検出部によって検出された前記ユーザの動作に関する動作情報と、前記検出部によって検出された前記ユーザの位置に関する位置情報と、前記検出部によって検出された前記ユーザの音声に関する音声情報とに対応する前記役割を前記役割記憶部に基づいて決定することを特徴とする請求項1又は2に記載の情報処理装置。
  6. ユーザの動作を検出するステップと、
    検出された前記ユーザの動作に関する動作情報に対応する前記役割を、前記ユーザの動作に関する動作情報と前記ユーザの役割とを対応付けて記憶する役割記憶部に基づいて決定するステップと、
    前記ユーザの所定動作に対して操作の実行対象となる実行対象装置に対する、決定された前記役割に対応する操作権限を、前記ユーザに付与するステップと
    をコンピュータに実行させるための操作権限付与プログラム。
  7. 情報処理装置と、ユーザの所定動作に対して操作の実行対象となる投影装置とを有する投影システムであって、
    前記情報処理装置は、
    前記ユーザの動作に関する動作情報と、前記ユーザの役割とを対応付けて記憶する役割記憶部と、
    前記ユーザの動作を検出する検出部と、
    前記検出部によって検出された前記ユーザの動作に関する動作情報に対応する前記役割を前記役割記憶部に基づいて決定する決定部と、
    前記投影装置に対する前記決定部によって決定された前記役割に対する操作権限を、前記ユーザに付与する操作権限付与部と、
    前記検出部によって検出された前記ユーザの動作が前記所定動作である場合に、該ユーザに対して前記決定部によって決定された前記役割に対応する前記操作権限付与部によって付与された前記操作権限における、前記所定動作に対する操作に応じた前記投影装置への制御を行なう操作制御部と
    を有し、
    前記投影装置は、
    前記情報処理装置の前記操作制御部による制御により、所定の投影処理を実行する投影処理部
    を有することを特徴とする投影システム。
JP2012065525A 2012-03-22 2012-03-22 情報処理装置、操作権限付与プログラム及び投影システム Active JP5982917B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012065525A JP5982917B2 (ja) 2012-03-22 2012-03-22 情報処理装置、操作権限付与プログラム及び投影システム
US13/842,704 US20130249788A1 (en) 2012-03-22 2013-03-15 Information processing apparatus, computer program product, and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012065525A JP5982917B2 (ja) 2012-03-22 2012-03-22 情報処理装置、操作権限付与プログラム及び投影システム

Publications (2)

Publication Number Publication Date
JP2013196594A true JP2013196594A (ja) 2013-09-30
JP5982917B2 JP5982917B2 (ja) 2016-08-31

Family

ID=49211293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012065525A Active JP5982917B2 (ja) 2012-03-22 2012-03-22 情報処理装置、操作権限付与プログラム及び投影システム

Country Status (2)

Country Link
US (1) US20130249788A1 (ja)
JP (1) JP5982917B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015187813A (ja) * 2014-03-27 2015-10-29 京セラドキュメントソリューションズ株式会社 プレゼンテーション管理装置およびプレゼンテーション管理プログラム
JP2016085751A (ja) * 2015-12-04 2016-05-19 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017174388A (ja) * 2016-03-17 2017-09-28 株式会社リコー 情報処理装置とそのプログラム及び会議支援システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6167529B2 (ja) 2013-01-16 2017-07-26 株式会社リコー 画像投影装置、画像投影システム、制御方法およびプログラム
US11956290B2 (en) * 2015-03-04 2024-04-09 Avaya Inc. Multi-media collaboration cursor/annotation control
CN104869265B (zh) * 2015-04-27 2018-03-13 华为技术有限公司 一种多媒体会议的实现方法及装置
CN110968880A (zh) * 2018-09-30 2020-04-07 北京国双科技有限公司 账户权限的处理方法和装置
CN109542219B (zh) * 2018-10-22 2021-07-30 广东精标科技股份有限公司 一种应用于智能教室的手势交互系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2005204193A (ja) * 2004-01-19 2005-07-28 Hitachi Software Eng Co Ltd プレゼンテーション支援方法およびシステム
US20110154266A1 (en) * 2009-12-17 2011-06-23 Microsoft Corporation Camera navigation for presentations

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69830295T2 (de) * 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
US6894714B2 (en) * 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
JP4906761B2 (ja) * 2008-03-17 2012-03-28 株式会社リコー 情報処理装置、情報処理方法及び情報処理プログラム
US8237771B2 (en) * 2009-03-26 2012-08-07 Eastman Kodak Company Automated videography based communications
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2005204193A (ja) * 2004-01-19 2005-07-28 Hitachi Software Eng Co Ltd プレゼンテーション支援方法およびシステム
US20110154266A1 (en) * 2009-12-17 2011-06-23 Microsoft Corporation Camera navigation for presentations

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015187813A (ja) * 2014-03-27 2015-10-29 京セラドキュメントソリューションズ株式会社 プレゼンテーション管理装置およびプレゼンテーション管理プログラム
JP2016085751A (ja) * 2015-12-04 2016-05-19 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017174388A (ja) * 2016-03-17 2017-09-28 株式会社リコー 情報処理装置とそのプログラム及び会議支援システム

Also Published As

Publication number Publication date
US20130249788A1 (en) 2013-09-26
JP5982917B2 (ja) 2016-08-31

Similar Documents

Publication Publication Date Title
JP5982917B2 (ja) 情報処理装置、操作権限付与プログラム及び投影システム
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP2956940B1 (en) Voice recognition device, voice recognition method, and program
KR101825569B1 (ko) 흥미 알고리즘을 이용한 시청각 통신을 위한 기술
JP5012968B2 (ja) 会議システム
EP3419020B1 (en) Information processing device, information processing method and program
JP6304941B2 (ja) 会議情報記録システム、情報処理装置、制御方法およびコンピュータプログラム
JP2013239976A (ja) 情報処理装置、投影システム及び情報処理プログラム
JP6772839B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP2007213282A (ja) 講演者支援装置および講演者支援方法
US20150199171A1 (en) Handwritten document processing apparatus and method
JP6624476B2 (ja) 翻訳装置および翻訳システム
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP5907231B1 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP2013182450A (ja) 所在管理プログラム及び所在管理装置
JP6496220B2 (ja) 情報配信装置および情報配信プログラム
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
JP6296193B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6172303B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6112239B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP5613102B2 (ja) 会議装置、会議方法および会議プログラム
JP2013196329A (ja) 情報処理装置、操作者決定プログラム及び投影システム
JP5244460B2 (ja) 情報自動編成提示装置および情報自動編成提示処理プログラム
JP2018060297A (ja) 会議端末、マイク選択方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R151 Written notification of patent or utility model registration

Ref document number: 5982917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151