JP2018525696A - グループのメンバによってデバイスを操作する方法及び装置 - Google Patents

グループのメンバによってデバイスを操作する方法及び装置 Download PDF

Info

Publication number
JP2018525696A
JP2018525696A JP2017556187A JP2017556187A JP2018525696A JP 2018525696 A JP2018525696 A JP 2018525696A JP 2017556187 A JP2017556187 A JP 2017556187A JP 2017556187 A JP2017556187 A JP 2017556187A JP 2018525696 A JP2018525696 A JP 2018525696A
Authority
JP
Japan
Prior art keywords
group
instruction
group member
command
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017556187A
Other languages
English (en)
Other versions
JP2018525696A5 (ja
JP6772184B2 (ja
Inventor
ユリア ドバイ
ユリア ドバイ
ナイン‐ズ チェン
ナイン‐ズ チェン
レーンゴード マーレーン ヨハンナ ヤコバ ファン
レーンゴード マーレーン ヨハンナ ヤコバ ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018525696A publication Critical patent/JP2018525696A/ja
Publication of JP2018525696A5 publication Critical patent/JP2018525696A5/ja
Application granted granted Critical
Publication of JP6772184B2 publication Critical patent/JP6772184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

グループメンバから受信される入力に基づいてデバイスを制御することによって当該デバイスを操作する方法は、グループメンバによって提供された命令を検出するために、センサユニットを使用して、各グループメンバをモニタリングする。命令は視覚又は可聴命令を含む。検出後、制御ユニットは、制御コマンドを命令に関連付ける。制御ユニットは制御コマンドをデバイスに提供する。グループを確立するために、上記方法は、ユーザとインタラクトするためのユーザ入力手段によって、当該ユーザをグループメンバとして追加するために認証を行うステップを含む。制御コマンドを特定するために、上記方法は、検出された命令を、グループメンバのうちの命令を出すグループメンバに関連付け、参照命令のセットを含むメモリユニットからのメンバプロファイルにアクセスし、命令と、プロファイル内の参照命令のセットから選択される参照命令とをマッチングさせる。装置は上記方法を行うように構成されている。

Description

本発明は、概して、グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって、当該デバイスを操作する方法に関する。当該方法は、センサユニットを使用して、上記1人以上のグループメンバのうちの命令出しグループメンバによって提供される少なくとも1つの命令を検出するために、各グループメンバをモニタリングするステップと、命令を検出後、制御ユニットによって、命令に関連付けられる制御コマンドを特定するステップと、上記制御ユニットによって、デバイスを制御するために当該デバイスに制御コマンドを提供するステップとを含み、上記命令は、視覚又は可聴命令の少なくとも1つを含む。本発明は更に、このような方法を行う装置と、コンピュータプログラムプロダクトとに関する。
ジェスチャ又は話し声によってデバイスを操作する方法及びシステムは、様々な変形で、また、様々な応用分野において利用可能である。このようなシステムの初期の実施態様は、単純に動きセンサによる動きの検出に依存して、照明器具、カメラ又はアラームシステムといったデバイスを操作していた。より洗練された実施態様は、特定の動きパターンを検出可能であり、これにより、ユーザが特定のジェスチャによってデバイスの目標とする操作の的を絞ったり、デバイスの操作がセンサの前のあらゆる動きをむやみに感知しないようにすることができる。
画像及び動画における顔検出及び顔認識は、多くのシステム(例えばグーグル社のPicasa又はWindows Live)の標準特徴/機能となりつつある。閉環境における人の存在及び場所を追跡する他の手段も存在し、使用されている。例えばRFIDベースのソリューションが使用され、これを介して、RFIDタグを装着している人を長距離検出及び三角測量技術を用いて連続的に追跡することができる。
欧州特許第0919906号は、ジェスチャという形で、デバイスを制御する入力が提供されることを可能にする制御方法及びシステムを開示している。当該方法は、ジェスチャを行っている人の属性を認識する操作者選択部を含む。操作者属性の追加情報を使用して、何人かの操作者を他の操作者に対して優先させる。
米国特許出願公開第2008/0004951号は、小売施設においてリアルタイムで広告を提示するアーキテクチャを開示している。センサコンポーネントが、1人以上の客の情報を、当該客が店内を動き回る間に収集するセンサを含む。センサは、例えば画像処理、音声処理、光感知、速度感知、方向感知、近接感知、顔認識、姿勢認識、取引認識及びバイオメトリック感知の機能を含む。客コンポーネントが、情報を解析し、客に関するプロファイルを生成する。客が店の提示システムの近くを歩くと、当該客を標的にした広告が提示のために選択される。広告コンポーネントは、プロファイルに応じて個人を標的にした広告のダイナミック提示を促進する。客コンポーネントは、マシン学習及び論理的思考を使用して、解析中に情報を推測することができる。
病院内の手術室といった医療環境では、人のグループが、医療機器に支援された特定のチーム作業を行うように割り当てられる。例えば外科教室では、何人かの人(外科スタッフ)が外科手術を共に行うように共同作業をする。外科手術は、通常、指導的立場にあるチームメンバでもある外科医によって行われる。外科医は、麻酔を行う麻酔医や、他の作業を行うほかの医療スタッフメンバに依存する。外科チームメンバは共に、幾つかの医療システムを制御する。これらのシステムは、通常、物理的なボタン又はスイッチを介して操作される。一般に、主外科医は、(患者の対応で両手がふさがっているか、又は、両手が無菌状態であるが、触る必要のある部分は無菌状態ではない場合に)医療システムを彼自身で操作することができず、他の医療スタッフメンバにデバイスを操作するように要求する。
Ali Bigdelou他による「HCI Design in the OR: A Gesturing Case-Study」(Computer Aided Medical Procedures, Technische Universitat Munchen, and Klinikum Munchen-Pasing、2012年10月)には、ジェスチャベースのインターフェースによって手術室内の医療器具を制御するコンピュータ化されたシステムが開示されている。
Helena M.Mentis他による文書「Voice or Gesture in the Operating Room」(Human Factors in Computing Systems, ACM, 2 Penn Plaza, Suite 701 New York NY10121-0701 USA、2015年4月18日、773〜778頁)は、外科医の選択によるジェスチャ又は音声制御を可能にする別の上記のようなシステムを提示している。
本発明の目的は、独立請求項によって解決される。有利な実施形態は、従属請求項に規定される。
本発明は、外科チームといった特定の作業を一緒に行う操作者チームによって操作されるように実施される視覚命令又は可聴命令に基づく機器制御方法を提供することを目的とする。
本発明は、グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって当該デバイスを操作する方法を提供することによって、これらの及び他の目的を達成する。当該方法は、センサユニットを用いて、1人以上のグループメンバのうちの命令を出すグループメンバによって提供される少なくとも1つの命令を検出するために、各グループメンバをモニタリングするステップを含む。この命令は、視覚命令又は可聴命令の少なくとも一方を含む。上記方法は更に、命令を検出すると、制御ユニットによって、デバイスを制御する制御コマンドを特定する。制御コマンドは、命令に関連付けられている。制御ユニットは、デバイスに制御コマンドを提供する。グループを確立するために、上記方法は更に、ユーザとインタラクトするためのユーザ入力手段によって、ユーザをグループメンバとして追加するためにユーザの識別認証を行うステップを含む。制御コマンドを特定するために、上記方法は、制御ユニットによって、検出された命令を、グループメンバのうちの命令を出すグループメンバに関連付けるステップと、メモリユニットからの命令を出すグループメンバの参照命令のセットを含むメンバプロファイルデータにアクセスするステップと、制御コマンドを特定するために、検出された命令と、命令を出すグループメンバのメンバプロファイルデータ内の参照命令のセットから選択される所与の参照命令とをマッチングさせるステップとを含む。
当然ながら、ジェスチャベースの機器制御の使用は、従来の環境では可能ではなかった状況における医療システムの直接制御を外科医が有することを可能にする可能性がある。これは、動作を行うための応答時間を短縮し、(チームメンバ間での言葉によるやり取りが、特に背景音がある場合に、間違いを起こしやすいことを認識することで)エラーのリスクを軽減するので、例えば(タイム)クリティカル動作といった特定の動作を行う場合に好適である。本発明は、従来のジェスチャベースの制御方法は、手術といったクリティカルな医療環境における実施には適していないという洞察に基づいている。これらの従来の方法は、しばしば、十分な信頼性がない。更に、これらの方法は、チームメンバの任務及び責任を考慮しない。例えば外科環境では、外科スタッフメンバの任務及び責任は、例えば矛盾する動作を阻止し、メンバのスキルを最適に適用するために、明確に規定されている。
「視覚命令」及び「可聴命令」との用語は、特定の領域における経時的な変化を検出することを可能にするセンサユニットを使用して検出される任意の命令を含むものと理解されるべきである。命令は、ジェスチャ、話声による命令、音による命令(例えば手を叩くこと)、グループメンバが取る姿勢(例えば手を固定位置に一時的に維持すること)を含む。これらの命令は、音の検出とグループメンバの対応する動作といったように上記の組み合わせでもよい。例えば手を叩くことに、特定のグループメンバの手が互いに向かって動くことの検出が伴い、又は、音声コマンドが動く唇の検出を含む。他の例としては、両手を交差して上げつつ「ピリオド」と言ったり、片手で上げ動作をしつつ増加するパラメータ名を言ったりする(例えば片手を上げて「アドレナリン」及び「ゆっくり」と言う)といったように、ジェスチャが追加の音声コマンドを含むようになされることである。
本発明の方法は、グループメンバをグループに追加する前に、識別認証を行う。これにより、デバイスを制御可能である人々のグループが、各グループ作業について明確に規定される。例えばグループ作業の実行に参加する一人ひとり(ユーザ)が、最初に、識別認証セッションを完了することによって、グループに参加しなければならない。人は、認証がなければ、上記方法を行っているシステムによって無視される。承認後、各グループメンバはシステムによってモニタリングされるため、システムは、認証済みのグループメンバをモニタリングする。幾つかの実施形態では、認証は、グループ作業の開始時(例えば手術の開始前)に行われる。他の実施形態では、グループメンバを開始から任意の時間(例えば手術の後の方)に追加して、追加のスキルが予想外に必要となった場合に、当該追加のスキルを外科スタッフに追加することも可能である。
認証によってグループメンバの身元を認識している上で、本発明は更に、グループ内のグループメンバの任務及び責任を考慮に入れる。これは、制御コマンドを特定するために、制御ユニットによって、検出された命令を、グループメンバのうちの命令を出すグループメンバに関連付け、その後、当該命令が、命令を出すグループメンバのメンバプロファイル内の参照命令とマッチされることによって達成される。メモリユニットからの命令を出すグループメンバのメンバプロファイルは、制御ユニットによってアクセスされる。
これは幾つかのメリットを有する。上記されるように、命令をメンバプロファイルに対して検証することによって、グループメンバは、当該グループメンバに提供する権限が与えられていない命令を提供することがない。例えば特定の実施形態では、制御コマンドの特定は更に、命令を出すグループメンバのメンバプロファイルデータから得られる権限付与ステータスの検証を含む。他の実施形態は、メンバプロファイルデータを、例えばグループ内のグループメンバの任務に対応する規定された機能グループに基づいて分類に関連付けさせる。これにより、権限付与ステータスがこの分類から分かる。
更に、参照命令の使用は、特定の実施形態では、各グループメンバによって使用されるジェスチャ及び音声コマンドを個別化することを可能にする。標準化ジェスチャ、音声コマンド、音又は姿勢といった標準化命令に依存する実施形態においても、このような命令の意味を個別化することができる。これにより、グループメンバの任務及び責任を十分に考慮することができる。
幾つかの実施形態では、モニタリングするステップは、各グループメンバが認証されると、各グループメンバを連続的に追跡するステップを含む。識別認証後に、各グループメンバを連続的に追跡することによって、グループメンバの認識を間違えることが阻止される。識別認証が行われると、センサユニットから受信される画像内の各グループメンバの存在が連続的にタグ付けされ、これにより、検出された命令の命令を出すグループメンバとの関連付けが可能にされる。更に、これは、方法を行うシステムによって、グループメンバによって提供された命令を見落とすことも阻止される。
どのチームメンバがどの検出命令を提供したのかに関する詳細情報が入手可能であることは更に、幾つかの実施形態において、行われるべきグループ作業を電子的にかつ自動的に追跡することを更に可能にする。例えばすべての命令は、後の評価又は訓練を目的としてログファイルにログされる。
本発明の方法は、単一デバイスの制御だけに限定されず、一実施形態では、複数のデバイスを制御するために実施される。このような実施形態では、制御ユニットは、センサユニットからのセンサ信号を受信する中央ユニットに含まれ、メモリユニットは、制御ユニットによってアクセス可能である。この実施形態による方法は、制御ユニットによって、制御コマンドを受信する候補デバイスを特定するステップを含み、候補デバイスは、検出された命令の命令を出すグループメンバのメンバプロファイルデータ内の参照命令とのマッチングによって特定される。
更なる態様によれば、グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって当該デバイスの動作を制御する装置が提供される。当該装置は、1人以上のグループメンバのうちの命令を出すグループメンバによって提供される少なくとも1つの命令を検出するために、各グループメンバをモニタリングするセンサユニットであって、視覚命令又は可聴命令を検出するように、視覚画像又は可聴信号の少なくとも一方を受信する上記センサユニットと、センサユニットに通信可能に接続され、センサユニットからの出力信号を受信する制御ユニットであって、命令を検出すると、デバイスを制御する制御コマンドを特定する当該プロセッサを含み、制御コマンドは命令に関連付けられ、デバイスに制御コマンドを提供するためにデバイスに通信可能に接続される上記制御ユニットと、ユーザとインタラクトして、グループを確立するために、グループメンバとしてユーザを追加するためのユーザの識別認証を行うユーザ入力手段と、グループメンバの1つ以上のメンバプロファイルデータを記憶するメモリユニットであって、各グループメンバのメンバプロファイルデータは、各グループメンバの参照命令のセットを含む、上記メモリユニットとを含み、制御ユニットは更に、プロセッサによって、検出された命令を、グループメンバのうちの命令を出すグループメンバに関連付け、メモリユニットからの命令を出すグループメンバのメンバプロファイルデータにアクセスし、制御コマンドを特定するために、検出された命令と、命令を出すグループメンバのメンバプロファイルデータ内の参照命令のセットから選択される所与の参照命令とをマッチングさせるように構成される。
一実施形態では、ユーザ入力手段は、個人的な目の特徴に基づいてユーザを認証する虹彩若しくは網膜スキャナ又は指紋スキャナを含むバイオメトリックスキャナ、個人的なログオン詳細を入力するためのキーボード、タッチセンサー式スクリーン、又は、カメラを含む群のうちの少なくとも1つの要素を含む。
更に、幾つかの実施形態によれば、センサユニットは、領域を観察する1つ以上のカメラを含む撮像デバイス又は撮像装置、及び、オーディオ信号を感知する1つ以上のマイクロホンを含むオーディオセンサデバイス又はオーディオセンサ装置を含む群のうちの少なくとも1つの要素を含む。
第3の態様によれば、本発明は、グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって当該デバイスを操作する本発明の第1の態様による方法を実施するためのプログラムコード命令を含む、通信ネットワークからダウンロード可能である並びに/又はコンピュータ可読媒体及び/若しくはマイクロプロセッサ実行可能媒体上に格納されるコンピュータプログラムプロダクトに関する。更に、本発明は、更なる態様によれば、上記コンピュータプログラムプロダクトを含むデータ担体に関する。
以下において、本発明は、添付図面を参照して、その幾つかの特定の実施形態によって説明される。
図1は、本発明の環境を示す。 図2は、本発明の方法を概略的に説明する。 図3は、本発明によるシステムを概略的に示す。 図4は、本発明の方法を概略的に説明する。
説明において、「ジェスチャ」と言及される場合、当然ながら、本文書の他の箇所において言及される話し声命令、音による命令(例えば手を叩くこと)、グループメンバが取る姿勢(例えば手を固定位置に一時的に維持すること)又は任意のこのような命令の組み合わせといった任意の他のタイプの命令に置換される。更に、「識別認証」との用語は、ユーザ又は人の身元を確実に確認することを可能にする任意の動作又は方法と解釈される。当然ながら、所望の確実性の度合いは実施態様に応じる。アクセスバッジによる身元確認が十分である実施態様がある一方で、指紋又は網膜スキャンが好まれる実施態様もある。
図1に、本発明が適用される環境が例示的に示される。図1では、作業を行う間に、複数のグループメンバ1、2及び3がデバイス6を操作する。図1は概略に過ぎず、同僚1、2及び3が一緒に、ファクシミリデバイス6といった幾つかのデバイスを使用するオフィス環境を示す。グループメンバ1、2及び3は、グループ内で異なる任務及び責任を有し、これに対応して、グループメンバ1、2及び3のうちの誰かによって提供される命令は、デバイス6が従う優先順位が異なる。追跡システム8(例えば1つ以上のカメラ)は、グループメンバ1、2及び3が作業している領域をモニタリングする。追跡システム8は、何れかのグループメンバによって行われる/出されるジェスチャ又は音を特定するように、各グループメンバ1、2及び3をモニタリングすることを可能にする。各グループメンバ1、2及び3は、デバイス6に入力を提供し、両方向矢印9、10及び11によってそれぞれ示されるように、フィードバックを受信する。以下に更に説明されるように、追跡システム8は、グループメンバ1、2又は3のうちの1人によって命令が与えられたか否かに関する情報を受信する制御ユニット(図示せず)に通信可能に接続される。
グループメンバとして追加される前に、グループメンバ1、2又は3が追加されるためには、識別認証セッションが求められる。制御ユニットは、認証を行った後、メンバユニットからのパーソナルプロファイル又はメンバプロファイルにアクセスする。グループメンバ1、2又は3とデバイス6との間のダイアログ9、10及び11が、メンバプロファイルを使用して個別化される。ダイアログの個別化は、各グループメンバ1、2及び3が個別化されたジェスチャをデバイス6への入力として使用することを含む。つまり、ジェスチャは、命令を提供するグループメンバ(1、2又は3)に応じて異なる意味を有する。更に、デバイス6から命令を出したグループメンバ(1〜3)へのダイアログ9、10及び11におけるフィードバックも個別化される。当然ながら、個別化は、グループメンバが権限を与えられている動作のグループメンバ自身の個別化セットを各グループメンバ1、2及び3が持つことも含む。例えばデバイス6の幾つかの機能はグループメンバ1によってのみアクセス可能である一方で、他の機能はすべてのグループメンバに利用可能であってよい。
追跡システム8は、(例えば顔検出及び認識、RFIDタグ付け等といった)既存の追跡機能に基づいた人追跡システムである。図2を参照するに、追跡対象の人1、2又は3はそれぞれ、ステップ19において、最初に、網膜スキャン、指紋認識、アクセスバッジ等といった信頼性の高い機構を用いる識別認証セッション中に一意に識別される。なお、このような機構は、追跡に連続的には使用されなくてもよい。認証は、多くの場合、一時の本人確認を提供するので、グループメンバを追跡し続けるには追加の手段を必要とする。したがって、1回限りの又は間欠的に使用される本人確認機構と連続追跡機構との組み合わせ(ステップ23)が好適である。識別認証セッション19は、幾つかの実施形態では、図2に矢印16によって示されるように、(例えばメモリユニットから入手可能である)メンバデータコレクション15に格納されているメンバプロファイルから個人情報を入手する。認証が完了すると、本人確認された人は、グループメンバとして追加される。メンバデータコレクション15において入手可能であるメンバプロファイルデータの一部(又は全部)を含むデータは、矢印20によって示されるように、更なる使用のためにシステムに提供される。更に、或いは、メモリユニット内のメンバプロファイルデータへの参照のみが提供されてもよい。これは、例えば追跡システム8によって追跡される人のタグ付けを可能にして、これにより、任意の命令(以下のイベントの説明を参照)を提供した人(今ではグループメンバとなっている)のメンバプロファイルとの当該命令の関連付けができる。
追跡処理32中、追跡された各人の(ジェスチャ、話し声、姿勢等による)システムとの相互作用は、イベント25を生じさせる。イベントは、身元、場所、タイムスタンプ及び入力命令(ジェスチャ、姿勢、声コマンド等)のうちの1つ、複数又はすべてを含む。イベント25は、更なる処理のために制御ユニットが利用可能であるようにされる。制御ユニットを制御するソフトウェアが、このイベントをステップ26への入力としてとらえる。システムを制御する第2の入力27が、すべての身元及びそれらの任務、許可及び既知のジェスチャ並びに個人的好みを有するメンバデータコレクション15から得られる。ステップ26において、制御ユニットは、2つの入力25及び27に基づいて、制御される機器6の適切な動作を決定し、適当なフィードバックを、命令を出したグループメンバに提供する。このフィードバックは、システムが(入力25を使用して)誰がコマンドを出したのか、また、(メンバデータコレクション15から得られたメンバプロファイルデータ27に基づいて)その人の好みが何であるかを知っているため、個別化される。これにより、各個人と複雑なシステムとの間で、また、複数の個人について並列に高度に個別化された2方向ダイアログが可能となる。ステップ26の結果に基づき、制御コマンド29が器具6に提供され、これにより、ステップ30において、要求された動作が行われる。
図3に、本発明の一実施形態による医療環境に関連するシステム35の更なる例が示される。図3には、手術を受ける患者38がその上にいる手術台37を含む手術室が示される。手術台37の周りには、複数の外科スタッフメンバ39、40、41、42、43、44、45が概略的に示される。各外科スタッフメンバ39〜45は、チーム内で異なる任務及び責任を有する。例えば外科医39は、手術を指揮するチームのリーダである。外科医39は、外科助手42及び心臓専門医43によって支援される。麻酔医41が、患者38のバイタルサインを永続的にモニタリングしつつ麻酔を行う。更に、手術助手40及び44と、更なる医師45とが待機している。手術室内には、モニタディスプレイ54及び55が戦略的に配置され、外科スタッフによって使用されて、手術を支援する情報、画像等が提供される。手術室内の照明は、照明ユニット56によって提供される。様々な機能を行うデバイス48、50及び52も医療支援機器の一部である。
手術室には、幾つかのカメラ60A、60B、60C及び60Dが装備され、これらは全体で追跡システム60を形成する。当然ながら、図3の例では、4つのカメラが示されるが、グループメンバ39〜45の追跡を可能とするために必要であるカメラ又は他の感知ユニットの数は状況毎に異なる。例えばたった1つの感知ユニット又はカメラが十分である実施形態もあれば、扉及び廊下によって相互接続される幾つかの異なる部屋に、全体で追跡システムを形成する20又は30個のカメラが装備される実施形態もある。更に、カメラの代わりに又はカメラに加えて、マイクロホン、RFIDスキャナ、熱センサといった他のセンサユニットが適用されてもよいし、人の追跡に適したセンサの任意の組み合わせが追跡システム60の一部であってもよい。
図3の実施形態では、制御されるすべてのデバイス48、50、52、54、55及び56と、カメラ60A乃至60Dとは、破線によって概略的に示されるネットワーク62によって相互接続される。ネットワーク62は更に、中央ユニット64にも接続する。当然ながら、ネットワーク62は、上記デバイス及びカメラを相互接続する有線ネットワーク、無線ネットワーク又は有線ネットワーク及び無線ネットワークの組み合わせであってよい。当業者であれば、状況に応じて最も適切なネットワーク組み合わせを選択することができるであろう。
感知ユニット60A〜60D(カメラ)は、グループメンバ39〜45のいずれかのグループメンバの動作、姿勢及び任意のオーディオ信号を連続的に追跡する。手術室の4つの異なる側面にあることによって、感知ユニット60A〜60Dは全体で、任意のグループメンバによって提供され、デバイス48、50、52、54、55及び56の何れかの制御のための命令を意図する任意のジェスチャ、姿勢又はオーディオ信号を検出することができる。センサユニット又はカメラ60A〜60Dは、グループメンバ39〜45に対して高い位置に設置されるか、又は、提供された命令の効果的な位置合わせを可能とするために異なる戦略的配置に置かれてもよい。
センサユニット60A〜60Dを有するシステムによって追跡される前に、各外科スタッフメンバ39〜45は、システムとの識別認証セッションを完了していなければならない。これにより、システムは、これらの人々を、中央ユニット64のメモリユニット71に記憶されているメンバファイルと関連付けることができる。認証セッションは、上記されたように、様々なやり方で行われてよい。図3の実施形態では、グループメンバは、入力端末76において行われる標準的なログイン手順を使用してシステムにログインする。これに代えて又は加えて、中央ユニット64は、網膜又は虹彩スキャナ又は指紋スキャナといった任意の種類のバイオメトリックセンサに接続されていてもよい。認証セッションが完了すると、認証セッションを行った各外科スタッフメンバが、システムにグループメンバとして加えられる。感知ユニット60A〜60Dは、認証セッション中に得た情報とメモリユニット71から利用可能であるメンバプロファイルとに基づいて、各グループメンバを連続的に追跡する。認証セッションは、グループメンバの衣類の色又は毎日同じとは限らない任意の他の属性といったグループメンバの任意の非永久的属性を記録する補助カメラを使用してもよい。追跡中、グループメンバのうちの誰かがセンサユニット又はカメラ60A〜60Dの視野から一時的に離れる場合、当該グループメンバの連続追跡は中断され、当該グループメンバが、視野に入る際、識別認証セッションを再び行うことが求められる。当然ながら、他の実施形態では、これは、この中断を復帰又は解決することを確実に可能にする任意のシステム(例えばRFIDスキャナ)によって解決される。可能な限りエラーを取り除くために、医療環境といった重大な状況及び環境では、識別認証セッションのやり直しが好適である。
グループメンバ39〜45のうちの1人が、システムに命令を提供するようにあるジェスチャを行う場合、これは、追跡中に、センサユニット60A〜60Dによって記録され、例えば各グループメンバの場所がシステムによって連続的にタグ付けされる。ジェスチャを行うと、センサユニット60A〜60Dのデータ(例えば画像)内の人のタグ付けによって、命令と命令を提供するグループメンバとの関連付けが、システムによってすぐになされる。この情報は、ネットワーク62を通じて、中央ユニット64内の通信ユニット70にイベントとして提供される。制御ユニット65は、この情報を通信ユニット70から受信する。制御ユニット65はプロセッサ68を含む。制御ユニットは、命令を検出すると、プロセッサを使用して、提供された命令に関連付けられている制御コマンドを特定する。これをするために、検出された命令は、命令を出しているグループメンバに関連付けられる。命令を出しているグループメンバのメンバプロファイルデータを取り出すために、メモリユニット71がアクセスされ、検出された命令と、メンバプロファイルデータ内の参照又は参照命令とがマッチングされる。マッチングがなされると、デバイス48、50、52、54、55、56のうちの任意の1つ以上に提供されることが意図されている制御コマンドが特定される。図3に示される実施形態では、中央ユニット64が複数のデバイス48〜56の動作を制御するため、メンバプロファイルを使用すると、意図される制御コマンドが特定されるだけでなく、当該制御コマンドが向けられているデバイスも特定される。上記されたように、ジェスチャと各グループメンバ39〜45のジェスチャの意味とは、メモリ71に記憶されているメンバプロファイルデータを使用して個別化される。
図3では、制御ユニット65、プロセッサ68、通信ユニット70及びメモリユニット71を含む中央ユニット64は、単一装置として示されているが、異なる実施形態では、これらのユニットのうちの1つ以上は、スタンドアロンデバイスとして実現されても、協働して制御ユニットを形成するように、他のそのような部分と組み合わせで実現されてもよい。
図4に、本発明による方法が更に概略的に説明される。図4は、メモリユニット71と、単一デバイスとして一般的に示される追跡システム60とを示す。追跡システム60は、カメラユニット、マイクロホン又は人の追跡に使用されうる任意の他のスキャナといった複数のセンサユニットからなる。図4では、簡潔さのために、追跡システム60は、単一デバイス60として示されている。図4は更に、本発明の方法を使用して制御される複数のデバイス78、78’及び78’’も示す。
方法は、グループを形成するために、1人以上のグループメンバを追加することから開始する。これは、識別認証セッション82を使用して実施される。認証セッション82は、本発明の方法の始まりにおいて、すべてのグループメンバに適用される。しかし、当業者は、識別認証セッションが、追加のグループメンバをグループに追加するために、本発明の方法のどの瞬間においても行われてよいことを理解する。したがって、ステップ82は、方法の始まりにあるものとして示されているが、当然ながら、認証セッションは、任意の他の瞬間においても適用される。グループメンバとしてグループに追加されたいユーザの主導権によって、識別認証セッション82に入る。
ステップ83において、認証を行うための入力がユーザから受信される。この入力は、図3におけるデバイス76といったログオンデバイスを介する標準的なログオンを使用して提供されるが、認証を行うために、図3におけるスキャナ74といったバイオメトリックスキャナが伴ってもよい。入力が受信されると、ステップ85において、認証セッションは、新しいグループメンバがグループに追加可能であるかどうかを決定する。ステップ85を行うために、認証セッション82は、任意選択的に、メモリユニット71にアクセスしてグループプロファイル89を取り出し、例えばグループメンバとして追加されるユーザが、申請されたこの特定のグループの一員となることが許可されているかどうかをチェックする。例えば特定のスタッフメンバは、特定のチームの一員となることが許可されているが、他のチームの一員となることは許可されていない。したがって、そのようなユーザのメンバプロファイルが、本発明のシステム内に存在する。しかし、メンバプロファイルが、システムのメモリユニット71に存在していても、グループメンバがグループプロファイルの一部ではない場合、ステップ85において、グループへのアクセスが拒否される。
認証が失敗する又はアクセスが拒否される場合、認証セッションは、矢印86によって示されるように、ステップ83に戻り、同じ又は別のユーザからの入力を待つ。識別認証セッションが成功する場合、方法は、グループメンバの一員であるものとして、追跡システムに詳細が提供されるステップ87に続く。
認証後のステップ90において、認証された各グループメンバは、追跡システム60によって連続的にモニタリングされる。追跡システムからこのステップに受信される入力は、一般的に両方向矢印94によって示される。認証情報を使用して、追跡システムから受信されるデータ内に存在する人は、ステップ92において、連続的にタグ付けされる。ステップ95において、グループメンバのうちの1人以上が、追跡システム60によって、ジェスチャ、音、姿勢等として検出される命令を提供したかどうかが決定される。(ブランチ99を介する)ステップ100は、ステップ95において、命令の受信が成功裏に確認されると行われる。追跡(ステップ90)及びタグ付け(ステップ92)は、制御ユニットがステップ95又は後続ステップの何れかを行う間に連続的に行われる。これは、確実に見逃す命令がないようにするためである。制御ユニットは、任意の時間に命令を受信し、システムのリソースが一時的にビジー状態である場合は、当該命令は、例えばメモリ内にスタックされるか、優先順位設定に基づいて処理されるか、又は、補助ユニットに転送される。図4において、ブランチ97は、処理されるべき命令又は行動の連続モニタリングを示す。最後の命令が処理されるまで手順は停止されない。ステップ100において、検出された命令は、ステップ92において追加されたタグ付けを使用して、命令を提供しているグループメンバと関連付けられ、システムは、受信した命令と関連付けられている制御コマンドのステップ103における識別を続ける。ステップ105において、メモリユニットからのメンバプロファイルデータがアクセスされ、ステップ107において、検出された命令は、検出された命令と参照命令の何れかとをマッチングさせるために、メンバプロファイルデータ内の参照命令と比較される。マッチングがなされると、マッチングする参照命令と関連付けられている制御コマンドが特定される。任意選択的に、上記方法が、複数のデバイス(即ち、ここではデバイス78、78’及び78’’)を制御するために使用される場合、ステップ109において、制御コマンドが向けられるデバイスも、メモリユニット71からのメンバプロファイルデータを使用して特定可能である。したがって、ステップ111における更なるオプションとして、上記方法は、グループメンバによって対応するデバイスに提供されることを意図している制御コマンドが、当該グループメンバに権限が与えられているかどうかを検証してよい。この検証は様々な方法で行われてよい。例えば権限付与は、メモリユニット71からのメンバプロファイルデータ又はグループプロファイルデータのどちらかを使用して特定される。
ステップ115において、特定された制御コマンドは、矢印117によって示されるように特定されたデバイス78、78’又は78’’に提供される。更に、ステップ119において、特定された制御コマンドは、例えばタイムスタンプ、命令を提供しているグループメンバ及び関連のある任意の他のデータと共にメモリユニット71内に保持されるログに記憶される。このようなログは、トレーニング目的又は品質チェックに使用することができる。
本発明は、(幾つかの)複雑な機器を制御する人(の身元)を認識しているシステムソリューションを提案する。結果として、ユーザとシステムとの間のインタラクションが、複数のユーザが同時に機器とインタラクトすることを可能にする個別化された2方向ダイアログとなる。これは、各個人を追跡し、各個人がシステムに与える各入力を当該個人の身元を用いてタグ付けすることによって達成される。
任意の所与の瞬間において、外科環境における2人以上の人が、医療システムの一部又は特定の特徴を制御する必要がある場合がある。システムに一貫性のない又は矛盾するコマンドを与えることを回避することが重要である。従来のシステムは、誰が制御動作を行っているのか(つまり、制御動作を行っている人間の任務、許可及び個人的な好みが何であるのか)を認識しなかった。医療システムが人間のジェスチャ/姿勢/音声によって制御されることを可能とすることによって、医療システムが一貫して及び予測可能に挙動することを確実とするために、システムが制御動作を実行している人間を認識することが重要になる。外科環境におけるスタッフは、(例えば網膜制御又は指紋を用いて)一意に特定され、次に(例えば顔認識を用いて)連続的に追跡されることが可能である。各個人を追跡することによって、各個人がシステムに与える入力は、入力を出した人の身元を用いてタグ付けされることが可能である。こうすると、システムは適切に反応することができ、ユーザとシステムとの間の高度に個別化されたダイアログがもたらされる。
本発明は、最初に、(例えば網膜制御又は指紋を用いて)個人の身元を一意に確認し、次に(例えば顔認識を用いて)当該個人及び当該個人のコマンドを連続的に追跡することを提案する。当該個人のジェスチャ/姿勢/音声コマンドが、追跡システムによって解析され、当該ユーザ用であることが分かっているコマンドのセットと比較される。認識されたコマンドは、当該個人の一意の身元だけでなく、場所及びタイムスタンプでタグ付けられるイベントとなる。当該個人の任務、許可及び個人的な好みと組み合わされたイベント(ユーザ毎のジェスチャの一意のセット)は、システムの反応と適切なフィードバックとをもたらす。システムは、取り付けられている身元タグに応じて、同じ入力に異なって反応する場合もある。この個別化されたダイアログは、同じシステムの複数のユーザについて並列に生じることができる。システムによる個別化の度合いは柔軟である。例えばユーザは、システムが反応すべきユーザ自身の好むジェスチャのセット又はシステムがそれに対して反応するやり方を提供することができる。また、ユーザは、ユーザ自身の好むフィードバック機構を提供することができる。システムがユーザの認識度を高めることにより、ユーザとシステムとの間のインタラクションが、時間の経過と共により一貫するようになる。
本発明の利点として、各ユーザが行う様々なジェスチャに対してシステムが調整されるため、ジェスチャの検出可能性が向上される。更に、システムは、障害を有するユーザ、又は、障害を有するユーザが行う作業のタイプによって生じる優先傾向にも適応される(例えば腕を使用できないユーザは、システムがそれに対して反応するユーザ自身の個別化されたコマンドセットを有する)。更に、本発明は、ユーザがシステムとインタラクトする方法を個別化するために使用することができる。例えば1人の外科医は、腕を上げることで走査をトリガする一方で、他の外科医は頭を振ることで走査をトリガすることができる。更に、本発明は、起きたことすべてのトレイルを作成するために使用されてもよい。例えば外科環境では、これはミス又は患者の特定の問題の原因を検出するために後に使用される。その一方で、ワークフローに依存する環境では、この種のシステムは、ワークフロー解析を行うのに役立つ。
本発明の方法及びシステムは、システムのユーザの身元及び個人的な好みを管理する更なるシステムを含めることによって拡張されてもよい。別の可能な拡張は、システムに室内の人々の対話から導かれる状況認識が提供されることである。
上記説明では、本発明は、その幾つかの特定の実施形態を参照して説明及び例示されているが、本発明の範囲は、添付の請求項の範囲によってのみ規定される。

Claims (14)

  1. グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって前記デバイスを操作する方法であって、
    センサユニットを用いて、前記1人以上のグループメンバのうちの命令を出すグループメンバによって提供され、視覚命令又は可聴命令の少なくとも一方を含む少なくとも1つの命令を検出するために、各グループメンバをモニタリングするステップと、
    前記少なくとも1つの命令を検出すると、制御ユニットによって、前記少なくとも1つの命令に関連付けられている、前記デバイスを制御する制御コマンドを特定するステップと、
    前記制御ユニットによって、前記デバイスに前記制御コマンドを提供するステップと、
    を含む方法において、
    前記方法は更に、
    前記グループを確立するために、ユーザとインタラクトするためのユーザ入力手段によって、前記ユーザをグループメンバとして追加するために前記ユーザの認証を行うステップを含み、
    前記制御コマンドを特定するために、前記制御ユニットによって、検出された前記少なくとも1つの命令を、前記1人以上のグループメンバのうちの前記命令を出すグループメンバに関連付けるステップと、メモリユニットから前記命令を出すグループメンバの参照命令のセットを含むメンバプロファイルデータにアクセスするステップと、前記制御コマンドを特定するために、検出された前記少なくとも1つの命令と、前記命令を出すグループメンバの前記メンバプロファイルデータ内の前記参照命令のセットから選択される所与の参照命令とをマッチングさせるステップと、
    を含むことを特徴とする、方法。
  2. 各グループメンバについて、認証を行う前記ステップは、前記グループメンバの前記モニタリングの前に行われる、請求項1に記載の方法。
  3. モニタリングする前記ステップは、各グループメンバが認証されると、各グループメンバを連続的に追跡するステップを含む、請求項2に記載の方法。
  4. 前記制御コマンドを特定する前記ステップは更に、特定された前記制御コマンドについて、前記命令を出すグループメンバの前記メンバプロファイルデータから得られる権限付与ステータスを検証するステップを含む、請求項1乃至3の何れか一項に記載の方法。
  5. 前記少なくとも1つの命令、特定された前記制御コマンド、及び前記命令を出すグループメンバのメンバ識別子を前記メモリユニットに記憶するステップを更に含む、請求項1乃至4の何れか一項に記載の方法。
  6. 認証を行う前記ステップは更に、前記ユーザを前記グループメンバとして追加する前に、公認グループメンバとして、認証された前記ユーザの身元確認を可能にするために、前記メモリユニットからのグループプロファイルにアクセスするステップを含む、請求項1乃至5の何れか一項に記載の方法。
  7. 前記制御ユニットは、前記センサユニットからのセンサ信号を受信する中央ユニットに含まれ、前記メモリユニットは、前記制御ユニットによってアクセス可能であり、前記方法は更に、
    前記制御ユニットによって、前記制御コマンドを受信する候補デバイスを特定するステップを含み、前記候補デバイスは、検出された前記少なくとも1つの命令と、前記命令を出すグループメンバの前記メンバプロファイルデータ内の前記参照命令との前記マッチングによって特定される、複数のデバイスを操作するための請求項1乃至6の何れか一項に記載の方法。
  8. 前記センサユニットは、ジェスチャ又は姿勢を検出するための視覚画像の受信、及び、声又は他の音を検出するためのオーディオ信号の受信を含む群の少なくとも1つの受信の要素のために構成される、請求項1乃至7の何れか一項に記載の方法。
  9. グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって前記デバイスの操作を制御する装置であって、
    前記1人以上のグループメンバのうちの命令を出すグループメンバによって提供される少なくとも1つの命令を検出するために、各グループメンバをモニタリングするセンサユニットであって、視覚命令又は可聴命令を検出するように、視覚画像又は可聴信号の少なくとも一方を受信する前記センサユニットと、
    前記センサユニットに通信可能に接続され、前記センサユニットからの出力信号を受信する制御ユニットであって、前記少なくとも1つの命令を検出すると、前記デバイスを制御する制御コマンドを特定するプロセッサを含み、前記制御コマンドは、前記少なくとも1つの命令に関連付けられ、前記デバイスに前記制御コマンドを提供するために前記デバイスに通信可能に接続される前記制御ユニットと、
    を含む装置において、
    前記装置は更に、
    ユーザとインタラクトして、前記グループを確立するために、グループメンバとして前記ユーザを追加するための前記ユーザの認証を行うユーザ入力手段と、
    前記1人以上のグループメンバの1つ以上のメンバプロファイルデータを記憶するメモリユニットであって、各グループメンバの前記メンバプロファイルデータは、前記各グループメンバの参照命令のセットを含む、前記メモリユニットと、
    を含み、
    前記制御ユニットは更に、前記プロセッサによって、検出された前記少なくとも1つの命令を、前記1人以上のグループメンバのうちの前記命令を出すグループメンバに関連付け、前記メモリユニットからの前記命令を出すグループメンバの前記メンバプロファイルデータにアクセスし、前記制御コマンドを特定するために、検出された前記少なくとも1つの命令と、前記命令を出すグループメンバの前記メンバプロファイルデータ内の前記参照命令のセットから選択される所与の参照命令とをマッチングさせることを特徴とする、装置。
  10. 前記ユーザ入力手段は、個人的な目の特徴に基づいて前記ユーザを認証する虹彩若しくは網膜スキャナ又は指紋スキャナを含むバイオメトリックスキャナ、個人的なログオン詳細を入力するためのキーボード、タッチセンサー式スクリーン、又は、カメラを含む群のうちの少なくとも1つの要素を含む、請求項9に記載の装置。
  11. 前記センサユニットは、領域を観察する1つ以上のカメラを含む撮像デバイス又は撮像装置、及び、オーディオ信号を感知する1つ以上のマイクロホンを含むオーディオセンサデバイス又はオーディオセンサ装置を含む群のうちの少なくとも1つの要素を含む、請求項9又は10に記載の装置。
  12. 前記制御ユニットは、前記プロセッサによって、前記制御コマンドを受信する候補デバイスを特定するように更に構成され、前記候補デバイスは、前記少なくとも1つの検出された命令と、前記メンバプロファイルデータ内の前記参照命令とのマッチングによって特定される、請求項9乃至11の何れか一項に記載の装置。
  13. グループの1人以上のグループメンバから受信される入力に基づいてデバイスを制御することによって前記デバイスを操作する、請求項1乃至8の何れか一項以上に記載の方法を実施するためのプログラムコード命令を含む、通信ネットワークからダウンロード可能である並びに/又はコンピュータ可読媒体及び/若しくはマイクロプロセッサ実行可能媒体上に格納されるコンピュータプログラム。
  14. 請求項13に記載のコンピュータプログラムを含む、データ担体。
JP2017556187A 2015-04-29 2016-04-15 グループのメンバによってデバイスを操作する方法及び装置 Active JP6772184B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15165570 2015-04-29
EP15165570.1 2015-04-29
PCT/EP2016/058430 WO2016173865A1 (en) 2015-04-29 2016-04-15 Method of and apparatus for operating a device by members of a group

Publications (3)

Publication Number Publication Date
JP2018525696A true JP2018525696A (ja) 2018-09-06
JP2018525696A5 JP2018525696A5 (ja) 2019-05-23
JP6772184B2 JP6772184B2 (ja) 2020-10-21

Family

ID=53189601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556187A Active JP6772184B2 (ja) 2015-04-29 2016-04-15 グループのメンバによってデバイスを操作する方法及び装置

Country Status (5)

Country Link
US (1) US10720237B2 (ja)
EP (1) EP3289540A1 (ja)
JP (1) JP6772184B2 (ja)
CN (1) CN107787501A (ja)
WO (1) WO2016173865A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11855831B1 (en) 2022-06-10 2023-12-26 T-Mobile Usa, Inc. Enabling an operator to resolve an issue associated with a 5G wireless telecommunication network using AR glasses

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150288604A1 (en) * 2014-04-02 2015-10-08 Tyco Fire & Security Gmbh Sensor Network Gateway
US10898399B2 (en) * 2017-12-20 2021-01-26 Stryker Corporation User controls for patient support apparatus having low height
KR101880175B1 (ko) * 2018-02-13 2018-07-19 주식회사 마크로젠 복수의 블록체인에 기반을 둔 생명정보 데이터 제공 방법, 생명정보 데이터 저장 방법 및 생명정보 데이터 전송 시스템
EP3744285A1 (en) * 2019-05-27 2020-12-02 Leica Instruments (Singapore) Pte. Ltd. Microscope system and method for controlling a surgical microcope
WO2023281311A1 (en) * 2021-07-06 2023-01-12 Sensormatic Electronics, LLC Systems and methods for providing personalized and contextualized environment security information
EP4276777A1 (en) * 2022-05-13 2023-11-15 Baxter Medical Systems GmbH + Co. KG Object detection in an operating room

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11262492A (ja) * 1998-03-19 1999-09-28 Hitachi Ltd 手術装置
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2007334301A (ja) * 2006-06-16 2007-12-27 Storz Endoskop Produktions Gmbh ユーザプロファイル管理コンポーネントを備えた音声認識システム
CN103605426A (zh) * 2013-12-04 2014-02-26 深圳中兴网信科技有限公司 基于手势识别的信息显示系统及其信息显示方法
US20140285432A1 (en) * 2013-03-23 2014-09-25 Controlrad Systems, Inc. Operating Room Environment

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3454931B2 (ja) * 1994-08-30 2003-10-06 株式会社東芝 ネットワークシステム
US6353764B1 (en) * 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
DE19752899A1 (de) * 1997-11-28 1999-06-02 Schenk Filterbau Gmbh Verfahren zur Behandlung von Kühlschmiermitteln gegen Mikroorganismen
US6421453B1 (en) * 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US20020075334A1 (en) * 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
US7346696B2 (en) * 2002-05-21 2008-03-18 At&T Deleware Intellectual Property, Inc. Group access management system
US7464035B2 (en) * 2002-07-24 2008-12-09 Robert Bosch Corporation Voice control of home automation systems via telephone
US7013331B2 (en) * 2002-12-20 2006-03-14 Nokia, Inc. Automated bulk configuration of network devices
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
CN101432036A (zh) * 2004-08-31 2009-05-13 伊西康内外科公司 医学端部执行器系统
ES2262423B1 (es) * 2005-02-18 2007-11-16 Manuel Fernandez Guerrero Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador.
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US20080004951A1 (en) * 2006-06-29 2008-01-03 Microsoft Corporation Web-based targeted advertising in a brick-and-mortar retail establishment using online customer information
US20080052203A1 (en) * 2006-08-25 2008-02-28 David Beyer Design and management of an online environment that serves hierarchical community networks
US20080256494A1 (en) * 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
CA2723301C (en) * 2008-05-27 2016-12-06 Stryker Corporation Wireless medical room control arrangement for control of a plurality of medical devices
DE102009037316A1 (de) * 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
RU2566982C2 (ru) * 2009-12-11 2015-10-27 Конинклейке Филипс Электроникс, Н.В. Система и способ для генерирования графического представления статуса пациента
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US8855698B2 (en) * 2010-06-23 2014-10-07 Cisco Technology, Inc. Method and apparatus for dynamically adding participants into an existing talk group
US20140049465A1 (en) * 2011-03-28 2014-02-20 Jamie Douglas Tremaine Gesture operated control for medical information systems
US9293016B2 (en) * 2012-04-24 2016-03-22 At&T Intellectual Property I, Lp Method and apparatus for processing sensor data of detected objects
WO2013173258A1 (en) * 2012-05-15 2013-11-21 The Cleveland Clinic Foundation Integrated surgical task lighting
US9203903B2 (en) * 2012-12-26 2015-12-01 International Business Machines Corporation Processing a request to mount a boot volume
CN104252225A (zh) * 2013-06-27 2014-12-31 南京迈瑞生物医疗电子有限公司 体感控制医疗设备及医疗设备体感控制方法
US9215226B2 (en) * 2013-07-24 2015-12-15 Adobe Systems Incorporated Dynamically mapping users to groups
CA2945189C (en) * 2014-04-10 2022-10-11 Quanser Consulting Inc. Robotic systems and methods of operating robotic systems
US9904260B2 (en) * 2014-09-26 2018-02-27 Schneider Electric USA, Inc. Systems and methods for advanced confirmation of control operations
US10165322B2 (en) * 2014-09-30 2018-12-25 Rovi Guides, Inc. Methods and systems for controlling user devices
US10375088B2 (en) * 2015-06-04 2019-08-06 Vm-Robot, Inc. Routing systems and methods
US9996164B2 (en) * 2016-09-22 2018-06-12 Qualcomm Incorporated Systems and methods for recording custom gesture commands

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JPH11262492A (ja) * 1998-03-19 1999-09-28 Hitachi Ltd 手術装置
JP2007334301A (ja) * 2006-06-16 2007-12-27 Storz Endoskop Produktions Gmbh ユーザプロファイル管理コンポーネントを備えた音声認識システム
US20140285432A1 (en) * 2013-03-23 2014-09-25 Controlrad Systems, Inc. Operating Room Environment
CN103605426A (zh) * 2013-12-04 2014-02-26 深圳中兴网信科技有限公司 基于手势识别的信息显示系统及其信息显示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉光喜太郎: "Kinectを用いた術中情報非接触直感操作型アプリケーション開発とその臨床応用", 映像情報インダストリアル, vol. 第44巻第6号, JPN6020004918, 1 June 2012 (2012-06-01), JP, pages 22 - 26, ISSN: 0004210793 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11855831B1 (en) 2022-06-10 2023-12-26 T-Mobile Usa, Inc. Enabling an operator to resolve an issue associated with a 5G wireless telecommunication network using AR glasses

Also Published As

Publication number Publication date
EP3289540A1 (en) 2018-03-07
US20180130556A1 (en) 2018-05-10
JP6772184B2 (ja) 2020-10-21
US10720237B2 (en) 2020-07-21
CN107787501A (zh) 2018-03-09
WO2016173865A1 (en) 2016-11-03

Similar Documents

Publication Publication Date Title
JP6772184B2 (ja) グループのメンバによってデバイスを操作する方法及び装置
US10192109B2 (en) Identification and/or authentication of a user using gaze information
US11004554B2 (en) Method and apparatus for identification
US8243132B2 (en) Image output apparatus, image output method and image output computer readable medium
JP4765575B2 (ja) 個人認証方法、個人認証プログラムおよび個人認証装置
EP3975909B1 (en) Operating mode control systems and methods for a computer-assisted surgical system
JP5356633B1 (ja) 医療用内視鏡システム
US9498123B2 (en) Image recording apparatus, image recording method and image recording program stored on a computer readable medium
Deravi et al. Gaze trajectory as a biometric modality
AU2008312427A1 (en) Ocular identification system for use with a medical device
JP7323449B2 (ja) 患者の状況、ユーザの役割、現在のワークフロー及びディスプレイの近接度に基づいて、ユーザ体験を最適化するためのシステム及び方法
JP2020192324A (ja) 顕微鏡システムおよび手術用顕微鏡を制御するための方法
US20070229659A1 (en) Image recording apparatus, image recording method and image recording program
CN111046361A (zh) 在线诊疗身份确认方法、终端及计算机可读存储介质
US11321433B2 (en) Neurologically based encryption system and method of use
Sluganovic Security of mixed reality systems: authenticating users, devices, and data
JP6886155B1 (ja) プログラム、情報処理システム、情報処理方法及びカート
JP2024046865A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046866A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046867A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046864A (ja) 情報処理装置および恐怖症改善支援方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R150 Certificate of patent or registration of utility model

Ref document number: 6772184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250