JP2018142353A - 手順を文書記録する方法及び装置 - Google Patents

手順を文書記録する方法及び装置 Download PDF

Info

Publication number
JP2018142353A
JP2018142353A JP2018083657A JP2018083657A JP2018142353A JP 2018142353 A JP2018142353 A JP 2018142353A JP 2018083657 A JP2018083657 A JP 2018083657A JP 2018083657 A JP2018083657 A JP 2018083657A JP 2018142353 A JP2018142353 A JP 2018142353A
Authority
JP
Japan
Prior art keywords
user
mobile device
control interface
procedure
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018083657A
Other languages
English (en)
Other versions
JP6609343B2 (ja
Inventor
メディ・ヴェノン
Medhi Venon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2018142353A publication Critical patent/JP2018142353A/ja
Application granted granted Critical
Publication of JP6609343B2 publication Critical patent/JP6609343B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】非接触型環境において手順を文書記録する。
【解決手段】本書に開示される一例の方法は、モバイル装置のカメラ及び入力された画像のエントロピィ方式セグメント分割を用いて、利用者の指先の1又は複数の位置を識別するステップと、利用者指先位置と、利用者入力に基づいて実行されるべき複数の機能を含んでいるモバイル装置の制御インタフェイスとの間の対応を決定するステップと、手順中に、利用者指先位置に基づいて、上述の複数の機能の1又は複数を実行するようにモバイル装置にトリガを与えるステップと、モバイル装置の記憶装置に記憶されるべき報告書を作成するために、利用者入力に基づいて手順の1又は複数の事象を文書記録するステップと、前記モバイル装置の前記カメラを用いて入力された前記画像において装置識別を検出し、装置情報を前記報告書に文書記録するステップとを含んでいる。
【選択図】図1

Description

本開示は一般的には、モバイル装置と相互作用(対話)することに関し、さらに具体的には、モバイル装置を用いて手順を文書記録(ドキュメント)することに関する。
タブレット・コンピュータ、パーソナル・コンピュータ(PC)、スマートフォン及びmp3プレーヤ等のようなモバイル装置は多くの用途を創出してきた。これらの装置は典型的には、当該装置の利用者制御のためのタッチスクリーン及び/又はキーボード、並びに画像及び/又は動画を撮影するカメラを含んでいる。
幾つかの環境では、この装置を制御するためにタッチスクリーン又はキーボードを用いることは実際的でない。例えば、医療施設の手術室は無菌環境を保たなければならず、従って、タッチスクリーン及び/又はキーボードの利用は極めて煩雑であり、またスクリーンに触れることによる感染、汚染の危険性のため制限される。従って、無菌環境は、何人もの利用者(例えば看護師、外科医及び麻酔医等)がこの特定の環境においてかかる装置を操作することを許さない。
本書に開示される一例の方法が、モバイル装置のカメラ及びカメラから入力された画像のエントロピィ方式セグメント分割を用いて、モバイル装置の制御インタフェイスとは別個に形成される仮想平面における利用者の指先の位置を識別するステップと、利用者指先位置とモバイル装置の制御インタフェイスとの間の対応を決定するステップであって、この対応は利用者入力を形成し、制御インタフェイスは、利用者入力に基づいて実行されるべき複数の機能を含んでいる、決定するステップと、手順中に、仮想平面における利用者指先位置に基づいて、モバイル装置を介した上述の複数の機能の1又は複数の実行を促進するステップと、モバイル装置を介して出力されるべき報告書を作成するために、利用者入力に基づいて手順の1又は複数の事象を文書記録するステップとを含んでいる。
本書に開示される一例の装置が、モバイル装置のカメラ及びカメラから入力された画像のエントロピィ方式セグメント分割を用いて、モバイル装置の制御インタフェイスとは別個に形成される仮想平面における指先の1又は複数の位置を識別する画像フィルタと、利用者指先位置とモバイル装置の制御インタフェイスとの間の対応を決定する利用者命令識別器であって、この対応は利用者入力を形成し、制御インタフェイスは、利用者入力に基づいて実行されるべき複数の機能を含んでいる、利用者命令識別器と、手順中に、仮想平面における利用者指先位置に基づいて、モバイル装置を介した上述の複数の機能の1又は複数の実行を促進する制御器と、モバイル装置を介して出力されるべき報告書を作成するために、利用者入力に基づいて手順の1又は複数の事象を文書記録する文書記録器とを含んでいる。
一例の機械媒体が、実行されると、モバイル装置のカメラ及びカメラから入力された画像のエントロピィ方式セグメント分割を用いて、モバイル装置の制御インタフェイスとは別個に形成される仮想平面における利用者の指先の1又は複数の位置を識別し、利用者指先位置とモバイル装置の制御インタフェイスとの間の対応を決定し、この対応は利用者入力を形成し、制御インタフェイスは、利用者入力に基づいて実行されるべき複数の機能を含んでおり、手順中に、仮想平面における利用者指先位置に基づいて、モバイル装置を介した上述の複数の機能の1又は複数の実行を促進し、モバイル装置を介して出力されるべき報告書を作成するために、利用者入力に基づいて手順の1又は複数の事象を文書記録することを機械に行なわせる命令を含んでいる。
本開示の教示に従ってモバイル装置と相互作用する非接触型方法のための一例の利用環境を示す図である。 本開示の教示に従って構築される一例のモバイル装置のブロック図である。 図2の一例のモバイル装置に用いられる一例の制御器及び一例の文書記録器のブロック図である。 図2及び/又は図3の一例の制御器及び/又は文書記録器を具現化するために実行され得る第一の例の機械可読の命令を表わす流れ図である。 図2及び/又は図3の一例の文書記録器を具現化するために実行され得る第二の例の機械可読の命令を表わす流れ図である。 図3の一例の文書記録器の一例の装置識別器を具現化するために実行され得る第三の例の機械可読の命令を表わす流れ図である。 図1及び/又は図2の一例のモバイル装置の制御のための一例の指位置及び/又は指ジェスチャを示す図である。 図1及び/又は図2の一例のモバイル装置の制御のための一例の指位置及び/又は指ジェスチャを示す図である。 図1及び/又は図2の一例のモバイル装置の制御のための一例の指位置及び/又は指ジェスチャを示す図である。 図2及び/又は図3の制御器及び文書記録器を具現化するために図4〜図6の命令を実行することが可能な一例のコンピュータのブロック図である。
幾つかの例が、タッチスクリーン及び/又はキーボードを用いたモバイル装置の制御が実際的でないような環境において生ずる手順事象の文書記録のために、進行中の手順からの実時間(又は処理及び/若しくは記憶による遅延を考慮して実質的に実時間)の入力を提供する。従って、一定の環境における利用者が単一の装置を制御することを可能にして、文書記録の繰り返しを回避すると共に精度及び効率の向上を見込むことが本開示において提供される。
加えて、多くの環境、特に医療施設の手術室において、利用者が手順を文書記録するために、モバイル装置(例えばタブレット・コンピュータ、スマートフォン、携帯型情報端末及びラップトップ・コンピュータ等)の標準的な制御インタフェイス(タッチスクリーン、キーボード及びマウス等)を用いてモバイル装置を制御することが困難である又は不可能である場合がある。標準的な制御インタフェイスを用いてモバイル装置を制御することが不可能である様々な理由としては、利用者の手を無菌に保つため、且つ/又は装置を砕片(例えば血液、組織片(dirt)及び油脂等)から清浄に保つため等がある。従って、モバイル装置に触れずに手順を文書記録するためにモバイル装置を制御する能力を得られると望ましい。
開示される一例の方法及び装置は、モバイル装置のカメラ及びカメラによって撮影された画像のエントロピィ方式セグメント分割を用いて、利用者がモバイル装置に触れずに手順を文書記録するためにモバイル装置を制御することを可能にする。カメラは利用者の手の画像を撮影し、画像に施されるエントロピィ方式セグメント分割は利用者の指先位置を識別するために用いられる。エントロピィ方式セグメント分割を用いると、同じ利用者の手であるか何人もの利用者の手であるかを問わず、手が砕片や汚物に塗れていても、あらゆる手を識別することが可能になる。1又は複数の利用者の指先の識別のために仮想平面を設定することができる。仮想平面は、モバイル装置の制御インタフェイス(例えばタッチスクリーン及び表示器等)に対応する「空中」制御インタフェイスとして用いることができる。すると、利用者は仮想平面を制御インタフェイスとして用いてモバイル装置を制御することができ、従って、次いで利用者はモバイル装置の幾つか又は全ての機能(例えばブラウザ及びアプリケーション等)にアクセスすることができる。
加えて、標準的な制御インタフェイスを用いて機器又は装置に指示する必要なしに、利用者が所定の手順のために用いている機器又は装置を文書記録しておくことが望ましい場合がある。開示される一例の方法及び装置は、モバイル装置のカメラを用いて機器又は装置を識別する。カメラから受け取られた画像は装置検出器によって監視され、装置検出器は、手順において用いられている機器若しくは装置のラベル、バー・コード、及び/若しくは形状を検出し、又は認識することもできる。利用者は、識別のために装置をカメラに提示することができ、モバイル装置は装置の利用を文書記録し、また装置が手順中の何時用いられているかを文書記録する。
開示される一例の方法及び装置は、モバイル装置が上述のような文書記録データを受け取り、データを編集して手順の報告書を作成することを可能にする。文書記録データは、適当なフォーマットへ変換された後に編集され得る。幾つかの例では、文書記録データは、手順中に発行されたあらゆる命令、議論、及び/又は利用者命令を報告するための音声から書き起こしたテキスト・データを含んでいる。加えて、モバイル装置は、手順の音響、動画、及び/又は画像を記録して、作成される報告書に音響録音、動画録画、及び/又は画像撮影を提供することができる。
このように、開示される方法及び装置によって、利用者はモバイル装置の標準的な制御インタフェイスを利用する必要性を実質的になくしてモバイル装置と相互作用して手順を文書記録することができる。
図1は、一例のモバイル装置110が用いられ得る医療施設の手術室のような一例の環境100を示す。この一例の環境100には、手術台102、利用者104、106、モバイル装置110、及び仮想平面120が示されている。環境100では、利用者104、106は、手術台102において手順を実行することができる。図示の例では、モバイル装置110は、利用者104、106から見える距離の範囲内に位置している。幾つかの例では、モバイル装置は、タブレット・コンピュータ、携帯電話、スマートフォン、携帯型情報端末(PDA)、パーソナル・コンピュータ(PC)及びラップトップ・コンピュータ等の1又は複数であり得る。さらに、図示の例では、環境100は無菌環境であり、この環境では利用者104、106は、当該利用者104、106及び/又はモバイル装置100に対して如何なる汚染も拡散しないようにモバイル装置110に触れてはならない。図示の例では、モバイル装置110はタッチスクリーン112及びカメラ114を有している。
利用者104、106は、手順中にモバイル装置110に触れることなくモバイル装置110を用いて図1の図示の例で実行されている手順を文書記録することができる。図示の例では、エントロピィ方式セグメント分割を用いて利用者104、106の指先を検出するためにモバイル装置110のカメラ114を用いることができる。幾つかの例では、エントロピィ方式セグメント分割は、利用者104、106が手袋を用いていても、且つ/又は利用者の手袋及び/若しくは指先が砕片(例えば血液、組織片及び油脂等)や汚物に塗れていても、利用者104、106の指先の検出を可能にする。モバイル装置100のタッチスクリーン112に対応する仮想平面120は、利用者104、106がモバイル装置110を制御するために設定され得る。利用者104、106は、モバイル装置110において実行されるべき機能を示すタッチスクリーン112に表示されているアイコンを、タッチスクリーン112でのアイコンの位置に対応する仮想平面120の位置を指すことにより選択することができる。
幾つかの例では、図1の利用者104、106は、手順中に、モバイル装置100によって識別され得る装置を用いることができる。幾つかの例では、モバイル装置100は、モバイル装置100のカメラ114を用いる装置識別器を含んでいる。装置識別器は、1又は複数の形式の装置識別(例えばバー・コード、ラベル及び装置形状等)に基づいて装置を自動的に認識することができる。幾つかの例では、モバイル装置100は装置識別を解読して装置情報(例えば装置の名称、形式及びモデル等)を決定する。幾つかの例では、モバイル装置100は、当該モバイル装置100、又はモバイル装置100に接続された網によってアクセス可能な他の位置に記憶されているデータベースに対して装置識別を照合する。
幾つかの例では、モバイル装置110は、図1の一例の環境100において実行されている手順を記録する。手順の動画記録を行ない、この記録を、手順を文書記録した報告書に関連付けてもよい。モバイル装置110は、所与の時刻に利用者104、106の何れが発話したかを音声識別ソフトウェアが決定することを可能にし得る。さらに、幾つかの例では、モバイル装置110は、一例の環境100において実行されている手順の報告書の作成のために利用者104、106の話した言葉を書き起こす音声テキスト変換機能を用いることもできる。
従って、図1の一例の環境100では、利用者104、106は、モバイル装置に触れる必要なく一例のモバイル装置110を用いて手順を文書記録することができる。例えば、モバイル装置100は、モバイル装置100の利用者の制御命令、手順中に用いられている装置の識別、手順の音響録音、動画録画、静止画像撮影、手順中の利用者の議論/指示の音声からテキストへの書き起こし、手順中にモバイル装置100において用いられたアプリケーション機能、並びに手順中に利用者によってアクセスされた参考資料及び/又はファイル等を含む報告書を作成することにより、手順を文書記録することができる。文書記録は、例えばこれらのコンテンツ項目の1又は複数を組み合わせて報告書を形成してもよい。
図2は、図1のモバイル装置110を具現化するために用いられ得る一例のモバイル装置200のブロック図である。一例のモバイル装置200は、カメラ202、マイクロホン204、制御インタフェイス206、アプリケーション・インタフェイス208、文書記録器210、及び制御器220を含んでいる。一例のモバイル装置200は、カメラ202、マイクロホン204、制御インタフェイス206、アプリケーション・インタフェイス208、文書記録器210、及び/又は制御器220同士の間の通信を容易にする通信バス201を含んでいる。図示の例では、ブロック(202〜220)の各々を組み合わせたり並べ換えたりしてもよい。例えば、カメラ202をマイクロホン204と組み合わせてもよい。幾つかの例では、カメラ202は一例の画像を受け取り、マイクロホン204は一例の音響を受け取る。幾つかの例では、制御インタフェイス206は、利用者から入力を受け取り(例えばタッチスクリーン及びキーパッド等)、利用者へ出力を送る(例えば表示器等)。アプリケーション・インタフェイス208は、利用者が制御インタフェイス206を介して、及び/又は制御器220が、モバイル装置200に記憶されていてよいアプリケーション及び/若しくは機能と相互作用し且つ/又はこれらのアプリケーション及び/若しくは機能を実行することを可能にし得る。幾つかの例では、一例の文書記録器210は、利用者とモバイル装置200との相互作用を記憶し且つ/又は記録することができる。文書記録器210は、利用者によって実行されている手順についての利用者の相互作用に基づいて事象の報告書を作成することができる。
一例の制御器220は、ユーザ・インタフェイス206を介して受け取られた利用者(例えば利用者104、106)の命令を実行するために用いられ得る。制御器220はまた、一例のエントロピィ方式セグメント分割アルゴリズムを用いて、カメラ202によって識別された指先位置に基づいて利用者(例えば利用者104、106)から命令を受け取ることができる。幾つかの例では、制御器220は、カメラ202から画像を受け取って、画像にエントロピィ方式セグメント分割アルゴリズムを施す。この一例のアルゴリズムを施して、制御器220は画像における利用者104、106の指先位置を識別する。この一例のアルゴリズムをカメラ202から受け取られた一連の画像に施した後に、一例の制御器は、指先位置に基づいて利用者104、106からの命令を解釈することができる。幾つかの命令は、限定しないが、モバイル装置200の機能及び/又はアプリケーションを制御すること、装置の識別を依頼すること、モバイル装置200のブラウザを動作させること、並びにモバイル装置200のカメラ及び/又はマイクロホンを動作させること等を含み得る。
図3は、図2の一例の制御器220及び一例の文書記録器210をそれぞれ具現化するために用いられ得る一例の制御器220及び一例の文書記録器210のブロック図である。図示の例では、図3の一例の制御器220は、装置検出器322、装置識別器324、画像フィルタ326、利用者命令識別器328、及び音声認識器330を含んでいる。図示の例では、一例の文書記録器210は、文書記録編集器312及び報告書作成器314を含んでいる。
図3では、一例の制御器220は、カメラ(例えばカメラ202)からの一例の画像、マイクロホン(例えばマイクロホン204)からの音響、及び制御インタフェイス(例えば制御インタフェイス206)からの制御インタフェイス・データを受け取る。図示の例では、画像は、装置検出器322及び画像フィルタ326によって受け取られる。
図3の一例の装置検出器322は、一例の手順中に用いられている装置の一意の識別子を認識することができる。例えば、医学的手順において、装置は、この医学的手順中に設置される埋植物及び/又は用いられる器具を含み得る。装置検出器322は、この一例の装置のラベル、バー・コード、及び/又は形状を自動的に認識することができる。一旦、装置検出器322が装置識別の画像を認識したら、装置検出器322はこの画像を装置識別器324へ転送して、画像に基づいて装置情報を決定する。装置識別器324は画像を解読して装置情報を得ることができる。例えば、装置識別はバー・コードを含み得る。装置識別器324は、走査ソフトウェア/機能を用いて装置情報を決定してもよい。幾つかの例では、装置識別器324は画像を解読して、装置に貼付されたラベル及び/又は型番のような画像内のテキストを識別することができる。幾つかの例では、次いで制御器220及び/又は装置識別器324はこの画像を、一例のモバイル装置(例えばモバイル装置200)のデータベースに記憶されている装置情報と照合して、装置情報を識別することができる。一旦、装置識別器324が装置情報を決定したら、装置情報は情報を文書記録器210へ転送する(おそらくは通信バス201のような通信バスを介して)。
図3の一例の画像フィルタ326は、カメラ(例えばカメラ202)から画像を受け取る。画像フィルタ326は、背景付きの手、指及び/又は指先のセグメント分割のために画像のテクスチャに基づく領域に着目する。画像にエントロピィ方式セグメント分割アルゴリズムを施した後に、最小最大フィルタを施して指を識別することができる。一旦、これらの画像について画像フィルタ326を用いて一例の利用者(例えば利用者104、106)の手、指及び/又は指先が識別されたら、図3の利用者命令識別器328がフィルタを施した画像から利用者命令を決定する。
図3の利用者命令識別器328は、画像フィルタ326による画像のセグメント分割に基づいて画像において利用者の手、指及び/又は指先を追跡する。画像の各々における利用者の手、指及び/又は指先の位置を決定することにより、利用者命令識別器328は、一例のモバイル装置200の記憶装置及び/又はモバイル装置に関連した網に接続されているデータベースに記憶されている命令データを照合することにより、利用者の命令を解釈することができる。幾つかの例では、制御器220は利用者命令識別器によって識別された命令を用いて、モバイル装置200のアプリケーション及び/又は機能を実行する。利用者命令識別器328は、この識別された命令を文書記録のために文書記録器210へ転送することができる。
図3の音声認識器330は、一例のモバイル装置200のマイクロホンから音響を受け取る。音声認識器330は、音声データにフィルタを施し、フィルタを施したデータを利用者命令識別器328へ転送して、利用者からの命令を決定することができる。幾つかの例では、制御器220は、音声認識器330からの音声命令データを用いて一例のモバイル装置を制御することができる。幾つかの例では、音声認識器330は音声データをテキストへ変換して、音声データを文書記録のために文書記録器210へ転送する。幾つかの例では、音声認識器330は音声認識ソフトウェアを有し、音響に被さって受け取られた音声に基づいて1又は複数の利用者(例えば利用者104、106)を識別することもできる。音声認識器330は音声データを一例の利用者の各々に関連付けて、情報を文書記録器210へ転送することができる。幾つかの例では、文書記録器210は音声データを文書記録して、音声データを各々の対応する利用者に関連付け、一例の手順について何れの利用者が何れの命令及び/又は何れの情報を発声したかを文書記録する。
図3の文書記録器210は、装置識別器324、利用者命令識別器328、及び/又は音声認識器330を介して制御器220からデータを受け取る。幾つかの例では、文書記録器210は制御インタフェイス206から制御インタフェイス・データを受け取る。文書記録器210は文書記録編集器312において情報を受け取る。文書記録編集器312は、一例のモバイル装置200によって文書記録されるべきデータを編集する。幾つかの例では、文書記録編集器312は、情報が文書記録編集器312において受け取られた時刻に基づいて情報を並べ換え(ソート)する。幾つかの例では、文書記録編集器312は、音声認識器330、利用者命令識別器328、及び/又は装置識別器324から受け取られた音声データ及び/又は画像データをテキスト・データへ変換する。幾つかの例では、次いで文書記録編集器は、利用者からデータを受け取ったことに関連する時刻に基づいてテキスト・データを編集する。幾つかの例では、文書記録編集器312は、利用者への報告書の作成のために、編集したデータを報告書作成器314へ転送する。
図3の一例の報告書作成器314は、利用者への提示のための報告書を作成する。幾つかの例では、利用者は、時刻、位置、利用者、手順及び情報等に基づいて制御インタフェイス(例えば制御インタフェイス206)を介して報告書をカスタマイズすることができる。幾つかの例では、報告書作成器は、データ形式(例えば音響データ、装置データ、並びに命令データ(手及び/又は音声による)等)に基づいて文書記録編集器312からのデータをソートする。幾つかの例では報告書作成器は、カメラ(例えばカメラ202)によって記録された手順の動画を検索して、動画を作成された報告書に関連付けることができる。幾つかの例では、作成された報告書は、モバイル装置(例えばモバイル装置200)の表示器(例えばタッチスクリーン)を介して表示される。幾つかの例では、一例の報告書は、一例のモバイル装置の一例のデータベース及び/又はモバイル装置に関連した網に接続されているデータベースに記憶される。
図2の一例のモバイル装置200、さらに明確に述べると、図3の一例の制御器220及び一例の文書記録器210を具現化する一例の態様を図2及び/又は図3に示したが、図2及び/又は図3に示されている要素、工程及び/又は装置の1又は複数を組み合わせたり、分割したり、並べ換えたり、省略したり、消去したり、他の任意の方法で具現化したりしてよい。さらに、図2及び/又は図3の一例の装置検出器322、一例の装置識別器324、一例の画像フィルタ326、一例の利用者命令識別器328、一例の音声認識器330、一例の文書記録編集器312、及び一例の報告書作成器314、並びに/又はさらに一般的には一例の制御器220及び一例の文書記録器210を、ハードウェア、ソフトウェア、ファームウェア、並びに/又はハードウェア、ソフトウェア及び/若しくはファームウェアの任意の組み合わせによって具現化してもよい。このように、一例の装置検出器322、一例の装置識別器324、一例の画像フィルタ326、一例の利用者命令識別器328、一例の音声認識器330、一例の文書記録編集器312、及び一例の報告書作成器314、並びに/又はさらに一般的には一例の制御器220及び一例の文書記録器210は、1若しくは複数の回路、プログラム可能なプロセッサ、特定応用向け集積回路(ASIC)、プログラム可能な論理装置(PLD)、及び/又はフィールド・プログラマブル論理装置(FPLD)等によって具現化され得る。本特許の装置請求項の任意のものが純粋にソフトウェア及び/又はファームウェアの具現化形態をカバーするように読まれるときには、一例の装置検出器322、一例の装置識別器324、一例の画像フィルタ326、一例の利用者命令識別器328、一例の音声認識器330、一例の文書記録編集器312、及び一例の報告書作成器314の少なくとも一つがこれにより当該ソフトウェア及び/又はファームウェアを記憶したメモリ、DVD及びCD等のようなコンピュータ可読の記憶媒体を含むものと明確に定義される。さらにまた、一例の制御器220及び文書記録器210は、図2及び/若しくは図3に図示されているものに加えて若しくはこれらの代替として1若しくは複数の要素、工程及び/若しくは装置を含み、且つ/又は図示の要素、工程及び装置の任意のもの若しくは全ての1よりも多いものを含み得る。
図2及び/又は図3の制御器220及び文書記録器230を具現化するための一例の機械可読の命令を表わす流れ図を図4〜図6に示す。この例では、機械可読の命令は、図8に関連して後に議論される一例のプロセッサ・プラットフォーム800に示すプロセッサ812のようなプロセッサによって実行されるプログラムを含んでいる。プログラムは、CD−ROM、フロッピィ・ディスク、ハード・ドライブ、ディジタル汎用ディスク(DVD)、ブルーレイ(商標)ディスク、又はプロセッサ812に付設されたメモリのような有形のコンピュータ可読の記憶媒体に記憶されたソフトウェアにおいて実装され得るが、プログラム全体及び/又はプログラムの部分は代替的には、プロセッサ812以外の装置によって実行されてもよいし、且つ/又はファームウェア若しくはハードウェアによって実装されてもよい。さらに、一例のプログラムを図4〜図6に示す流れ図に関連して記載するが、図2及び/又は図3の一例の制御器220及び文書記録器210を具現化する他の多くの方法を代替的に用いてもよい。例えば、ブロックの実行の順序を変更してもよいし、且つ/又は所載のブロックの幾つかを変更したり、消去したり、組み合わせたりしてもよい。
上述のように、図4〜図6の一例の工程は、ハードディスク・ドライブ、フラッシュ・メモリ、読み出し専用メモリ(ROM)、コンパクト・ディスク(CD)、ディジタル汎用ディスク(DVD)、ブルーレイ(商標)ディスク、キャッシュ、ランダム・アクセス・メモリ(RAM))、並びに/又は任意の持続時間(例えば長期間、恒久的、短時間、一時的バッファ格納、及び/若しくは情報のキャッシュ格納)にわたり情報を記憶する他の任意の記憶媒体のような有形のコンピュータ可読の記憶媒体に記憶されている符号化された命令(例えばコンピュータ可読の命令)を用いて具現化され得る。本書で用いられる有形のコンピュータ可読の記憶媒体との用語は、任意の形式のコンピュータ可読の記憶装置又はディスクを包含し且つ伝播信号を除外するものとして明確に定義される。加えて又は代替的に、図4〜図6の一例の工程は、ハードディスク・ドライブ、フラッシュ・メモリ、読み出し専用メモリ、コンパクト・ディスク、ディジタル汎用ディスク、キャッシュ、ランダム・アクセス・メモリ、並びに/又は任意の持続時間(例えば長期間、恒久的、短時間、一時的バッファ格納、及び/若しくは情報のキャッシュ格納)にわたり情報を記憶する他の任意の記憶媒体のような非一時的なコンピュータ可読の記憶媒体に記憶されている符号化された命令(例えばコンピュータ可読の命令)を用いて具現化され得る。本書で用いられる非一時的なコンピュータ可読の記憶媒体との用語は、任意の形式のコンピュータ可読の記憶装置又はディスクを包含し且つ伝播信号を除外するものとして明確に定義される。
図2及び/又は図3の制御器220及び/又は文書記録器210を具現化するために実行され得る一例の機械可読の命令400を図4に示す流れ図によって表わす。図4の機械可読の命令400は実行されると、1又は複数の利用者が図1の一例の環境100のような非接触型環境においてモバイル装置と相互作用することに基づいて用いられる手順の事象を文書記録することを、一例のモバイル装置200の制御器220及び文書記録器210に行なわせる。ブロック410では、図2のモバイル装置200のような一例のモバイル装置が、一例の環境100のような一例の非接触型環境における手順中に用いるために設定される。幾つかの例では、モバイル装置100は、モバイル装置200を非接触型環境100に持ち込むのに先立ってユーザ・インタフェイスを用いて設定される。幾つかの例では、モバイル装置200の設定は、モバイル装置200に記憶される一例の文書記録アプリケーションを実行することを含んでいる。
ブロック420では、利用者の指先の位置が識別される。例えば、一例のモバイル装置200のカメラ202を用いて利用者の指先を識別する。画像フィルタ326はカメラ202から画像を受け取る。画像フィルタ326は画像にエントロピィ方式セグメント分割を施し、続いて例えば最小最大フィルタを施して、1又は複数の利用者の指先を識別する。
幾つかの例では、利用者の指先の初期識別が、ブロック410の一例の文書記録アプリケーションの実行に続いて生ずる。幾つかの例では、利用者は、モバイル装置200の制御インタフェイス206(例えば表示器及びタッチスクリーン等)に対応する一例の仮想平面を設定する。仮想平面は、例えば一例の文書記録アプリケーションの実行時に仮想平面の左上角及び右下角並びに/又は仮想平面の右上角及び左下角を利用者が指定する較正を行なうことにより設定され得る。
図示の例のブロック430では、設定された仮想平面の内部での利用者の指先位置の間の対応が決定される。例えば、一例の制御器220の利用者命令識別器328は、モバイル装置200のカメラ202を用いて、設定された仮想平面の内部での利用者の指先位置の間の対応を決定することができる。ブロック430では、ピクセル・シフト・アルゴリズムを用いて追跡が行なわれ、画像フィルタ326から受け取られた画像のセグメント分割された各ゾーンの高速追跡を行なう。幾つかの例では、水平及び垂直追跡(例えば図7(C)を参照されたい)を用いて、一例のアプリケーションの範囲内でのナビゲーションを行なう。ブロック430において、テクスチャ型エントロピィ・セグメント分割を用いると、一例の利用者の手、指及び/若しくは指先、並びに/又は利用者の手指に被せた手袋が手順中に汚物や砕片(例えば血液、組織片及び油脂等)に塗れていても、利用者の手、指及び/若しくは指先、並びにかかる手指の位置を識別する画像フィルタ326の能力に支障はない。ブロック430では、利用者命令識別器328は仮想平面の内部で利用者の指先位置を追跡して、この位置をモバイル装置200の制御インタフェイス206での位置に対応付ける。
図4のブロック440では、利用者命令識別器328は、利用者の指先位置に基づいて、また幾つかの例では一例の仮想平面における利用者の指先位置に基づいて、利用者が命令を入力したと決定する。幾つかの例では、画像フィルタ326から受け取られた画像における利用者の指先の一例の追跡により、仮想平面及び/又はモバイル装置200の制御インタフェイス206までの利用者の指先の距離の推定によって上方制御(up control)に触れた利用者の動作を識別する。幾つかの例では、推定は、タイミング変数によって対象を前方に次いで後方に追跡するマッチ・ザ・マター(match the matter)である。マッチ・ザ・マター推定を用いて、解析されたパターンをアプリケーションの実行のための指触事象に写像することができる。アプリケーションを実行するためのアイコンを、制御インタフェイス206において一例の仮想平面での利用者の指位置に対応する位置に表示させることができる。
ブロック450では、モバイル装置200の一例の文書記録器210は、モバイル装置200に対する利用者の入力及び相互作用に基づいて手順の事象を文書記録する。幾つかの例では、利用者は、手順の何れの事象を文書記録器210によって文書記録すべきかを選択することができる。幾つかの例では、文書記録器は、モバイル装置200のあらゆる利用者のあらゆる相互作用によって受け取られた全ての命令及び情報を自動的に文書記録する。ブロック450の命令については図5でさらに詳細に説明される。
図4のブロック460では、一例の文書記録器210は、報告書作成器314を介して報告書を作成することができる。幾つかの例では、報告書作成器は、データ形式(例えば音響データ、装置データ及び命令データ等)に基づいて文書記録編集器312からのデータをソートする。幾つかの例では、報告書作成器は、カメラ202によって記録された手順の動画を検索して、動画を作成された報告書に関連付ける。幾つかの例では、作成された報告書は、モバイル装置200の表示器(例えば制御インタフェイス206)を介して表示され、且つ/又はこの一例の報告書は、一例のモバイル装置の一例のデータベース及び/若しくはモバイル装置に関連した網に接続されているデータベースに記憶されてもよい。
図5は、図4のブロック450を具現化するために実行され得る一例の機械可読の命令450を示す。命令450はブロック510において、文書記録器210が文書記録のためのデータ情報を受け取ると開始する。ブロック510では、文書記録器210は、装置識別器324(図6を参照されたい)、利用者命令識別器328、音声認識器330、及び/又は制御インタフェイス206から、文書記録のためのデータ情報を受け取ることができる。従って、受け取られるデータは画像データ、音声データ、メタデータ、テキスト・データ、又は任意の形態のデータであってよい。
ブロック520では、文書編集器312は、編集前にデータを変換する必要があるか否かを決定する。文書記録器210は、受け取られたデータを変換(例えば音声からテキストへ変換及び/又は画像からメタデータへ変換)すべきか否かを、制御インタフェイス206からの利用者の入力及び/又は利用者によって設定された設定に基づいて決定することができる。受け取られたデータを変換する必要がなければ、制御はブロック540へ移動して、データは文書記録編集器312によってモバイル装置200の記憶装置に記憶される。幾つかの例では、利用者が文書記録編集器312において全ての文書記録データをテキストへ変換することを指示してもよい。受け取られたデータを変換する必要があれば、文書記録編集器312は受け取られたデータの形式に対応する設定に基づいてデータを変換する。例えば、装置識別器からの画像データを装置情報を識別するテキスト・データへ変換してもよいし、且つ/又は音声認識器から受け取られた音声データをテキスト・データに書き起こしてもよい。ブロック540では、全ての受け取られた文書記録データは、モバイル装置200の一例の記憶装置又はモバイル装置200と連絡している網に接続された一例の記憶装置に記憶されるのに先立って、正しいフォーマットへ変換されているべきである。
幾つかの例では、文書記録器210の文書記録編集器312は、データ形式又は時刻の少なくとも一方に基づいて文書記録データをソートする。幾つかの例では、ソートされたデータは、文書記録データに対応する動画記録に関連付けられてもよい。幾つかの例では、文書記録データは、モバイル装置200のカメラ202が動画を記録している間にモバイル装置200によって受け取られる。
図6は、図3の装置検出器322及び装置識別器を具現化するために実行され得る一例の機械可読の命令600を示す。図示の例のブロック610では、装置検出器322は一例のカメラ202から画像を受け取る。ブロック620では、装置検出器322は、装置(例えば埋植物及び器具等)が受け取られた画像の範囲内に位置するか否かを決定する。装置検出器322は、ラベル、バー・コード、形状、又は画像において識別される装置の他の任意の顕著な特徴に基づいて装置を検出することができる。装置検出器322が画像において装置を検出しない場合には、制御はブロック610へ戻ってカメラ202から次の画像を受け取る。
装置検出器322がブロック620において装置を検出した場合には、ブロック630において装置識別器324はこの識別された装置を含む画像から装置識別情報(例えばバー・コード及びラベル等)を解読し且つ/又は抽出することができる。次いで、ブロック640では、装置識別器324は、識別情報に基づいて装置情報(例えば装置名称及び型番等)を決定することができる。幾つかの例では、装置識別器324は識別情報をモバイル装置の記憶ドライブに記憶されている情報と照合して、識別情報を決定する。幾つかの例では、装置識別器324は、網(例えば構内通信網又はインターネット)に接続された記憶装置のデータベースを参照して、装置情報を決定する。次いで、ブロック650では、装置識別器324は、この識別された装置の文書記録のために装置情報を文書記録器210へ転送する。幾つかの例では、装置識別器324は、文書記録のために装置情報と共に装置の画像を転送する。
図7(A)〜図7(C)には、モバイル装置200を制御するのに用いられ得る指先移動及び/又は指先位置の例を示す。図7(A)〜図7(C)は各々、一例のモバイル装置700A、700B、700C(図2のモバイル装置200によって具現化され得る)、一例の仮想平面710A、710B、710C、及び一例の利用者の手位置720A、720B、720Cをそれぞれ示す。図7(A)〜図7(C)では、一例の仮想平面710A、710B、710Cは一例のモバイル装置700A、700B、700Cから距離Zに位置する。図7(A)〜図7(C)では、対応する点線は、仮想平面710A、710B、710Cの角が、モバイル装置700A、700B、700Cの制御インタフェイス706A、706B、706Cの対応する角にそれぞれ対応していることを示している。
図7(A)は、仮想平面710Aがモバイル装置700Aから距離Zに設定されたことを示す。利用者の手720Aが仮想平面710Aと相互作用すると、モバイル装置700Aの一例のカメラ(例えばカメラ202)が画像を画像フィルタ326へ転送して、仮想平面710Aに対する手、指及び/又は指先の相対位置を決定する。ここから、一例の利用者命令識別器は、利用者の手720Aの位置に基づいて命令を解釈することができる。
図7(B)は、制御インタフェイス706Bの表示器においてズームするために利用者によって発行される一例の命令を示す。図7(B)では、利用者の手720Bは、仮想スクリーンを「つまむ(ピンチ)」動作をして、仮想スクリーン及び/又はモバイル装置700Bの制御インタフェイス706Bをズーム・インすることができる。図7(C)は、利用者装置700Cの制御インタフェイス706Cに表示されているページを上下にスクロールさせるために利用者によって発行される一例の命令を示す。図7(A)〜図7(C)は、モバイル装置700A、700B、700Cを制御するための一例の手のジェスチャ又は位置であると厳密に考えられ、モバイル装置700A、700B、700Cの他の機能又は制御を具現化するように改変されてよい。
図8は、図2及び/又は図3の制御器220及び文書記録器210を具現化するために図4〜図6の命令を実行することが可能な一例のコンピュータ800のブロック図である。コンピュータ800は、例えばサーバ、パーソナル・コンピュータ、移動電話(例えば携帯電話)、スマートフォン、タブレット・パーソナル・コンピュータ、携帯型情報端末(PDA)、ディジタル動画録画器、個人用動画録画器、セット・トップ・ボックス、又は他の任意の形式の計算装置装置であり得る。
本例のシステム800はプロセッサ812を含んでいる。例えば、プロセッサ812は、Pentium(登録商標)製品群、Itanium(登録商標)製品群又はXScale(登録商標)製品群からの1又は複数のインテル(登録商標)・マイクロプロセッサによって具現化され得る。言うまでもなく、他の製品群からの他のプロセッサも適当である。
プロセッサ812は、バス818を介して揮発性メモリ814及び不揮発性メモリ816を含めたメイン・メモリと連絡している。揮発性メモリ814は、同期式動的ランダム・アクセス・メモリ(SDRAM)、動的ランダム・アクセス・メモリ(DRAM)、RAMBUS動的ランダム・アクセス・メモリ(RDRAM)、及び/又は他の任意の形式のランダム・アクセス・メモリ装置によって具現化され得る。不揮発性メモリ816は、フラッシュ・メモリ及び/又は他の任意の所望の形式のメモリ装置によって具現化され得る。メイン・メモリ814、816へのアクセスは典型的には、メモリ制御器(図示されていない)によって制御される。
コンピュータ800はまた、インタフェイス回路820を含んでいる。インタフェイス回路820は、イーサネット・インタフェイス、ユニバーサル・シリアル・バス(USB)、及び/又はPCIエクスプレス・インタフェイスのような任意の形式のインタフェイス規格によって具現化され得る。
1又は複数の入力装置822がインタフェイス回路820に接続されている。入力装置822によって、利用者はプロセッサ812にデータ及び命令を入力することが可能になる。入力装置は、例えばキーボード、マウス、タッチスクリーン、トラック・パッド、トラックボール、アイソポイント及び/又は音声認識システムによって具現化され得る。
また、1又は複数の出力装置824がインタフェイス回路820に接続されている。出力装置824は、例えば表示装置(例えば液晶表示器)によって具現化され得る。従って、インタフェイス回路820は典型的には、グラフィックス・ドライバ・カードを含んでいる。
インタフェイス回路820はまた、モデム又は網インタフェイス・カードのように、網826(例えばイーサネット接続、ディジタル加入者線(DSL)、電話線、同軸ケーブル及び携帯電話システム等)を介して外部コンピュータとのデータの交換を容易にする通信装置を含んでいる。
コンピュータ800はまた、ソフトウェア及びデータを記憶する1又は複数の大容量記憶装置828を含んでいる。かかる大容量記憶装置828の例としては、フロッピィ・ディスク・ドライブ、ハード・ドライブ・ディスク、コンパクト・ディスク・ドライブ及びディジタル汎用ディスク(DVD)ドライブがある。
図4〜図6の符号化された命令は、大容量記憶装置828、揮発性メモリ814、不揮発性メモリ816、及び/又はCD若しくはDVDのような着脱式記憶媒体に記憶され得る。
以上の記載から、上に開示された方法、装置及び製造品は、非接触型環境におけるモバイル装置の非接触型制御、及び当該モバイル装置による手順の文書記録を、モバイル装置のカメラを用いた入力制御、音響記録及び/又は動画記録、並びに装置埋植物及び/又は器具の認識能力に基づいて可能にすることが認められよう。
本書では幾つかの例の方法、装置及び製造品について記載したが、本特許の網羅範囲はこれらに限定されない。反対に、本特許は、本特許の請求項の範囲内に十分に属する全ての方法、装置及び製造品を網羅する。
100:環境
102:手術台
104、106:利用者
110:モバイル装置
112:タッチスクリーン
114:カメラ
120:仮想平面
200:モバイル装置
201:通信バス
202:カメラ
204:マイクロホン
206:制御インタフェイス
208:アプリケーション・インタフェイス
210:文書記録器
220:制御器
312:文書記録編集器
314:報告書作成器
322:装置検出器
324:装置識別器
326:画像フィルタ
328:利用者命令識別器
330:音声認識器
400、600:機械可読の命令
700A、700B、700C:モバイル装置
706A、706B、706C:制御インタフェイス
710A、710B、710C:仮想平面
720A、720B、720C:利用者の手位置
800:コンピュータ
812:プロセッサ
813:ローカル・メモリ
814:揮発性メモリ
816:不揮発性メモリ
818:バス
820:インタフェイス回路
822:入力装置
824:出力装置
826:網
828:大容量記憶装置
832:着脱式記憶媒体

Claims (17)

  1. モバイル装置のカメラ及び該カメラから入力された画像のエントロピィ方式セグメント分割を用いて、前記モバイル装置の制御インタフェイスとは別個に形成される仮想平面における利用者の指先の1又は複数の位置を識別するステップと、
    利用者指先位置と前記モバイル装置の前記制御インタフェイスとの間の対応を決定するステップであって、該対応は利用者入力を形成し、前記制御インタフェイスは、前記利用者入力に基づいて実行されるべき複数の機能を含んでいる、決定するステップと、
    手順中に、前記仮想平面における前記利用者指先位置に基づいて、前記モバイル装置を介した前記複数の機能の1又は複数の実行を促進するステップと、
    前記モバイル装置を介して出力されるべき報告書を作成するために、前記利用者入力に基づいて前記手順の1又は複数の事象を文書記録するステップと
    前記利用者指先位置により識別された利用者命令に基づいて、前記モバイル装置の前記カメラを用いて入力された前記画像において装置識別を検出するステップと、
    該装置識別に基づいて装置情報を決定するステップと、
    該装置情報を、前記手順の前記1又は複数の事象の一つとして前記報告書に文書記録するステップと
    を備える、方法。
  2. モバイル装置のカメラ及び該カメラから入力された画像のエントロピィ方式セグメント分割を用いて、前記モバイル装置の制御インタフェイスとは別個に形成される仮想平面における利用者の指先の1又は複数の位置を識別するステップと、
    利用者指先位置と前記モバイル装置の前記制御インタフェイスとの間の対応を決定するステップであって、該対応は利用者入力を形成し、前記制御インタフェイスは、前記利用者入力に基づいて実行されるべき複数の機能を含んでいる、決定するステップと、
    手順中に、前記仮想平面における前記利用者指先位置に基づいて、前記モバイル装置を介した前記複数の機能の1又は複数の実行を促進するステップと、
    前記モバイル装置を介して出力されるべき報告書を作成するために、前記利用者入力に基づいて前記手順の1又は複数の事象を文書記録するステップと
    前記利用者指先位置により識別された利用者命令に基づいて、マイクロホン又は前記カメラの少なくとも一方を用いた前記手順の音響記録又は動画記録の少なくとも一方を記憶するステップと、
    前記手順の前記記録を前記報告書に関連付けるステップと
    を備える、方法。
  3. 前記仮想平面は、前記モバイル装置の前記制御インタフェイスから離隔して対応しており、
    前記仮想平面の第一の座標が前記モバイル装置の前記制御インタフェイスの第二の座標に対応している、請求項1又は2に記載の方法。
  4. 前記利用者の指先位置は、当該利用者の指先に被せた1又は複数の手袋に砕片が実質的に存在しない第一の時刻、及び当該利用者の指先に被せた前記1又は複数の手袋が砕片に実質的に塗れている第二の時刻において識別されるべきである、請求項1又は2に記載の方法。
  5. 前記1又は複数の事象を文書記録する前記ステップは、前記1又は複数の機能の前記実行からの文書記録データを、利用者設定又はデータ形式の少なくとも一方に基づくフォーマットへ変換するステップをさらに含んでいる、請求項1又は2に記載の方法。
  6. 前記モバイル装置は、タブレット・コンピュータ、スマートフォン、携帯型情報端末、パーソナル・コンピュータ、又はラップトップ・コンピュータの少なくとも一つである、請求項1又は2に記載の方法。
  7. モバイル装置のカメラ及び該カメラから入力された画像のエントロピィ方式セグメント分割を用いて、前記モバイル装置の制御インタフェイスとは別個に形成される仮想平面における指先の1又は複数の位置を識別する画像フィルタと、
    利用者指先位置と前記モバイル装置の前記制御インタフェイスとの間の対応を決定する利用者命令識別器であって、前記対応は利用者入力を形成し、前記制御インタフェイスは、前記利用者入力に基づいて実行されるべき複数の機能を含んでいる、利用者命令識別器と、
    手順中に、前記仮想平面における前記利用者指先位置に基づいて、前記モバイル装置を介した前記複数の機能の1又は複数の実行を促進する制御器と、
    前記モバイル装置を介して出力されるべき報告書を作成するために、前記利用者入力に基づいて前記手順の1又は複数の事象を文書記録する文書記録器と、
    前記利用者指先位置により識別された利用者命令に基づいて、前記モバイル装置の前記カメラを用いて入力された前記画像において装置識別を検出する装置識別検出器と、
    前記装置識別に基づいて装置情報を決定する装置識別器と、
    を含んでおり、
    前記文書記録器は、前記装置情報を、前記手順の前記1又は複数の事象の一つとして前記報告書に文書記録する、装置。
  8. モバイル装置のカメラ及び該カメラから入力された画像のエントロピィ方式セグメント分割を用いて、前記モバイル装置の制御インタフェイスとは別個に形成される仮想平面における指先の1又は複数の位置を識別する画像フィルタと、
    利用者指先位置と前記モバイル装置の前記制御インタフェイスとの間の対応を決定する利用者命令識別器であって、前記対応は利用者入力を形成し、前記制御インタフェイスは、前記利用者入力に基づいて実行されるべき複数の機能を含んでいる、利用者命令識別器と、
    手順中に、前記仮想平面における前記利用者指先位置に基づいて、前記モバイル装置を介した前記複数の機能の1又は複数の実行を促進する制御器と、
    前記モバイル装置を介して出力されるべき報告書を作成するために、前記利用者入力に基づいて前記手順の1又は複数の事象を文書記録する文書記録器と、
    を含んでおり、
    前記制御器は、前記利用者指先位置により識別された利用者命令に基づいて、マイクロホン又は前記カメラの少なくとも一方を用いた前記手順の音響記録又は動画記録の少なくとも一方を記憶し、前記文書記録器は、前記手順の前記記録を前記報告書に関連付ける、装置。
  9. 前記仮想平面は、前記モバイル装置の前記制御インタフェイスから離隔して対応しており、
    前記仮想平面の第一の座標が前記モバイル装置の前記制御インタフェイスの第二の座標に対応している、請求項7又は8に記載の装置。
  10. 前記利用者の指先位置は、当該利用者の指先に被せた1又は複数の手袋に砕片が実質的に存在しない第一の時刻、及び当該利用者の指先に被せた前記1又は複数の手袋が砕片に実質的に塗れている第二の時刻において識別される、請求項7又は8に記載の装置。
  11. 前記1又は複数の事象を文書記録することは、前記1又は複数の機能の前記実行からの文書記録データを、利用者設定又はデータ形式の少なくとも一方に基づくフォーマットへ変換することをさらに含んでいる、請求項7又は8に記載の装置。
  12. 前記モバイル装置は、タブレット・コンピュータ、スマートフォン、携帯型情報端末、パーソナル・コンピュータ、又はラップトップ・コンピュータの少なくとも一つである、請求項7又は8に記載の装置。
  13. 実行されると、少なくとも
    モバイル装置のカメラ及び該カメラから入力された画像のエントロピィ方式セグメント分割を用いて、前記モバイル装置の制御インタフェイスとは別個に形成される仮想平面における利用者の指先の1又は複数の位置を識別し、
    利用者指先位置と前記モバイル装置の前記制御インタフェイスとの間の対応を決定し、
    該対応は利用者入力を形成し、前記制御インタフェイスは、前記利用者入力に基づいて実行されるべき複数の機能を含んでおり、
    手順中に、前記仮想平面における前記利用者指先位置に基づいて、前記モバイル装置を介した前記複数の機能の1又は複数の実行を促進して、
    前記モバイル装置を介して出力されるべき報告書を作成するために、前記利用者入力に基づいて前記手順の1又は複数の事象を文書記録する
    ことを機械に行なわせる命令を備え、
    前記命令は、
    前記利用者指先位置により識別された利用者命令に基づいて、前記モバイル装置の前記カメラを用いて入力された前記画像において装置識別を検出し、
    該装置識別に基づいて装置情報を決定して、
    該装置情報を、前記手順の前記1又は複数の事象の一つとして前記報告書に文書記録することを前記機械に行なわせる、機械可読の記憶媒体。
  14. 実行されると、少なくとも
    モバイル装置のカメラ及び該カメラから入力された画像のエントロピィ方式セグメント分割を用いて、前記モバイル装置の制御インタフェイスとは別個に形成される仮想平面における利用者の指先の1又は複数の位置を識別し、
    利用者指先位置と前記モバイル装置の前記制御インタフェイスとの間の対応を決定し、
    該対応は利用者入力を形成し、前記制御インタフェイスは、前記利用者入力に基づいて実行されるべき複数の機能を含んでおり、
    手順中に、前記仮想平面における前記利用者指先位置に基づいて、前記モバイル装置を介した前記複数の機能の1又は複数の実行を促進して、
    前記モバイル装置を介して出力されるべき報告書を作成するために、前記利用者入力に基づいて前記手順の1又は複数の事象を文書記録する
    ことを機械に行なわせる命令を備え、
    前記命令は、
    前記利用者指先位置により識別された利用者命令に基づいて、マイクロホン又は前記カメラの少なくとも一方を用いた前記手順の音響記録又は動画記録の少なくとも一方を記憶して、
    前記手順の前記記録を前記報告書に関連付ける
    ことを前記機械に行なわせる、機械可読の記憶媒体。
  15. 前記仮想平面は、前記モバイル装置の前記制御インタフェイスから離隔して対応しており、
    前記仮想平面の第一の座標が前記モバイル装置の前記制御インタフェイスの第二の座標に対応している、請求項13又は14に記載の記憶媒体。
  16. 前記利用者の指先位置は、当該利用者の指先に被せた1又は複数の手袋に砕片が実質的に存在しない第一の時刻、及び当該利用者の指先に被せた前記1又は複数の手袋が砕片に実質的に塗れている第二の時刻において識別される、請求項13又は14に記載の記憶媒体。
  17. 前記1又は複数の事象を文書記録することは、前記1又は複数の機能の前記実行からの文書記録データを、利用者設定又はデータ形式の少なくとも一方に基づくフォーマットへ変換することをさらに含んでいる、請求項13又は14に記載の記憶媒体。
JP2018083657A 2012-08-31 2018-04-25 手順を文書記録する方法及び装置 Active JP6609343B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/601,790 US8907914B2 (en) 2012-08-31 2012-08-31 Methods and apparatus for documenting a procedure
US13/601,790 2012-08-31

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013172767A Division JP2014049125A (ja) 2012-08-31 2013-08-23 手順を文書記録する方法及び装置

Publications (2)

Publication Number Publication Date
JP2018142353A true JP2018142353A (ja) 2018-09-13
JP6609343B2 JP6609343B2 (ja) 2019-11-20

Family

ID=50186825

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013172767A Pending JP2014049125A (ja) 2012-08-31 2013-08-23 手順を文書記録する方法及び装置
JP2018083657A Active JP6609343B2 (ja) 2012-08-31 2018-04-25 手順を文書記録する方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013172767A Pending JP2014049125A (ja) 2012-08-31 2013-08-23 手順を文書記録する方法及び装置

Country Status (3)

Country Link
US (1) US8907914B2 (ja)
JP (2) JP2014049125A (ja)
CN (1) CN103677254B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898183B1 (en) * 2012-09-19 2018-02-20 Amazon Technologies, Inc. Motions for object rendering and selection
JP5936138B2 (ja) * 2013-06-19 2016-06-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 操作手順書を生成する装置及び方法
US9946985B2 (en) * 2014-04-15 2018-04-17 Kofax, Inc. Touchless mobile applications and context-sensitive workflows
US9454235B2 (en) 2014-12-26 2016-09-27 Seungman KIM Electronic apparatus having a sensing unit to input a user command and a method thereof
KR101932373B1 (ko) * 2015-06-28 2018-12-24 에스 앤드 에스 이노베이션스, 엘엘씨 의료 디바이스와 관련된 고유 디바이스 식별자를 사용하여 환자 및 처치 정보를 추적, 확인 및 저장하기 위해 무균 필드에서 사용하기 위한 시스템, 장치 그리고 방법
JP6796506B2 (ja) * 2017-02-09 2020-12-09 株式会社Nttドコモ 入力システム
CN106951087B (zh) * 2017-03-27 2020-02-21 联想(北京)有限公司 一种基于虚拟交互平面的交互方法及装置
US10620713B1 (en) * 2019-06-05 2020-04-14 NEX Team Inc. Methods and systems for touchless control with a mobile device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580248A (ja) * 1991-09-19 1993-04-02 Ricoh Co Ltd オートフオーカス装置
JP2005190283A (ja) * 2003-12-26 2005-07-14 Nec Access Technica Ltd 情報入力装置
JP2006043209A (ja) * 2004-08-05 2006-02-16 U Production:Kk 外科手術の動画記録装置
JP2007516026A (ja) * 2003-11-05 2007-06-21 サイキャン・ア・ディビジョン・オブ・ルックス・アンド・ツビンゲンベルガー・リミテッド 処理される器具の管理システム
JP2008506188A (ja) * 2004-07-09 2008-02-28 ジェスチャーラド インコーポレイテッド ジェスチャ・ベース報告方法およびシステム
JP2008259661A (ja) * 2007-04-12 2008-10-30 Toshiba Corp 検査情報処理システム及び検査情報処理装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697729B2 (en) * 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
US20060103633A1 (en) * 2004-11-17 2006-05-18 Atrua Technologies, Inc. Customizable touch input module for an electronic device
US20080104547A1 (en) 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
US20080114615A1 (en) 2006-11-15 2008-05-15 General Electric Company Methods and systems for gesture-based healthcare application interaction in thin-air display
US20090167723A1 (en) * 2007-12-31 2009-07-02 Wah Yiu Kwong Input devices
JP4896932B2 (ja) * 2008-06-26 2012-03-14 京セラ株式会社 入力装置
US8543415B2 (en) * 2008-11-26 2013-09-24 General Electric Company Mobile medical device image and series navigation
US8446367B2 (en) * 2009-04-17 2013-05-21 Microsoft Corporation Camera-based multi-touch mouse
US8340654B2 (en) * 2009-05-26 2012-12-25 Lextech Labs Llc Apparatus and method for video display and control for portable device
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP5304544B2 (ja) * 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5926184B2 (ja) * 2009-09-22 2016-05-25 ペブルステック リミテッド コンピュータ装置の遠隔制御
US8432367B2 (en) * 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
JP4615065B1 (ja) * 2010-02-22 2011-01-19 エンパイア テクノロジー ディベロップメント エルエルシー 撮像装置及び撮像方法
JP5504028B2 (ja) * 2010-03-29 2014-05-28 富士フイルム株式会社 観察支援システムおよび方法並びにプログラム
JP4950321B2 (ja) * 2010-04-26 2012-06-13 京セラ株式会社 文字入力装置、文字入力方法および文字入力プログラム
US8610681B2 (en) * 2010-06-03 2013-12-17 Sony Corporation Information processing apparatus and information processing method
EP2407870A1 (en) * 2010-07-16 2012-01-18 Research in Motion Limited Camera focus and shutter control
CN101869503A (zh) * 2010-07-18 2010-10-27 江苏埃立特医疗科技有限公司 一种具有同屏显示菜单式触控操作的超声监视妇产科宫腔手术仪
JP2012104994A (ja) * 2010-11-09 2012-05-31 Sony Corp 入力装置、入力方法、プログラム及び記録媒体
US9389774B2 (en) * 2010-12-01 2016-07-12 Sony Corporation Display processing apparatus for performing image magnification based on face detection
US10108783B2 (en) * 2011-07-05 2018-10-23 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health of employees using mobile devices
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
US9229613B2 (en) * 2012-02-01 2016-01-05 Facebook, Inc. Transitions among hierarchical user interface components
US9535596B2 (en) * 2012-07-25 2017-01-03 Facebook, Inc. Three-dimensional gestures

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580248A (ja) * 1991-09-19 1993-04-02 Ricoh Co Ltd オートフオーカス装置
JP2007516026A (ja) * 2003-11-05 2007-06-21 サイキャン・ア・ディビジョン・オブ・ルックス・アンド・ツビンゲンベルガー・リミテッド 処理される器具の管理システム
JP2005190283A (ja) * 2003-12-26 2005-07-14 Nec Access Technica Ltd 情報入力装置
JP2008506188A (ja) * 2004-07-09 2008-02-28 ジェスチャーラド インコーポレイテッド ジェスチャ・ベース報告方法およびシステム
JP2006043209A (ja) * 2004-08-05 2006-02-16 U Production:Kk 外科手術の動画記録装置
JP2008259661A (ja) * 2007-04-12 2008-10-30 Toshiba Corp 検査情報処理システム及び検査情報処理装置

Also Published As

Publication number Publication date
CN103677254A (zh) 2014-03-26
US8907914B2 (en) 2014-12-09
CN103677254B (zh) 2018-01-09
US20140062851A1 (en) 2014-03-06
JP6609343B2 (ja) 2019-11-20
JP2014049125A (ja) 2014-03-17

Similar Documents

Publication Publication Date Title
JP6609343B2 (ja) 手順を文書記録する方法及び装置
US11003349B2 (en) Actionable content displayed on a touch screen
US10866785B2 (en) Equal access to speech and touch input
CN104252861B (zh) 视频语音转换方法、装置和服务器
WO2012135218A2 (en) Combined activation for natural user interface systems
US20130332804A1 (en) Methods and devices for data entry
KR20170037957A (ko) 스프레드시트의 데이터세트를 폼 기반 뷰 내에 표현하는 기법
US20140013192A1 (en) Techniques for touch-based digital document audio and user interface enhancement
CN104461348B (zh) 信息选取方法及装置
WO2018175235A1 (en) Media message creation with automatic titling
CN113901186A (zh) 电话录音标注方法、装置、设备及存储介质
JP5698355B2 (ja) ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体
JP6095553B2 (ja) 情報表示装置、方法及びプログラム
WO2014120383A1 (en) Smart interactive bookmarks
Campbell Tools and resources for visualising conversational-speech interaction
EP2458513A1 (en) Note management methods and systems
EP2672379A1 (en) Method and device for data entry
US20160162446A1 (en) Electronic device, method and storage medium
TWI387888B (zh) Windows detection system
JP2022142374A (ja) 音声認識システム、音声認識方法およびプログラム
JP2022108803A (ja) 音声認識システム、音声認識方法およびプログラム
KR101464739B1 (ko) 가상 콘트롤 출력 지원 기반의 터치스크린 장치 및 상기 터치스크린 장치의 가상 콘트롤 출력 지원 방법
JP2022163217A (ja) 映像コンテンツに対する合成音のリアルタイム生成を基盤としたコンテンツ編集支援方法およびシステム
TW201502959A (zh) 強化的畫布環境
JP6207260B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190424

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191025

R150 Certificate of patent or registration of utility model

Ref document number: 6609343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250