JP2006107283A - Document creating apparatus, document creating method, and document creating program - Google Patents

Document creating apparatus, document creating method, and document creating program Download PDF

Info

Publication number
JP2006107283A
JP2006107283A JP2004295294A JP2004295294A JP2006107283A JP 2006107283 A JP2006107283 A JP 2006107283A JP 2004295294 A JP2004295294 A JP 2004295294A JP 2004295294 A JP2004295294 A JP 2004295294A JP 2006107283 A JP2006107283 A JP 2006107283A
Authority
JP
Japan
Prior art keywords
command
face
character string
pattern
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004295294A
Other languages
Japanese (ja)
Inventor
Jiro Matsuno
二朗 松野
Kenichi Niwa
賢一 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2004295294A priority Critical patent/JP2006107283A/en
Publication of JP2006107283A publication Critical patent/JP2006107283A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To assist correction of a result of character input or character input itself without changing a holding position of a microphone or a pen. <P>SOLUTION: First, a face picked up image of an operator picked up by an imaging camera 138 is acquired (step S11), a movement pattern of the face is recognized from the face image (step S12), and the recognition pattern is compared and collated with a pattern in a database DB1 (step S13). When a coincident pattern is detected as a result of comparison collation (step S14), the command is read and comparison-collation is performed with a command in a database DB2 (step S15). It is decided if the command exists (step S16), when it is not detected, an error is displayed (step S17), and when it is detected, an edit operation command corresponding to it is read and outputted (step S18). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えば医用レポート作成装置に用いられ、文書入力操作をキーボードやマウス等の手入力操作によらずに実現可能とする文書作成装置、文書作成方法及び文書作成プログラムに関する。   The present invention relates to a document creation apparatus, a document creation method, and a document creation program that are used in, for example, a medical report creation apparatus, and that enable document input operations to be realized without manual input operations such as a keyboard and a mouse.

従来から、医療行為の専門分野が細分化され、レントゲン、MRI等の画像診断装置で撮影した医用画像の読影を専門医に依頼することが広く行われている。このような読影依頼に際し、専門医は読影対象の画像を表示させて、その結果を報告書(レポート)にまとめ、依頼元に渡す処置を行う。   Conventionally, the specialized field of medical practice has been subdivided, and it has been widely performed to request a specialist to interpret a medical image taken by an image diagnostic apparatus such as an X-ray or MRI. At the time of such an interpretation request, the specialist displays the image to be interpreted, summarizes the result into a report (report), and performs a process of passing it to the requester.

既に、この医用レポートの作成を電子的に行う装置が実用化されている。この装置では、例えば読影依頼元からネットワーク配信等によって渡される医用画像をいったん蓄積し、レポートシートを画面表示して、そのシート上に必要な項目を入力する。そして、読影対象の画像を順次表示させ、その画像の所見をシート内の所見記入欄へ、画像所見を元に、読影依頼元での検査目的を考慮した診断結果を診断記入欄へ書き込む。所見で指摘する画像については、必要に応じて縮小/拡大画像または切り出し画像を作成し、画像添付欄等に貼り付ける。以上の手順によって作成された医用レポートのシートデータは、例えばネットワークを通じて読影依頼元に渡される。   An apparatus for electronically creating a medical report has already been put into practical use. In this apparatus, for example, medical images delivered from an interpretation request source by network distribution or the like are temporarily accumulated, a report sheet is displayed on the screen, and necessary items are input on the sheet. Then, the images to be interpreted are sequentially displayed, and the findings of the images are written in the finding entry column in the sheet, and based on the image findings, the diagnosis result considering the inspection purpose at the interpretation request source is written in the diagnosis entry column. For the image pointed out in the findings, a reduced / enlarged image or a cut-out image is created as necessary and pasted in an image attachment field or the like. The sheet data of the medical report created by the above procedure is transferred to the interpretation request source through a network, for example.

ところで、上記のような従来の医用レポート作成装置では、文書作成時に、文字の入力操作において、一般的なキーボード入力に加え、音声入力、ペン入力などの各種デバイスが提供されている。従来から標準的に用いられているキーボード以外の音声入力、ペン入力等の新しいデバイスを用いるユーザも増えてきているが、いざ文書編集のための修正となると、マイク/ペンからキーボード/マウスへ持ち替えて行っているユーザがほとんどである。   By the way, in the conventional medical report creation apparatus as described above, various devices such as voice input and pen input are provided in addition to general keyboard input in character input operation at the time of document creation. The number of users who use new devices such as voice input and pen input other than the standard keyboard that has been used in the past is increasing, but when it comes to editing for document editing, switch from microphone / pen to keyboard / mouse. Most users are

このように、マイク/ペンからキーボードへの持ち替えは、医師が連続して所見を入力する際の手間を増やすこととなり、音声入力/ペン入力の使用が広く普及することを妨げる一因となっている。また、音声による修正(例えば「いちもじさくじょ」と発声すると1文字削除する(キーボードのバックスペース押下に相当)コマンド等)も検討されているが、現時点で実用的と言われる域には達していない。   As described above, switching from the microphone / pen to the keyboard increases the time and effort required for doctors to continuously input findings, which is one factor that hinders the widespread use of voice input / pen input. Yes. In addition, voice correction (for example, a command to delete one character (equivalent to pressing the backspace on the keyboard) when you say “Ichimoji Sakujo”, etc.) is also being considered. Not reached.

尚、特許文献1には、キーボードを使用しながらマウスのようなポインティングデバイスを併用することの煩わしさを軽減するために、高度なGUIを構築することが可能となる人物顔動作検出方式について開示されている。   Patent Document 1 discloses a human face motion detection method capable of constructing an advanced GUI in order to reduce the inconvenience of using a pointing device such as a mouse while using a keyboard. Has been.

この方式によれば、人物の顔画像から人物の注目方向を抽出すると共に、顔内部の部品の特定の変化を検出して予め指定される操作コマンドとの対応を判定し、注目方向と判定結果の操作コマンドとをポインティングデバイスの代わりを果たすことができる。しかしながら、この文献の記載では、具体的に注目方向と操作コマンド判定結果を使用したときの例が記載されておらず、上記のような医用レポート作成に対して単純に活用することはできない。
特開平09−305743号公報
According to this method, the attention direction of the person is extracted from the face image of the person, and the correspondence with the operation command specified in advance is determined by detecting a specific change in the part inside the face, and the attention direction and the determination result The operation command can be used instead of a pointing device. However, the description in this document does not specifically describe an example in which the attention direction and the operation command determination result are used, and cannot simply be used for the above-described medical report creation.
JP 09-305743 A

以上述べたように、従来の医用レポート作成装置に代表される文書作成装置では、文書そのもののテキストは音声やペンによる入力が普及しつつも、編集作業ではキーボードやマウスを利用するといった、従前のGUI環境で処理している場合が多い。   As described above, in the document creation apparatus represented by the conventional medical report creation apparatus, the text of the document itself is widely used for voice and pen input, but the editing work uses a keyboard and a mouse. In many cases, processing is performed in a GUI environment.

本発明は上記の問題を解決し、マイクやペンを持ち替えることなく、あるいは、キーボードのみを使用する環境に於いても文字入力した結果の修正、あるいは文字入力そのものを補助することのできる文書作成装置、文書作成方法及び文書作成プログラムを提供することを目的とする。   SUMMARY OF THE INVENTION The present invention solves the above-described problems, and makes it possible to correct the result of character input or assist the character input itself without changing the microphone and pen, or even in an environment where only the keyboard is used. An object is to provide a document creation method and a document creation program.

上記の課題を解決するために、本発明に係る文書作成装置は、文字入力操作を受け付ける文字入力デバイスと、前記文字入力デバイスの文字入力操作に応答して文字列を生成する文字列生成部と、操作者の顔を撮像するための撮像カメラと、前記撮像カメラにより撮像される顔画像から顔の動きパターンを認識する動き認識部と、予め複数の顔の動きパターンとコマンドの対応関係が登録された第1のデータベースを備え、前記動き認識部にて認識した顔の動きパターンに相当するパターンを前記第1のデータベースから検索して当該パターンに対応するコマンドを推論するコマンド推論部と、予め前記コマンド推論部が推論するコマンドと前記文字列の編集操作命令との対応関係が登録される第2のデータベースを備え、前記第2のデータベースを参照して前記コマンド推論部の推論コマンドに対応する前記文字列の編集操作命令を読み出し出力する命令出力部とを具備し、前記文字列生成部で生成される文字列と前記命令出力部から出力される編集操作命令に基づいて文書ファイルを作成することを特徴とする。   In order to solve the above problems, a document creation apparatus according to the present invention includes a character input device that accepts a character input operation, and a character string generation unit that generates a character string in response to the character input operation of the character input device. An imaging camera for imaging the face of the operator, a motion recognition unit for recognizing a facial motion pattern from a facial image captured by the imaging camera, and correspondence relationships between a plurality of facial motion patterns and commands in advance A command inference unit that retrieves a pattern corresponding to the facial motion pattern recognized by the motion recognition unit from the first database and infers a command corresponding to the pattern; A second database in which a correspondence relationship between the command inferred by the command reasoning unit and the character string editing operation command is registered; A command output unit that reads out and outputs the edit operation command for the character string corresponding to the inference command of the command inference unit with reference to the command source, and the character string generated by the character string generation unit and the command output A document file is created based on an editing operation command output from the section.

また、本発明に係る文書作成方法は、文字入力デバイスの文字入力操作に応答して文字列を生成する文字列生成過程と、操作者の顔を撮像カメラで撮像する撮像過程と、前記撮像過程により撮像される顔画像から顔の動きパターンを認識する動き認識過程と、予め複数の顔の動きパターンとコマンドの対応関係が登録された第1のデータベースを参照して、前記動き認識過程にて認識された顔の動きパターンに相当するパターンを検索し当該パターンに対応するコマンドを推論するコマンド推論過程と、予め前記コマンド推論過程が推論するコマンドと前記文字列の編集操作命令との対応関係が登録される第2のデータベースを参照して、前記コマンド推論過程の推論コマンドに対応する前記文字列の編集操作命令を読み出し出力する命令出力過程とを具備し、前記文字列生成過程で生成される文字列と前記命令出力過程から出力される編集操作命令に基づいて文書ファイルを作成することを特徴とする。   The document creation method according to the present invention includes a character string generation process for generating a character string in response to a character input operation of a character input device, an imaging process for capturing an operator's face with an imaging camera, and the imaging process. A motion recognition process for recognizing a face motion pattern from a face image captured by the image processing method, and a first database in which correspondence relationships between a plurality of face motion patterns and commands are registered in advance. A command inference process for retrieving a pattern corresponding to the recognized facial motion pattern and inferring a command corresponding to the pattern, and a correspondence relationship between the command inferred in advance by the command inference process and the character string editing operation instruction With reference to the second database to be registered, a command output for reading out and outputting the character string editing operation command corresponding to the inference command in the command inference process ; And a process, characterized in that to create the document file based on the editing operation instruction is output string generated by the character string generation step from said instruction output process.

また、本発明に係る文書作成プログラムは、文字入力デバイスの文字入力操作に応答して文字列を生成する文字列生成ステップと、操作者の顔を撮像カメラで撮像する撮像ステップと、前記撮像ステップにより撮像される顔画像から顔の動きパターンを認識する動き認識ステップと、予め複数の顔の動きパターンとコマンドの対応関係が登録された第1のデータベースを参照して、前記動き認識ステップにて認識された顔の動きパターンに相当するパターンを検索し当該パターンに対応するコマンドを推論するコマンド推論ステップと、予め前記コマンド推論ステップが推論するコマンドと前記文字列の編集操作命令との対応関係が登録される第2のデータベースを参照して、前記コマンド推論ステップの推論コマンドに対応する前記文字列の編集操作命令を読み出し出力する命令出力ステップとを具備し、前記文字列生成ステップで生成される文字列と前記命令出力過程から出力される編集操作命令に基づいて文書ファイルを作成することを特徴とする。   The document creation program according to the present invention includes a character string generation step of generating a character string in response to a character input operation of a character input device, an imaging step of imaging an operator's face with an imaging camera, and the imaging step A motion recognition step for recognizing a face motion pattern from the face image captured by the step, and a first database in which correspondence relationships between a plurality of face motion patterns and commands are registered in advance. A command inference step for retrieving a pattern corresponding to the recognized facial motion pattern and inferring a command corresponding to the pattern, and a correspondence relationship between the command inferred in advance by the command inference step and the character string editing operation instruction The character string corresponding to the inference command of the command inference step with reference to the registered second database A command output step for reading and outputting an editing operation command, and creating a document file based on the character string generated in the character string generation step and the editing operation command output from the command output process, To do.

すなわち、本発明の特徴とする点は、撮像カメラを用いて操作者の顔を撮像し、撮像した顔画像から顔の動きパターンを検出して、予め登録されたパターン−コマンド・データベースから該当するコマンドを推論し、推論コマンド−編集操作命令・データベースから推論コマンドに対応する編集操作命令を出力するようにして、顔の動きだけで文字列の編集を可能としたことにある。   That is, the feature of the present invention is that the operator's face is imaged using an imaging camera, the face motion pattern is detected from the captured face image, and the pattern-command database registered in advance corresponds. A command is inferred, and an edit operation command corresponding to the inference command is output from the inference command-edit operation command / database, thereby enabling editing of a character string only by the movement of a face.

上記構成によれば、マイクやペンを持ち替えることなく、あるいは、キーボードのみを使用する環境に於いても文字入力した結果の修正、あるいは文字入力そのものを補助することのできる文書作成装置、文書作成方法及び文書作成プログラムを提供することができる。   According to the above configuration, the document creation apparatus and the document creation method that can correct the result of character input or assist the character input without changing the microphone or pen or in an environment where only the keyboard is used. And a document creation program can be provided.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明に係る文書作成装置が適用される医用レポート作成装置、医用レポート再生装置を含む病院情報システム(HIS)の構成を示すブロック図である。図1において、11はネットワークであり、このネットワーク11には、医用画像、医用レポートを含む医療情報を共有化するための医療情報サーバ12と、例えば放射線課読影室に設置され、依頼された読影画像に対する医用レポートを作成する医用レポート作成装置13と、内科、外科等の各診療室に設置され、上記医用レポートを受け取って適宜再生可能な医用レポート参照装置14とが接続されており、相互に情報通信が可能となっている。   FIG. 1 is a block diagram showing a configuration of a hospital information system (HIS) including a medical report creation apparatus to which a document creation apparatus according to the present invention is applied and a medical report reproduction apparatus. In FIG. 1, reference numeral 11 denotes a network. In this network 11, a medical information server 12 for sharing medical information including medical images and medical reports, and for example, a radiogram interpretation room, requested for interpretation. A medical report creation device 13 that creates a medical report for an image is connected to a medical report reference device 14 that is installed in each medical office such as internal medicine and surgery, and that can receive the medical report and reproduce it appropriately. Information communication is possible.

尚、詳細は図示しないが、本実施形態において、上記医療情報サーバ12には、HISサーバ、画像ファイルサーバ、レポートシステムサーバが含まれているものとする。また、医用レポート参照装置14は、医用レポート専用装置でもよいが、例えば各診療室に設置させている電子カルテシステムの端末を利用することも可能である。   Although not shown in detail, in the present embodiment, the medical information server 12 includes an HIS server, an image file server, and a report system server. The medical report reference device 14 may be a medical report dedicated device, but it is also possible to use, for example, a terminal of an electronic medical record system installed in each clinic.

上記医用レポート作成装置13は、図2に示すように、ネットワーク11に接続されるワークステーション装置131を備える。このワークステーション装置131には、入力装置としてキーボード132、マウス133が接続され、表示装置としてレポートモニタ装置134、参照情報モニタ装置135を備える。参照情報モニタ装置135には、一度に多数の参照情報をモニタできるように、マルチディスプレイが望ましい。また、本発明によって付加される入力デバイスとして、マイクロホン136、タブレット(ペン入力)137、撮像カメラ138が装備されている。   The medical report creation apparatus 13 includes a workstation apparatus 131 connected to the network 11 as shown in FIG. The workstation device 131 is connected to a keyboard 132 and a mouse 133 as input devices, and includes a report monitor device 134 and a reference information monitor device 135 as display devices. The reference information monitor device 135 is preferably a multi-display so that a large number of reference information can be monitored at a time. Further, as input devices added by the present invention, a microphone 136, a tablet (pen input) 137, and an imaging camera 138 are provided.

上記ワークステーション装置131は、図3に示すように、情報処理プロセッサ13A、通信ポート13B、作業用に情報を格納するためのストレージユニット13C、キーボード132及びマウス133の入力操作に対応した指示情報を受け付ける入力インターフェース部13D、レポートモニタ装置134及び参照情報モニタ装置135にそれぞれモニタ表示情報を出力する出力インターフェース部13Eを備える。尚、上記ストレージユニット13Cにはキャッシュメモリを用いられるが、ハードディスク装置を併用するようにしてもよい。   As shown in FIG. 3, the workstation device 131 receives instruction information corresponding to input operations of the information processing processor 13A, the communication port 13B, the storage unit 13C for storing information for work, the keyboard 132, and the mouse 133. An input interface unit 13D, an output interface unit 13E that outputs monitor display information to the report monitor device 134 and the reference information monitor device 135 are provided. Note that a cache memory is used for the storage unit 13C, but a hard disk device may be used in combination.

上記情報処理プロセッサ13Aは、通信ポート13Bを通じて医療情報サーバ12から所見作成で参照するための画像、過去の医用レポート、履歴情報等のコンテンツを読み出し、ストレージユニット13Cに格納しておく。また、情報処理プロセッサ13Aは、アプリケーションとして、種々のコンテンツをモニタし、拡大、縮小、切り出し等の編集を行うコンテンツ表示・編集プログラムA1、医用レポートの電子ファイルを作成・編集するためのレポートファイル作成・編集プログラムA2、リンク付け処理プログラムA3、ネットワーク管理プログラムA4を備え、電源投入及びオペレータの指示入力に従ってプログラムを選択し実行する。   The information processing processor 13A reads contents such as images, past medical reports, history information, and the like for reference in creating findings from the medical information server 12 through the communication port 13B, and stores them in the storage unit 13C. Further, the information processing processor 13A monitors various contents as an application, and displays a content display / editing program A1 for editing such as enlargement, reduction, clipping, and report file creation for creating and editing an electronic file of a medical report. An editing program A2, a link processing program A3, and a network management program A4 are provided, and a program is selected and executed in accordance with power-on and operator instruction input.

図4は、上記構成による医用レポート作成装置13において、情報処理プロセッサ13Aに搭載されるレポートファイル作成・編集プログラムA2に本発明を適用した場合の文書作成機能の具体的な構成を示すブロック図であり、図5はその処理の流れを示すフローチャートである。   FIG. 4 is a block diagram showing a specific configuration of the document creation function when the present invention is applied to the report file creation / editing program A2 installed in the information processing processor 13A in the medical report creation apparatus 13 having the above configuration. FIG. 5 is a flowchart showing the processing flow.

本発明の装置では、レポートモニタ装置134の前に操作者が座り、文書作成を行う。入力の途中、操作者が左を向けば削除、右を向けばスペースの追加などのルールをデータベースに登録しておき、操作者の顔の動きに併せて文書の入力/修正の補助機能とする。   In the apparatus of the present invention, an operator sits in front of the report monitor apparatus 134 and creates a document. In the middle of input, rules such as deletion if the operator turns to the left and addition of space if the operator turns to the right are registered in the database, and it is used as an auxiliary function for document input / correction according to the movement of the operator's face. .

まず、情報処理プロセッサ13Aのレポートファイル作成・編集プログラムA2は、図4に示すように、文字列作成部A20、動き認識部A21、コマンド推論部A22、命令出力部A23を備える。   First, the report file creation / editing program A2 of the information processing processor 13A includes a character string creation unit A20, a motion recognition unit A21, a command inference unit A22, and an instruction output unit A23, as shown in FIG.

文字列作成部A20は、上記マイクロホン136による音声認識入力、タブレット137のペンによる文字入力等の入力デバイスの文字入力操作に応答して文字列を生成する。ここでは既存の入力デバイス(キーボード、マウス)の不使用を目的としているが、場合によって併用することも可能である。   The character string creating unit A20 generates a character string in response to a character input operation of the input device such as voice recognition input by the microphone 136 and character input by the pen of the tablet 137. Although the purpose here is not to use an existing input device (keyboard, mouse), it may be used in some cases.

動き認識部A21は、撮像カメラ138により撮像される操作者の顔画像から顔の動きパターンを認識する。認識の方法として、例えば顔の特徴となる部位(目、鼻、口など)を抽出し、各部位間の比率から、顔が正面方向からどの方向にどの程度向けられているかを順次判別し、その顔が向いている方向の変化を動きとして認識する方法が考えられる。この際、動きをある程度パターン化する。例えば、斜めの動きは無視し、上下左右のみの動きとその組み合わせのパターンを認識する。また、移動量、移動後の継続時間を動きパターンの要素としてもよい。   The motion recognition unit A21 recognizes a facial motion pattern from the operator's face image captured by the imaging camera 138. As a recognition method, for example, a part that is a feature of the face (eyes, nose, mouth, etc.) is extracted, and from the ratio between each part, it is sequentially determined how much the face is directed from the front direction, A method of recognizing a change in the direction in which the face is facing as a motion is conceivable. At this time, the movement is patterned to some extent. For example, it ignores diagonal movements and recognizes only vertical and horizontal movements and patterns of combinations thereof. Further, the movement amount and the duration after the movement may be used as elements of the movement pattern.

コマンド推論部A22は、予め複数の顔の動きパターンとコマンドの対応関係が登録されたデータベースDB1を備え、動き認識部A21にて認識した顔の動きパターンに相当するパターンをデータベースDB1から検索して当該パターンに対応するコマンドを推論する。   The command reasoning unit A22 includes a database DB1 in which correspondence relationships between a plurality of face motion patterns and commands are registered in advance, and searches the database DB1 for a pattern corresponding to the face motion pattern recognized by the motion recognition unit A21. Infer a command corresponding to the pattern.

命令出力部A23は、予めコマンド推論部A22が推論するコマンドと文字列の編集操作命令との対応関係が登録されるデータベースDB2を備え、このデータベースDB2を参照してコマンド推論部A22の推論コマンドに対応する文字列の編集操作命令を読み出し出力する。命令には、例えば文字列入力の開始命令、前記文字列の削除、改行、インデント、バックスペース、スペース挿入等がある。   The command output unit A23 includes a database DB2 in which a correspondence relationship between a command inferred by the command reasoning unit A22 and a character string editing operation command is registered in advance, and an inference command of the command reasoning unit A22 is referred to the database DB2. Reads and outputs the editing operation command for the corresponding character string. The commands include, for example, a character string input start command, deletion of the character string, line feed, indentation, backspace, and space insertion.

上記構成によるレポートファイル作成・編集プログラムA2では、図5に示すように、まず撮像カメラ138で撮像される操作者の顔撮像を取得して(ステップS11)、この顔画像から顔の動きパターンを認識し(ステップS12)、認識パターンをデータベースDB1中のパターンと比較し照合する(ステップS13)、比較照合の結果、一致するパターンが検出された場合には(ステップS14)、該当するコマンドを読み出してデータベースDB2中のコマンドと比較照合する(ステップS15)。該当するコマンドがあるか判断し(ステップS16)、検出されない場合にはエラーを表示し(ステップS17)、検出された場合にはそれに対応する編集操作命令を読み出し出力する(ステップS18)。   In the report file creation / editing program A2 having the above-described configuration, as shown in FIG. 5, first, an image of the operator's face imaged by the imaging camera 138 is acquired (step S11), and a facial motion pattern is obtained from the face image. Recognize (step S12), compare the recognition pattern with the pattern in the database DB1 (step S13), and if a matching pattern is detected as a result of the comparison (step S14), read the corresponding command. Then, it is compared with the command in the database DB2 (step S15). It is determined whether there is a corresponding command (step S16). If it is not detected, an error is displayed (step S17). If it is detected, an editing operation command corresponding to it is read and output (step S18).

以下、顔の動きパターンから推論されるコマンドと編集操作命令との関係を例示する。   Hereinafter, the relationship between the command inferred from the face movement pattern and the editing operation command will be exemplified.

(1)右に動いたと判別された推論コマンドに対し、スペースを挿入する命令を出力する。右を向いた量または時間を判定して、スペースを挿入する文字数を調整する。   (1) In response to an inference command determined to have moved to the right, an instruction to insert a space is output. Adjust the number of characters to insert a space by judging the amount or time facing right.

(2)左を向いたと判別された推論コマンドに対し、一文字削除の命令を出力する。左を向いた量または時間を判定して、削除する文字数を調整する。   (2) In response to the inference command determined to have turned to the left, an instruction to delete one character is output. Determine the amount or time facing left and adjust the number of characters to delete.

(3)顔が正面を向いている時には音声入力開始、他を向いているときは音声入力終了という設定とする。一般に、音声入力を開始するためにはキーボードのCTRLキーなどを押しているが、これにより、キーボードを使う必要が全くなくなる。   (3) The voice input is started when the face is facing the front, and the voice input is finished when the face is facing the other. In general, you can press the CTRL key on the keyboard to start typing, but this eliminates the need to use the keyboard.

(4)下を向いてから左を向くというパターンを認識した場合には、改行を挿入する。   (4) Insert a line feed when recognizing a pattern of facing down and then facing left.

以上のように、本発明に係る文書作成機能によれば、例えば音声認識により所見情報の入力を行い、所見入力画面で所見を入力中に顔を左へ向ける動作を行うと、その左へ顔を向ける動作に合わせて、入力された所見情報を削除する。顔の動きに連動して削除する量が変わるように、顔の動き検出手段から出力される角度情報が所定の値を越えて左へ向けられた時に削除を開始し、顔が動いている順次文字を削除していく。ここで、操作者が席を立つ場合等に、誤って所見が削除されないような条件を加える。誤って削除するのを防ぐため、顔を真横に振った場合のみ削除、顔を斜めに動かした場合は削除しない、といったルールを決めておく。   As described above, according to the document creation function according to the present invention, for example, when finding information is input by voice recognition and the face is turned to the left while inputting a finding on the finding input screen, the face is turned to the left. The input finding information is deleted in accordance with the action of turning. Deletion starts when the angle information output from the face motion detection means is directed to the left beyond a predetermined value so that the amount to be deleted is linked to the movement of the face. Delete characters. Here, a condition is added so that the findings are not accidentally deleted when the operator stands. In order to prevent accidental deletion, a rule is set such that deletion is performed only when the face is shaken sideways, and deletion is not performed when the face is moved diagonally.

本発明によれば、従来、キーボード以外のデバイスにて文書を入力する際、修正するためには、そのデバイスからキーボードへの持ち替えを余儀なくされてきたが、上記の機能を有することにより、修正時にデバイスを持ち替える必要が無く、実質的な文書入力時間の削減を図ることができる。特に音声認識と顔の動きを合わせて所見入力を行うことにより、良好な操作性が得られる。   According to the present invention, when inputting a document using a device other than the keyboard, the device has been forced to be switched from the device to the keyboard. There is no need to change the device, and the document input time can be substantially reduced. In particular, good operability can be obtained by inputting findings while combining voice recognition and facial movement.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明に係る医用レポート作成装置、医用レポート参照装置を含む病院情報システム(HIS)の構成を示すブロック図。1 is a block diagram showing a configuration of a hospital information system (HIS) including a medical report creation device and a medical report reference device according to the present invention. 本発明に係る医用レポート作成装置、医用レポート参照装置の基本的な構成を示すブロック図。1 is a block diagram showing a basic configuration of a medical report creation apparatus and a medical report reference apparatus according to the present invention. 本発明に係る医用レポート作成装置の一実施形態を示すブロック図。1 is a block diagram showing an embodiment of a medical report creation apparatus according to the present invention. 上記医用レポート作成装置の情報処理プロセッサに搭載されるレポートファイル作成・編集プログラムに本発明を適用した場合の文書作成機能の具体的な構成を示すブロック図。The block diagram which shows the specific structure of the document preparation function at the time of applying this invention to the report file preparation / editing program mounted in the information processing processor of the said medical report preparation apparatus. 図4に示す文書作成機能の処理の流れを示すフローチャート。5 is a flowchart showing the flow of processing of the document creation function shown in FIG.

符号の説明Explanation of symbols

11…ネットワーク、12…医療情報サーバ、13…医用レポート作成装置、14…医用レポート参照装置、
131…ワークステーション装置、132…キーボード、133…マウス、134…レポートモニタ装置、135…参照情報モニタ装置、136…マイクロホン、137…タブレット(ペン入力)、138…撮像カメラ、
13A…情報処理プロセッサ、13B…通信ポート、13C…ストレージユニット、13D…入力インターフェース部、13E…出力インターフェース部、
A1…コンテンツ表示・編集プログラム、A2…レポートファイル作成・編集プログラム、A3…リンク付け処理プログラム、A4…ネットワーク管理プログラム、
A20…文字列作成部、A21…動き認識部、A22…コマンド推論部、A23…命令出力部、DB1…パターン−コマンドデータベース、DB2…コマンド−命令データベース。
DESCRIPTION OF SYMBOLS 11 ... Network, 12 ... Medical information server, 13 ... Medical report production apparatus, 14 ... Medical report reference apparatus,
131 ... workstation device, 132 ... keyboard, 133 ... mouse, 134 ... report monitor device, 135 ... reference information monitor device, 136 ... microphone, 137 ... tablet (pen input), 138 ... imaging camera,
13A ... Information processing processor, 13B ... Communication port, 13C ... Storage unit, 13D ... Input interface unit, 13E ... Output interface unit,
A1 ... Contents display / editing program, A2 ... Report file creation / editing program, A3 ... Linking processing program, A4 ... Network management program,
A20 ... Character string creation unit, A21 ... Motion recognition unit, A22 ... Command reasoning unit, A23 ... Command output unit, DB1 ... Pattern-command database, DB2 ... Command-command database.

Claims (11)

文字入力操作を受け付ける文字入力デバイスと、
前記文字入力デバイスの文字入力操作に応答して文字列を生成する文字列生成部と、
操作者の顔を撮像するための撮像カメラと、
前記撮像カメラにより撮像される顔画像から顔の動きパターンを認識する動き認識部と、
予め複数の顔の動きパターンとコマンドの対応関係が登録された第1のデータベースを備え、前記動き認識部にて認識した顔の動きパターンに相当するパターンを前記第1のデータベースから検索して当該パターンに対応するコマンドを推論するコマンド推論部と、
予め前記コマンド推論部が推論するコマンドと前記文字列の編集操作命令との対応関係が登録される第2のデータベースを備え、前記第2のデータベースを参照して前記コマンド推論部の推論コマンドに対応する前記文字列の編集操作命令を読み出し出力する命令出力部とを具備し、
前記文字列生成部で生成される文字列と前記命令出力部から出力される編集操作命令に基づいて文書ファイルを作成することを特徴とする文書作成装置。
A character input device that accepts character input operations;
A character string generation unit that generates a character string in response to a character input operation of the character input device;
An imaging camera for imaging the operator's face;
A motion recognition unit for recognizing a facial motion pattern from a face image captured by the imaging camera;
A first database in which correspondence relations between a plurality of facial motion patterns and commands are registered in advance; a pattern corresponding to the facial motion pattern recognized by the motion recognition unit is searched from the first database; A command inference section for inferring commands corresponding to patterns;
A second database in which a correspondence relationship between the command inferred by the command inference unit and the character string editing operation instruction is registered in advance, and the inference command of the command inference unit is supported by referring to the second database An instruction output unit that reads and outputs the editing operation instruction of the character string,
A document creation apparatus that creates a document file based on a character string generated by the character string generation unit and an editing operation command output from the command output unit.
前記動き認識部は、前記顔画像から前記顔の特定方向からの移動方向を検出し、当該移動方向を顔の動きパターンの要素とすることを特徴とする請求項1記載の文書作成装置。   The document creation apparatus according to claim 1, wherein the movement recognition unit detects a movement direction of the face from a specific direction from the face image, and uses the movement direction as an element of a movement pattern of the face. 前記動き認識部は、上下左右の方向または各方向の連続動作をそれぞれ前記顔の動きパターンとして認識し、斜めの動きパターンの受け付けを排除することを特徴とする請求項1記載の文書作成装置。   The document creation apparatus according to claim 1, wherein the movement recognition unit recognizes a vertical movement, a horizontal movement, or a continuous movement in each direction as the movement pattern of the face, and excludes acceptance of an oblique movement pattern. 前記動き認識部は、前記顔画像から前記顔の特定方向からの移動量を検出し、当該移動量を顔の動きパターンの要素とすることを特徴とする請求項1記載の文書作成装置。   The document creation apparatus according to claim 1, wherein the motion recognition unit detects a movement amount of the face from a specific direction from the face image, and uses the movement amount as an element of a face movement pattern. 前記動き認識部は、前記顔画像から前記顔の特定方向から所定方向に移動させた時間を検出し、当該時間を顔の動きパターンの要素とすることを特徴とする請求項1記載の文書作成装置。   2. The document creation according to claim 1, wherein the motion recognition unit detects a time when the face is moved in a predetermined direction from a specific direction of the face from the face image, and uses the time as an element of a face motion pattern. apparatus. 前記文字入力デバイスは、音声認識装置、または手書き文字認識装置であることを特徴とする請求項1記載の文書作成装置。   The document creating apparatus according to claim 1, wherein the character input device is a voice recognition device or a handwritten character recognition device. 前記命令出力手段は、前記編集操作命令に、前記文字列入力の開始命令、前記文字列の削除、改行、インヒデント、バックスペース、スペース挿入の少なくともいずれかを含むことを特徴とする請求項1乃至3、6記載のいずれか記載の文書作成装置。   The command output means includes the editing operation command including at least one of a start command of the character string input, a deletion of the character string, a line feed, an inhibit, a back space, and a space insertion. The document creation device according to any one of 3 and 6. 前記命令出力手段は、前記編集操作命令として、前記移動量相当で削除する文字数または挿入するスペース数を調整する命令を生成出力することを特徴とする請求項4記載の文書作成装置。   5. The document creation apparatus according to claim 4, wherein the command output means generates and outputs a command for adjusting the number of characters to be deleted or the number of spaces to be inserted as the editing operation command. 前記命令出力手段は、前記編集操作命令として、前記移動された時間相当で削除する文字数または挿入するスペース数を調整する命令を生成出力することを特徴とする請求項5記載の文書作成装置。   6. The document creation apparatus according to claim 5, wherein the command output means generates and outputs a command for adjusting the number of characters to be deleted or the number of spaces to be inserted as the editing operation command. 文字入力デバイスの文字入力操作に応答して文字列を生成する文字列生成過程と、
操作者の顔を撮像カメラで撮像する撮像過程と、
前記撮像過程により撮像される顔画像から顔の動きパターンを認識する動き認識過程と、
予め複数の顔の動きパターンとコマンドの対応関係が登録された第1のデータベースを参照して、前記動き認識過程にて認識された顔の動きパターンに相当するパターンを検索し当該パターンに対応するコマンドを推論するコマンド推論過程と、
予め前記コマンド推論過程が推論するコマンドと前記文字列の編集操作命令との対応関係が登録される第2のデータベースを参照して、前記コマンド推論過程の推論コマンドに対応する前記文字列の編集操作命令を読み出し出力する命令出力過程とを具備し、
前記文字列生成過程で生成される文字列と前記命令出力過程から出力される編集操作命令に基づいて文書ファイルを作成することを特徴とする文書作成方法。
A character string generation process for generating a character string in response to a character input operation of a character input device;
An imaging process of imaging an operator's face with an imaging camera;
A motion recognition process for recognizing a face motion pattern from a face image captured by the imaging process;
A pattern corresponding to the face motion pattern recognized in the motion recognition process is searched by referring to a first database in which correspondence relationships between a plurality of face motion patterns and commands are registered in advance, and corresponding to the pattern. Command inference process to infer commands,
The character string editing operation corresponding to the inference command in the command inference process is performed by referring to a second database in which the correspondence relationship between the command inferred by the command inference process and the character string editing operation instruction is registered in advance. An instruction output process for reading out and outputting instructions;
A document creation method, wherein a document file is created based on a character string generated in the character string generation process and an editing operation command output from the command output process.
文書を作成し編集する処理をコンピュータに実行させるための文書作成プログラムであって、
文字入力デバイスの文字入力操作に応答して文字列を生成する文字列生成ステップと、
操作者の顔を撮像カメラで撮像する撮像ステップと、
前記撮像ステップにより撮像される顔画像から顔の動きパターンを認識する動き認識ステップと、
予め複数の顔の動きパターンとコマンドの対応関係が登録された第1のデータベースを参照して、前記動き認識ステップにて認識された顔の動きパターンに相当するパターンを検索し当該パターンに対応するコマンドを推論するコマンド推論ステップと、
予め前記コマンド推論ステップが推論するコマンドと前記文字列の編集操作命令との対応関係が登録される第2のデータベースを参照して、前記コマンド推論ステップの推論コマンドに対応する前記文字列の編集操作命令を読み出し出力する命令出力ステップとを具備し、
前記文字列生成ステップで生成される文字列と前記命令出力過程から出力される編集操作命令に基づいて文書ファイルを作成することを特徴とする文書作成プログラム。
A document creation program for causing a computer to execute processing for creating and editing a document,
A character string generation step for generating a character string in response to a character input operation of the character input device;
An imaging step of imaging an operator's face with an imaging camera;
A motion recognition step for recognizing a face motion pattern from the face image captured by the imaging step;
A pattern corresponding to the facial motion pattern recognized in the motion recognition step is searched by referring to a first database in which correspondence relationships between a plurality of facial motion patterns and commands are registered in advance, and corresponding to the pattern. A command inference step to infer a command;
The character string editing operation corresponding to the inference command of the command inference step is performed by referring to a second database in which the correspondence relationship between the command inferred by the command inference step and the character string editing operation instruction is registered in advance. An instruction output step for reading out and outputting an instruction;
A document creation program for creating a document file based on the character string generated in the character string generation step and the editing operation command output from the command output process.
JP2004295294A 2004-10-07 2004-10-07 Document creating apparatus, document creating method, and document creating program Withdrawn JP2006107283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004295294A JP2006107283A (en) 2004-10-07 2004-10-07 Document creating apparatus, document creating method, and document creating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004295294A JP2006107283A (en) 2004-10-07 2004-10-07 Document creating apparatus, document creating method, and document creating program

Publications (1)

Publication Number Publication Date
JP2006107283A true JP2006107283A (en) 2006-04-20

Family

ID=36376930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004295294A Withdrawn JP2006107283A (en) 2004-10-07 2004-10-07 Document creating apparatus, document creating method, and document creating program

Country Status (1)

Country Link
JP (1) JP2006107283A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015942A (en) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc User interface program, device and method, and information processing system
JP2008112360A (en) * 2006-10-31 2008-05-15 Sony Computer Entertainment Inc User interface device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015942A (en) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc User interface program, device and method, and information processing system
JP2008112360A (en) * 2006-10-31 2008-05-15 Sony Computer Entertainment Inc User interface device

Similar Documents

Publication Publication Date Title
US9536046B2 (en) Automated acquisition of facial images
JP2006277167A (en) Annotation data processing program, system and method
US20100174751A1 (en) Method and apparatus for manageing file
JPH11296674A (en) Human body identification management system
JPH09319556A (en) Information processor
US20080240683A1 (en) Method and system to reproduce contents, and recording medium including program to reproduce contents
EP3251055A1 (en) Information processing apparatus and program
US9680659B2 (en) Obtaining, managing and archiving conference data
JPH04333973A (en) Input/output control method for electronic chart
JP2010140164A (en) Operation monitoring method, operation monitoring device, and server
US8219515B2 (en) Visualization of data record physicality
JP2013228800A (en) Information processing apparatus, information processing method and program
US10489049B2 (en) Image processing apparatus, image processing system, and image processing method
JP2007233465A (en) Screen reproduction data generation system, screen reproduction data generation method and computer program
JP4397179B2 (en) Medical image processing system
JP2006107283A (en) Document creating apparatus, document creating method, and document creating program
JP6525523B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
JP2008257530A (en) Electronic pen input data processing system
JP4460311B2 (en) Medical chart creation device and program
JP2009223658A (en) Operation display system and program for the same
JP6122357B2 (en) Information processing apparatus, document synthesis system, information processing method, and program
JP2007025995A (en) Method for managing document information and document processor
JP7240665B2 (en) Information integration device
CN108733637A (en) Information processing equipment and information processing method
JP2007334004A (en) Image projecting device, information processing system, image projecting method, and information processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108