JP2008129961A - Examination result recording program - Google Patents

Examination result recording program Download PDF

Info

Publication number
JP2008129961A
JP2008129961A JP2006316350A JP2006316350A JP2008129961A JP 2008129961 A JP2008129961 A JP 2008129961A JP 2006316350 A JP2006316350 A JP 2006316350A JP 2006316350 A JP2006316350 A JP 2006316350A JP 2008129961 A JP2008129961 A JP 2008129961A
Authority
JP
Japan
Prior art keywords
input
result
voice
examination
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006316350A
Other languages
Japanese (ja)
Inventor
Satoru Nishida
悟 西田
Hiroyuki Tagai
浩行 多貝
Seiji Okubo
誠二 大久保
Yukihiro Endo
幸裕 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CRESCENT ONE CO Ltd
J Morita Corp
Original Assignee
CRESCENT ONE CO Ltd
J Morita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CRESCENT ONE CO Ltd, J Morita Corp filed Critical CRESCENT ONE CO Ltd
Priority to JP2006316350A priority Critical patent/JP2008129961A/en
Publication of JP2008129961A publication Critical patent/JP2008129961A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device, a method, and the like for allowing an examination operator to perform an examination and recording by himself/herself in dental examination for improving efficiency of examination processing. <P>SOLUTION: When executing input to a storage device or a storage program for storing dental examination results of respective examination portions is carried out in a computer, conditions of the storage device or the storage program are monitored. Based on the conditions obtained by monitoring, a voice recognition processing method is decided. According to the decided processing method, voice inputted via a voice input device is recognized, and the recognized recognition result is inputted as the examination result into the storage device or the storage program. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、歯の検査において、歯に関する情報を歯毎に記録する際の利便性を向上させるための技術に関する。   The present invention relates to a technique for improving convenience when information on teeth is recorded for each tooth in tooth inspection.

歯科検診や歯周病検診などの歯の検査は、一般的に、検査をする者(検査者)と記録をする者(記録者)との二者によって実施される。検査者は、検査を受ける者(被検査者)の口腔内を観察し、各歯に関する情報を記録者に口頭で伝える。そして、記録者は、検査者が述べた情報に従って、被検査者の各歯に関する情報を記録する。   Dental examinations such as dental examinations and periodontal disease examinations are generally carried out by two persons, a person who conducts examination (examiner) and a person who records (recorder). The examiner observes the inside of the oral cavity of the person undergoing the examination (inspected person) and verbally conveys information on each tooth to the record person. Then, the recordr records information about each tooth of the examinee according to the information described by the examiner.

この記録者による記録の方法は、専用の紙面に対して筆記する方法もあるが、近年では電子化データの利便性から、コンピュータに入力する方法が一般的である。具体例として、特許文献1(特に0035〜0037段落)には、口腔内に備わる32本の歯のうちどの歯に関するデータ入力かを指定する歯指定部がディスプレイ上に配置され、マウスやキーボードを用いることによって、データ入力対象となる歯の指定やデータの入力を行う技術が開示されている。
特開2002−083044号公報
As a method of recording by this recorder, there is a method of writing on a dedicated sheet, but in recent years, a method of inputting to a computer is common for the convenience of digitized data. As a specific example, Patent Document 1 (particularly, paragraphs 0035 to 0037) includes a tooth designating unit for designating which of the 32 teeth provided in the oral cavity is a data input on the display, and a mouse or keyboard is used. A technique for specifying a tooth as a data input target and inputting data by using it is disclosed.
JP 2002-083044 A

しかしながら、検査者と記録者との二者によって検査を行うことは、検査の効率化を図ることは実現できたが、その一方で記録者の人件費によるコストの増大を招いていた。このため、検査者自身が記録を行うことで、記録者を不要とし、コストを抑えることが考えられる。ところが、このような方法にもいくつかの問題点があった。   However, the inspection by the inspector and the recordr can realize the efficiency of the inspection, but on the other hand, it increases the cost due to the labor cost of the recordr. For this reason, it can be considered that the inspector himself / herself makes the recording, thereby eliminating the need for the recording person and reducing the cost. However, this method has some problems.

第一に、検査者の手に関する問題がある。検査対象が被検査者の口腔内であるため、検査を行う際には衛生面の配慮がなされる。具体的には、検査者はビニール手袋などの衛生用手袋を手にはめて検査を行うことが必要となる。さらに、口腔内の歯の状況を正確に把握すべく、検査者は鏡(デンタルミラー)などの道具を所持して検査を行う。このため、道具によって検査者の手が塞がっていることや、手袋をはめていることが要因となり、迅速且つ正確な入力を行うことが困難であった。   First, there are problems with the hands of the inspector. Since the object to be inspected is in the oral cavity of the person to be inspected, consideration is given to hygiene when performing the inspection. Specifically, the inspector is required to perform inspection by putting on a sanitary glove such as a vinyl glove. Furthermore, in order to accurately grasp the condition of the teeth in the oral cavity, the inspector carries out an inspection with a tool such as a mirror (dental mirror). For this reason, it is difficult to input quickly and accurately due to the fact that the hand of the inspector is blocked by the tool and wearing gloves.

第二に、検査者の姿勢及び視線に関する問題がある。検査者は、被検査者の口腔内を覗く姿勢でいるため、そのままの姿勢ではコンピュータに入力を行うことが難しい。入力を行うためには、わざわざ体の状態を捻るなどしてコンピュータの方に姿勢を向ける必要があった。このため、迅速且つ正確な入力を行うことが困難であった。   Secondly, there are problems regarding the posture and line of sight of the examiner. Since the examiner is in a posture looking into the oral cavity of the examinee, it is difficult to input to the computer in the same posture. In order to input, it was necessary to turn the posture toward the computer by twisting the state of the body. For this reason, it is difficult to perform quick and accurate input.

本発明は、歯の検査において、検査者が単独で検査及び記録を行うことを可能とし、その処理の効率化を図る装置や方法などを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus, a method, and the like that enable an inspector to perform inspection and recording independently in tooth inspection and to improve the efficiency of the processing.

本発明は、歯の各検査部位の検査結果を記録するための記録装置又は記録プログラムに対しての入力をコンピュータに実行させるためのプログラムであって、監視ステップ、決定ステップ、音声認識ステップ、入力ステップの各ステップをコンピュータに実行させるためのプログラムである。監視ステップは、記録装置又は記録プログラムの状態を監視するステップである。決定ステップは、監視ステップによって得られた状態に基づいて、音声認識の処理方法を決定するステップである。音声認識ステップは、決定ステップによって決定された処理方法によって、音声入力装置を介して入力された音声を認識するステップである。入力ステップは、音声認識ステップにおいて認識された認識結果を、検査結果として、記録装置又は記録プログラムに入力するステップである。   The present invention is a program for causing a computer to perform an input to a recording device or a recording program for recording an inspection result of each inspection site of a tooth, and includes a monitoring step, a determination step, a voice recognition step, an input A program for causing a computer to execute each step. The monitoring step is a step of monitoring the state of the recording device or the recording program. The determining step is a step of determining a speech recognition processing method based on the state obtained by the monitoring step. The speech recognition step is a step of recognizing speech input via the speech input device by the processing method determined by the determination step. The input step is a step of inputting the recognition result recognized in the voice recognition step as a test result to the recording device or the recording program.

このように構成された本発明のプログラムによれば、検査者は、入力装置を操作することなく、検査結果や命令内容を発話するという動作のみで、検査結果の記録を行うことが可能となる。これにより、記録者の存在が不要となり、コストを抑えることが可能となる。   According to the program of the present invention configured as described above, the inspector can record the inspection result only by the operation of speaking the inspection result and the content of the instruction without operating the input device. . This eliminates the need for the recording person and makes it possible to reduce costs.

また、監視ステップにより得られた状態に応じて、音声認識の処理方法が決定される。音声認識の処理方法の決定とは、例えば音声認識処理に使用される音響モデルや言語モデルを複数の中から選択して決定することにより実現されても良いし、音声認識処理のためのプログラムを複数の中から選択して決定することにより実現されても良い。このように構成されることにより、各状態における音声認識処理の精度を向上させることが可能となる。   Further, the speech recognition processing method is determined according to the state obtained by the monitoring step. The determination of the speech recognition processing method may be realized, for example, by selecting and determining a plurality of acoustic models and language models used for the speech recognition processing, You may implement | achieve by selecting and determining from several. With this configuration, it is possible to improve the accuracy of voice recognition processing in each state.

本発明は、上記した認証システムに含まれる各装置として特定されても良い。また、本発明は、ネットワークにより通信可能に構成された複数台の情報処理装置を、上記した認証システムとして動作させるためのプログラムとして特定されても良い。また、本発明は、情報処理装置を、上記した認証システムに含まれる各装置として動作させるためのプログラムとして特定されても良い。また、本発明は、上記した認証システムが行う認証方法として特定されても良い。また、本発明は、上記した認証システムに含まれる各装置が実行する方法として特定されても良い。   The present invention may be specified as each device included in the authentication system described above. The present invention may also be specified as a program for operating a plurality of information processing apparatuses configured to be communicable via a network as the authentication system described above. In addition, the present invention may be specified as a program for causing an information processing apparatus to operate as each apparatus included in the authentication system described above. The present invention may be specified as an authentication method performed by the above-described authentication system. In addition, the present invention may be specified as a method executed by each device included in the authentication system described above.

本発明により、歯の検査において、検査者が単独で検査及び記録を行うことが可能となり、さらにその処理の効率化を図ることも可能となる。   According to the present invention, in an inspection of a tooth, an inspector can inspect and record independently, and further improve the efficiency of the processing.

〔システム構成〕
図1は、本発明における歯周検査結果入力システム100の構成例を示す図である。歯周検査結果入力システム100は、音声入力装置10、音声出力装置20、入力装置30及び検査結果入力装置40を含む。
〔System configuration〕
FIG. 1 is a diagram illustrating a configuration example of a periodontal inspection result input system 100 according to the present invention. The periodontal examination result input system 100 includes a voice input device 10, a voice output device 20, an input device 30, and a test result input device 40.

歯周検査入力システム100は、歯周検査を行う場面で使用される。歯周検査を行う者(以下、「検査者」という。)は、歯周検査の結果を発話することで、歯周検査入力システム100に検査結果の記録を実行させる。つまり、歯周検査結果入力システム100では、検査者が音声入力装置10を用いて検査結果を音声で入力する。そして、入力された音声のデータに基づいて、検査結果入力装置40が音声認識を行い、検査結果を記録する。また、音声出力装置20は、検査結果入力装置40による音声認識の結果を、検査者の確認用として、音声出力する。以下、歯周検査結果入力システム100に含まれる各装置について説明する。   The periodontal examination input system 100 is used in a scene where a periodontal examination is performed. A person who performs a periodontal examination (hereinafter referred to as “inspector”) causes the periodontal examination input system 100 to record the examination result by speaking the result of the periodontal examination. That is, in the periodontal examination result input system 100, the examiner inputs the examination result by voice using the voice input device 10. Then, based on the input voice data, the test result input device 40 performs voice recognition and records the test result. Further, the voice output device 20 outputs the result of voice recognition by the test result input device 40 as a voice for confirmation by the inspector. Hereinafter, each device included in the periodontal examination result input system 100 will be described.

〈音声入力装置〉
音声入力装置10は、検査者の発話した音声を電気信号に変換する装置である。音声入力装置10は、マイクロフォンを用いて構成することができ、その種類は限定されない。例えば、内耳マイク、骨伝導マイク、咽頭マイク、ヘッドセットマイク、卓上マイクなどのマイクロフォンを用いて構成できる。
<Voice input device>
The voice input device 10 is a device that converts the voice uttered by the examiner into an electrical signal. The voice input device 10 can be configured using a microphone, and the type thereof is not limited. For example, a microphone such as an inner ear microphone, a bone conduction microphone, a pharyngeal microphone, a headset microphone, or a desktop microphone can be used.

音声入力装置10によって電気信号に変換された音声データは、検査結果入力装置40に渡される。このとき、データの受け渡し方法は、有線や無線を問わず、どのように実現されても良い。   The voice data converted into an electrical signal by the voice input device 10 is passed to the test result input device 40. At this time, the data delivery method may be realized in any manner regardless of wired or wireless.

〈音声出力装置〉
音声出力装置20は、検査結果入力装置40から受け渡される音声データ(電気信号)を振動に変換し、音声を出力する。音声出力装置20は、スピーカーを用いて構成することができ、その種類は限定されない。例えば、空気を振動させるスピーカーや、人体を振動させるスピーカー(例えば骨伝導スピーカーなど)を用いて構成できる。また、その形状なども限定されず、検査者が装着できるもの(例えばヘッドフォンやヘッドセットタイプのもの)でも良いし、設置するもの(例えば卓上型や床設置型や壁設置型のもの)でも良い。
<Audio output device>
The audio output device 20 converts audio data (electrical signal) delivered from the test result input device 40 into vibration and outputs audio. The audio output device 20 can be configured using a speaker, and the type thereof is not limited. For example, a speaker that vibrates air or a speaker that vibrates the human body (for example, a bone conduction speaker) can be used. Also, the shape is not limited, and it may be one that can be worn by an inspector (for example, a headphone or headset type), or one that can be installed (for example, a desktop type, a floor type, or a wall type). .

音声出力装置20が検査結果入力装置40から音声データを受け取る際の方法は、有線や無線を問わず、どのように実現されても良い。   The method when the audio output device 20 receives the audio data from the test result input device 40 may be realized in any manner regardless of wired or wireless.

〈入力装置〉
入力装置30は、検査結果入力装置40に対し、音声入力以外の方法でデータを入力するための装置である。入力装置30は、例えば、ボタン(キーボード、テンキー等)、ポインティングデバイス(マウス、タブレット等)、ジョグダイヤル、タッチパネル等の既存の入力装置を用いて構成することができ、その種類は限定されない。入力装置30を介して入力されたデータは、検査結果入力装置40に渡される。このとき、データの受け渡し方法は、有線や無線を問わず、どのように実現されても良い。
<Input device>
The input device 30 is a device for inputting data to the test result input device 40 by a method other than voice input. The input device 30 can be configured using existing input devices such as buttons (keyboard, numeric keypad, etc.), pointing devices (mouse, tablet, etc.), jog dial, touch panel, etc., and the type is not limited. Data input via the input device 30 is passed to the inspection result input device 40. At this time, the data delivery method may be realized in any manner regardless of wired or wireless.

〈検査結果入力装置〉
検査結果入力装置40は、音声入力装置10を介して入力される音声データや、入力装置30を介して入力されるデータに基づいて、歯周検査の検査結果を記録する装置である。検査結果入力装置40は、情報処理装置を用いて構成することができる。具体的には、検査結果入力装置40は、バスを介して接続されたCPU(Central Processing Unit)、主記憶装置、入出力インタフェース、補助記憶装置などを有する。そして、検査結果入力装置40は、CPUによってプログラムが実行されることにより、音声認識部41、音声合成部42、結果入力部43及び記憶部44を含む装置として動作する。以下、検査結果入力装置40が含む各機能部について説明する。
<Inspection result input device>
The examination result input device 40 is a device that records examination results of periodontal examination based on voice data input via the voice input device 10 and data input via the input device 30. The inspection result input device 40 can be configured using an information processing device. Specifically, the inspection result input device 40 includes a CPU (Central Processing Unit), a main storage device, an input / output interface, an auxiliary storage device, and the like connected via a bus. The test result input device 40 operates as a device including a speech recognition unit 41, a speech synthesis unit 42, a result input unit 43, and a storage unit 44 when the program is executed by the CPU. Hereinafter, each functional unit included in the inspection result input device 40 will be described.

〈〈音声認識部〉〉
音声認識部41は、CPUによって音声認識プログラムが実行されることにより実現される。音声認識部41は、音声入力装置10から入力される音声データを入力信号として、音声認識を行う。音声認識部41には、従来からあるどのような音声認識技術が適用されても良い。以下に、音声認識部41に適用可能な技術の具体例を示す。
<Voice recognition unit>
The voice recognition unit 41 is realized by executing a voice recognition program by the CPU. The voice recognition unit 41 performs voice recognition using voice data input from the voice input device 10 as an input signal. Any conventional speech recognition technology may be applied to the speech recognition unit 41. Below, the specific example of the technique applicable to the speech recognition part 41 is shown.

音声認識部41は、不図示の記憶装置に音響モデル及び言語モデルを有する。音響モデルとは、人の発話による音声信号の特徴量と、その発話に対応する文言とを対応付けたものである。例えば、予め人間によって発音された特定の単語の音声信号の特徴量を取得し、その特徴量と、その特定の単語とを対応付けておくことによって音響モデルを作成できる。特徴量と文言との対応付けは、1対1であっても良いし、1対複数であっても良い。後者の場合は、各文言に重み付けなどを施すことも有効である。   The voice recognition unit 41 has an acoustic model and a language model in a storage device (not shown). The acoustic model is obtained by associating a feature amount of an audio signal generated by a person's utterance with a word corresponding to the utterance. For example, an acoustic model can be created by acquiring a feature amount of a speech signal of a specific word pronounced by a human in advance and associating the feature amount with the specific word. The correspondence between the feature quantity and the wording may be one-to-one or one-to-multiple. In the latter case, it is also effective to weight each wording.

言語モデルとは、各文言の出現確率を表すデータである。この出現確率は、他の文言の存在にかかわらず、単に出現する確率として与えられても良い。また、出現確率は、ある文言が認識されたことを前提に、その文言に続いて次に出現する確率として与えられても良い。この言語モデルを用いることにより、音響モデルのみに基づいて音声認識する場合に比べて、認識効率を向上させることができる。   The language model is data representing the appearance probability of each wording. This appearance probability may be given simply as the probability of appearance regardless of the presence of other words. Further, the appearance probability may be given as a probability of appearing next to the word on the assumption that a word is recognized. By using this language model, the recognition efficiency can be improved as compared with the case of voice recognition based only on the acoustic model.

次に、音声認識部41の処理について説明する。まず、音声認識部41は、入力された音声信号に対し音声分析を実施することにより、入力された音声信号から、音声認識に有効な特徴量を抽出する。次に、音声認識部41は、言語モデルの拘束下において、音声分析によって得られた特徴量と、音響モデルとをマッチングし、入力された音声信号がいずれの文言を示す音声信号であるか判断する。   Next, the process of the voice recognition unit 41 will be described. First, the speech recognition unit 41 extracts a feature amount effective for speech recognition from the input speech signal by performing speech analysis on the input speech signal. Next, the speech recognition unit 41 matches the feature amount obtained by speech analysis with the acoustic model under the constraint of the language model, and determines which speech signal the speech signal input represents. To do.

音声認識部41は、認識結果(数値や文字列など)が得られた場合には、認識結果に基づいた命令を結果入力部43へ渡す。また、この場合、音声認識部41は、認識結果である数値や文字列などを音声合成部42へ渡し、音声出力装置20を介して音声出力を実行させる。以下、このような処理をトークバック処理という。一方、音声認識部41は、認識結果が得られない場合(認識エラーの場合)には、音声合成部42にエラー出力をさせる。   When the recognition result (numerical value, character string, etc.) is obtained, the voice recognition unit 41 passes a command based on the recognition result to the result input unit 43. In this case, the voice recognition unit 41 passes a numerical value or a character string as a recognition result to the voice synthesis unit 42 and causes the voice output device 20 to execute voice output. Hereinafter, such processing is referred to as talkback processing. On the other hand, when the recognition result cannot be obtained (in the case of a recognition error), the speech recognition unit 41 causes the speech synthesis unit 42 to output an error.

音声認識部41は、複数のモデル(言語モデル、音響モデル)を有する。音声認識処理に使用されるモデルは、結果入力部43の状態(入力モードや画面状態など)や過去の認識結果に応じて変更される。例えば、結果入力部43の状態が、検査結果入力状態である場合には、検査結果入力状態に対応付けられたモデルが使用される。また、結果入力部43の状態が、被検査者の氏名入力状態である場合には、氏名入力状態に対応付けられたモデルが使用される。また、結果入力部43の状態が検査結果入力状態であり、かつ「検査開始」という認識結果が得られた場合には、検査結果入力状態及び「検査開始」というキーワードの組み合わせに対応付けられたモデルが、以後の音声認識処理において使用される。このような対応付は、不図示の記憶装置に記憶される。なお、音声認識部41の動作の詳細については、動作例の欄において説明する。   The speech recognition unit 41 has a plurality of models (language model, acoustic model). The model used for the speech recognition processing is changed according to the state of the result input unit 43 (input mode, screen state, etc.) and past recognition results. For example, when the state of the result input unit 43 is the inspection result input state, a model associated with the inspection result input state is used. Further, when the state of the result input unit 43 is the name input state of the examinee, a model associated with the name input state is used. When the result input unit 43 is in the inspection result input state and the recognition result “inspection start” is obtained, it is associated with the combination of the inspection result input state and the keyword “inspection start”. The model is used in the subsequent speech recognition process. Such correspondence is stored in a storage device (not shown). The details of the operation of the voice recognition unit 41 will be described in the column of an operation example.

〈〈音声合成部〉〉
音声合成部42は、CPUによって音声合成プログラムが実行されることにより実現される。音声合成部42は、音声認識部41から受け取った認識結果に基づいて音声合成処理を行う。音声合成部42には、従来からあるどのような音声合成技術が適用されても良い。以下に、音声合成部42に適用可能な技術の具体例を示す。
<Speech synthesis unit>
The voice synthesizer 42 is realized by executing a voice synthesis program by the CPU. The speech synthesis unit 42 performs speech synthesis processing based on the recognition result received from the speech recognition unit 41. Any conventional speech synthesis technique may be applied to the speech synthesizer 42. A specific example of technology applicable to the speech synthesizer 42 is shown below.

音声合成部42は、不図示の記憶装置に単語辞書と音声信号辞書を有する。単語辞書とは、複数の単語とその読みとを対応付けたものである。音声信号辞書とは、各音とその音声信号とを対応付けたものである。音声合成部42は、音声認識部41から受け取った認識結果と単語辞書とに基づいて、認識結果に対応する読みを判断する。そして、音声合成部42は、音声信号辞書を用いて、判断結果である読みに対応した音声信号を作成する。   The voice synthesizer 42 has a word dictionary and a voice signal dictionary in a storage device (not shown). The word dictionary associates a plurality of words with their readings. The sound signal dictionary is a correspondence between each sound and its sound signal. The speech synthesizer 42 determines a reading corresponding to the recognition result based on the recognition result received from the speech recognition unit 41 and the word dictionary. Then, the speech synthesizer 42 uses the speech signal dictionary to create a speech signal corresponding to the reading that is the determination result.

音声合成部42は、音声認識部41から数値や文字列などの認識結果を受け取った場合には、この新式結果の音声信号を作成する。一方、音声合成部42は、音声認識部41からエラー出力の命令を受け取った場合は、予め定められたエラー用音声信号を作成する。   When the speech synthesis unit 42 receives a recognition result such as a numerical value or a character string from the speech recognition unit 41, the speech synthesis unit 42 creates a speech signal of the new result. On the other hand, when receiving an error output command from the speech recognition unit 41, the speech synthesis unit 42 creates a predetermined error speech signal.

音声合成部42は、作成された音声信号を音声出力装置20に渡し、音声出力装置20による音声出力を実行させる。   The voice synthesizer 42 passes the created voice signal to the voice output device 20 and causes the voice output device 20 to execute voice output.

〈〈結果入力部〉〉
結果入力部43は、CPUによって結果入力プログラムが実行されることにより実現される。結果入力部43は、音声認識部41から受け取った認識結果又は入力装置30から受け取ったデータに基づいて、記憶部44の記録内容を更新する。
<Result input section>
The result input unit 43 is realized by executing a result input program by the CPU. The result input unit 43 updates the recorded content of the storage unit 44 based on the recognition result received from the voice recognition unit 41 or the data received from the input device 30.

〈〈記憶部〉〉
記憶部44は、結果入力部43による処理に応じて、検査結果の内容を記憶する。図2は、記憶部44の記憶内容の具体例を示す図である。以下、図2に示される具体例に基づいて説明する。
<< Storage section >>
The storage unit 44 stores the contents of the inspection result according to the processing by the result input unit 43. FIG. 2 is a diagram illustrating a specific example of the contents stored in the storage unit 44. Hereinafter, description will be made based on a specific example shown in FIG.

記憶部44は、被検査者毎に検査結果テーブルを記憶する。各被検査者は、被検査者IDによって区別される。検査結果テーブルは、検査部位ID毎に、その検査部位におけるポケット深さの数値を有する。検査部位IDは、被検査者の口腔内の検査対象となった部位を示し、例えば“右上1”や“左上1”などのように表される。ポケット深さは、各検査部位IDに対応する部位における歯周ポケットの深さを数値化したものである。   The storage unit 44 stores an inspection result table for each subject. Each subject is distinguished by the subject ID. The inspection result table has a numerical value of the pocket depth in the inspection region for each inspection region ID. The inspection part ID indicates a part which is an inspection target in the oral cavity of the subject, and is expressed as “upper right 1”, “upper left 1”, or the like. The pocket depth is obtained by quantifying the depth of the periodontal pocket at the site corresponding to each examination site ID.

なお、図2に示される具体例は、あくまで一つの例であり、この構成に限定される必要はない。従って、記憶部44の記憶内容は、歯周検査結果入力システム100が適用される環境などに応じて、他の構成をとってもよい。   Note that the specific example shown in FIG. 2 is merely an example, and need not be limited to this configuration. Therefore, the storage content of the storage unit 44 may take other configurations depending on the environment to which the periodontal examination result input system 100 is applied.

〔動作例〕
図3、4は、歯周検査結果入力システム100の動作例を示すフローチャートである。以下、各フローチャートを用いて、歯周検査結果入力システム100の動作例について説明する。
[Operation example]
FIGS. 3 and 4 are flowcharts showing an operation example of the periodontal examination result input system 100. Hereinafter, an operation example of the periodontal examination result input system 100 will be described using each flowchart.

まず、検査結果入力装置40の処理が開始すると、音声認識部41は、結果入力部43の状態を結果入力部43から取得する。そして、音声認識部41は、結果入力部43の状態に基づいて、使用するモデルを決定する(S01)。以下の説明では、例として結果入力部43の状態が結果入力状態である場合について説明する。   First, when the process of the test result input device 40 starts, the voice recognition unit 41 acquires the state of the result input unit 43 from the result input unit 43. Then, the speech recognition unit 41 determines a model to be used based on the state of the result input unit 43 (S01). In the following description, a case where the state of the result input unit 43 is a result input state will be described as an example.

ユーザが発話を行うと(S02)、この発話による音声が音声入力装置によって電気信号に変換される。この電気信号は音声認識部41に入力される。音声認識部41は、入力された電気信号である音声データについて音声認識処理を行う(S03)。この音声認識処理において、認識結果が得られない場合は(S04−NO)、音声認識部41は音声合成部42にエラー出力を指示する。そして音声合成部42は、音声出力装置20を介して、音声によるエラー出力を行う(S05)。そして、S02以降の処理を繰り返す。   When the user utters (S02), the voice generated by the utterance is converted into an electrical signal by the voice input device. This electric signal is input to the voice recognition unit 41. The voice recognition unit 41 performs voice recognition processing on the voice data that is the input electrical signal (S03). In this speech recognition process, when a recognition result is not obtained (S04-NO), the speech recognition unit 41 instructs the speech synthesis unit 42 to output an error. Then, the voice synthesizer 42 performs error output by voice via the voice output device 20 (S05). And the process after S02 is repeated.

音声認識処理において、認識結果が得られた場合は(S04−YES)、認識結果である数値や文字列に応じてその後の処理が異なる。認識結果が「検査開始(けんさかいし)」であった場合(S06−検査開始)、音声認識部41は音声合成部42にトークバックを実行させる(S07)。次に、音声認識部41は、認識結果に基づいて、以後の音声認識処理において使用するモデルを変更する(S08)。すなわち、検査結果入力状態及び「検査開始」というキーワードの組み合わせに対応付けられたモデルに変更する。そして、S02以降の処理を繰り返す。   In the speech recognition process, when a recognition result is obtained (S04-YES), the subsequent process differs depending on the numerical value or character string that is the recognition result. When the recognition result is “inspection start (Sensaikai)” (S06-inspection start), the speech recognition unit 41 causes the speech synthesis unit 42 to perform talkback (S07). Next, the speech recognition unit 41 changes the model used in the subsequent speech recognition processing based on the recognition result (S08). That is, the model is changed to a model associated with the combination of the inspection result input state and the keyword “inspection start”. And the process after S02 is repeated.

認識結果が「検査終了(けんさしゅうりょう)」であった場合(S06−検査終了)、音声認識部41は音声合成部42にトークバックを実行させる(S09)。次に、音声認識部41は、使用モデルを、検査結果入力状態及び「検査終了」というキーワードの組み合わせに対応付けられたモデルに変更する(S10)。そして、S02以降の処理を繰り返す。   When the recognition result is “examination completed (S06-examination)”, the speech recognition unit 41 causes the speech synthesis unit 42 to perform talkback (S09). Next, the speech recognition unit 41 changes the use model to a model associated with the combination of the inspection result input state and the keyword “end of inspection” (S10). And the process after S02 is repeated.

認識結果が「0」や「1」などの数値、「ポケット」や「プラーク」などの検査項目名、「右上5番」などの部位名であった場合(S06−数値・部位名・検査項目名)、音声認識部41は、まず、認識語句を単語単位に切り分ける(S11)。次に、音声認識部41は、切り分けられた各単語に従った処理の命令(検査結果としてのポケット深さ(数値)の入力、部位名によって特定される位置への入力箇所の移動、検査項目名によって特定される検査項目の変更、コマンドボタンのクリックなど)を、結果入力部43に渡す(S12)。このS12の処理は、切り分けられた単語数だけ繰り返される(S13)。そして、結果入力部43は、この命令に従って、記憶部44への書き込み等を行う。S13の繰り返し処理の後、音声認識部41は音声合成部42にトークバックを実行させる(S14)。S14の処理も、切り分けられた単語数だけ繰り返される(S15)。そして、音声認識部41は、認識結果に基づいて、使用モデルの変更が必要であるか否か判断する(S16)。使用モデルの変更は、例えば上記の単語に従った処理の命令によって、結果入力部43の状態が変更された場合(例えば検査結果を入力するための画面が切り替わった場合)に実行される。使用モデルの変更が必要である場合(S16−必要)、音声認識部41は、検査結果入力状態及び認識結果のキーワードの組み合わせに対応付けられたモデルに変更する(S17)。一方、使用モデルの変更が不要である場合(S16−不要)、及びS17の処理の後は、S02以降の処理を繰り返す。   When the recognition result is a numerical value such as “0” or “1”, an inspection item name such as “pocket” or “plaque”, or a part name such as “top right 5” (S06 numerical value / part name / inspection item) Name), the speech recognition unit 41 first cuts the recognition phrase into words (S11). Next, the speech recognition unit 41 inputs a processing command according to each segmented word (input of a pocket depth (numerical value) as an inspection result, movement of an input location to a position specified by a region name, inspection item The change of the inspection item specified by the name, the click of the command button, etc.) is passed to the result input unit 43 (S12). The process of S12 is repeated as many times as the number of isolated words (S13). Then, the result input unit 43 performs writing to the storage unit 44 in accordance with this command. After the repeating process of S13, the speech recognition unit 41 causes the speech synthesis unit 42 to perform talkback (S14). The process of S14 is repeated as many times as the number of words that have been cut (S15). Then, the voice recognition unit 41 determines whether or not the usage model needs to be changed based on the recognition result (S16). The change of the usage model is executed when the state of the result input unit 43 is changed (for example, when the screen for inputting the inspection result is switched) by a processing instruction according to the above word, for example. When the use model needs to be changed (S16-required), the speech recognition unit 41 changes the model to be associated with the combination of the test result input state and the recognition result keyword (S17). On the other hand, when it is not necessary to change the use model (S16-unnecessary) and after the process of S17, the processes after S02 are repeated.

認識結果が「修正入力」であった場合(S06−修正入力)、音声認識部41は音声合成部42にトークバックを実行させる(S18)。次に、音声認識部41は、使用モデルを、検査結果入力状態及び「修正入力」というキーワードの組み合わせに対応付けられたモデルに変更する(S19)。次に、音声認識部41は、検査結果の現在の入力箇所(検査結果を入力すべき検査部位ID)を記憶する(S20)。そして、S02以降の処理を繰り返す。   If the recognition result is “correction input” (S06—correction input), the speech recognition unit 41 causes the speech synthesis unit 42 to perform talkback (S18). Next, the speech recognition unit 41 changes the use model to a model associated with the combination of the test result input state and the keyword “correction input” (S19). Next, the voice recognition unit 41 stores the current input location of the test result (test site ID to which the test result is to be input) (S20). And the process after S02 is repeated.

認識結果が「修正終了」であった場合(S06−修正終了)、音声認識部41は音声合成部42にトークバックを実行させる(S21)。次に、音声認識部41は、使用モデルを、検査結果入力状態及び「修正終了」というキーワードの組み合わせに対応付けられたモデルに変更する(S22)。次に、音声認識部41は、検査結果の現在の入力箇所を、S20の処理において記憶していた箇所に移動する(S23)。そして、S02以降の処理を繰り返す。   When the recognition result is “end of correction” (S06—end of correction), the speech recognition unit 41 causes the speech synthesis unit 42 to perform talkback (S21). Next, the speech recognition unit 41 changes the use model to a model associated with the combination of the test result input state and the keyword “correction completed” (S22). Next, the voice recognition unit 41 moves the current input location of the inspection result to the location stored in the process of S20 (S23). And the process after S02 is repeated.

図5は、図3、4に示された処理とは独立して実行される監視処理の動作例を示すフローチャートである。以下、このフローチャートを用いて、歯周検査結果入力システム100の監視処理の動作例について説明する。   FIG. 5 is a flowchart showing an example of the monitoring process performed independently of the processes shown in FIGS. Hereinafter, the operation example of the monitoring process of the periodontal examination result input system 100 will be described using this flowchart.

監視処理は、定期的に実行される。監視処理は、例えば、一定の時間、一定の処理回数、一定のクロック数などに基づいて実行される。そして、監視処理の実行が開始されると、音声認識部41は、結果入力部43から、その状態を取得する(S30)。次に、音声認識部41は、取得された状態に基づいて、使用モデルの変更が必要であるか否か判断する(S31)。この判断は、例えば、前回取得された状態を一時的に保持しておき、その保持されている状態と、新たに取得された状態とが同一であるか否かに基づいて判断されても良い。この場合、同一でなければ使用モデルの変更が必要であるし、同一であれば使用モデルの変更が不要であると判断できる。使用モデルの変更が必要である場合(S32−必要)、音声認識部41は、新たに取得された状態に基づいて使用モデルを変更する(S33)。一方、使用モデルの変更が不要である場合(S32−不要)及びS33の処理の後、音声認識部41は定期的にS30以降の処理を繰り返す。   The monitoring process is periodically executed. The monitoring process is executed based on, for example, a certain time, a certain number of processes, a certain number of clocks, and the like. Then, when the execution of the monitoring process is started, the voice recognition unit 41 acquires the state from the result input unit 43 (S30). Next, the voice recognition unit 41 determines whether or not the usage model needs to be changed based on the acquired state (S31). This determination may be made based on, for example, whether or not the state acquired last time is temporarily held and whether the held state is the same as the newly acquired state. . In this case, if it is not the same, it is necessary to change the use model. When the usage model needs to be changed (S32-necessary), the speech recognition unit 41 changes the usage model based on the newly acquired state (S33). On the other hand, when it is not necessary to change the use model (S32—unnecessary) and after the process of S33, the speech recognition unit 41 periodically repeats the processes after S30.

〔作用/効果〕
歯周検査結果入力システム100では、検査者は、キーボードなどの入力装置30を操作することなく、音声入力装置10に対して検査結果や命令内容を発話するという動作のみで、検査結果の記録を行うことが可能となる。入力装置30を手で操作する必要がないため、検査者は、その手にデンタルミラー等の道具を所持していたとしても、手袋をはめていたとしても、発話によって迅速且つ正確に検査結果の入力を行うことが可能となる。同様に、入力装置30の方に姿勢を向けることなく、発話による入力が可能であるため、姿勢及び視線に関する問題も解消される。従って、歯周検査結果入力システム100を使用することにより、検査において記録者の存在が不要となり、コストを抑えることが可能となる。
[Action / Effect]
In the periodontal examination result input system 100, the examiner records the examination result only by the operation of speaking the examination result and the command content to the voice input device 10 without operating the input device 30 such as a keyboard. Can be done. Since it is not necessary to operate the input device 30 by hand, the inspector can quickly and accurately check the test result by speaking even if he / she has a tool such as a dental mirror or a glove in his / her hand. It becomes possible to input. Similarly, since it is possible to input by utterance without directing the posture toward the input device 30, problems related to the posture and line of sight are also solved. Therefore, by using the periodontal inspection result input system 100, it is not necessary to have a recorder in the inspection, and the cost can be reduced.

また、音声認識部41は、定期的に結果入力部43の状態を監視し、その状態に応じて、音声認識処理に使用する音響モデルや言語モデルを変更する。結果入力部43の状態毎に、検査者によって発話される可能性のある内容は制限される。例えば、結果入力部43の状態が、検査結果としての数値(例えばポケット深さ)の入力を行う状態の場合には、数値、「検査終了」、「修正入力」という発話以外は必要ない。このような特徴に鑑みて、音声認識部41は、各状態において発話される可能性のある内容を音声認識するために必要となるデータに限定して用意された音響モデルや言語モデルを使用する。このように構成されることにより、各状態における音声認識部41の音声認識処理の精度を向上させることが可能となる。   The voice recognition unit 41 periodically monitors the state of the result input unit 43, and changes the acoustic model and language model used for the voice recognition process according to the state. The content that can be spoken by the examiner is limited for each state of the result input unit 43. For example, when the state of the result input unit 43 is a state in which a numerical value (for example, pocket depth) is input as an inspection result, there is no need for anything other than numerical values, “examination of inspection”, and “correction input”. In view of such features, the speech recognition unit 41 uses an acoustic model and a language model that are prepared only for data necessary for speech recognition of content that may be uttered in each state. . With this configuration, it is possible to improve the accuracy of the speech recognition processing of the speech recognition unit 41 in each state.

また、検査者が、複数の検査部位についての検査結果をまとめて発話した場合、各検査結果を表すデータが音声認識部41によって認識される。そして、複数の検査部位の検査結果が同じタイミングで記憶部44に記憶される。例えば、検査者が、右上1の検査結果を入力する際に、「1,3,0」と発話すると、音声認識部41は「1」、「3」、「0」という三つの数値を認識する。音声認識部41は、右上1から順に右上2、右上3の検査結果として「1」、「3」、「0」の値を、結果入力部43に渡す。そして、結果入力部43はこの三つの検査結果を記録する。このようにまとめて発話することができるのは、上記の三つに限定される必要はなく、二つでも四つ以上でも良い。このように構成されることにより、検査者はまとめて検査結果を入力することが可能となり、検査の効率を向上させることができる。   In addition, when the examiner speaks the examination results for a plurality of examination parts together, data representing each examination result is recognized by the voice recognition unit 41. And the test result of a some test site | part is memorize | stored in the memory | storage part 44 at the same timing. For example, when the inspector speaks “1, 3, 0” when inputting the inspection result in the upper right 1, the voice recognition unit 41 recognizes three numerical values “1”, “3”, and “0”. To do. The voice recognition unit 41 passes the values “1”, “3”, and “0” to the result input unit 43 as the inspection results of the upper right 2 and the upper right 3 in order from the upper right 1. The result input unit 43 records these three inspection results. It is not necessary to be limited to the above three that can speak in a lump, and may be two or four or more. By being configured in this way, the inspector can input the inspection results collectively, and the efficiency of the inspection can be improved.

〔変形例〕
歯周検査結果入力システム100は、歯周検査の検査結果入力に用いられるシステムであるが、歯周検査以外の歯の検査結果入力に適用されても良い。例えば電子カルテなどの所見入力などがある。この場合、その用途に応じて、音声認識部41の音響モデルや言語モデル、記憶部44の検査結果テーブルの内容を変更することで実現できる。
[Modification]
The periodontal inspection result input system 100 is a system used for inputting the inspection result of the periodontal inspection, but may be applied to the input of the inspection result of teeth other than the periodontal inspection. For example, finding input such as electronic medical records. In this case, it can be realized by changing the acoustic model and language model of the speech recognition unit 41 and the contents of the inspection result table of the storage unit 44 according to the application.

また、音声認識部41は、音声認識部41を実現するための音声認識プログラムを複数有し、状態に基づいてモデルを変更するのではなく、音声認識プログラムを変更するように構成されても良い。また、歯周検査結果入力システム100は、音声出力装置20に代えて、画像出力装置を備えるように構成されても良い。   The voice recognition unit 41 may include a plurality of voice recognition programs for realizing the voice recognition unit 41, and may be configured to change the voice recognition program instead of changing the model based on the state. . Further, the periodontal examination result input system 100 may be configured to include an image output device instead of the audio output device 20.

本発明における歯周検査結果入力システムの構成例を示す図である。It is a figure which shows the structural example of the periodontal examination result input system in this invention. 記憶部の記憶内容の具体例を示す図である。It is a figure which shows the specific example of the memory content of a memory | storage part. 本発明における歯周検査結果入力システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the periodontal examination result input system in this invention. 本発明における歯周検査結果入力システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the periodontal examination result input system in this invention. 本発明における歯周検査結果入力システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the periodontal examination result input system in this invention.

符号の説明Explanation of symbols

10 音声入力装置
20 音声出力装置
30 入力装置
40 検査結果入力装置
41 音声認識部
42 音声合成部
43 結果入力部
44 記憶部
100 歯周検査結果入力システム
DESCRIPTION OF SYMBOLS 10 Voice input device 20 Voice output device 30 Input device 40 Test result input device 41 Speech recognition part 42 Speech synthesizer 43 Result input part 44 Storage part 100 Periodontal test result input system

Claims (1)

歯の各検査部位の検査結果を記録するための記録装置又は記録プログラムに対しての入力をコンピュータに実行させるためのプログラムであって、
前記記録装置又は記録プログラムの状態を監視する監視ステップと、
前記監視ステップによって得られた状態に基づいて、音声認識の処理方法を決定する決定ステップと、
前記決定ステップによって決定された処理方法によって、音声入力装置を介して入力された音声を認識する音声認識ステップと、
前記音声認識ステップにおいて認識された認識結果を、検査結果として、前記記録装置又は記録プログラムに入力する入力ステップと
をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute an input to a recording device or a recording program for recording an inspection result of each inspection site of a tooth,
A monitoring step of monitoring the status of the recording device or recording program;
A determination step for determining a processing method of speech recognition based on the state obtained by the monitoring step;
A speech recognition step for recognizing speech input via a speech input device by the processing method determined in the determination step;
A program for causing a computer to execute an input step of inputting a recognition result recognized in the voice recognition step as an inspection result to the recording device or a recording program.
JP2006316350A 2006-11-22 2006-11-22 Examination result recording program Pending JP2008129961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006316350A JP2008129961A (en) 2006-11-22 2006-11-22 Examination result recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006316350A JP2008129961A (en) 2006-11-22 2006-11-22 Examination result recording program

Publications (1)

Publication Number Publication Date
JP2008129961A true JP2008129961A (en) 2008-06-05

Family

ID=39555691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006316350A Pending JP2008129961A (en) 2006-11-22 2006-11-22 Examination result recording program

Country Status (1)

Country Link
JP (1) JP2008129961A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085805A (en) * 2009-10-16 2011-04-28 Doshisha Oral cavity diagnosis recording system and program using voice input
JP2013246717A (en) * 2012-05-28 2013-12-09 Nippon Telegr & Teleph Corp <Ntt> Measurement data management system, equipment data reading device, measurement data accumulation device and measurement data management method
CN109360616A (en) * 2018-10-24 2019-02-19 深圳市菲森科技有限公司 A kind of recording method of tooth detection, device, equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085805A (en) * 2009-10-16 2011-04-28 Doshisha Oral cavity diagnosis recording system and program using voice input
JP2013246717A (en) * 2012-05-28 2013-12-09 Nippon Telegr & Teleph Corp <Ntt> Measurement data management system, equipment data reading device, measurement data accumulation device and measurement data management method
CN109360616A (en) * 2018-10-24 2019-02-19 深圳市菲森科技有限公司 A kind of recording method of tooth detection, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
US11496827B2 (en) Microphone natural speech capture voice dictation system and method
JP4114888B2 (en) Voice quality change location identification device
US8784311B2 (en) Systems and methods of screening for medical states using speech and other vocal behaviors
JP4994834B2 (en) Speech recognition system
US7806833B2 (en) Systems and methods for analysis and display of heart sounds
US9055861B2 (en) Apparatus and method of diagnosing health by using voice
JP6158179B2 (en) Information processing apparatus and information processing method
Nguyen et al. Cover your cough: Detection of respiratory events with confidence using a smartwatch
JP2008129961A (en) Examination result recording program
JP7141938B2 (en) Voice recognition input device, voice recognition input program and medical imaging system
WO2014087571A1 (en) Information processing device and information processing method
JP6347939B2 (en) Utterance key word extraction device, key word extraction system using the device, method and program thereof
JP5493537B2 (en) Speech recognition apparatus, speech recognition method and program thereof
US20220148570A1 (en) Speech interpretation device and system
WO2023075746A1 (en) Detecting emotional state of a user
KR20170029390A (en) Method for voice command mode activation
JP2011034405A (en) Scenario construction device
WO2019142447A1 (en) Information processing device and information processing method
JP3869448B2 (en) Voice assist device
JP6821747B2 (en) Karaoke equipment
JP2006330060A (en) Speech synthesizer, speech processor, and program
JP7312639B2 (en) Karaoke input device
JP2010224392A (en) Utterance support device, method, and program
JP2019128531A (en) Voice analysis apparatus and voice analysis method
JPWO2018138826A1 (en) Information recording system, information recording apparatus, and information recording method