JP2018055274A - Finding generation device, finding generation method, finding generation program and recording medium having the same recorded therein - Google Patents

Finding generation device, finding generation method, finding generation program and recording medium having the same recorded therein Download PDF

Info

Publication number
JP2018055274A
JP2018055274A JP2016188629A JP2016188629A JP2018055274A JP 2018055274 A JP2018055274 A JP 2018055274A JP 2016188629 A JP2016188629 A JP 2016188629A JP 2016188629 A JP2016188629 A JP 2016188629A JP 2018055274 A JP2018055274 A JP 2018055274A
Authority
JP
Japan
Prior art keywords
screen
input
finding
display
tooth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016188629A
Other languages
Japanese (ja)
Other versions
JP6749193B2 (en
Inventor
克明 宮内
Katsuaki Miyauchi
克明 宮内
浩一 岩瀬
Koichi Iwase
浩一 岩瀬
三幸 梶原
Miyuki Kajiwara
三幸 梶原
和哉 池松
Kazuya Ikematsu
和哉 池松
裕美 山下
Hiromi Yamashita
裕美 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2016188629A priority Critical patent/JP6749193B2/en
Publication of JP2018055274A publication Critical patent/JP2018055274A/en
Application granted granted Critical
Publication of JP6749193B2 publication Critical patent/JP6749193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a finding generation device comprising a user interface suitable for recording of dental findings.SOLUTION: A finding generation device 19 comprises: a speech recognition unit 197 which performs speech recognition on an input voice signal; and a finding generation unit 199 which switches display on a display device from a first screen allowing a character input based on the result of speech recognition to a second screen inhibiting the character input based on the result of speech recognition when receiving a prescribed signal indicating the end of the character input during display of the first screen.SELECTED DRAWING: Figure 1

Description

本開示は、音声認識により、歯牙の状態または所見を入力可能な所見作成装置、所見作成方法、所見作成プログラム、およびそのプログラムを記録した記録媒体に関する。   The present disclosure relates to a finding creation apparatus, a finding creating method, a finding creating program, and a recording medium on which the program is recorded, capable of inputting a tooth state or a finding by voice recognition.

従来、この種の所見作成装置としては、例えば下記特許文献1に記載の歯科診断情報処理装置がある。この歯科診断情報処理装置は、歯科診断情報に関する音声を入力するための音声入力手段と、入力された音声信号を解析して、所定の歯科診断データを認識するための音声認識手段と、認識された歯科診断データを記憶するためのデータ記憶手段と、認識された歯科診断データを表示するためのデータ表示手段と、を備えている。   Conventionally, as this kind of finding creation device, for example, there is a dental diagnosis information processing device described in Patent Document 1 below. This dental diagnosis information processing apparatus is recognized as a voice input means for inputting voice related to dental diagnosis information, and a voice recognition means for analyzing input voice signals and recognizing predetermined dental diagnosis data. Data storage means for storing the dental diagnosis data, and data display means for displaying the recognized dental diagnosis data.

特開平8−71091号公報JP-A-8-71091

本開示の目的は、操作者が使いやすいユーザインタフェイスを備えた所見作成装置、所見作成方法、所見作成プログラムおよびそのプログラムを記録した記録媒体を提供することである。   An object of the present disclosure is to provide a finding creation device, a finding creation method, a finding creation program, and a recording medium on which the program is recorded, provided with a user interface that is easy for an operator to use.

本開示の第一形態は、
発話内容を表す音声信号に対し、少なくとも大語彙連続音声認識を行う音声認識部と、
前記大語彙連続音声認識の結果に基づき、前記発話内容を表す文字の入力が許可された第一画面を表示中に、前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が不能な第二画面に、表示装置の表示を切り替える所見作成部と、を備えた所見作成装置、
に向けられる。
The first form of the present disclosure is:
A voice recognition unit that performs at least large vocabulary continuous voice recognition on a voice signal representing the utterance content;
Based on the result of the large vocabulary continuous speech recognition, a predetermined signal indicating the end of the character input is received during the display of the first screen while the first screen allowing the input of the characters representing the utterance content is displayed. A finding creation unit comprising: a finding creating unit that switches the display of the display device to a second screen incapable of character input based on the result of the large vocabulary continuous speech recognition;
Directed to.

本開示の第二形態は、
大語彙連続音声認識の結果に基づき発話内容を表す文字の入力が許可された第一画面を表示装置に表示させる手順と、
前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が禁止された第二画面に、前記表示装置の表示内容を切り替える手順と、を備えた所見作成方法、
に向けられる。
The second form of the present disclosure is:
A procedure for causing the display device to display a first screen that allows the input of characters representing the utterance content based on the result of large vocabulary continuous speech recognition;
A procedure for switching the display content of the display device to a second screen in which character input based on the result of the large vocabulary continuous speech recognition is prohibited when a predetermined signal indicating the end of character input is received during display of the first screen And a method of creating findings with
Directed to.

本開示の第三形態は、
コンピュータに、
大語彙連続音声認識の結果に基づき発話内容を表す文字の入力が許可された第一画面を表示装置に表示させる手順と、
前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が禁止された第二画面に、前記表示装置の表示内容を切り替える手順と、を備えた所見作成プログラム、
に向けられる。
The third form of the present disclosure is:
On the computer,
A procedure for causing the display device to display a first screen that allows the input of characters representing the utterance content based on the result of large vocabulary continuous speech recognition;
A procedure for switching the display content of the display device to a second screen in which character input based on the result of the large vocabulary continuous speech recognition is prohibited when a predetermined signal indicating the end of character input is received during display of the first screen Finding program with
Directed to.

本開示の第四形態は、
コンピュータに、
大語彙連続音声認識の結果に基づき発話内容を表す文字の入力が許可された第一画面を表示装置に表示させる手順と、
前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が禁止された第二画面に、前記表示装置の表示内容を切り替える手順と、を備えた所見作成プログラムを記録した記録媒体、
に向けられる。
The fourth form of the present disclosure is:
On the computer,
A procedure for causing the display device to display a first screen that allows the input of characters representing the utterance content based on the result of large vocabulary continuous speech recognition;
A procedure for switching the display content of the display device to a second screen in which character input based on the result of the large vocabulary continuous speech recognition is prohibited when a predetermined signal indicating the end of character input is received during display of the first screen And a recording medium on which the finding creation program comprising
Directed to.

本開示によれば、操作者が使いやすいユーザインタフェイスを備えた所見作成装置、所見作成方法、所見作成プログラム、および、それを記録した記録媒体を提供することが出来る。   According to the present disclosure, it is possible to provide a finding creation device, a finding creating method, a finding creating program, and a recording medium recording the finding, which have a user interface that is easy for an operator to use.

本開示の一実施形態に係る所見作成装置の構成を示す図The figure which shows the structure of the finding creation apparatus which concerns on one Embodiment of this indication. リスト画面を示す模式図Schematic diagram showing the list screen 所見作成画面を示す模式図Schematic diagram showing the findings creation screen 状態入力画面を示す模式図Schematic diagram showing the status input screen 顔貌写真画面、口腔内写真画面および義歯写真画面を示す模式図Schematic diagram showing facial photo screen, intraoral photo screen and denture photo screen 写真の編集画面を示す模式図Schematic diagram showing the photo editing screen ノート画面を示す模式図Schematic diagram showing a notebook screen 名前その他画像を示す模式図Schematic diagram showing names and other images 設定変更画面を示す模式図Schematic diagram showing the setting change screen 編集画面を示す模式図Schematic diagram showing the edit screen 選択画面を示す模式図Schematic diagram showing the selection screen 検索画面を示す模式図Schematic diagram showing the search screen 出力画面を示す模式図Schematic diagram showing the output screen データ操作画面を示す模式図Schematic diagram showing the data operation screen 所見削除画面を示す模式図Schematic diagram showing the findings deletion screen バックアップデータを作成する画面を示す模式図Schematic diagram showing the screen for creating backup data 所見データを復元する画面を示す模式図Schematic diagram showing the screen for restoring findings data 所見作成装置の処理を示すメインフロー図Main flow diagram showing the processing of the finding creation device 図7AにおけるステップS009の詳細な処理手順を示す第一のフロー図First flowchart showing a detailed processing procedure of step S009 in FIG. 7A. 図7AにおけるステップS009の詳細な処理手順を示す第二のフロー図FIG. 7A is a second flowchart showing the detailed processing procedure of step S009. 図7AにおけるステップS009の詳細な処理手順を示す第三のフロー図FIG. 7A is a third flowchart showing the detailed processing procedure of step S009. 設定ボタンを操作者にクリックするよう促すGUIを示す模式図Schematic diagram showing a GUI that prompts the operator to click a setting button 歯牙特定の音声認識結果を受け取った時の表示画面の遷移を示す模式図Schematic diagram showing the transition of the display screen when a tooth-specific speech recognition result is received 状態入力欄に歯牙の状態が入力された時の表示画面を示す模式図Schematic diagram showing the display screen when the tooth status is entered in the status input field 歯牙の表現を設定時における表示画面を示す模式図Schematic diagram showing the display screen when setting the tooth representation 歯牙の読みを変更する場合の表示画面を示す模式図Schematic diagram showing the display screen when changing the reading of the tooth 検査医師の名前を変更する場合の表示画面を示す模式図Schematic diagram showing the display screen when changing the name of the examining doctor

以下、上記図面を参照して、本開示の一実施形態に係る所見作成装置19を詳説する。   Hereinafter, the finding creation apparatus 19 according to an embodiment of the present disclosure will be described in detail with reference to the drawings.

<1.歯科所見作成システムの構成>
図1において、歯科所見作成システム1は、警察署等に設置されて、例えば、災害時の身元確認等に使用される。この歯科所見作成システム1は他にも、歯科医院に設置されて、患者のデンタルチャート管理のために使用されうる。
<1. Configuration of Dental Finding System>
In FIG. 1, a dental finding creation system 1 is installed in a police station or the like, and is used, for example, for identity confirmation in a disaster. The dental finding creation system 1 can also be installed in a dental clinic and used for managing a patient's dental chart.

上記歯科所見作成システム1は、大略的には、音声入力機器11と、操作入力機器13と、データ読取装置15と、通信装置17と、所見作成装置19と、表示装置111と、音声出力装置113と、を備えている。なお、データ読取装置15、所見作成装置19、表示装置111および音声出力装置113は同一筐体に内蔵されても良い。   The dental finding creation system 1 generally includes a voice input device 11, an operation input device 13, a data reading device 15, a communication device 17, a finding creation device 19, a display device 111, and a voice output device. 113. The data reading device 15, the finding creation device 19, the display device 111, and the audio output device 113 may be built in the same casing.

音声入力機器11は、例えば、マイクを内蔵した有線または無線のヘッドセットまたは据え置き型のマイクロフォンであって、所見作成装置19に有線または無線で接続される。   The voice input device 11 is, for example, a wired or wireless headset or a stationary microphone with a built-in microphone, and is connected to the finding creation device 19 by wire or wireless.

この音声入力機器11は、操作者による入力音声を電気信号(以下、音声信号という)に変換し、所見作成装置19に出力する。音声信号としては、各種音声コマンド(歯牙を特定する音声信号、歯牙の状態等を含む)を表す音声信号と、所見メモを表す音声信号が例示される。ここで、所見メモとは、音声コマンドではなく、歯科医師等の所見を表す相対的に長い文章である。   The voice input device 11 converts voice input by the operator into an electrical signal (hereinafter referred to as a voice signal) and outputs it to the finding creation device 19. Examples of the voice signal include a voice signal representing various voice commands (including a voice signal specifying a tooth, a tooth state, and the like) and a voice signal representing a finding memo. Here, the observation memo is not a voice command but a relatively long sentence representing a finding of a dentist or the like.

操作入力機器13は、例えば、マウスおよびキーボードであって、所見作成装置19に有線または無線で接続される。   The operation input device 13 is, for example, a mouse and a keyboard, and is connected to the finding creation device 19 by wire or wirelessly.

操作入力機器13は、操作者(例えば歯科医師)の手指による操作を、特定の電気信号(以下、操作信号という)に変換し、所見作成装置19に出力する。   The operation input device 13 converts an operation performed by a finger of an operator (for example, a dentist) into a specific electrical signal (hereinafter referred to as an operation signal) and outputs it to the finding creation device 19.

データ読取装置15は、ディスクまたは半導体メモリ等の可搬型記録媒体に格納されたデータを読み出して、所見作成装置19のワーキングメモリ193に転送する。   The data reading device 15 reads data stored in a portable recording medium such as a disk or a semiconductor memory, and transfers the data to the working memory 193 of the finding creation device 19.

通信装置17は、遠隔のサーバ等からデータを取得して、所見作成装置19のワーキングメモリ193に転送する。   The communication device 17 acquires data from a remote server or the like and transfers it to the working memory 193 of the finding creation device 19.

所見作成装置19は、大略的には、各種コネクタや各種インタフェイス(図示せず)と、記憶装置191と、ワーキングメモリ193と、プロセッサ195と、を備えている。   The finding creation device 19 generally includes various connectors and various interfaces (not shown), a storage device 191, a working memory 193, and a processor 195.

記憶装置191は、例えば、ハードディスクドライブまたは半導体メモリであって、音声認識プログラムP1と、音声入力デンタルチャートプログラム(図示は、単に、デンタルチャートプログラム)P3と、各種辞書D1〜D11と、を予め格納している。   The storage device 191 is, for example, a hard disk drive or a semiconductor memory, and stores in advance a voice recognition program P1, a voice input dental chart program (shown simply as a dental chart program) P3, and various dictionaries D1 to D11. doing.

音声認識プログラムP1は、大語彙連続音声認識プログラムP11と、小語彙単語音声認識プログラムP13と、から構成される。   The speech recognition program P1 includes a large vocabulary continuous speech recognition program P11 and a small vocabulary word speech recognition program P13.

大語彙連続音声認識プログラムP11は、所謂ディクテーションによる音声認識を可能にすべく、音声入力機器11から出力された音声信号に対し、音声コマンドに限定する事無く音声認識を実現するためのプログラムである。このような大語彙連続音声認識プログラムP11の実行時、大語彙連続音声認識辞書D1が使用される。   The large vocabulary continuous speech recognition program P11 is a program for realizing speech recognition for a speech signal output from the speech input device 11 without being limited to a speech command in order to enable speech recognition by so-called dictation. . When the large vocabulary continuous speech recognition program P11 is executed, the large vocabulary continuous speech recognition dictionary D1 is used.

それに対し、小語彙単語音声認識プログラムP13は、大語彙連続音声認識プログラムP1とは異なり、音声コマンドに限定して、音声入力機器11から出力された音声信号に対し、音声コマンドに限定して音声認識を実現するためのプログラムである。このような小語彙単語音声認識プログラムP13の実行時、大語彙連続音声認識辞書D1を除く小語彙単語音声認識辞書D3〜D11が使用される。小語彙単語音声認識辞書D3〜D11の詳細を表1に示す。   On the other hand, unlike the large vocabulary continuous speech recognition program P1, the small vocabulary word speech recognition program P13 is limited to speech commands and is limited to speech commands for speech signals output from the speech input device 11. It is a program for realizing recognition. When such a small vocabulary word speech recognition program P13 is executed, small vocabulary word speech recognition dictionaries D3 to D11 other than the large vocabulary continuous speech recognition dictionary D1 are used. Details of the small vocabulary word speech recognition dictionaries D3 to D11 are shown in Table 1.

上表1に記載の通り、小語彙単語音声認識辞書D3は、リスト画面I01が表示装置111に表示されている間、このリスト画面I01で使用可能な音声コマンドを定義する。他の小語彙単語音声認識辞書D5〜D11は、対応する画面が表示装置111に表示中に使用可能な音声コマンドを定義している。   As described in Table 1 above, the small vocabulary word speech recognition dictionary D3 defines speech commands that can be used on the list screen I01 while the list screen I01 is displayed on the display device 111. Other small vocabulary word speech recognition dictionaries D5 to D11 define speech commands that can be used while the corresponding screen is being displayed on the display device 111.

プロセッサ195は、ワーキングメモリ193を使いながら、両プログラムP1,P3を実行して、音声認識部197および所見作成部199として機能する。   The processor 195 executes both programs P1 and P3 while using the working memory 193, and functions as the speech recognition unit 197 and the finding creation unit 199.

具体的には、音声認識部197は、音声入力機器11から出力された音声データを受け取る。音声認識部197は、受け取った音声信号に対し音声認識を行い、それによって得られた音声認識結果を、所見作成部199として機能するプロセッサ195に渡す。本開示では、後述の第一画面(即ち、図2Fのノート画面I15)の表示時には、音声認識部197は、大語彙連続音声認識プログラムP11および小語彙単語音声認識プログラムP13を大語彙単語音声認識辞書D1および小語彙単語音声認識辞書D9を使いつつ実行して、受け取った音声信号に対して音声認識を行って、その結果を所見作成部199に渡す。それに対し、後述の第二画面(即ち、図2Bのデンタルチャート画面I05図2Dの顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13、ならびに、図2Gの名前その他画面I17)の表示時には、小語彙単語音声認識プログラムP13をそれ対応する小語彙単語音声認識辞書D3〜D7,D11を使いつつ実行して、受け取った音声信号に対し音声認識処理を行って、その結果を所見作成部199に渡す。   Specifically, the voice recognition unit 197 receives voice data output from the voice input device 11. The voice recognition unit 197 performs voice recognition on the received voice signal, and passes the voice recognition result obtained thereby to the processor 195 functioning as the finding creation unit 199. In the present disclosure, the speech recognition unit 197 displays the large vocabulary continuous speech recognition program P11 and the small vocabulary word speech recognition program P13 as the large vocabulary word speech recognition when the first screen described later (that is, the note screen I15 in FIG. 2F) is displayed. This is executed using the dictionary D1 and the small vocabulary word speech recognition dictionary D9, speech recognition is performed on the received speech signal, and the result is passed to the finding creation unit 199. On the other hand, when the second screen described later (that is, the dental chart screen I05 in FIG. 2B, the facial photo screen I09 in FIG. 2D, the intraoral photo screen I11 and the denture photo screen I13, and the name and other screen I17 in FIG. 2G) are displayed. The small vocabulary word speech recognition program P13 is executed using the corresponding small vocabulary word speech recognition dictionaries D3 to D7, D11, and speech recognition processing is performed on the received speech signal, and the result is generated as a finding creation unit 199. To pass.

所見作成部199は、音声認識部197の音声認識結果である音声コマンドや操作入力機器13からの操作信号に基づき、所見データの作成、編集および出力等に関する各種画面を作成して、作成した画面を表示装置111に表示させる。また、所見作成部199は、ノート画面I15を表示中、音声認識部197の音声認識結果である所見メモを表す文字をノート入力領域R11に入力する。   The finding creation unit 199 creates various screens related to creation, editing, and output of finding data based on the voice command that is the voice recognition result of the voice recognition unit 197 and the operation signal from the operation input device 13, and the created screen Is displayed on the display device 111. In addition, while the note creation unit 199 is displaying the note screen I15, the character representing the finding memo, which is the voice recognition result of the voice recognition unit 197, is input to the note input area R11.

なお、プロセッサ195は、音声認識部197および所見作成部199として機能する以外にも、様々な処理を行う。これらについては、後で適宜説明する。   The processor 195 performs various processes in addition to functioning as the voice recognition unit 197 and the finding creation unit 199. These will be described later as appropriate.

表示装置111は、所見作成装置19で生成された各種画面(詳細は後述)を表示する。   The display device 111 displays various screens (details will be described later) generated by the finding creation device 19.

音声出力装置113は、所見作成装置19で生成された音声信号を音声で出力する。   The audio output device 113 outputs the audio signal generated by the finding creation device 19 as audio.

<2.表示装置で表示される各種画面>
次に、所見作成装置19で表示される各種画面について詳説する。
<2−1.リスト画面>
まず、図2Aを参照して、図1のデンタルチャートプログラムP3の起動後に表示されるリスト画面I01について説明する。
図2Aにおいて、リスト画面I01は、新規作成ボタンB01、設定変更ボタンB03、検索ボタンB05、出力ボタンB07、データ操作ボタンB09、終了ボタンB11および所見リスト領域R01から構成される。
<2. Various screens displayed on the display device>
Next, various screens displayed on the finding creation device 19 will be described in detail.
<2-1. List screen>
First, with reference to FIG. 2A, the list screen I01 displayed after starting the dental chart program P3 of FIG. 1 will be described.
2A, the list screen I01 includes a new creation button B01, a setting change button B03, a search button B05, an output button B07, a data operation button B09, an end button B11, and a finding list area R01.

各ボタンB01〜B11は、操作入力機器13を構成するマウス等によりクリック可能なボタンである。各ボタンB01〜B11の機能は下表2の通りである。操作入力機器13で各ボタンB01〜B11がクリックされると、表示装置111の表示内容が、リスト画面I01から下表2の通りに変更される。   Each of the buttons B01 to B11 is a button that can be clicked with a mouse or the like constituting the operation input device 13. The functions of the buttons B01 to B11 are as shown in Table 2 below. When the buttons B01 to B11 are clicked on the operation input device 13, the display content of the display device 111 is changed from the list screen I01 as shown in Table 2 below.

上表2において、新規作成ボタンB01には、所見作成画面I03の表示に切り替える機能が割り当てられ、設定変更ボタンB03には、設定変更画面I19の表示に切り替える機能が割り当てられる。他のボタンB01〜B11にも、上表2に記載の機能が割り当てられる。   In Table 2 above, the function for switching to the display of the finding creation screen I03 is assigned to the new creation button B01, and the function for switching to the display of the setting change screen I19 is assigned to the setting change button B03. The functions shown in Table 2 are also assigned to the other buttons B01 to B11.

所見リスト領域R01には、既存の所見データ(即ち、記憶装置191に格納されている所見データ)がリスト形式で表示される。各所見データは、操作入力機器13によるダブルクリックで開かれ、表示装置111に表示される。   In the finding list area R01, existing finding data (that is, finding data stored in the storage device 191) is displayed in a list format. Each finding data is opened by double-clicking with the operation input device 13 and displayed on the display device 111.

<2−2.所見作成画面>
次に、図2Bを参照して、所見作成画面I03について説明する。
図2Bにおいて、所見作成画面I03は、ある身元不明者または患者(以下、身元不明者等という)の所見データを作成する際に用いられ、複数の永久歯状態入力欄C01、複数の永久歯状態選択ボタンB13、複数の画面切り替えタブT01、デンタルチャート画面I05、複数の乳歯状態入力欄C03、複数の乳歯状態選択ボタンB15、再生ボタンB17および閉じるボタンB19から構成される。
<2-2. Observation creation screen>
Next, the finding creation screen I03 will be described with reference to FIG. 2B.
In FIG. 2B, the finding creation screen I03 is used when creating finding data of a certain unidentified person or patient (hereinafter referred to as unidentified person, etc.), and includes a plurality of permanent tooth state input fields C01 and a plurality of permanent tooth state selection buttons. B13, a plurality of screen switching tabs T01, a dental chart screen I05, a plurality of milk tooth state input fields C03, a plurality of milk tooth state selection buttons B15, a reproduction button B17, and a close button B19.

なお、所見作成画面I03の中央部には、画面切り替えタブT01のクリックにより、デンタルチャート画面I05、顔貌写真画面I09、口腔内写真画面I11、義歯写真画面I13、ノート画面I15およびその他画面I17のいずれかが選択的に表示される。   In the center of the finding creation screen I03, any one of the dental chart screen I05, the facial photo screen I09, the intraoral photo screen I11, the denture photo screen I13, the note screen I15, and the other screen I17 can be selected by clicking the screen switching tab T01. Is selectively displayed.

永久歯状態入力欄C01は、歯牙(具体的には、永久歯)毎に設けられる。なお、以下の説明において、右とは、紙面奥から手前に向かって右を意味する。   The permanent tooth state input field C01 is provided for each tooth (specifically, permanent tooth). In the following description, the right means the right from the back of the page toward the front.

所見作成画面I03の右上には、口内の右上1番〜右上8番までの永久歯の状態入力欄C01が上から下へと順番に配置される。所見作成画面I03の右下には、口内の右下にある右下1番〜右下8番の永久歯の状態入力欄C01が下から上へと順番に配置される。なお、所見作成画面I03の左上および左下には、左上および左下にある複数の永久歯の状態入力欄C01が順番に配置される。   In the upper right of the finding creation screen I03, the permanent tooth state input fields C01 from the upper right 1 to the upper right 8 in the mouth are arranged in order from top to bottom. On the lower right side of the finding creation screen I03, the lower right first to lower right eighth permanent tooth state input columns C01 in the lower right of the mouth are arranged in order from the bottom to the top. In the upper left and lower left of the finding creation screen I03, a plurality of permanent tooth state input fields C01 in the upper left and lower left are arranged in order.

なお、図2Bでは、図示の都合上、右上の永久歯状態入力欄C01が破線で囲まれ、これらに一括で参照符号C01が付されている。   In FIG. 2B, for convenience of illustration, the upper right permanent tooth state input field C01 is surrounded by a broken line, and these are collectively denoted by reference numeral C01.

各永久歯状態入力欄C01には、音声認識結果に基づき生成された文字列(より具体的には、歯牙の状態)が入力可能になっている。なお、ここへの文字入力は、操作入力機器13を構成するキーボードからの操作信号に基づいても良い。入力された文字列は、対応する永久歯状態入力欄C01内に表示される。   In each permanent tooth state input field C01, a character string (more specifically, a tooth state) generated based on the voice recognition result can be input. The character input here may be based on an operation signal from a keyboard constituting the operation input device 13. The input character string is displayed in the corresponding permanent tooth state input field C01.

なお、ある歯牙を音声等により選択中、対応する永久歯状態入力欄C01の内部は特定色(例えば赤)でハイライトされる。図2Bの例では、左上C番の乳歯が選択中であるため、いずれの永久歯状態入力欄C01もハイライトされていない。   While a certain tooth is selected by voice or the like, the inside of the corresponding permanent tooth state input field C01 is highlighted with a specific color (for example, red). In the example shown in FIG. 2B, since the upper left C-th deciduous tooth is being selected, none of the permanent tooth state input fields C01 is highlighted.

状態選択ボタンB13は、永久歯毎に設けられる。本実施形態では、各永久歯状態入力欄C01の隣に、対応する永久歯向けの状態選択ボタンB13が配置される。   The state selection button B13 is provided for each permanent tooth. In the present embodiment, a state selection button B13 for a corresponding permanent tooth is arranged next to each permanent tooth state input field C01.

なお、図2Bでは、図示の都合上、右上の永久歯向けの各状態選択ボタンB13が破線で囲まれ、これらに一括で参照符号B13が付されている。   In FIG. 2B, for convenience of illustration, the state selection buttons B13 for the upper right permanent teeth are surrounded by a broken line, and these are collectively denoted by reference numeral B13.

各状態選択ボタンB13には、対応する歯牙の状態入力画面I07(図2Cを参照)を所見作成画面I03にオーバーレイ表示する機能が割り当てられている。   Each state selection button B13 is assigned a function of overlaying the corresponding tooth state input screen I07 (see FIG. 2C) on the finding creation screen I03.

ここで、図2Cを参照して、状態入力画面I07について説明する。なお、図2Cには、左上1番の永久歯の状態入力画面I07が例示される。   Here, the state input screen I07 will be described with reference to FIG. 2C. Note that FIG. 2C illustrates a state input screen I07 of the upper left permanent tooth.

図2Cにおいて、各状態入力画面I07は、入力ボックスC05、クリアボタンB21、複数の状態ボタンB23および閉じるボタンB25から構成される。   In FIG. 2C, each status input screen I07 includes an input box C05, a clear button B21, a plurality of status buttons B23, and a close button B25.

入力ボックスC05には、歯牙の状態を示す文字列が入力される。
クリアボタンB21には、入力ボックスC05内の文字列をクリアする機能が割り当てられる。
In the input box C05, a character string indicating a tooth state is input.
A function for clearing the character string in the input box C05 is assigned to the clear button B21.

複数の状態ボタンB23には、歯牙の状態を示す文字列が個々に割り当てられる。これらの文字列としては、健全歯、欠損(歯槽窩あり)、インレー修復、アンレー修復等が例示される。ある状態ボタンB23が操作入力機器13でクリックされると、そのボタンB23に割り当てられた歯牙の状態の文字列が、入力ボックスC05に入力され表示される。   Character strings indicating tooth states are individually assigned to the plurality of state buttons B23. Examples of these character strings include healthy teeth, defects (with alveolar fossa), inlay restoration, onlay restoration, and the like. When a certain state button B23 is clicked with the operation input device 13, the character string of the tooth state assigned to the button B23 is input and displayed in the input box C05.

なお、図2Cでは、図示の都合上、全状態ボタンB23が破線で囲まれ、これらに一括で参照符号B23が付されている。   In FIG. 2C, for the sake of illustration, the all-state button B23 is surrounded by a broken line, and these are collectively denoted by reference sign B23.

閉じるボタンB25には、入力ボックスC05に表示されている文字列を、所見作成画面I03において対応する状態入力欄C01に入力・表示させると共に、状態入力画面I07のオーバーレイ表示を終了させる機能が割り当てられている。   The close button B25 is assigned a function for inputting and displaying the character string displayed in the input box C05 in the corresponding state input field C01 on the finding creation screen I03 and ending the overlay display of the state input screen I07. ing.

再度、図2Bを参照する。
複数の画面切り替えタブT01のそれぞれには、デンタルチャート画面I05、顔貌写真画面I09、口腔内写真画面I11、義歯写真画面I13、ノート画面I15および名前その他画面I17のいずれかが一つずつ割り当てられる。
Reference is again made to FIG. 2B.
Each of the plurality of screen switching tabs T01 is assigned one of a dental chart screen I05, a facial photo screen I09, an intraoral photo screen I11, a denture photo screen I13, a note screen I15, and a name and other screen I17.

ある画面切り替えタブT01が操作入力機器13でクリックされると、表示装置111の表示内容が、クリックされたタブT01に割り当てられた画面(デンタルチャート画面I05、顔貌写真画面I09、口腔内写真画面I11、義歯写真画面I13、ノート画面I15および名前その他画面I17のいずれか)に切り替える。   When a screen switching tab T01 is clicked with the operation input device 13, the display content of the display device 111 is a screen (dental chart screen I05, facial photo screen I09, intraoral photo screen I11 assigned to the clicked tab T01. , Any one of the denture photo screen I13, the note screen I15, and the name and other screen I17).

デンタルチャート画面I05には、永久歯および乳歯の歯牙列を表す画像が含まれる。図2Bの例では、上側の永久歯の歯牙列は、下方からの平面視したような模式的な歯牙の形状で表され、デンタルチャート画面I05の上方に示される。また、下側の永久歯の歯牙列は、これを上面視したような模式的な形状で表され、上側の歯牙列の下方に示される。   The dental chart screen I05 includes an image representing a tooth row of permanent teeth and milk teeth. In the example of FIG. 2B, the tooth row of the upper permanent teeth is represented by a schematic tooth shape as seen in plan view from below, and is shown above the dental chart screen I05. In addition, the lower permanent tooth row is represented by a schematic shape as viewed from above, and is shown below the upper tooth row.

上側の乳歯の歯牙列は、この歯牙列を下方からの平面視したような模式的な歯牙の形状で表され、上側の永久歯の歯牙列の内側に示される。下側の乳歯の歯牙列は、この歯牙列を上面視したような模式的な歯牙の形状で表され、下側の永久歯の歯牙列の内側に示される。これにより、デンタルチャート画面I05のスペースが有効活用される。   The tooth row of the upper deciduous tooth is represented by a schematic tooth shape as seen from above, and is shown inside the tooth row of the upper permanent tooth. The tooth row of the lower deciduous tooth is represented by a schematic tooth shape as the tooth row is viewed from above, and is shown inside the tooth row of the lower permanent tooth. Thereby, the space of the dental chart screen I05 is effectively used.

なお、乳歯に関しては、初期状態ではグレイアウトされている。ある歯牙を選択中、対応する歯牙は特定色(例えば赤)の円で囲まれる。   The milk teeth are grayed out in the initial state. While a certain tooth is selected, the corresponding tooth is surrounded by a circle of a specific color (for example, red).

乳歯状態入力欄C03は、乳歯毎に設けられる。
口内の右上A番〜右上E番の乳歯の状態入力欄C03は、所見作成画面I03において、右上の永久歯状態入力欄C01と、右下の永久歯状態入力欄C01との間に、上から下へと順番に配置される。右下の永久歯状態入力欄C01の下方には、口内の右下A番〜右下E番の乳歯の状態入力欄C03が上から下へと順番に配置される。
The milk tooth state input field C03 is provided for each milk tooth.
The state input column C03 of the upper right A to the upper right E of the mouth is from top to bottom between the upper right permanent tooth state input column C01 and the lower right permanent tooth state input column C01 on the finding creation screen I03. Are arranged in order. Below the lower right permanent tooth state input field C01, the lower right A to lower right E milk state input fields C03 in the mouth are arranged in order from top to bottom.

左上,左下の各乳歯の状態入力欄C03は、デンタルチャート画面I05等を挟んで、右上,右下の各乳歯の状態入力欄C03と横方向において対向するように配置される。   The upper left and lower left milk tooth status input fields C03 are arranged to face the upper right and lower right milk tooth status input fields C03 across the dental chart screen I05.

なお、図2Bでは、図示の都合上、左上の乳歯向けの複数の状態入力欄C03が破線で囲まれ、これらに一括で参照符号C03が付されている。   In FIG. 2B, for convenience of illustration, a plurality of state input fields C03 for the upper left deciduous teeth are surrounded by a broken line, and these are collectively denoted by reference numeral C03.

各乳歯状態入力欄C03には、各永久歯状態入力欄C01と同様に、音声認識結果または操作信号に基づく歯牙の状態が入力可能になっている。乳歯状態入力欄C03に入力された歯牙の状態は、表示装置111の画面上に表示される。   Similarly to each permanent tooth state input field C01, a tooth state based on a voice recognition result or an operation signal can be input to each milk tooth state input field C03. The tooth status input in the milk tooth status input field C03 is displayed on the screen of the display device 111.

なお、永久歯状態入力欄C01の場合と同様、ある乳歯を選択中、対応する乳歯状態入力欄C03の内部は特定色(例えば赤)でハイライトされる。図2Bの例では、左上C番の乳歯が選択中であることが示されている。   As in the case of the permanent tooth state input field C01, while a certain milk tooth is selected, the inside of the corresponding milk tooth state input field C03 is highlighted with a specific color (for example, red). In the example of FIG. 2B, it is shown that the upper left C-th deciduous tooth is being selected.

乳歯状態選択ボタンB15は、乳歯毎に設けられる。本実施形態では、各乳歯状態入力欄C03の隣に、対応する永久歯向けの状態選択ボタンB13が配置される。   The milk tooth state selection button B15 is provided for each milk tooth. In the present embodiment, a corresponding state selection button B13 for permanent teeth is arranged next to each milk tooth state input field C03.

各状態選択ボタンB15には、対応する歯牙の状態入力画面I07(図2Cを参照)を所見作成画面I03にオーバーレイ表示する機能が割り当てられている。   Each state selection button B15 is assigned a function of overlaying the corresponding tooth state input screen I07 (see FIG. 2C) on the finding creation screen I03.

なお、乳歯の状態入力画面I07は、永久歯の状態入力画面I07と同様の構成を有するため、その説明を控える。また、図2Bでは、図示の都合上、左上の乳歯状態選択ボタンB15が破線で囲まれ、これら状態選択ボタンに一括で参照符号B15が付されている。   The milk tooth state input screen I07 has the same configuration as the permanent tooth state input screen I07, and a description thereof will be omitted. In FIG. 2B, for convenience of illustration, the upper left deciduous tooth state selection button B15 is surrounded by a broken line, and these state selection buttons are collectively denoted by reference numeral B15.

再生ボタンB17には、ノート画面I15で入力された文字列の読み上げを開始する機能が割り当てられる。
閉じるボタンB19には、表示装置111の表示内容を前述のリスト画面I01に戻す機能が割り当てられている。
A function for starting to read out the character string input on the note screen I15 is assigned to the reproduction button B17.
A function for returning the display content of the display device 111 to the above-described list screen I01 is assigned to the close button B19.

ところで、前述の通り、画面切り替えタブT01のクリックにより、表示装置111の表示内容は、デンタルチャート画面I05だけでなく、顔貌写真画面I09、口腔内写真画面I11または義歯写真画面I13にも切り替わる。   By the way, as described above, the display content of the display device 111 is switched not only to the dental chart screen I05 but also to the facial photograph screen I09, the intraoral photograph screen I11, or the denture photograph screen I13 by clicking the screen switching tab T01.

以下、図2Dを参照して、顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13について説明する。   Hereinafter, the facial photograph screen I09, the intraoral photograph screen I11, and the denture photograph screen I13 will be described with reference to FIG. 2D.

図2Dの上段、中段および下段には、顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13が示される。   2D shows a facial photo screen I09, an intraoral photo screen I11, and a denture photo screen I13.

顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13の中央領域R03,R05,R07には、操作入力機器13を用いたドラッグ&ドロップにより、身元不明者等の顔貌写真、口腔内写真および義歯写真を貼り付けることが出来るようになっている。こうして貼り付けられた顔貌写真、口腔内写真および義歯写真は、所見データの一部を構成して、記憶装置191に格納される。   In the central regions R03, R05, and R07 of the facial photo screen I09, intraoral photo screen I11, and denture photo screen I13, by drag and drop using the operation input device 13, facial photos of the unidentified person, intraoral photos and A denture photo can be pasted. The facial photograph, intraoral photograph, and denture photograph pasted in this way constitute a part of the findings data and are stored in the storage device 191.

また、格納済みの顔貌写真、口腔内写真および義歯写真が操作入力機器13でクリックされると、図2Eに示すような各写真の編集画面I19が、所見作成画面I03にオーバーレイ表示される。   When the stored facial photograph, intraoral photograph, and denture photograph are clicked on the operation input device 13, an edit screen I19 for each photograph as shown in FIG. 2E is displayed as an overlay on the finding creation screen I03.

図2Eにおいて、各編集画面I19は、格納済の写真(顔貌写真、口腔内写真および義歯写真のいずれか)の表示領域R09、閉じるボタンB27、左回転ボタンB29、元に戻すボタンB31、右回転ボタンB33および削除ボタンB35から構成される。   In FIG. 2E, each editing screen I19 is a display area R09 of a stored photograph (any one of a facial photograph, intraoral photograph, and denture photograph), a close button B27, a left rotation button B29, an undo button B31, and a right rotation. It consists of a button B33 and a delete button B35.

閉じるボタンB27には、編集画面I19のオーバーレイ表示を終了させる機能が割り当てられる。
左回転ボタンB29には、表示領域R09に表示されている写真を反時計回りに90°回転させる機能が割り当てられる。
The close button B27 is assigned a function for ending the overlay display of the editing screen I19.
A function for rotating the photograph displayed in the display area R09 by 90 ° counterclockwise is assigned to the left rotation button B29.

元に戻すボタンB31には、編集中の写真を初期状態(編集画面I19の表示開始時点の状態)に戻す機能が割り当てられる。
右回転ボタンB33には、表示領域R09に表示されている写真を時計回りに90°回転させる機能が割り当てられる。
The undo button B31 is assigned a function for returning the photo being edited to the initial state (the state when the editing screen I19 is displayed).
The right rotation button B33 is assigned a function for rotating the photograph displayed in the display region R09 by 90 degrees clockwise.

ところで、前述の通り、画面切り替えタブT01のクリックにより、表示装置111の表示内容は、デンタルチャート画面I05だけでなく、ノート画面I15にも切り替わる。   By the way, as described above, the display content of the display device 111 is switched not only to the dental chart screen I05 but also to the note screen I15 by clicking the screen switching tab T01.

以下、図2Fを参照して、ノート画面I15について説明する。
図2Fにおいて、ノート画面I15は、ノート入力領域R11と、音声コマンド表示領域R13とから構成される。
Hereinafter, the note screen I15 will be described with reference to FIG. 2F.
In FIG. 2F, the note screen I15 includes a note input area R11 and a voice command display area R13.

ノート入力領域R11には、基本的には、音声認識部197による音声認識結果を示す文字列が入力され表示される。このノート画面I15は、主として、歯科医師による所見メモの記載に用いられる。よって、ノート入力領域R11に入力・表示されるのは、典型的には、所見メモを表す文字列となる。   In the note input area R11, basically, a character string indicating a voice recognition result by the voice recognition unit 197 is input and displayed. This note screen I15 is mainly used to describe a finding memo by a dentist. Therefore, what is input and displayed in the note input area R11 is typically a character string representing a finding memo.

音声コマンド表示領域R13には、少なくともノート画面I15の表示中に、利用可能な音声コマンドが列挙され表示される。本所見作成装置19では、下表3の11種の音声コマンドが定義されるとする。   In the voice command display area R13, available voice commands are listed and displayed at least during the display of the note screen I15. In the present finding creation device 19, it is assumed that 11 types of voice commands shown in Table 3 below are defined.

上表3において、音声コマンド「終わり」は、音声認識部197による音声認識結果をノート入力領域R11への入力すること(即ち、ディクテーション入力)を終了させる機能が割り当てられている。音声コマンド「最初に戻る」は、ノート入力領域R11におけるカーソルを、既に入力されている文字列の先頭に移動させる機能が割り当てられている。他の音声コマンドにも、上表3に記載の機能が割り当てられる。   In Table 3 above, the voice command “END” is assigned a function for terminating the input of the voice recognition result by the voice recognition unit 197 to the note input area R11 (ie, dictation input). The voice command “return to the beginning” is assigned a function of moving the cursor in the note input area R11 to the head of the character string already input. The functions described in Table 3 are also assigned to other voice commands.

ところで、前述の通り、画面切り替えタブT01のクリックにより、表示装置111の表示内容は、デンタルチャート画面I05だけでなく、名前その他画面I17にも切り替わる。   By the way, as described above, when the screen switching tab T01 is clicked, the display contents of the display device 111 are switched not only to the dental chart screen I05 but also to the name and other screen I17.

以下、図2Gを参照して、名前その他画面I17について説明する。
図2Gにおいて、名前その他画面I17は、所見データに関する各種項目情報P01を設定可能に構成される。本開示では、図2Gに示すように、事案名、検査日、検査医師、生死、性別、推定年齢、実年齢、発見年月日、発見場所および検査場所が設定可能になっている。表4には各項目の定義を示す。
The name and other screen I17 will be described below with reference to FIG. 2G.
In FIG. 2G, the name and other screen I17 is configured so that various item information P01 regarding the finding data can be set. In the present disclosure, as shown in FIG. 2G, the case name, examination date, examination doctor, life and death, sex, estimated age, actual age, discovery date, discovery place, and examination place can be set. Table 4 shows the definition of each item.

上表4に記載の項目情報は、基本的に、操作入力機器13からの操作情報に基づき入力あるいは設定される。   The item information described in Table 4 is basically input or set based on operation information from the operation input device 13.

上記項目情報のうち、特に、検査医師は、後述の設定変更画面I19で登録された医師をプルダウンメニューM01から選択可能になっている。
また、検案場所は、後述の設定変更画面I19で登録された検案場所が初期値として表示される。
事案名は、身元確認事業を特定する名称が、操作入力機器13の操作情報に基づき入力される。
Among the item information, in particular, the examining doctor can select a doctor registered on a setting change screen I19 described later from the pull-down menu M01.
In addition, as the examination place, the examination place registered on the setting change screen I19 described later is displayed as an initial value.
As the case name, a name for identifying the identity confirmation business is input based on the operation information of the operation input device 13.

<2−3.設定変更画面>
前述の通り、図2Aにおいて、設定変更ボタンB03には、設定変更画面I19の表示に切り替える機能が割り当てられる。以下、図3Aを参照して、設定変更画面I19の構成について説明する。
<2-3. Setting change screen>
As described above, in FIG. 2A, the setting change button B03 is assigned a function for switching to the display of the setting change screen I19. Hereinafter, the configuration of the setting change screen I19 will be described with reference to FIG. 3A.

設定変更画面I19は、各歯牙の読み、および、入力すべき歯牙の状態を設定するために用いられる。設定変更画面I19はさらに、名前その他画面で選択可能な医師名と、検案場所の初期値とを設定するために用いられる。そのために、上記の設定変更画面I19は、デンタルチャート領域R15と、歯牙の読みリスト領域R17と、歯牙の状態リスト領域R19と、検査医師リスト領域R21と、検案場所の入力領域R23と、から構成される。   The setting change screen I19 is used to set the reading of each tooth and the state of the tooth to be input. The setting change screen I19 is further used for setting names and other doctor names that can be selected on the screen, and initial values of examination locations. For this purpose, the setting change screen I19 includes a dental chart area R15, a tooth reading list area R17, a tooth status list area R19, an examining doctor list area R21, and an examination area input area R23. Is done.

デンタルチャート領域R15は、設定変更画面I19の右端の領域であって、歯牙列と、各歯牙を特定する情報とが操作者に視認可能に構成される。   The dental chart region R15 is a rightmost region of the setting change screen I19, and is configured such that the tooth row and information for identifying each tooth are visible to the operator.

歯牙の読みリスト領域R17は、デンタルチャート領域R15の左隣りの領域であって、各歯牙を音声で特定する為の読みが、歯牙毎に設定され表示される。なお、詳細は後述するが、各歯牙の読みは予め定められた区切り記号を用いることで、複数通り設定可能になっている。   The tooth reading list area R17 is an area on the left side of the dental chart area R15, and readings for specifying each tooth by voice are set and displayed for each tooth. Although details will be described later, reading of each tooth can be set in a plurality of ways by using a predetermined delimiter.

歯牙の状態リスト領域R19は、歯牙の読みリスト領域R17の右隣りの領域である。この歯牙の状態リスト領域R19には、歯牙の状態毎に設定ボタンB37が配置される。図示の都合上、図3Aでは、歯牙の状態リスト領域R19の右上の設定ボタンであって、歯牙の状態「健全」の設定ボタンに、参照符号B37が付されている。   The tooth state list area R19 is an area adjacent to the right of the tooth reading list area R17. In the tooth state list area R19, a setting button B37 is arranged for each tooth state. For convenience of illustration, in FIG. 3A, the setting button at the upper right of the tooth state list region R <b> 19 and the setting button for the tooth state “healthy” is denoted by reference sign B <b> 37.

各設定ボタンB37には、対応する歯牙の状態の編集画面I21を設定変更画面I19にオーバーレイ表示する機能が割り当てられている。   Each setting button B37 is assigned a function of displaying the corresponding tooth state editing screen I21 on the setting change screen I19.

ここで、図3Bを参照して、編集画面I21について説明する。なお、図3Bには、歯牙の状態「健全」の編集画面I21が例示される。   Here, the editing screen I21 will be described with reference to FIG. 3B. FIG. 3B illustrates an editing screen I21 of the tooth state “healthy”.

図3Bにおいて、各編集画面I21は、名称入力ボックスC07と、読み入力ボックスC09と、色ボタンB39と、歯牙の表現ボタンB41と、OKボタンB43と、キャンセルボタンB45とから構成される。   3B, each edit screen I21 includes a name input box C07, a reading input box C09, a color button B39, a tooth expression button B41, an OK button B43, and a cancel button B45.

名称入力ボックスC07には、歯牙の状態の名称を示す文字列が入力され表示される。
読み入力ボックスC09には、上記名称入力ボックスC07に入力された文字列の読みが入力され表示される。
In the name input box C07, a character string indicating the name of the tooth state is input and displayed.
In the reading input box C09, the reading of the character string input in the name input box C07 is input and displayed.

色ボタンB39には、対応する設定ボタンB37の色を設定する機能が割り当てられる。この色ボタンB39がクリックされると、例えば、カラーチャート(図示せず)がさらにオーバーレイ表示される。操作入力機器13により操作された色が設定ボタンB37の色として設定される。   A function for setting the color of the corresponding setting button B37 is assigned to the color button B39. When this color button B39 is clicked, for example, a color chart (not shown) is further overlaid. The color operated by the operation input device 13 is set as the color of the setting button B37.

歯牙の表現ボタンB41には、デンタルチャート画像I05における歯牙の状態の表現を設定する機能が割り当てられる。この歯牙の表現ボタンB41がクリックされると、図3Cに示すような歯牙の表現画像の選択画面I23がさらにオーバーレイ表示される。   Tooth expression button B41 is assigned a function for setting the expression of the tooth state in dental chart image I05. When the tooth expression button B41 is clicked, a tooth expression image selection screen I23 as shown in FIG. 3C is further displayed in an overlay manner.

図3Cにおいて、選択画面I23には、予め準備されかつ互いに異なる複数通り(図示は14通り)の歯牙の表現手法を表すサンプル画像G01が選択可能に表示される。なお、1番〜3番の永久歯やA番〜C番の乳歯のように咬合面が無い歯牙に対し、咬合面が有る歯牙の表現手法を指定不能である。   In FIG. 3C, the selection screen I23 displays a sample image G01 that is prepared in advance and represents a plurality of (14 in the drawing) different tooth expression methods that can be selected. It is not possible to specify a method for expressing a tooth having an occlusal surface with respect to a tooth having no occlusal surface, such as the first to third permanent teeth and the A to C number deciduous teeth.

再度、図3Bを参照する。
OKボタンB43には、編集画面I21で変更された内容を適用して、編集画面I21のオーバーレイ表示を終了させる機能が割り当てられる。
キャンセルボタンB45には、編集画面I21で変更された内容を適用する事無く破棄して、編集画面I21のオーバーレイ表示を終了させる機能が割り当てられる。
Reference is again made to FIG. 3B.
The OK button B43 is assigned a function for applying the contents changed on the editing screen I21 and terminating the overlay display of the editing screen I21.
The cancel button B45 is assigned a function of discarding the contents changed on the editing screen I21 without applying them and ending the overlay display of the editing screen I21.

ここで、再度、図3Aを参照する。
検査医師リスト領域R21は、歯牙の状態リスト領域R19の左隣りに配置される。この検査医師リスト領域R21には、検査医師の名前が追加または削除される。
検案場所の入力領域R23は、検査医師リストの下方に配置される。この検案場所の入力領域R23には、新規作成される所見データの検案場所の初期値が記入される。
Here, referring to FIG. 3A again.
The examining doctor list area R21 is arranged on the left side of the tooth state list area R19. The name of the examining doctor is added to or deleted from the examining doctor list region R21.
The examination area input area R23 is arranged below the examination doctor list. In the input area R23 of the examination place, the initial value of the examination place of the newly created finding data is entered.

<2−4.検索画面>
前述の通り、図2Aにおいて、検索ボタンB05には、検索画面I25の表示に切り替える機能が割り当てられる。以下、図4Aを参照して、検索画面I25の構成について説明する。
<2-4. Search screen>
As described above, in FIG. 2A, the search button B05 is assigned a function for switching to display of the search screen I25. Hereinafter, the configuration of the search screen I25 will be described with reference to FIG. 4A.

検索画面I25は、記憶装置191に格納された既存の所見データの中から、操作者が操作入力機器13を用いて指定した条件を含むものを検索するために用いられる。そのために、検索画面I25は、検索条件入力領域R25と、検索結果出力領域R27と、から構成される。   The search screen I25 is used to search for existing findings data stored in the storage device 191 that include conditions specified by the operator using the operation input device 13. For this purpose, the search screen I25 includes a search condition input area R25 and a search result output area R27.

検索条件入力領域R25は、検索画面I25の概ね左半分の領域である。この検索条件入力領域R25には、各種検索条件が入力され表示される。本開示では、所見作成画面I03で入力・設定可能な項目が検索条件として入力・表示可能に構成されている。   The search condition input area R25 is a substantially left half area of the search screen I25. Various search conditions are input and displayed in the search condition input area R25. In the present disclosure, items that can be input and set on the finding creation screen I03 can be input and displayed as search conditions.

検索結果出力領域R27には、検索条件入力領域R25に配置される検索ボタンB47の操作に応答して、検索結果が表示される領域である。   The search result output area R27 is an area in which search results are displayed in response to an operation of the search button B47 arranged in the search condition input area R25.

<2−5.出力画面>
前述の通り、図2Aにおいて、出力ボタンB07には、出力画面I27の表示に切り替える機能が割り当てられる。以下、図5Aを参照して、出力画面I27の構成について説明する。
<2-5. Output screen>
As described above, in FIG. 2A, a function for switching to the display of the output screen I27 is assigned to the output button B07. Hereinafter, the configuration of the output screen I27 will be described with reference to FIG. 5A.

出力画面I27は、既存の所見データを指定された形式で出力するために用いられ、主に、出力先入力領域R29と、出力形式選択ボタンB51と、文字コード選択ボタンB53と、閉じるボタンB55と、出力ボタンB57と、から構成される。   The output screen I27 is used to output existing finding data in a designated format, and mainly includes an output destination input area R29, an output format selection button B51, a character code selection button B53, and a close button B55. , And an output button B57.

出力先入力領域R29は、既存の所見データの出力先が、操作情報に基づき入力される。なお、出力先入力領域R29の隣に配置される参照ボタンB47のクリックにより、出力先入力領域R29を選択・指定が可能なダイアログがオーバーレイ表示される。   In the output destination input area R29, the output destination of the existing finding data is input based on the operation information. Note that when a reference button B47 arranged next to the output destination input area R29 is clicked, a dialog for selecting and specifying the output destination input area R29 is displayed in an overlay manner.

出力形式選択ボタンB51は、操作入力機器13の操作により、所見データの出力形式を選択するために用いられる。本開示では、所定のワードプロセッサの形式と、csv(comma−separated values)形式との二者択一になっている。   The output format selection button B51 is used to select an output format of finding data by operating the operation input device 13. In the present disclosure, a predetermined word processor format and a csv (comma-separated values) format are selected.

文字コード選択ボタンB53は、csv形式が選択された場合に使用され、操作入力機器13の操作により、文字コードと、改行コードとを選択するために用いられる。   The character code selection button B53 is used when the csv format is selected, and is used to select a character code and a line feed code by operating the operation input device 13.

閉じるボタンB55は、出力画面I27のオーバーレイ表示を終了させる機能が割り当てられている。   The close button B55 is assigned a function for ending the overlay display on the output screen I27.

出力ボタンB57は、操作入力機器13の操作により、本出力画面I27で指定された出力先に指定した出力形式でファイルを出力する際に用いられる。   The output button B57 is used when a file is output in the output format specified as the output destination specified on the output screen I27 by the operation of the operation input device 13.

<2−6.データ操作画面>
前述の通り、図2Aにおいて、データ操作ボタンB09には、データ操作画面I29の表示に切り替える機能が割り当てられる。以下、図6Aを参照して、データ操作画面I29の構成について説明する。
<2-6. Data operation screen>
As described above, in FIG. 2A, a function for switching to the display of the data operation screen I29 is assigned to the data operation button B09. Hereinafter, the configuration of the data operation screen I29 will be described with reference to FIG. 6A.

データ操作画面I29は、任意の既存の所見データの削除、バックアップの作成、および作成されたバックアップから所見データの復元に用いられる。そのために、データ操作画面I29は、既存所見の削除ボタンB59と、バックアップ作成ボタンB61と、バックアップ復元ボタンB63と、閉じるボタンB65とから構成される。   The data operation screen I29 is used for deleting any existing finding data, creating a backup, and restoring the finding data from the created backup. For this purpose, the data operation screen I29 includes an existing finding deletion button B59, a backup creation button B61, a backup restoration button B63, and a close button B65.

既存所見の削除ボタンB59には、所見削除画面I31の表示に切り替える機能が割り当てられる。所見削除画面I31は、図6Bに示すように、所見リスト領域R31と、削除ボタンB67と、閉じるボタンB69とから構成される。   A function for switching to the display of the finding deletion screen I31 is assigned to the existing finding deletion button B59. As shown in FIG. 6B, the observation deletion screen I31 includes an observation list area R31, a deletion button B67, and a close button B69.

所見リスト領域R31には、削除可能な所見データが列挙される共に、操作入力機器13の操作により削除対象となる所見データが選択可能に構成される。   The finding list area R31 is configured to list the finding data that can be deleted and to select the finding data to be deleted by the operation of the operation input device 13.

削除ボタンB67には、選択された所見データを削除する機能が割り当てられる。   A function for deleting the selected finding data is assigned to the delete button B67.

閉じるボタンB69には、所見削除画面I31の表示をデータ操作画面I29に戻す機能が割り当てられる。   The close button B69 is assigned a function for returning the display of the finding deletion screen I31 to the data operation screen I29.

再度、図6Aを参照する。バックアップ作成ボタンB61には、既存の所見データのバックアップデータを作成する画面I33の表示に切り替える機能が割り当てられる。画面I33は、図6Cに示すように、出力先入力領域R33と、閉じるボタンB71と、作成ボタンB73と、から構成される。   Reference is again made to FIG. 6A. The backup creation button B61 is assigned a function for switching to display of a screen I33 for creating backup data of existing finding data. As shown in FIG. 6C, the screen I33 includes an output destination input area R33, a close button B71, and a creation button B73.

出力先入力領域R33は、作成すべきバックアップデータの出力先が、操作情報に基づき入力される。なお、出力先入力領域R33の隣に配置される参照ボタンB75のクリックにより、出力先入力領域R33を選択・指定が可能なダイアログ(図示せず)がオーバーレイ表示される。   In the output destination input area R33, the output destination of the backup data to be created is input based on the operation information. Note that when a reference button B75 arranged next to the output destination input area R33 is clicked, a dialog (not shown) capable of selecting and specifying the output destination input area R33 is displayed in an overlay manner.

閉じるボタンB71は、画面I33の表示を終了させて、データ操作画面I29の表示に戻る機能が割り当てられている。   The close button B71 is assigned a function of ending the display of the screen I33 and returning to the display of the data operation screen I29.

作成ボタンB73は、操作入力機器13の操作により、本画面I33で指定された出力先に指定した出力形式でバックアップデータを出力する際に用いられる。   The creation button B73 is used when the backup data is output in the output format specified as the output destination specified on the screen I33 by the operation of the operation input device 13.

再度、図6Aを参照する。バックアップ復元ボタンB63には、バックアップデータを既存の所見データとして復元する画面I35のオーバーレイ表示に切り替える機能が割り当てられる。画面I35は、図6Dに示すように、バックアップフォルダ指定領域R35と、閉じるボタンB77と、復元ボタンB79と、から構成される。   Reference is again made to FIG. 6A. The backup restoration button B63 is assigned a function of switching to the overlay display of the screen I35 for restoring the backup data as existing finding data. As shown in FIG. 6D, the screen I35 includes a backup folder designation area R35, a close button B77, and a restore button B79.

バックアップフォルダ指定領域R35は、バックアップデータの格納場所が、操作情報に基づき入力される。なお、バックアップフォルダ指定領域R35の隣に配置される参照ボタンB81のクリックにより、バックアップフォルダ指定領域R35を選択・指定が可能なダイアログ(図示せず)がオーバーレイ表示される。   In the backup folder designation area R35, the storage location of the backup data is input based on the operation information. Note that a dialog (not shown) that allows the user to select and designate the backup folder designation area R35 is displayed in an overlay manner by clicking a reference button B81 arranged next to the backup folder designation area R35.

閉じるボタンB77は、画面I35の表示を終了させて、データ操作画面I29の表示に戻る機能が割り当てられている。   The close button B77 is assigned a function of terminating the display of the screen I35 and returning to the display of the data operation screen I29.

復元ボタンB79は、操作入力機器13の操作により、本画面I35で指定された格納場所のバックアップデータを所見データに復元する際に用いられる。   The restore button B79 is used when restoring the backup data at the storage location designated on this screen I35 to the finding data by operating the operation input device 13.

<3.所見作成装置の処理>
次に、図7A〜図7Bを参照して、所見作成装置19の処理を詳説する。
両プログラムP1,P3の起動のために、操作者が所定の操作を行うと、プロセッサ195は、音声認識部197として機能し、ONに設定された音声入力機器11から継続的に出力されてくる音声信号に対し周知の小規模単語音声認識処理を常時行って、音声認識結果(即ち、文字データ)を、ワーキングメモリ193を通じて、所見作成部199に渡す(図7AのステップS001)。
<3. Processing of Finding Device>
Next, the process of the finding creation device 19 will be described in detail with reference to FIGS. 7A to 7B.
When the operator performs a predetermined operation to activate both programs P1 and P3, the processor 195 functions as the voice recognition unit 197 and is continuously output from the voice input device 11 set to ON. A known small word speech recognition process is always performed on the speech signal, and the speech recognition result (that is, character data) is passed to the finding creation unit 199 through the working memory 193 (step S001 in FIG. 7A).

また、プロセッサ195は、所見作成部199としても機能し、起動直後、まずは、図2Aに示すリスト画面I01を生成し、表示装置111に表示し、音声認識に使用する辞書を、小語彙単語音声認識辞書(リスト画面用)D3に切り替える(ステップS003)。   The processor 195 also functions as the finding creation unit 199. Immediately after the activation, the processor 195 first generates the list screen I01 shown in FIG. 2A, displays it on the display device 111, and sets the dictionary used for speech recognition as a small vocabulary word speech. Switch to the recognition dictionary (for list screen) D3 (step S003).

次に、所見作成部199は、新規作成ボタンB01が操作されたか否かを判断する(ステップS005)。NOと判断すると、処理は、後述のステップS007に遷移する。   Next, the finding creation unit 199 determines whether or not the new creation button B01 has been operated (step S005). If NO is determined, the process proceeds to step S007 described later.

それに対し、ステップS005でYESと判断すると、所見作成部199は、新規の所見データを作成するために、所見作成画面I03を生成し、表示装置111の表示内容をリスト画面I01から所見作成画面I03へと切り替えて、所見作成画面I03を表示させる(ステップS007)。この時、所見作成画面I03の中央部分には、デンタルチャート画面I05が表示され、小語彙単語音声認識で使用する辞書が小語彙単語音声認識辞書(デンタルチャート用)D5に切り替わる。   On the other hand, if YES is determined in step S005, the finding creation unit 199 generates a finding creation screen I03 to create new finding data, and the display content of the display device 111 is changed from the list screen I01 to the finding creation screen I03. And the finding creation screen I03 is displayed (step S007). At this time, a dental chart screen I05 is displayed at the center of the finding creation screen I03, and the dictionary used for small vocabulary word speech recognition is switched to the small vocabulary word speech recognition dictionary (for dental chart) D5.

ここで、デンタルチャート画面I05には、操作者(例えば歯科医師)が操作入力機器を操作して文字入力することも可能である。また、操作者が予め定められた音声コマンドを表す音声を音声入力機器11に向けて発話することで、デンタルチャート画面I05には、音声認識部197による小語彙単語音声認識結果に基づき、歯牙の状態を文字で入力することも可能になっている。換言すると、デンタルチャート画面I05は、大語彙連続音声認識の結果に基づく文字入力が不能な第二画面の一例である。   Here, it is also possible for an operator (for example, a dentist) to input characters on the dental chart screen I05 by operating an operation input device. In addition, when the operator speaks a voice representing a predetermined voice command to the voice input device 11, the dental chart screen I 05 is displayed on the dental chart screen 195 based on the small vocabulary word voice recognition result by the voice recognition unit 197. It is also possible to enter the status in characters. In other words, the dental chart screen I05 is an example of a second screen on which characters cannot be input based on the result of large vocabulary continuous speech recognition.

そのため、例えば、所見作成部199は、リスト画面I01からデンタルチャート画面I05へと表示を切り替える過程で、図8Aに示すように、音声入力機器11の入力をONに設定するための設定ボタンB83を操作者にクリックするよう促す。   Therefore, for example, in the process of switching the display from the list screen I01 to the dental chart screen I05, the finding creation unit 199 includes a setting button B83 for setting the input of the voice input device 11 to ON as shown in FIG. 8A. Encourage the operator to click.

その後、所見作成部199は、所見データの作成を行う(ステップS009)。
以下、図7Bを参照して、ステップS009の詳細な処理について説明する。
Thereafter, the finding creation unit 199 creates finding data (step S009).
Hereinafter, with reference to FIG. 7B, the detailed process of step S009 will be described.

操作者は、操作入力機器13により画面切り替えタブT01を操作して、デンタルチャート画面I05を選択した後(ステップS100)、例えば、自身の手指で身元不明者等を開口し、口腔内を観視しながら、状態入力の対象となる歯牙を特定する音声コマンドを音声入力機器11に向かって発話する。音声入力機器11は、歯牙を特定する音声コマンドが入力されると、これを表す音声信号を音声認識部197に出力する。   The operator operates the screen switching tab T01 with the operation input device 13 to select the dental chart screen I05 (step S100), and then opens an unidentified person or the like with his / her finger and observes the oral cavity. On the other hand, a voice command for specifying a tooth as a state input target is uttered toward the voice input device 11. When a voice command for specifying a tooth is input, the voice input device 11 outputs a voice signal representing this to the voice recognition unit 197.

音声認識部197は、デンタルチャート画面I05が表示装置111に表示中、入力音声信号に対し、小語彙単語音声認識処理を実施して、歯牙を特定する音声認識の結果(単語)を所見作成部199に渡す。   The speech recognition unit 197 performs a small vocabulary word speech recognition process on the input speech signal while the dental chart screen I05 is displayed on the display device 111, and obtains a speech recognition result (word) for identifying a tooth as a finding creation unit 199.

所見作成部199は、歯牙を特定する音声認識結果を受け取ると(ステップS101)、図8Bに示すように、デンタルチャート画面I05において対象の歯牙に所定色の○で囲むと共に、対象の歯牙の状態入力欄C01,C03を選択し、その内部を特定色でハイライトする(ステップS103)。図8Bでは、音声認識結果が「みぎうえいちばん」で、状態入力欄C01,C03は永久歯状態入力欄C01の場合が例示されている。   When the finding creation unit 199 receives the voice recognition result specifying the tooth (step S101), as shown in FIG. 8B, the dental chart screen I05 surrounds the target tooth with a predetermined color ○ and the state of the target tooth Input fields C01 and C03 are selected, and the inside is highlighted with a specific color (step S103). FIG. 8B illustrates a case where the voice recognition result is “Migiue Ichiban” and the state input fields C01 and C03 are permanent tooth state input fields C01.

操作者は、身元不明者等の口腔内を診断しながら歯牙を特定する音声コマンドを発話した後、その歯牙の状態を表す音声コマンドを音声入力機器11に向かって発話する。音声入力機器11は、歯牙の状態を表す音声が入力されると、これを表す音声信号を音声認識部197に出力する。   The operator utters a voice command for specifying a tooth while diagnosing the oral cavity of an unidentified person or the like, and then utters a voice command representing the state of the tooth toward the voice input device 11. When the voice representing the tooth state is input, the voice input device 11 outputs a voice signal representing this to the voice recognition unit 197.

音声認識部197は、入力音声データに対し小語彙単語音声認識処理を実施して、歯牙の状態を表す音声認識の結果を所見作成部199に渡す。   The speech recognition unit 197 performs small vocabulary word speech recognition processing on the input speech data, and passes the speech recognition result representing the tooth state to the finding creation unit 199.

所見作成部199は、ステップS103の後に、歯牙の状態を表す音声認識結果を受け取ると(ステップS105)、図8Cに示すように、ステップS101で選択した状態入力欄C01,C03に、歯牙の状態を文字で入力し表示する(ステップS107)。図8Cでは、音声認識結果が「えんしん」の場合が例示されている。   When the finding creation unit 199 receives a speech recognition result representing the state of the tooth after step S103 (step S105), as shown in FIG. 8C, the state of the tooth is displayed in the state input fields C01 and C03 selected in step S101. Is input and displayed as characters (step S107). FIG. 8C illustrates the case where the voice recognition result is “enjoy”.

この時、受け取った歯牙の状態に、歯牙の表現画像が予め割り当てられている場合(ステップS109でYES)、所見作成部199は、図8Dに示すように、デンタルチャート画面I05において○で囲まれた歯牙の表現を予め割り当てられたものに変更する(ステップS111)。
操作者は、状態入力の対象となる歯牙を特定する音声およびその歯牙の状態を音声入力機器11に向かって繰り返し発話する。そのたびに、所見作成部199は、ステップS101〜S111を実行する。そして、操作者は、身元不明者の口腔内の診断が完了すると、デンタルチャート画面I05を閉じるために予め定められた音声コマンド「おわり」と音声入力機器11に向かって発話する。その結果、所見作成部199には、音声認識部197から、音声コマンド「終わり」を表す音声認識結果が渡される。
At this time, if a tooth expression image is pre-assigned to the received tooth state (YES in step S109), the finding creation unit 199 is circled on the dental chart screen I05 as shown in FIG. 8D. The expression of the tooth is changed to one assigned in advance (step S111).
The operator repeatedly utters the voice specifying the tooth that is the target of state input and the state of the tooth toward the voice input device 11. Each time, the finding creation unit 199 executes steps S101 to S111. When the diagnosis in the oral cavity of the unidentified person is completed, the operator speaks to the voice input device 11 with a voice command “End” set in advance to close the dental chart screen I05. As a result, a voice recognition result representing the voice command “end” is passed from the voice recognition unit 197 to the finding creation unit 199.

ステップS109でNOと判断した場合、または、ステップS111の次に、所見作成部199は、閉じるボタンB19が操作されたか否かを判断する(ステップS114)。YESと判断した場合、所見作成部199は、ステップS009の処理(図7A〜図7Bの処理)を抜けて、図7AのステップS017を行う。それに対し、ステップS114でNOと判断した場合、所見作成部199は、図7BのステップS100に戻る。   If NO is determined in step S109 or after step S111, the finding creating unit 199 determines whether or not the close button B19 is operated (step S114). If YES is determined, the finding creation unit 199 exits the process of step S009 (the processes of FIGS. 7A to 7B) and performs step S017 of FIG. 7A. On the other hand, when it is determined NO in step S114, the finding creation unit 199 returns to step S100 in FIG. 7B.

なお、操作者が入力済の歯牙の状態を修正したい場合がある。この場合、操作者は、状態入力の対象となる歯牙を特定する音声およびその歯牙の状態を消去するための音声コマンド「クリア」を音声入力機器11に向かって発話する。   In some cases, the operator may want to correct the state of the input tooth. In this case, the operator speaks to the voice input device 11 a voice that specifies a tooth that is a state input target and a voice command “clear” for deleting the state of the tooth.

所見作成部199は、音声コマンド「クリア」を受け取ると、図8Dに示すように、ステップS101で選択した状態入力欄C01,C03に入力済の歯牙の状態をクリアする。なお、状態入力欄C01,C03には発話した順に状態が挿入されるが、デンタルチャート画面I05における歯牙の表現画像は最後に入力されたものが優先される。   When the finding creation unit 199 receives the voice command “clear”, as shown in FIG. 8D, it clears the state of the tooth already input in the state input fields C01 and C03 selected in step S101. Although the states are inserted in the state input fields C01 and C03 in the order in which they are spoken, the last input image of the tooth on the dental chart screen I05 is given priority.

また、操作者が状態入力欄C01,C03に入力した歯牙の状態を確認したい場合、操作入力機器13を操作して、歯牙を特定した後、再生ボタンB17を操作する。これに応答して、所見作成部199は、指定された歯牙の状態の読み上げ処理を行って、歯牙の状態を表す音声データを、音声出力装置113から音声出力させる。   Further, when the operator wants to check the state of the tooth input in the state input fields C01 and C03, the operation input device 13 is operated to specify the tooth, and then the reproduction button B17 is operated. In response to this, the finding creating unit 199 reads out the designated tooth state and causes the sound output device 113 to output sound data representing the tooth state.

上記の通り、第二画面は、大語彙連続音声認識の結果に基づく文字入力が不能な画面であり、その一例として、デンタルチャート画面I05が挙げられた。本開示では、画面切り替えタブT01で切り替え可能なデンタルチャート画面I05、顔貌写真画面I09、口腔内写真画面I11、義歯写真画面I13、ノート画面I15および名前その他画面I17のうち、ノート画面I15以外が第二画面として予め定義される。   As described above, the second screen is a screen incapable of character input based on the result of large vocabulary continuous speech recognition, and an example thereof is a dental chart screen I05. In the present disclosure, among the dental chart screen I05, the facial photo screen I09, the intraoral photo screen I11, the denture photo screen I13, the note screen I15, and the name and other screen I17 that can be switched by the screen switching tab T01, the screens other than the note screen I15 are the first. Predefined as two screens.

操作者(歯科医師やその補助者)は、身元不明者等の顔貌写真、口腔内写真および義歯写真を撮影することがある。この場合、これら画像データは、データ読取装置15および通信装置17を介して、所見作成装置19に転送される。   An operator (dentist or his assistant) may take a facial photograph, an intraoral photograph, and a denture photograph of an unidentified person or the like. In this case, these image data are transferred to the finding creation device 19 via the data reading device 15 and the communication device 17.

この場合、操作者は、画面切り替えタブT01を操作して、顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13を表示させて、それぞれの中央領域R03,R05,R07(図2Dを参照)にドラッグアンドドロップにより貼り付ける。所見作成装置19において、所見作成部199は、ステップS100でNOの場合、顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13のいずれかが選択されたか否かを判断し(図7CのステップS115)、YESと判断すれば、顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13を表示させると共に、使用する辞書を小語彙単語音声認識辞書(各写真画面用)D7に切り替える(ステップS116)。その後、所見作成部199は、操作入力機器13の操作信号に従って、顔貌写真、口腔内写真および義歯写真の画像データを記憶装置191に格納する(ステップS117)。この後、所見作成部199は、図7BのステップS100に戻る。   In this case, the operator operates the screen switching tab T01 to display the facial photo screen I09, the intraoral photo screen I11, and the denture photo screen I13, and the respective central regions R03, R05, R07 (see FIG. 2D). ) By drag and drop. In the finding creating apparatus 19, the finding creating unit 199 determines whether or not any of the facial photo screen I09, the intraoral photo screen I11, and the denture photo screen I13 is selected in step S100 (NO in FIG. 7C). Step S115) If YES, the facial photo screen I09, intraoral photo screen I11 and denture photo screen I13 are displayed and the dictionary to be used is switched to the small vocabulary word speech recognition dictionary (for each photo screen) D7 ( Step S116). Thereafter, the finding creation unit 199 stores the image data of the facial photograph, intraoral photograph, and denture photograph in the storage device 191 in accordance with the operation signal of the operation input device 13 (step S117). Thereafter, the finding creation unit 199 returns to Step S100 in FIG. 7B.

なお、身元不明者等の顔貌写真、口腔内写真および義歯写真を撮影できなければ、当然、顔貌写真画面I09、口腔内写真画面I11および義歯写真画面I13への貼り付けは行われない。   Of course, if a facial photograph, an intraoral photograph, and a denture photograph of an unidentified person or the like cannot be taken, the pasting to the facial photograph screen I09, the intraoral photograph screen I11, and the denture photograph screen I13 is not performed.

また、操作者は、所見メモを記録したい場合、入力操作機器13で画面切り替えタブT01を操作して、ノート画面I15を表示させる。その後、操作者は、記録したい所見メモを表す音声を音声入力機器11に向けて発話し、最後に、音声コマンド「終わり」と発話する。この間、所見作成装置19において、所見作成部199は、ステップS115でNOと判断した後、ノート画面I15が選択されたか否かを判断し(ステップS119)、YESと判断すると、所見作成部199は、第一画面の他の一例としてのノート画面I15を表示させ、使用する辞書を小語彙単語音声認識辞書(ノート用)D9に切り替える(ステップS121)。   Further, when the operator wants to record a finding memo, the operator operates the screen switching tab T01 with the input operation device 13 to display the note screen I15. Thereafter, the operator utters the voice representing the observation memo to be recorded toward the voice input device 11 and finally utters the voice command “END”. During this time, in the finding creating device 19, the finding creating unit 199 judges whether or not the note screen I15 has been selected after judging NO in step S115 (step S119). Then, the notebook screen I15 as another example of the first screen is displayed, and the dictionary to be used is switched to the small vocabulary word speech recognition dictionary (for notebook) D9 (step S121).

次に、所見作成部199は、他画面から遷移してノート画面I15に切り替わったのか、音声認識部197から音声コマンド「ノート」を受け取ったか否かを判断する(ステップS122)。   Next, the finding creation unit 199 determines whether or not the screen is switched from the other screen to the note screen I15, or whether or not the voice command “note” is received from the voice recognition unit 197 (step S122).

ステップS122でNOと判断すると、所見作成部199は、図7BのステップS100を行う。   If NO is determined in step S122, the finding creation unit 199 performs step S100 of FIG. 7B.

それに対し、ステップS122でYESと判断すると、音声認識部197は、大規模連続音声認識プログラムP11を大規模連続音声認識辞書D1を使用しつつ実行し始め、第一画面としてのノート画面I15を表示中、音声入力機器13からの入力音声信号に対し、大語彙連続音声認識を行って、その結果を所見作成部199に渡す。   In contrast, if YES is determined in step S122, the speech recognition unit 197 starts executing the large-scale continuous speech recognition program P11 using the large-scale continuous speech recognition dictionary D1, and displays the note screen I15 as the first screen. In the middle, large vocabulary continuous speech recognition is performed on the input speech signal from the speech input device 13, and the result is passed to the finding creation unit 199.

所見作成部199は、音声認識部197から受け取る大語彙連続音声認識結果、即ち、所見メモを表す文字を、ノート画面I15のノート入力領域R11に入力し表示させる(ステップS123)。所見作成部199は、音声コマンド「終わり」を受け取ると(ステップS125でYES)、ノート入力領域R11の内容を記憶装置191に保存して(ステップS127)、表示装置111の表示内容を、ノート画面I15から、第二画面の一例としての顔貌写真画面I09に切り替えることで、大語彙連続音声認識の実行を終了してノート画面I15への所謂ディクテーションによる文字入力を不能する(ステップS129)。その後、所見作成部199は、図7BのステップS100に戻る。   The finding creating unit 199 inputs and displays the large vocabulary continuous speech recognition result received from the speech recognizing unit 197, that is, the character representing the finding memo in the note input area R11 of the note screen I15 (step S123). Upon receiving the voice command “END” (YES in step S125), the finding creation unit 199 stores the contents of the note input area R11 in the storage device 191 (step S127), and displays the display contents of the display device 111 on the note screen. By switching from I15 to the facial picture screen I09 as an example of the second screen, the execution of large vocabulary continuous speech recognition is terminated and character input by so-called dictation to the note screen I15 is disabled (step S129). Thereafter, the finding creation unit 199 returns to Step S100 in FIG. 7B.

なお、所見メモの作成最中、操作者は、音声コマンド表示領域R13に記載の音声コマンドを使用しながら所見メモを修正可能である。   During the creation of the observation memo, the operator can correct the observation memo while using the voice command described in the voice command display area R13.

また、ノート画面I15の表示中、操作者が、操作入力機器13を操作して再生ボタンB17を操作する。これに応答して、所見作成部199は、ノート入力領域R11に記載の所見メモの読み上げ処理を行って、所見メモを表す音声データを、音声出力装置113から音声出力させる。   Further, while the note screen I15 is displayed, the operator operates the operation input device 13 to operate the playback button B17. In response to this, the finding creation unit 199 performs the reading process of the finding memo described in the note input area R11 and causes the voice output device 113 to output voice data representing the finding memo.

また、操作者は、事案名や検査日等を設定したい場合、入力操作機器13で画面切り替えタブT01を操作して、名前その他画面I17を表示させる。その後、操作者は、入力操作機器13を操作して、事案名、検査日その他必要事項を入力する。この間、所見作成部199は、名前その他画面I17が選択されると(図7DのステップS131)、名前その他画面I17を表示すると共に、使用する辞書を小語彙単語音声認識辞書(名前その他画面用)D11に切り替える(ステップS133)、受け取った操作情報に基づき、必要事項を名前その他画面I17に入力し表示させる(ステップS135)。ステップS135の次、または、ステップS131でNOと判断した場合、所見作成部199は、図7BのステップS100に戻る。   When the operator wants to set a case name, an examination date, etc., the operator operates the screen switching tab T01 with the input operation device 13 to display the name and other screen I17. Thereafter, the operator operates the input operation device 13 to input a case name, an inspection date, and other necessary items. During this time, when the name and other screen I17 is selected (step S131 in FIG. 7D), the finding creation unit 199 displays the name and other screen I17 and uses a small vocabulary word speech recognition dictionary (for name and other screen). Switching to D11 (step S133), based on the received operation information, necessary items are input and displayed on the name and other screen I17 (step S135). After step S135 or when determining NO in step S131, the finding creation unit 199 returns to step S100 in FIG. 7B.

上記のようにして作成された所見データは、少なくとも、デンタルチャートを含む。また、場合によっては、所見データは、顔貌写真、口腔内写真および義歯写真、所見メモ、ならびに事業所名等を含む。このような所見データは、記憶装置191に格納される。   The finding data created as described above includes at least a dental chart. In some cases, the findings data includes facial photographs, intraoral photographs and denture photographs, findings notes, and establishment names. Such finding data is stored in the storage device 191.

ここで、再度図7Aを参照する。ステップS005でNOの場合、ステップS011が行われる。ステップS011において、所見作成部199は、設定変更ボタンB03が操作されたか否かを判断する。   Here, FIG. 7A is referred again. If NO in step S005, step S011 is performed. In step S011, the finding creation unit 199 determines whether or not the setting change button B03 has been operated.

ステップS011でYESと判断した場合、所見作成部199は、各種設定を変更するために、設定変更画面I19を生成し、表示装置111の表示内容をリスト画面I01から設定変更画面I19へと切り替えて、設定変更画面I19を表示させる(ステップS013)。その後、所見作成部199は、各種設定を変更する(ステップS015)。   If it is determined YES in step S011, the finding creation unit 199 generates a setting change screen I19 to change various settings, and switches the display content of the display device 111 from the list screen I01 to the setting change screen I19. Then, the setting change screen I19 is displayed (step S013). Thereafter, the finding creation unit 199 changes various settings (step S015).

操作者は、例えば、歯牙列における各歯牙の読みを個々に変更する場合には、歯牙の読みリストR17において、変更したい歯牙の読みを、操作入力機器13でクリックする。その後、操作者は、操作入力機器13を操作して、対象となる歯牙の読みをひらがなで入力する(図9Aを参照)。ここで、複数通りの読みを設定したい場合、操作者は、複数の読みをひらがなで入力すると共に区切り記号(例えば、|)で、各読みを区切る。
また、操作者は、歯牙の状態の編集画面I21への入力も上述と同様である。
上記のような操作に応答して、所見作成部199は、歯牙の読みおよび歯牙の状態の読みを変更する。
For example, when the reading of each tooth in the tooth row is individually changed, the operator clicks the reading of the tooth to be changed with the operation input device 13 in the tooth reading list R17. Thereafter, the operator operates the operation input device 13 to input the reading of the target tooth with hiragana (see FIG. 9A). Here, when it is desired to set a plurality of readings, the operator inputs a plurality of readings in hiragana and separates each reading with a delimiter (for example, |).
Further, the operator inputs the tooth state to the edit screen I21 in the same manner as described above.
In response to the operation as described above, the finding creation unit 199 changes the reading of the tooth and the reading of the state of the tooth.

また、操作者は、歯科医師の名前を登録する場合、図9Bに示すように、検査医師リスト領域R21に配置される名前入力ボックスC11に、操作入力機器13を操作して歯科医師名を入力する。その後、操作者は、検査医師リスト領域R21に配置される追加ボタンB85を、操作入力機器13でクリックする。このような操作に応答して、所見作成部199は、歯科医師リスト領域R21に新しい歯科医師を追加する。   When the operator registers the name of the dentist, as shown in FIG. 9B, the operator inputs the dentist name by operating the operation input device 13 in the name input box C11 arranged in the examining doctor list region R21. To do. Thereafter, the operator clicks on the operation input device 13 an additional button B85 arranged in the examining doctor list region R21. In response to such an operation, the finding creation unit 199 adds a new dentist to the dentist list region R21.

ステップS009,S015の次、または、ステップS011でNOの場合、所見作成部199は、プログラムP1,P3の実行を終了するか否かを判断する(ステップS017)。NOと判断した場合、所見作成部199は、ステップS003に戻るが、YESと判断した場合、プログラムP1,P3の実行を終了する。   After steps S009 and S015, or if NO in step S011, the finding creation unit 199 determines whether or not to end the execution of the programs P1 and P3 (step S017). When it is determined NO, the finding creation unit 199 returns to step S003, but when it is determined YES, the execution of the programs P1 and P3 is terminated.

なお、ステップS011でNOの場合、図7Aには図示しないが、必要に応じて、既存の所見データの検索や、出力、データ操作等が実施されても良い(図4A、図5A、図6Aを参照)。   In the case of NO in step S011, although not shown in FIG. 7A, retrieval of existing finding data, output, data manipulation, etc. may be performed as necessary (FIGS. 4A, 5A, 6A). See).

<3.所見作成装置の作用・効果>
上記の通り、本所見作成装置19によれば、所見作成画面I03は、複数の画面切り替えタブT01の操作により、デンタルチャート画面I05、顔貌写真画面I09、口腔内写真画面I11、義歯写真画面I13、ノート画面I15およびその他画面I17のいずれかが選択的に表示される。ここで、ノート画面I15は第一画面と、それ以外のデンタルチャート画面I05および顔貌写真画面I09等は第二画面と定義される。第一画面の表示中、ステップS123を実行中、音声認識部197からの大語彙連続音声認識の結果に基づき、所見メモの文字で入力することが許可される。それに対し、第二画面では、基本的に、大語彙連続音声認識結果に基づく文字入力が不能となり、小語彙単語音声認識の結果に基づき文字が入力される。
<3. Action and Effect of Finding Device>
As described above, according to the finding creating apparatus 19, the finding creating screen I03 is obtained by operating a plurality of screen switching tabs T01, a dental chart screen I05, a facial photo screen I09, an intraoral photo screen I11, a denture photo screen I13, Either the note screen I15 or the other screen I17 is selectively displayed. Here, the note screen I15 is defined as the first screen, and the other dental chart screen I05 and the facial photo screen I09 are defined as the second screen. During the display of the first screen, during the execution of step S123, based on the result of the large vocabulary continuous speech recognition from the speech recognition unit 197, it is permitted to input the characters of the observation memo. On the other hand, on the second screen, basically, character input based on the large vocabulary continuous speech recognition result is disabled, and characters are input based on the result of small vocabulary word speech recognition.

所見作成部199は、ノート画面I15の表示中、音声コマンド「終わり」に応答して、表示装置111の表示内容を、第二画面である顔貌写真画面I09等に切り替えると共に、大語彙連続音声認識および辞書D1の使用を終了(禁止)する。   During the display of the note screen I15, the observation creation unit 199 switches the display content of the display device 111 to the facial photo screen I09, which is the second screen, in response to the voice command “end”, and large vocabulary continuous voice recognition And the use of the dictionary D1 is ended (prohibited).

本所見作成装置19では、ノート画面I15の表示中であって、ステップS123を実行中、音声認識部197は、音声入力機器11からの音声信号に対し大規模連続音声認識を行うため、所見作成部199は、ノート画面I15(第一画面)から第二画面への自動切り替えると共に、大規模連続音声認識の実行を終了させて小規模単語音声認識のみを実行した状態に切り替えないと、表示画面上で不必要な文字入力が行われる場合がある。しかし、本所見作成装置19によれば、ノート画面I15(即ち、第一画面)は、音声コマンド「終わり」の入力に応答して、顔貌写真画面I09等、大規模連続音声認識が不能な第二画面に切り替わるため、上記のような不必要な文字入力が行われることが無くなる。   In the present finding creation device 19, while the note screen I15 is being displayed and step S123 is being executed, the speech recognition unit 197 performs large-scale continuous speech recognition on the speech signal from the speech input device 11, so If the unit 199 automatically switches from the note screen I15 (first screen) to the second screen and does not switch to a state in which only the small-scale word speech recognition is performed by terminating the large-scale continuous speech recognition, the display screen Unnecessary character input may be performed above. However, according to the finding creation apparatus 19, the note screen I15 (that is, the first screen) is not capable of large-scale continuous speech recognition such as the facial photo screen I09 in response to the input of the voice command “end”. Since the screen is switched to two screens, unnecessary character input as described above is not performed.

このように、本所見作成装置19では、ノート画面I15の表示中、完全ハンズフリーで所見メモの作成を可能とすべく、大規模連続音声認識から小規模単語音声認識への切り替えと、第一画面から第二画面への切り替えとを行っている。これによって、完全ハンズフリーによる所見メモが作成可能であると共に、操作者が使いやすいユーザインタフェイスを備えた所見作成装置19、および歯科所見を作成するためのプログラムを提供することが出来る。   As described above, the main finding creation device 19 switches from large-scale continuous speech recognition to small-scale word speech recognition in order to make it possible to create finding memos completely hands-free while the note screen I15 is displayed. Switching from the screen to the second screen. As a result, a finding memo can be created by completely hands-free, and a finding creating device 19 having a user interface that is easy for the operator to use and a program for creating a dental finding can be provided.

また、本所見作成装置19によれば、上記の通り、完全ハンズフリーでデンタルチャートおよび所見メモの作成が可能となるため、歯科医師は、補助者無しでデンタルチャートを作成することが可能となる。   Further, according to the present finding creation device 19, as described above, the dental chart and the finding memo can be created completely hands-free, so the dentist can create the dental chart without an assistant. .

また、本開示によれば、歯牙や歯列の読み等の変更(辞書のカスタマイズ)により、通常の診断時のような自然な発話でコマンド入力できるようになる。   Further, according to the present disclosure, it is possible to input commands with natural utterances as in normal diagnosis by changing readings of teeth and dentition (customizing a dictionary).

<4.付記>
なお、上記実施形態では、好ましい形態として、音声コマンド「終わり」をトリガーとして、第一画面から第二画面への切り替えが実施されていた。しかし、これに限らず、操作者が、複数の画面切り替えタブT01を操作入力機器13を操作し、これによって生成される操作信号をトリガーとして、第一画面から第二画面への切り替えが実施されても構わない。
<4. Addendum>
In the above embodiment, as a preferred mode, switching from the first screen to the second screen is performed using the voice command “end” as a trigger. However, the present invention is not limited to this, and the operator operates the plurality of screen switching tabs T01 on the operation input device 13, and switching from the first screen to the second screen is performed using an operation signal generated thereby as a trigger. It doesn't matter.

上記実施形態では、記憶装置191に、音声認識プログラムP1と、音声入力デンタルチャートプログラムP3とが格納されるとして説明した。しかし、これに限らず、各プログラムP1,P3は、コンピュータにより読み取り可能な記録媒体(例えばDVD等)に格納されて提供されても構わない。他にも、各種端末装置がダウンロードできるように、プログラムはサーバ装置に格納されていても良い。   In the above embodiment, the storage device 191 has been described as storing the voice recognition program P1 and the voice input dental chart program P3. However, the present invention is not limited thereto, and the programs P1 and P3 may be provided by being stored in a computer-readable recording medium (for example, a DVD). In addition, the program may be stored in the server device so that various terminal devices can be downloaded.

さらに他にも、音声認識プログラムP1と、音声入力デンタルチャートプログラムP3とは個別的に、記録媒体に格納されて提供されても構わないし、各種端末装置が個別的にダウンロードできるようにサーバ装置に格納されていても良い。   In addition, the voice recognition program P1 and the voice input dental chart program P3 may be provided separately stored in a recording medium, and may be provided to the server device so that various terminal devices can be individually downloaded. It may be stored.

また、デンタルチャート画面I05には、上下方向から平面視した歯牙列画像が含まれていた。しかし、これに限らず、デンタルチャート画面I05には、前方から平面視した歯牙列画像が含まれていても良いし、上下方向から平面視した歯牙列画像および前方から平面視した歯牙列画像はユーザ設定に応じて切り替えられても構わない。   Further, the dental chart screen I05 included a tooth row image viewed in plan from the up-down direction. However, the present invention is not limited to this, and the dental chart screen I05 may include a tooth row image viewed in plan from the front, and a tooth row image viewed in plan from the top and bottom and a tooth row image viewed in plan from the front are It may be switched according to user settings.

本開示の所見作成装置、歯科所見を作成するためのプログラムおよびそのプログラムを記録した記録媒体は、歯科所見の記録に好適なユーザインタフェイスを備えており、パーソナルコンピュータ等に実装されるのに好適である。   The finding creation device of the present disclosure, a program for creating a dental finding, and a recording medium on which the program is recorded have a user interface suitable for recording a dental finding, and are suitable for being mounted on a personal computer or the like. It is.

19 所見作成装置
191 記憶装置
197 音声認識部
199 所見作成部
P1 音声認識プログラム
P3 音声入力デンタルチャートプログラム
19 Finding Device 191 Storage Device 197 Speech Recognition Unit 199 Finding Creation Unit P1 Speech Recognition Program P3 Speech Input Dental Chart Program

Claims (9)

発話内容を表す音声信号に対し、少なくとも大語彙連続音声認識を行う音声認識部と、
前記大語彙連続音声認識の結果に基づき、前記発話内容を表す文字の入力が許可された第一画面を表示中に、前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が不能な第二画面に、表示装置の表示を切り替える所見作成部と、を備えた所見作成装置。
A voice recognition unit that performs at least large vocabulary continuous voice recognition on a voice signal representing the utterance content;
Based on the result of the large vocabulary continuous speech recognition, a predetermined signal indicating the end of the character input is received during the display of the first screen while the first screen allowing the input of the characters representing the utterance content is displayed. And a finding creation unit that switches the display of the display device to a second screen on which characters cannot be input based on the result of the large vocabulary continuous speech recognition.
前記所定信号は、予め定められた音声コマンドを表す音声信号である、請求項1に記載の所見作成装置。   The finding creation apparatus according to claim 1, wherein the predetermined signal is a voice signal representing a predetermined voice command. 前記所見作成装置には、手指での操作に応答して操作信号を出力する操作入力機器が接続され、
前記所定信号は、前記第一画面上で所定操作がなされた時に操作入力機器から送出される操作信号である、請求項1に記載の所見作成装置。
An operation input device that outputs an operation signal in response to an operation with a finger is connected to the finding creation device,
The finding creation apparatus according to claim 1, wherein the predetermined signal is an operation signal transmitted from an operation input device when a predetermined operation is performed on the first screen.
前記音声認識部はさらに、小語彙単語音声認識を行い、
前記第二画面には、前記小語彙単語音声認識の結果に基づく文字入力が許可されている、請求項1〜3のいずれかに記載の所見作成装置。
The voice recognition unit further performs small vocabulary word voice recognition,
The finding creation apparatus according to claim 1, wherein character input based on a result of the small vocabulary word speech recognition is permitted on the second screen.
前記第二画面は、歯牙列を表す歯牙列画像を含み、
前記歯牙列画像における各歯牙の表現は選択可能になっている、請求項1〜4のいずれかに記載の所見作成装置。
The second screen includes a tooth row image representing a tooth row,
The finding creation apparatus according to any one of claims 1 to 4, wherein expression of each tooth in the tooth row image is selectable.
前記第二画面は、歯牙列を表す歯牙列画像を含み、
前記歯牙列画像における各歯牙の状態は、特定色で表される、請求項1〜4のいずれかに記載の所見作成装置。
The second screen includes a tooth row image representing a tooth row,
The finding creation apparatus according to claim 1, wherein a state of each tooth in the tooth row image is represented by a specific color.
大語彙連続音声認識の結果に基づき発話内容を表す文字の入力が許可された第一画面を表示装置に表示させる手順と、
前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が禁止された第二画面に、前記表示装置の表示内容を切り替える手順と、を備えた所見作成方法。
A procedure for causing the display device to display a first screen that allows the input of characters representing the utterance content based on the result of large vocabulary continuous speech recognition;
A procedure for switching the display content of the display device to a second screen in which character input based on the result of the large vocabulary continuous speech recognition is prohibited when a predetermined signal indicating the end of character input is received during display of the first screen And a method for creating findings.
コンピュータに、
大語彙連続音声認識の結果に基づき発話内容を表す文字の入力が許可された第一画面を表示装置に表示させる手順と、
前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が禁止された第二画面に、前記表示装置の表示内容を切り替える手順と、を備えた所見作成プログラム。
On the computer,
A procedure for causing the display device to display a first screen that allows the input of characters representing the utterance content based on the result of large vocabulary continuous speech recognition;
A procedure for switching the display content of the display device to a second screen in which character input based on the result of the large vocabulary continuous speech recognition is prohibited when a predetermined signal indicating the end of character input is received during display of the first screen And a finding creation program.
コンピュータに、
大語彙連続音声認識の結果に基づき発話内容を表す文字の入力が許可された第一画面を表示装置に表示させる手順と、
前記第一画面の表示中に文字入力の終了を表す所定信号を受け取ると、前記大語彙連続音声認識の結果に基づく文字入力が禁止された第二画面に、前記表示装置の表示内容を切り替える手順と、を備えた所見作成プログラムを記録した記録媒体。
On the computer,
A procedure for causing the display device to display a first screen that allows the input of characters representing the utterance content based on the result of large vocabulary continuous speech recognition;
A procedure for switching the display content of the display device to a second screen in which character input based on the result of the large vocabulary continuous speech recognition is prohibited when a predetermined signal indicating the end of character input is received during display of the first screen And a recording medium recording the finding creation program.
JP2016188629A 2016-09-27 2016-09-27 Finding creation device, finding creation method, finding creation program, and recording medium recording the same Active JP6749193B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016188629A JP6749193B2 (en) 2016-09-27 2016-09-27 Finding creation device, finding creation method, finding creation program, and recording medium recording the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016188629A JP6749193B2 (en) 2016-09-27 2016-09-27 Finding creation device, finding creation method, finding creation program, and recording medium recording the same

Publications (2)

Publication Number Publication Date
JP2018055274A true JP2018055274A (en) 2018-04-05
JP6749193B2 JP6749193B2 (en) 2020-09-02

Family

ID=61836606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188629A Active JP6749193B2 (en) 2016-09-27 2016-09-27 Finding creation device, finding creation method, finding creation program, and recording medium recording the same

Country Status (1)

Country Link
JP (1) JP6749193B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200068992A (en) * 2018-12-06 2020-06-16 오스템임플란트 주식회사 Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
JP7468003B2 (en) 2020-03-10 2024-04-16 株式会社リコー Audio processing device, audio processing system, audio processing method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006223357A (en) * 2005-02-15 2006-08-31 Olympus Corp Medical support system
US20100169092A1 (en) * 2008-11-26 2010-07-01 Backes Steven J Voice interface ocx
JP2012150801A (en) * 2011-01-20 2012-08-09 Carestream Health Inc Automatic dental chart creation method using digital image
JP2016134127A (en) * 2015-01-22 2016-07-25 株式会社アドバンスト・メディア Electronic finding list recording assist system and electronic finding list recording assist method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006223357A (en) * 2005-02-15 2006-08-31 Olympus Corp Medical support system
US20100169092A1 (en) * 2008-11-26 2010-07-01 Backes Steven J Voice interface ocx
JP2012150801A (en) * 2011-01-20 2012-08-09 Carestream Health Inc Automatic dental chart creation method using digital image
JP2016134127A (en) * 2015-01-22 2016-07-25 株式会社アドバンスト・メディア Electronic finding list recording assist system and electronic finding list recording assist method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200068992A (en) * 2018-12-06 2020-06-16 오스템임플란트 주식회사 Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
KR102294618B1 (en) * 2018-12-06 2021-08-30 오스템임플란트 주식회사 Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
JP7468003B2 (en) 2020-03-10 2024-04-16 株式会社リコー Audio processing device, audio processing system, audio processing method and program

Also Published As

Publication number Publication date
JP6749193B2 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
US11496827B2 (en) Microphone natural speech capture voice dictation system and method
US11223899B2 (en) User interfaces for managing audio exposure
KR102210150B1 (en) Create and edit avatars
US9013600B2 (en) Filing digital images using voice input
AU2019347704B2 (en) Devices, methods, and user interfaces for providing audio notifications
CN109698030A (en) For automatically generating for the interface of patient-supplier dialogue and notes or summary
CN116309023A (en) Head portrait creation user interface
US10740552B2 (en) Intra-surgical documentation system
CA2523599C (en) Usb dictation device
US8949730B2 (en) Library selection in dental prosthesis design
US11947874B2 (en) Input and edit functions utilizing accelerometer based earpiece movement system and method
JP6749193B2 (en) Finding creation device, finding creation method, finding creation program, and recording medium recording the same
CN111953894A (en) Apparatus, method, system, and computer-readable storage medium for capturing images
US20230290353A1 (en) Tool for assisting people with speech disorder
JP7370525B2 (en) Video distribution system, video distribution method, and video distribution program
US20170330562A1 (en) Voice recording device and voice recording control method
KR101633212B1 (en) Method, system and recording medium for providing messenger service having a user customizable templates
EP2851891B1 (en) Mobile user terminal and method for controlling such a terminal
WO2019073668A1 (en) Information processing device, information processing method, and program
JP6969576B2 (en) Information processing device and information processing method
JP7468360B2 (en) Information processing device and information processing method
CN104238967B (en) Information processing unit and control method
CN110390241B (en) Information processing apparatus, information processing method, and computer-readable recording medium
US20200364068A1 (en) Emotionally driven software interaction experience
JP2001060149A (en) Document preparing device, and recording medium recorded with document preparation program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190828

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200811

R150 Certificate of patent or registration of utility model

Ref document number: 6749193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250