JP2019203987A - System, method, and program - Google Patents

System, method, and program Download PDF

Info

Publication number
JP2019203987A
JP2019203987A JP2018098934A JP2018098934A JP2019203987A JP 2019203987 A JP2019203987 A JP 2019203987A JP 2018098934 A JP2018098934 A JP 2018098934A JP 2018098934 A JP2018098934 A JP 2018098934A JP 2019203987 A JP2019203987 A JP 2019203987A
Authority
JP
Japan
Prior art keywords
instruction
wearable terminal
unit
voice
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018098934A
Other languages
Japanese (ja)
Other versions
JP7124442B2 (en
Inventor
季明 加藤
Sueaki Kato
季明 加藤
武弘 沼尻
Takehiro Numajiri
武弘 沼尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2018098934A priority Critical patent/JP7124442B2/en
Publication of JP2019203987A publication Critical patent/JP2019203987A/en
Application granted granted Critical
Publication of JP7124442B2 publication Critical patent/JP7124442B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a system, a method, and a program in which voice recognition results of the same word are not different due to a difference in pronunciation for each user or a disturbance in the surroundings when an instruction is received from a user by voice.SOLUTION: In a system for specifying instructions to a wearable terminal from a voice acquired by the wearable terminal attached to the head of an operator, the wearable terminal 10 includes: a voice acquisition unit which acquires the voice of the operator; a recognition result acquisition unit which acquires a character string obtained by voice recognition of the voice by the operator; a correspondence information storage unit which stores correspondence information associating an instruction to the wearable terminal and a plurality of character strings; and an instruction specifying unit which specifies an instruction associated with the character string acquired by the recognition result acquisition unit by the correspondence information as an instruction to the wearable terminal.SELECTED DRAWING: Figure 2

Description

本発明は、システム、方法、及びプログラムに関する。   The present invention relates to a system, a method, and a program.

ヘッドマウントディスプレイを備えるウェアラブル注文端末として、注文受付時に注文内容を含む注文画面をヘッドマウントディスプレイに表示し、注文終了時に注文画面を消去するものが知られている(例えば特許文献1参照)。
特許文献1 特開2011−48439号公報
As a wearable ordering terminal equipped with a head-mounted display, there is known a device that displays an order screen including an order content when receiving an order on the head-mounted display and erases the order screen when the order is completed (see, for example, Patent Document 1).
Patent Document 1 JP 2011-48439 A

ユーザから音声で指示を受け付ける場合、ユーザ毎の発音の違いや周囲の外乱等により、同じ言葉の音声認識結果が異なってしまう場合がある。そのため、指示を正しく認識できない場合がある。   When an instruction is received by voice from a user, the voice recognition result of the same word may be different due to a difference in pronunciation for each user or a disturbance in the surroundings. For this reason, the instruction may not be correctly recognized.

第1の態様において、作業者の頭部に装着されるウェアラブル端末によって取得された音声からウェアラブル端末に対する指示を特定するためのシステムが提供される。システムは、作業者の音声を取得する音声取得部を備えてよい。システムは、作業者の音声の音声認識によって得られた文字列を取得する認識結果取得部を備えてよい。システムは、ウェアラブル端末に対する指示と複数の文字列とを対応づける対応情報を記憶する対応情報記憶部を備えてよい。システムは、対応情報によって認識結果取得部が取得した文字列に対応づけられている指示を、ウェアラブル端末に対する指示として特定する指示特定部を備えてよい。   In a first aspect, a system is provided for specifying an instruction for a wearable terminal from voice acquired by a wearable terminal worn on a worker's head. The system may include a voice acquisition unit that acquires the voice of the worker. The system may include a recognition result acquisition unit that acquires a character string obtained by voice recognition of the worker's voice. The system may include a correspondence information storage unit that stores correspondence information that associates an instruction for the wearable terminal with a plurality of character strings. The system may include an instruction specifying unit that specifies, as an instruction to the wearable terminal, an instruction associated with the character string acquired by the recognition result acquisition unit based on the correspondence information.

ウェアラブル端末は、複数の作業項目のそれぞれに関連づけられた画像を作業者に提供してよい。対応情報記憶部は、複数の作業項目のそれぞれの作業項目に対応づけて、それぞれの作業項目に関連づけられた画像が作業者に提供されているときに入力されるべき指示を複数の文字列に対応づける対応情報を記憶してよい。指示特定部は、ウェアラブル端末を通じて作業者に提供されている画像が関連づけられた作業項目に対応づけて対応情報記憶部が記憶している対応情報によって認識結果取得部が取得した文字列と対応づけられている指示を、ウェアラブル端末に対する指示として特定してよい。   The wearable terminal may provide the worker with an image associated with each of the plurality of work items. The correspondence information storage unit associates each work item of a plurality of work items with instructions to be input when an image associated with each work item is provided to the worker into a plurality of character strings. Correspondence information to be associated may be stored. The instruction specifying unit associates the character string acquired by the recognition result acquisition unit with the correspondence information stored in the correspondence information storage unit in association with the work item associated with the image provided to the worker through the wearable terminal. The indicated instruction may be specified as an instruction for the wearable terminal.

指示の一覧を提示する指示に応じて、ウェアラブル端末を通じて作業者に提供されている画像が関連づけられた作業項目に対応づけて対応情報によって対応づけられている複数の指示の一覧を、作業者に提示する指示提示制御部をさらに備えてよい。   In response to an instruction for presenting a list of instructions, a list of instructions corresponding to the work item associated with the work item associated with the image provided to the worker through the wearable terminal is associated with the work information. You may further provide the instruction | indication presentation control part to show.

複数の作業項目のそれぞれについて、それぞれの作業項目に関連づけられた画像が作業者に提供されている場合において複数の指示が使用された頻度を取得する利用頻度取得部をさらに備えてよい。指示提示制御部は、複数の指示の一覧を頻度に応じた順序で作業者に提示してよい。   For each of the plurality of work items, a usage frequency acquisition unit that acquires the frequency of use of the plurality of instructions when an image associated with each work item is provided to the worker may be further provided. The instruction presentation control unit may present a list of instructions to the worker in an order corresponding to the frequency.

対応情報によって指示に対応づけられている複数の文字列のそれぞれについて、指示特定部が特定した指示が作業者によって取り消された頻度を取得する取消頻度取得部を備えてよい。対応情報において、取り消された頻度が予め定められた値以上の文字列と指示との対応づけを無効にする無効化部を備えてよい。   For each of the plurality of character strings associated with the instruction by the correspondence information, a cancellation frequency acquisition unit that acquires the frequency at which the instruction specified by the instruction specifying unit is canceled by the operator may be provided. The correspondence information may include an invalidating unit that invalidates the correspondence between the character string whose frequency of cancellation is a predetermined value or more and the instruction.

複数の人による指示の音声の音声認識により得られた複数の文字列を取得し、当該複数の文字列のそれぞれの文字列として音声が認識された人数を文字列毎に集計する集計部を備えてよい。集計部によって集計された人数に基づいて、複数の文字列の中から、対応情報において指示に対応づけられるべき文字列を選択する選択部を備えてよい。   A totaling unit that acquires a plurality of character strings obtained by voice recognition of voices of instructions by a plurality of people and totals the number of persons whose voices are recognized as the respective character strings of the plurality of character strings for each character string It's okay. You may provide the selection part which selects the character string which should be matched with an instruction | indication in correspondence information from several character strings based on the number of persons totaled by the total part.

音声取得部、認識結果取得部、対応情報記憶部、及び指示特定部は、ウェアラブル端末と通信可能なサーバに設けられてよい。サーバは、指示特定部が特定した指示を示す情報を、ウェアラブル端末に送信してよい。   The voice acquisition unit, the recognition result acquisition unit, the correspondence information storage unit, and the instruction specifying unit may be provided in a server that can communicate with the wearable terminal. The server may transmit information indicating the instruction specified by the instruction specifying unit to the wearable terminal.

ウェアラブル端末を備えてよい。   A wearable terminal may be provided.

ウェアラブル端末は、作業者の音声を取得するマイクを備えてよい。ウェアラブル端末は、マイクにより取得された音声を認識して文字列を生成する音声認識部を備えてよい。ウェアラブル端末は、対応情報を記憶する記憶部を備えてよい。
ウェアラブル端末は、サーバと通信可能である場合に、マイクにより取得された音声をサーバに送信して、指示特定部が特定した指示をサーバから受信し、サーバと通信可能でない場合に、記憶部が記憶している対応情報によって音声認識部が生成した文字列に対応づけられている指示を、ウェアラブル端末に対する指示として取得する指示取得部を備えてよい。
The wearable terminal may include a microphone that acquires the voice of the worker. The wearable terminal may include a voice recognition unit that recognizes voice acquired by a microphone and generates a character string. The wearable terminal may include a storage unit that stores correspondence information.
When the wearable terminal can communicate with the server, the wearable terminal transmits the voice acquired by the microphone to the server, receives the instruction specified by the instruction specifying unit from the server, and if the wearable terminal cannot communicate with the server, the storage unit You may provide the instruction | indication acquisition part which acquires the instruction | indication matched with the character string which the speech recognition part produced | generated by the corresponding | compatible information memorize | stored as an instruction | indication with respect to a wearable terminal.

音声取得部、認識結果取得部、対応情報記憶部、及び指示特定部は、ウェアラブル端末に設けられてよい。   The voice acquisition unit, the recognition result acquisition unit, the correspondence information storage unit, and the instruction specifying unit may be provided in the wearable terminal.

第2の態様においては、作業者の頭部に装着されるウェアラブル端末によって取得された音声からウェアラブル端末に対する指示を特定する方法が提供される。方法は、作業者の音声を取得する音声取得段階を備えてよい。方法は、作業者の音声の音声認識によって得られた文字列を取得する認識結果取得段階を備えてよい。方法は、ウェアラブル端末に対する指示と複数の文字列とを対応づける対応情報を記憶する対応情報記憶段階を備えてよい。方法は、対応情報によって認識結果取得段階で取得した文字列に対応づけられている指示を、ウェアラブル端末に対する指示として特定する指示特定段階を備えてよい。   In a 2nd aspect, the method of specifying the instruction | indication with respect to a wearable terminal from the audio | voice acquired by the wearable terminal with which a worker's head is mounted | worn is provided. The method may comprise a voice acquisition step of acquiring a worker's voice. The method may include a recognition result acquisition step of acquiring a character string obtained by voice recognition of an operator's voice. The method may include a correspondence information storing step of storing correspondence information that associates an instruction for the wearable terminal with a plurality of character strings. The method may include an instruction specifying step of specifying, as an instruction for the wearable terminal, an instruction associated with the character string acquired in the recognition result acquisition step by the correspondence information.

第3の態様において、作業者の頭部に装着されるウェアラブル端末によって取得された音声からウェアラブル端末に対する指示を特定するためのシステム用のプログラムが提供される。プログラムは、コンピュータを、作業者の音声を取得する音声取得部として機能させてよい。プログラムは、コンピュータを、記作業者の音声の音声認識によって得られた文字列を取得する認識結果取得部として機能させてよい。プログラムは、コンピュータを、ウェアラブル端末に対する指示と複数の文字列とを対応づける対応情報を記憶する対応情報記憶部として機能させてよい。プログラムは、コンピュータを、対応情報によって認識結果取得部が取得した文字列に対応づけられている指示を、ウェアラブル端末に対する指示として特定する指示特定部として機能させてよい。   In a third aspect, a system program for specifying an instruction for a wearable terminal from voice acquired by a wearable terminal worn on a worker's head is provided. The program may cause the computer to function as a voice acquisition unit that acquires the voice of the worker. The program may cause the computer to function as a recognition result acquisition unit that acquires a character string obtained by voice recognition of a writer's voice. The program may cause the computer to function as a correspondence information storage unit that stores correspondence information that associates an instruction for the wearable terminal with a plurality of character strings. The program may cause the computer to function as an instruction specifying unit that specifies, as an instruction to the wearable terminal, an instruction associated with the character string acquired by the recognition result acquisition unit using the correspondence information.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The summary of the invention does not enumerate all the features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態における作業支援システム100の概略的な構成を示す。1 shows a schematic configuration of a work support system 100 according to an embodiment. ウェアラブル端末10の機能ブロック構成を概略的に示す。1 schematically shows a functional block configuration of wearable terminal 10. サーバ80の機能ブロック構成を概略的に示す。The functional block configuration of the server 80 is schematically shown. ウェアラブル端末10による点検支援処理の全体を示すフローチャートである。3 is a flowchart illustrating an entire inspection support process by the wearable terminal 10. ログイン画面500の一例を示す。An example of the login screen 500 is shown. ウェアラブル端末10によるログイン処理を示すフローチャートである。4 is a flowchart showing login processing by the wearable terminal 10. ウェアラブル端末10による点検支援処理を示すフローチャートである。4 is a flowchart showing inspection support processing by the wearable terminal 10. 点検画面800の一例を示す。An example of the inspection screen 800 is shown. 音声コマンド一覧が表示されている状態の点検画面900の一例を示す。An example of the inspection screen 900 in a state where a voice command list is displayed is shown. ウェアラブル端末10において作業者40から音声で指示を取得する処理を表すフローチャートである。4 is a flowchart showing a process of acquiring an instruction from the worker 40 by voice in the wearable terminal 10. 対応情報として記憶される情報をテーブル形式で示す。Information stored as correspondence information is shown in a table format. 対応情報を生成するための事前学習データの一例を示す。An example of the prior learning data for producing | generating correspondence information is shown. サーバ80において作業者40の指示を特定する処理を表すフローチャートである。4 is a flowchart showing processing for specifying an instruction of an operator 40 in a server 80. 対応情報の更新処理を表すフローチャートである。It is a flowchart showing the update process of correspondence information. サーバ80がウェアラブル端末10から収集した点検結果データに基づく点検結果の表示画面の一例を示す。An example of an inspection result display screen based on inspection result data collected by the server 80 from the wearable terminal 10 is shown. 点検結果データに基づく点検結果の表示画面の他の一例を示す。The other example of the display screen of the inspection result based on inspection result data is shown. ウェアラブル端末10からダウンロードされる点検項目毎の点検結果データの一例を示す。An example of the inspection result data for every inspection item downloaded from the wearable terminal 10 is shown. ウェアラブル端末10からダウンロードされる点検対象毎の点検結果データの一例を示す。An example of the inspection result data for every inspection object downloaded from the wearable terminal 10 is shown. ウェアラブル端末10からダウンロードされる点検項目毎の点検結果データの他の一例を示す。The other example of the inspection result data for every inspection item downloaded from the wearable terminal 10 is shown. ウェアラブル端末10からダウンロードされる点検対象毎の点検結果データの他の一例を示す。The other example of the inspection result data for every inspection object downloaded from the wearable terminal 10 is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態における作業支援システム100の概略的な構成を示す。作業支援システム100は、サーバ80と、音声認識サーバ82と、ウェアラブル端末10a及びウェアラブル端末10bとを備える。ウェアラブル端末10aは、作業者40aの頭部42aに装着される。ウェアラブル端末10bは、作業者40bの頭部42bに装着される。   FIG. 1 shows a schematic configuration of a work support system 100 according to an embodiment. The work support system 100 includes a server 80, a voice recognition server 82, a wearable terminal 10a, and a wearable terminal 10b. The wearable terminal 10a is attached to the head 42a of the worker 40a. Wearable terminal 10b is attached to head 42b of worker 40b.

ウェアラブル端末10a及びウェアラブル端末10bは、同一の構成を有している。ウェアラブル端末10a及びウェアラブル端末10bを総称する場合に、「ウェアラブル端末10」という場合がある。ウェアラブル端末10の機能を説明する場合に、ウェアラブル端末10aのみを取り上げて説明する場合がある。また、作業者40a及び作業者40bを総称する場合に、「作業者40」という場合がある。   The wearable terminal 10a and the wearable terminal 10b have the same configuration. When the wearable terminal 10a and the wearable terminal 10b are collectively referred to, it may be referred to as “wearable terminal 10”. When the function of the wearable terminal 10 is described, only the wearable terminal 10a may be taken up and described. In addition, when the workers 40a and 40b are collectively referred to, they may be referred to as “workers 40”.

作業支援システム100は、ウェアラブル端末10を通じて作業者40に画像を提供するためのシステムの一例である。本実施形態では、作業の一例として、点検作業を取り上げて、作業支援システム100の機能を具体的に説明する。具体的には、作業者40が設備の点検を行う作業者であるとする。   The work support system 100 is an example of a system for providing an image to the worker 40 through the wearable terminal 10. In the present embodiment, the function of the work support system 100 will be specifically described by taking an inspection work as an example of the work. Specifically, it is assumed that the worker 40 is a worker who checks the equipment.

作業支援システム100は、作業者40が行う点検を支援するための画像を提供する。具体的には、作業支援システム100は、ウェアラブル端末10を通じて、複数の点検項目を含む点検に関する画像を作業者40に提供する。ウェアラブル端末10は、例えば、点検作業現場において使用されてよい。作業としては、設備や物品の点検作業の他に、物品の組み立て作業、介護、教育、事務作業等、様々な作業を含み得る。   The work support system 100 provides an image for supporting an inspection performed by the worker 40. Specifically, the work support system 100 provides an image regarding inspection including a plurality of inspection items to the worker 40 through the wearable terminal 10. The wearable terminal 10 may be used at an inspection work site, for example. The work may include various work such as assembling work of goods, nursing care, education, office work, etc., in addition to work of checking equipment and goods.

サーバ80及びウェアラブル端末10は、ネットワーク90を通じて通信可能に接続されている。ネットワーク90は、インターネット、LAN、WAN、公衆回線網、専用回線網等、様々な形態のネットワークを含み得る。   The server 80 and the wearable terminal 10 are communicably connected via the network 90. The network 90 may include various types of networks such as the Internet, a LAN, a WAN, a public line network, and a private line network.

ウェアラブル端末10aは、本体部11aと、表示部12aを有する。ウェアラブル端末10aは、本体部11aが作業者40aの耳部に装着されることにより、作業者40aの頭部42aに装着され得る。ウェアラブル端末10aは、本体部11aが作業者40aの眼鏡に装着されることにより、作業者40aの頭部42aに装着され得る。ウェアラブル端末10aは、眼鏡型の端末であってよい。ウェアラブル端末10aは、いわゆるアイウエアであってよい。   The wearable terminal 10a includes a main body part 11a and a display part 12a. The wearable terminal 10a can be attached to the head 42a of the worker 40a by attaching the main body 11a to the ear of the worker 40a. The wearable terminal 10a can be attached to the head 42a of the worker 40a by attaching the main body 11a to the glasses of the worker 40a. The wearable terminal 10a may be a glasses-type terminal. The wearable terminal 10a may be so-called eyewear.

ウェアラブル端末10は、1つの点検作業に含まれる1以上の点検項目の内容を、サーバ80から取得して記憶する。点検項目としては、例えば、「キズ・欠けはないか」等、良否の点検結果を入力するための項目を含み得る。その他、点検項目としては、「長さを確認」等、数値の点検結果を入力するための項目や、「型番を入力」等、文字の点検結果を入力するための項目を含み得る。   The wearable terminal 10 acquires the contents of one or more inspection items included in one inspection work from the server 80 and stores them. The inspection items may include items for inputting pass / fail inspection results, such as “Is there any flaw or chipping”? In addition, the inspection items may include items for inputting numerical inspection results such as “confirm length” and items for inputting character inspection results such as “input model number”.

ウェアラブル端末10は、1以上の点検項目の内容を表示部12に順次に表示する。作業者40は、表示部12に表示された点検項目に従って、順次に点検を行う。作業者40は、点検結果を音声で入力する。また、作業者40は、ウェアラブル端末10に対する指示を音声で入力する。   The wearable terminal 10 sequentially displays the contents of one or more inspection items on the display unit 12. The operator 40 sequentially performs inspections according to the inspection items displayed on the display unit 12. The worker 40 inputs the inspection result by voice. In addition, the worker 40 inputs an instruction to the wearable terminal 10 by voice.

例えば、作業者40は、「写真」という音声を発することで、ウェアラブル端末10に写真撮影を行わせることができる。また、作業者40は、「実績」という音声を発することで、過去の点検で行われた点検結果や写真を表示部12に表示させることができる。また、作業者40は、「OK」「NG」という音声を発することで、良否の点検結果をウェアラブル端末10に入力することができる。作業者40は、数値や単位を発することで、測定値などの点検結果をウェアラブル端末10に入力することができる。   For example, the worker 40 can cause the wearable terminal 10 to take a picture by uttering the sound “photograph”. In addition, the worker 40 can cause the display unit 12 to display inspection results and photographs performed in the past inspection by uttering a voice “actual result”. Further, the worker 40 can input the pass / fail check result to the wearable terminal 10 by uttering “OK” and “NG”. The operator 40 can input inspection results such as measured values to the wearable terminal 10 by issuing numerical values and units.

ウェアラブル端末10は、作業者40が発した音声により生成された音声データを、ネットワーク90を通じてサーバ80に送信して、指示や点検結果を示す文字列をサーバ80から取得する。サーバ80は、ウェアラブル端末10から受信した音声データを音声認識サーバ82に送信して、音声認識サーバ82による音声認識により得られた文字列を受信する。サーバ80は、音声認識サーバ82から受信した文字列に対応づけられた指示を、ウェアラブル端末10に送信する。   The wearable terminal 10 transmits voice data generated by the voice uttered by the worker 40 to the server 80 through the network 90, and acquires a character string indicating an instruction or an inspection result from the server 80. The server 80 transmits the voice data received from the wearable terminal 10 to the voice recognition server 82 and receives a character string obtained by voice recognition by the voice recognition server 82. The server 80 transmits an instruction associated with the character string received from the voice recognition server 82 to the wearable terminal 10.

例えば、サーバ80は、「実績」の指示に対応づけて、「じっせき」の他に、「じいせき」や「じせき」等の文字列を記憶している。これにより、音声認識により得られた文字列が「じいせき」又は「じせき」である場合であっても、「実績」の指示をウェアラブル端末10に送信する。これにより、ユーザ毎の発音の違いや周囲の外乱等により、同じ指示の音声認識結果が異なってしまっても、正しい指示を取得できる可能性を高めることができる。   For example, the server 80 stores character strings such as “Ji-Seki” and “Ji-Seki” in addition to “Ji-Seki” in association with the “result” instruction. Thereby, even if the character string obtained by the voice recognition is “Ji-Seki” or “Ji-Seki”, an instruction of “Actual” is transmitted to the wearable terminal 10. Thereby, even if the voice recognition result of the same instruction differs due to a difference in pronunciation for each user or a disturbance in the surroundings, it is possible to increase a possibility that a correct instruction can be acquired.

また、ウェアラブル端末10は、作業者40が点検を開始した点検開始時刻、作業者40が点検を終了した時刻である点検終了時刻、作業者40が点検に要した時間である点検時間を計時する。ウェアラブル端末10は、ウェアラブル端末10自身の内部時計により、点検開始時刻、点検終了時刻、及び点検時間を計時する。ウェアラブル端末10は、作業者40から入力された点検結果をサーバ80に送信する場合、点検開始時刻、点検終了時刻、及び点検時間もサーバ80に送信する。   Further, the wearable terminal 10 measures the inspection start time when the worker 40 starts the inspection, the inspection end time when the worker 40 finishes the inspection, and the inspection time which is the time required for the worker 40 to perform the inspection. . The wearable terminal 10 measures the inspection start time, the inspection end time, and the inspection time by using the internal clock of the wearable terminal 10 itself. When the wearable terminal 10 transmits the inspection result input from the worker 40 to the server 80, the wearable terminal 10 also transmits the inspection start time, the inspection end time, and the inspection time to the server 80.

サーバ80は、点検結果、点検開始時刻、点検終了時刻、及び点検時間を含む点検結果データを外部に提供する場合、ウェアラブル端末10の内部時計がサーバ80に対して時刻合わせされていない状態で点検結果が入力された作業については、点検開始時刻及び点検終了時刻のデータを「−−−−」等の文字列でマスクする。これにより、ウェアラブル端末10の内部時計が時刻合わせしていない状態で取得された時刻情報を、適切な形態で出力することができる。例えば、ウェアラブル端末10は、電源OFF時に内部時計の動作を維持する電池を有しない。この場合、電源を一旦OFFした後に電源ONすると、ウェアラブル端末10の工場出荷時や直前の電源OFF時の固定日時に内部時計がリセットされる。そのため、点検開始時刻及び点検終了時刻については正確な値に得ることはできない。しかし、点検時間については比較的に正確な値を得ることができる。ウェアラブル端末10によれば、ウェアラブル端末10の内部時計がサーバ80に対して時刻合わせされていない状態で点検結果が入力された作業については、点検開始時刻及び点検終了時刻をマスクするので、正確でない値が管理データとして提供されることを抑制することができる。   When the server 80 provides the inspection result data including the inspection result, the inspection start time, the inspection end time, and the inspection time to the outside, the inspection is performed in a state where the internal clock of the wearable terminal 10 is not set to the server 80. For the work for which the result has been input, the inspection start time and inspection end time data are masked with a character string such as “----”. Thereby, the time information acquired in a state in which the internal clock of the wearable terminal 10 is not set in time can be output in an appropriate form. For example, the wearable terminal 10 does not have a battery that maintains the operation of the internal clock when the power is turned off. In this case, when the power is turned on after the power is turned off, the internal clock is reset at a fixed date and time when the wearable terminal 10 is shipped from the factory or immediately before the power is turned off. Therefore, accurate values cannot be obtained for the inspection start time and inspection end time. However, a relatively accurate value can be obtained for the inspection time. According to the wearable terminal 10, the inspection start time and the inspection end time are masked for the operation in which the inspection result is input in a state where the time of the internal clock of the wearable terminal 10 is not set with respect to the server 80. It can suppress that a value is provided as management data.

図2は、ウェアラブル端末10の機能ブロック構成を概略的に示す。ウェアラブル端末10は、表示部12と、撮像部202と、マイク205と、操作部材207と、制御部200と、記憶部210と、通信部290とを備える。   FIG. 2 schematically shows a functional block configuration of the wearable terminal 10. The wearable terminal 10 includes a display unit 12, an imaging unit 202, a microphone 205, an operation member 207, a control unit 200, a storage unit 210, and a communication unit 290.

制御部200は、マイクロプロセッサ等の演算装置であってよい。記憶部210は、フラッシュメモリ等の不揮発性の記憶装置やRAM等の揮発性の記憶装置であってよい。記憶部210は、ウェアラブル端末10の動作の各段階を実行させるためのプログラムを格納する。ウェアラブル端末10の機能は主として、制御部200が当該プログラムを実行することにより実現される。プログラムは、記録媒体に記録されて記憶部210に提供される。通信部290は、ウェアラブル端末10におけるネットワーク90を通じた通信機能を担う。   The control unit 200 may be an arithmetic device such as a microprocessor. The storage unit 210 may be a non-volatile storage device such as a flash memory or a volatile storage device such as a RAM. The storage unit 210 stores a program for executing each stage of the operation of the wearable terminal 10. The function of the wearable terminal 10 is mainly realized by the control unit 200 executing the program. The program is recorded on a recording medium and provided to the storage unit 210. The communication unit 290 has a communication function through the network 90 in the wearable terminal 10.

表示部12は、ウェアラブル端末10が作業者40の頭部42に装着された場合に、作業者40の視方向に表示面が対向するように設けられる。撮像部202は、ウェアラブル端末10が作業者40の頭部42に装着された場合に、撮像部202の撮像光軸が作業者40の視方向に沿うように設けられる。   The display unit 12 is provided so that the display surface faces the viewing direction of the worker 40 when the wearable terminal 10 is mounted on the head 42 of the worker 40. The imaging unit 202 is provided so that the imaging optical axis of the imaging unit 202 is along the viewing direction of the worker 40 when the wearable terminal 10 is attached to the head 42 of the worker 40.

マイク205は、作業者40の音声を取得する。マイク205は、ウェアラブル端末10が作業者40の頭部42に装着された場合に、作業者40の口元近くに移動可能なように、柔軟性を持つ支持部材を介してウェアラブル端末10に取り付けられる。操作部材207は、ボタン等の物理的な部材である。操作部材207は、作業者40からの指示を取得することができる。本実施形態では主として、作業者40が音声により指示する場合を取り上げて説明する。しかし、少なくとも一部の指示を、操作部材207を用いて行うことができる。   The microphone 205 acquires the voice of the worker 40. The microphone 205 is attached to the wearable terminal 10 via a flexible support member so that the wearable terminal 10 can be moved near the mouth of the worker 40 when the wearable terminal 10 is attached to the head 42 of the worker 40. . The operation member 207 is a physical member such as a button. The operation member 207 can acquire an instruction from the worker 40. In the present embodiment, the case where the operator 40 gives an instruction by voice will be mainly described. However, at least a part of the instructions can be performed using the operation member 207.

制御部200は、計時部204、開始処理部208、表示制御部220、無効化部230、利用頻度取得部232、取消頻度取得部234、作業結果情報生成部240、作業結果出力部248、指示取得部250、音声取得部260、認識結果取得部270、音声認識部272、及び指示特定部280を備える。   The control unit 200 includes a timing unit 204, a start processing unit 208, a display control unit 220, an invalidation unit 230, a usage frequency acquisition unit 232, a cancellation frequency acquisition unit 234, a work result information generation unit 240, a work result output unit 248, an instruction An acquisition unit 250, a voice acquisition unit 260, a recognition result acquisition unit 270, a voice recognition unit 272, and an instruction specifying unit 280 are provided.

音声取得部260は、作業者40の音声を取得する。具体的には、音声取得部260は、マイク205により取得された音声を取得して、音声データを生成する。音声認識部272は、マイク205により取得された音声を認識して文字列を生成する。具体的には、音声認識部272は、音声取得部260が生成した音声データを解析して文字列を生成する。   The voice acquisition unit 260 acquires the voice of the worker 40. Specifically, the voice acquisition unit 260 acquires the voice acquired by the microphone 205 and generates voice data. The voice recognition unit 272 recognizes the voice acquired by the microphone 205 and generates a character string. Specifically, the voice recognition unit 272 analyzes the voice data generated by the voice acquisition unit 260 and generates a character string.

認識結果取得部270は、作業者40の音声の音声認識によって得られた文字列を取得する。例えば、認識結果取得部270は、音声認識部272に音声データが出力され、音声認識部272による音声認識によって得られた文字列を取得する。通信部290が音声認識サーバ82と通信可能である場合、音声取得部260により生成された音声データが、通信部290及びネットワーク90を通じて外部の音声認識サーバ82に送信される。認識結果取得部270は、音声認識サーバ82による音声認識によって得られた文字列を取得する。   The recognition result acquisition unit 270 acquires a character string obtained by voice recognition of the worker 40's voice. For example, the recognition result acquisition unit 270 outputs the voice data to the voice recognition unit 272 and acquires a character string obtained by voice recognition by the voice recognition unit 272. When the communication unit 290 can communicate with the voice recognition server 82, the voice data generated by the voice acquisition unit 260 is transmitted to the external voice recognition server 82 through the communication unit 290 and the network 90. The recognition result acquisition unit 270 acquires a character string obtained by voice recognition by the voice recognition server 82.

記憶部210は、ウェアラブル端末10に対する指示と複数の文字列とを対応づける対応情報を記憶している。例えば、対応情報は、「じっせき」、「じいせき」、「じせき」等の文字列を、「実績」という指示に対応づける。指示特定部280は、対応情報によって認識結果取得部270が取得した文字列に対応づけられている指示を、ウェアラブル端末10に対する指示として特定する。   The storage unit 210 stores correspondence information that associates an instruction for the wearable terminal 10 with a plurality of character strings. For example, in the correspondence information, a character string such as “jiseki”, “jiseki”, “jiseki” is associated with an instruction “actual result”. The instruction specifying unit 280 specifies an instruction associated with the character string acquired by the recognition result acquisition unit 270 based on the correspondence information as an instruction for the wearable terminal 10.

指示取得部250は、サーバ80と通信可能である場合に、マイク205により取得された音声をサーバ80に送信して、サーバ80において特定された指示をサーバ80から受信する。指示取得部250は、サーバ80と通信可能でない場合に、記憶部210が記憶している対応情報によって音声認識部272が生成した文字列又は音声認識サーバ82から取得した文字列に対応づけられている指示を、ウェアラブル端末10に対する指示として取得する。   When the instruction acquisition unit 250 can communicate with the server 80, the instruction acquisition unit 250 transmits the sound acquired by the microphone 205 to the server 80 and receives the instruction specified by the server 80 from the server 80. The instruction acquisition unit 250 is associated with the character string generated by the voice recognition unit 272 or the character string acquired from the voice recognition server 82 based on the correspondence information stored in the storage unit 210 when communication with the server 80 is not possible. Is acquired as an instruction to the wearable terminal 10.

ウェアラブル端末10は、複数の点検項目のそれぞれに関連づけられた画像を作業者40に提供する。例えば、表示制御部220は、点検項目で行う点検内容を示す画像を、表示部12に表示させる。具体的には、表示制御部220は、「型番を入力」、「キズ・欠けがないか」等の、点検内容を説明する文字を含む画面を表示部12に表示させる。「型番を入力」、「キズ・欠けがないか」等は、点検項目の一例である。   The wearable terminal 10 provides the worker 40 with an image associated with each of the plurality of inspection items. For example, the display control unit 220 causes the display unit 12 to display an image indicating the content of inspection performed on the inspection item. Specifically, the display control unit 220 causes the display unit 12 to display a screen including characters that explain the contents of the inspection, such as “input model number” and “whether there are no scratches or missing parts”. “Input model number”, “Check for scratches and chipping”, etc. are examples of inspection items.

記憶部210は、複数の点検項目のそれぞれの点検項目に対応づけて、それぞれの点検項目に関連づけられた画像が作業者40に提供されているときに入力されるべき指示を複数の文字列に対応づける対応情報を記憶する。指示特定部280は、ウェアラブル端末10を通じて作業者40に提供されている画像が関連づけられた点検項目に対応づけて記憶部210が記憶している対応情報によって認識結果取得部270が取得した文字列と対応づけられている指示を、ウェアラブル端末10に対する指示として特定する。これにより、指示特定部280は、現在の点検項目において有効な指示のみを特定すればよいので、指示が誤特定される確率を低減することができる。   The storage unit 210 associates each inspection item of the plurality of inspection items with instructions to be input when an image associated with each inspection item is provided to the worker 40 into a plurality of character strings. The correspondence information to be associated is stored. The instruction specifying unit 280 is a character string acquired by the recognition result acquisition unit 270 based on correspondence information stored in the storage unit 210 in association with an inspection item associated with an image provided to the worker 40 through the wearable terminal 10. Is associated with the wearable terminal 10 as an instruction. As a result, the instruction specifying unit 280 only needs to specify an effective instruction in the current inspection item, so that the probability that the instruction is erroneously specified can be reduced.

表示制御部220は、指示の一覧を提示する指示に応じて、ウェアラブル端末10を通じて作業者40に提供されている画像が関連づけられた点検項目に対応づけて対応情報によって対応づけられている複数の指示の一覧を、作業者40に提示する。これにより、作業者40に、現在の作業項目において有効な指示の一覧を提示することができる。   In response to an instruction for presenting a list of instructions, the display control unit 220 associates the image provided to the worker 40 through the wearable terminal 10 with the inspection items associated with each other and is associated with the correspondence information. A list of instructions is presented to the worker 40. As a result, a list of instructions effective for the current work item can be presented to the worker 40.

利用頻度取得部232は、複数の点検項目のそれぞれについて、それぞれの点検項目に関連づけられた画像が作業者40に提供されている場合において複数の指示が使用された頻度を取得する。表示制御部220は、複数の指示の一覧を使用頻度に応じた順序で作業者40に表示する。これにより、作業者40は、頻繁に使用される指示を早く発見することができる。   The usage frequency acquisition unit 232 acquires, for each of a plurality of inspection items, the frequency at which a plurality of instructions are used when an image associated with each inspection item is provided to the worker 40. The display control unit 220 displays a list of a plurality of instructions to the worker 40 in an order corresponding to the usage frequency. Thereby, the worker 40 can quickly find instructions that are frequently used.

取消頻度取得部234は、対応情報によって指示に対応づけられている複数の文字列のそれぞれについて、指示特定部280が特定した指示が作業者40によって取り消された頻度を取得する。無効化部230は、対応情報において、取り消された頻度が予め定められた値以上の文字列と指示との対応づけを無効にする。例えば、取消頻度取得部234は、作業者40からの「ちせき」と認識された音声指示に応じて「実績」の処理を実行した後に、すぐに「もどる」という音声指示を取得した場合に、指示が取消されたと判断して、「ちせき」に対応する取消回数をカウントアップする。   The cancellation frequency acquisition unit 234 acquires the frequency at which the instruction specified by the instruction specifying unit 280 is canceled by the worker 40 for each of a plurality of character strings associated with the instruction by the correspondence information. The invalidating unit 230 invalidates the association between the instruction and the character string whose frequency of cancellation is a predetermined value or more in the correspondence information. For example, when the cancellation frequency acquisition unit 234 acquires the voice instruction “return” immediately after executing the “actual result” process according to the voice instruction recognized as “chiseki” from the worker 40. Therefore, it is determined that the instruction has been canceled, and the number of cancellations corresponding to “Chiseki” is counted up.

以上に説明したように、ウェアラブル端末10によれば、作業者が発する言葉のアクセントの違いや周囲の騒音等によって、正規の文字列の認識結果が得られなかった場合でも、認識結果を比較的に高い確率で正規の指示に変換することができる。   As described above, according to the wearable terminal 10, even if a recognition result of a regular character string cannot be obtained due to a difference in accent of words uttered by an operator, ambient noise, or the like, the recognition result is relatively It is possible to convert to a normal instruction with a high probability.

次に、点検結果が入力された場合の動作について説明する。表示制御部220がある作業項目の画像を表示部12に最初に表示させた場合、記憶部210は計時部204で計時される現在時刻を、点検開始時刻として記憶部210に記憶する。点検開始時刻は、作業に関する画像が前記ウェアラブル端末10で表示されたときにウェアラブル端末10で計時された第1の時刻の一例である。ここで、指示取得部250により、点検結果の入力する指示を取得した場合、記憶部210は、計時部204で計時される現在時刻を、点検終了時刻として記憶部210に記憶する。点検終了時刻は、点検結果をウェアラブル端末10が作業者40から取得したときにウェアラブル端末10で計時された第2の時刻の一例である。作業結果情報生成部240は、点検開始時刻と、点検終了時刻と、点検開始時刻から点検終了時刻までの時間である点検時間と、入力された点検結果を含む点検結果情報を生成して記憶部210に記憶する。記憶部210は、点検結果情報を記憶する作業結果記憶部として機能する。通信部290は、計時部204が生成した点検結果情報を、サーバ80に送信する。   Next, an operation when an inspection result is input will be described. When an image of a work item with the display control unit 220 is first displayed on the display unit 12, the storage unit 210 stores the current time measured by the time measuring unit 204 in the storage unit 210 as an inspection start time. The inspection start time is an example of a first time measured by the wearable terminal 10 when an image relating to work is displayed on the wearable terminal 10. Here, when the instruction acquisition unit 250 acquires an instruction to input the inspection result, the storage unit 210 stores the current time measured by the time measuring unit 204 in the storage unit 210 as the inspection end time. The inspection end time is an example of a second time measured by the wearable terminal 10 when the wearable terminal 10 acquires the inspection result from the worker 40. The work result information generation unit 240 generates inspection result information including an inspection start time, an inspection end time, an inspection time that is a time from the inspection start time to the inspection end time, and an input inspection result, and stores the inspection result information. 210. The storage unit 210 functions as a work result storage unit that stores inspection result information. The communication unit 290 transmits the inspection result information generated by the time measuring unit 204 to the server 80.

点検結果情報は、複数の作業項目のそれぞれについて生成される。すなわち、点検結果情報は、複数の作業項目のそれぞれについて、それぞれの作業項目に関する画像がウェアラブル端末10で表示されたときにウェアラブル端末10で計時された点検開始時刻と、それぞれの点検項目の点検結果をウェアラブル端末10が作業者40から取得したときにウェアラブル端末10で計時された点検終了時刻と、点検開始時刻から点検終了時刻までの時間である点検時間と、点検結果とを含む。点検時間は、作業項目に関する画像がウェアラブル端末10で表示されてからウェアラブル端末10が作業者40から点検結果を取得するまでの点検時間を示す。   Inspection result information is generated for each of a plurality of work items. That is, the inspection result information includes, for each of a plurality of work items, an inspection start time measured by the wearable terminal 10 when an image related to each work item is displayed on the wearable terminal 10, and an inspection result of each inspection item. Including the inspection end time measured by the wearable terminal 10 when the wearable terminal 10 acquires the information from the worker 40, the inspection time that is the time from the inspection start time to the inspection end time, and the inspection result. The inspection time indicates the inspection time from when the image relating to the work item is displayed on the wearable terminal 10 until the wearable terminal 10 acquires the inspection result from the worker 40.

複数の作業項目の作業を行う場合、一つの作業項目の点検結果が入力されると、表示制御部220は、次の作業項目に関する画像を表示する。これにより、ウェアラブル端末10は、作業者40の音声によって点検結果が入力された場合に、点検開始時刻から点検終了時刻までの時間を取得し、点検結果情報をサーバ80に送信し、点検結果が入力された作業の次の作業に関する画像を表示する。これにより、次の作業項目の点検時間の計時が開始される。これにより、作業者40は複数の作業項目の作業を効率的に行いながら、点検時間を管理する情報をサーバ80に蓄積することができる。   When performing a plurality of work items, when the inspection result of one work item is input, the display control unit 220 displays an image related to the next work item. Thereby, when the inspection result is input by the voice of the worker 40, the wearable terminal 10 acquires the time from the inspection start time to the inspection end time, transmits the inspection result information to the server 80, and the inspection result is An image related to the next operation after the input operation is displayed. Thereby, the time measurement of the inspection time of the next work item is started. Thereby, the worker 40 can accumulate information for managing the inspection time in the server 80 while efficiently performing the work of the plurality of work items.

なお、開始処理部208は、ウェアラブル端末10の電源が投入される毎に、ウェアラブル端末10に予め設定されている固定時刻から計時を開始する。また、開始処理部208は、作業者40から入力される認証情報をサーバ80に送信し、サーバ80により作業者40が認証された場合に、ウェアラブル端末10において計時される時刻をサーバ80で管理されている現在時刻に合わせる。固定時刻とは、例えば、1970年1月1日0時0分0秒等の基準日時であってよい。固定時刻とは、ウェアラブル端末10の工場出荷時に設定された時刻であってよい。固定時刻とは、ウェアラブル端末10が最後に電源OFFされたときの時刻であってよい。   The start processing unit 208 starts measuring time from a fixed time set in advance in the wearable terminal 10 each time the wearable terminal 10 is turned on. In addition, the start processing unit 208 transmits authentication information input from the worker 40 to the server 80, and when the worker 40 is authenticated by the server 80, the server 80 manages the time counted in the wearable terminal 10. Set to the current time. The fixed time may be, for example, a reference date and time such as January 1, 1970, 00:00:00. The fixed time may be a time set when the wearable terminal 10 is shipped from the factory. The fixed time may be the time when the wearable terminal 10 was last turned off.

なお、作業結果出力部248は、作業者40から点検結果が入力された場合に、サーバ80により作業者40が認証され、かつ、サーバ80と通信可能であることを条件として、点検結果情報をサーバ80に出力する。一方、作業結果出力部248は、サーバ80により作業者40が認証されていない場合又はサーバ80と通信可能でない場合には、点検結果情報を記憶部210に出力し、点検結果情報が記憶部210に出力された後、サーバ80により作業者40が認証された場合に、記憶部210に記憶されている点検結果情報をサーバ80に送信する。   When the inspection result is input from the operator 40, the operation result output unit 248 displays the inspection result information on the condition that the operator 40 is authenticated by the server 80 and can communicate with the server 80. Output to the server 80. On the other hand, when the worker 40 is not authenticated by the server 80 or when communication with the server 80 is not possible, the work result output unit 248 outputs the inspection result information to the storage unit 210, and the inspection result information is stored in the storage unit 210. When the worker 40 is authenticated by the server 80 after the output, the inspection result information stored in the storage unit 210 is transmitted to the server 80.

図3は、サーバ80の機能ブロック構成を概略的に示す。サーバ80は、制御部300と、記憶部310と、通信部390とを備える。   FIG. 3 schematically shows a functional block configuration of the server 80. The server 80 includes a control unit 300, a storage unit 310, and a communication unit 390.

制御部300は、マイクロプロセッサ等の演算装置であってよい。通信部390は、サーバ80におけるネットワーク90を通じた通信機能を担う。記憶部310は、フラッシュメモリやハードディス装置等の不揮発性の記憶装置を含む。記憶部310は、RAM等の揮発性の記憶装置を含む。サーバ80用のプログラムは、記録媒体に記録されて記憶部210に提供される。   The control unit 300 may be an arithmetic device such as a microprocessor. The communication unit 390 has a communication function through the network 90 in the server 80. The storage unit 310 includes a nonvolatile storage device such as a flash memory or a hard disk device. The storage unit 310 includes a volatile storage device such as a RAM. The program for the server 80 is recorded on a recording medium and provided to the storage unit 210.

制御部300は、時刻管理部304、認証制御部320、無効化部330、利用頻度取得部332、取消頻度取得部334、結果出力部340、判断部342、合計時間算出部344、音声取得部360、認識結果取得部370、指示特定部380、集計部392、選択部394を備える。   The control unit 300 includes a time management unit 304, an authentication control unit 320, an invalidation unit 330, a usage frequency acquisition unit 332, a cancellation frequency acquisition unit 334, a result output unit 340, a determination unit 342, a total time calculation unit 344, and a voice acquisition unit. 360, a recognition result acquisition unit 370, an instruction specification unit 380, a totaling unit 392, and a selection unit 394.

上述したように、ウェアラブル端末10において、作業刻開始時刻、点検終了時刻及び点検時間と、点検結果とを含む点検結果情報が、ウェアラブル端末10から送信される。通信部390は、ウェアラブル端末10から送信された点検結果情報を受信する。通信部390は、点検結果情報を受信する作業結果受信部として機能する。通信部390が受信した点検結果情報は、記憶部310に記憶される。   As described above, in the wearable terminal 10, the inspection result information including the work time start time, the inspection end time and the inspection time, and the inspection result is transmitted from the wearable terminal 10. The communication unit 390 receives the inspection result information transmitted from the wearable terminal 10. The communication unit 390 functions as an operation result receiving unit that receives inspection result information. The inspection result information received by the communication unit 390 is stored in the storage unit 310.

結果出力部340は、点検結果データの送信を要求された場合、点検開始時刻及び点検終了時刻がサーバ80で管理されている時刻と整合する場合に、点検開始時刻及び点検終了時刻、点検時間、及び点検結果を含む点検結果データを生成する。一方、結果出力部340は、点検開始時刻又は点検終了時刻がサーバ80で管理されている時刻と整合しない場合に、点検開始時刻及び点検終了時刻をマスクした点検結果データを生成する。例えば、点検開始時刻及び点検終了時刻を「−−−−」にした点検結果データを生成する。通信部390は、結果出力部340が生成した点検結果データを、点検結果データの要求先に送信する。   When the result output unit 340 is requested to transmit the inspection result data, the inspection start time and the inspection end time, the inspection time, when the inspection start time and the inspection end time coincide with the time managed by the server 80, And inspection result data including the inspection result is generated. On the other hand, when the inspection start time or the inspection end time does not match the time managed by the server 80, the result output unit 340 generates inspection result data that masks the inspection start time and the inspection end time. For example, the inspection result data with the inspection start time and the inspection end time set to “----” is generated. The communication unit 390 transmits the inspection result data generated by the result output unit 340 to the request destination of the inspection result data.

時刻管理部304は、現在時刻を管理する。時刻管理部304は、サーバ80から受信した基準時刻に基づいてシステム時計を合わせる。認証制御部320は、ウェアラブル端末10から受信した作業者40の認証情報に基づいて作業者40を認証するとともに、ウェアラブル端末10において計時される時刻を現在時刻に合わせる時刻合わせをウェアラブル端末10に実行させる。   The time management unit 304 manages the current time. The time management unit 304 sets the system clock based on the reference time received from the server 80. The authentication control unit 320 authenticates the worker 40 based on the authentication information of the worker 40 received from the wearable terminal 10, and executes the time adjustment for matching the time counted in the wearable terminal 10 to the current time in the wearable terminal 10. Let

判断部342は、点検開始時刻又は点検終了時刻と時刻管理部が管理している現在時刻との差が予め定められた値より大きい場合に、点検開始時刻又は点検終了時刻がサーバ80で管理されている時刻と整合していないと判断する。例えば、判断部342は、点検開始時刻又は点検終了時刻と、サーバ80で管理されている時刻との差が予め定められた値を超える場合に、点検開始時刻又は点検終了時刻がサーバ80で管理されている時刻と整合していないと判断する。例えば、ウェアラブル端末10の電源ON後、ウェアラブル端末10の時刻がサーバ80と時刻合わせされない場合、ウェアラブル端末10は、1970年1月1日0時0分0秒を基準時刻とし、基準時刻からの経過時間の初期値を0にリセットして、時刻を計時する。この場合、点検開始時刻又は点検終了時刻と時刻管理部304が管理している現在時刻との差が大きくなるため、現在時刻と整合していないと判断される。   When the difference between the inspection start time or the inspection end time and the current time managed by the time management unit is larger than a predetermined value, the determination unit 342 manages the inspection start time or the inspection end time by the server 80. Judge that it is not consistent with the current time. For example, the determination unit 342 manages the inspection start time or inspection end time with the server 80 when the difference between the inspection start time or inspection end time and the time managed by the server 80 exceeds a predetermined value. It is determined that it is not consistent with the current time. For example, if the time of the wearable terminal 10 is not synchronized with the server 80 after the wearable terminal 10 is turned on, the wearable terminal 10 sets the reference time from 1:00:00 on January 1, 1970 to the reference time. The initial value of elapsed time is reset to 0 and the time is counted. In this case, since the difference between the inspection start time or the inspection end time and the current time managed by the time management unit 304 becomes large, it is determined that the current time is not consistent.

合計時間算出部344は、作業対象毎に、作業対象に設定された複数の作業項目にわたる時間の合計値を算出する。通信部390は、作業対象に対応づけて、点検開始時刻、点検終了時刻、点検時間及び点検結果に加えて、合計時間算出部が算出した合計値を含む点検結果データを、点検結果データの要求元に送信する。   The total time calculation unit 344 calculates, for each work target, a total value of time over a plurality of work items set as the work target. The communication unit 390 requests inspection result data including the total value calculated by the total time calculation unit in addition to the inspection start time, the inspection end time, the inspection time, and the inspection result in association with the work target. Send to the original.

次に、サーバ80における音声認識に関する処理について説明する。音声取得部360は、通信部390が受信した、ウェアラブル端末10から送信された音声データを取得する。認識結果取得部370及び指示特定部380は、それぞれウェアラブル端末10における認識結果取得部270及び指示特定部380に対応する機能ブロックである。   Next, processing related to speech recognition in the server 80 will be described. The voice acquisition unit 360 acquires the voice data transmitted from the wearable terminal 10 received by the communication unit 390. The recognition result acquisition unit 370 and the instruction specification unit 380 are functional blocks corresponding to the recognition result acquisition unit 270 and the instruction specification unit 380 in the wearable terminal 10, respectively.

具体的には、認識結果取得部370は、作業者40の音声の音声認識によって得られた文字列を取得する。例えば、音声取得部360が取得した音声データが通信部290及びネットワーク90を通じて外部の音声認識サーバ82に送信され、音声認識サーバ82が音声認識することにより得られた文字列を取得する。   Specifically, the recognition result acquisition unit 370 acquires a character string obtained by voice recognition of the worker 40's voice. For example, the voice data acquired by the voice acquisition unit 360 is transmitted to the external voice recognition server 82 through the communication unit 290 and the network 90, and the voice recognition server 82 acquires a character string obtained by voice recognition.

記憶部310は、ウェアラブル端末10に対する指示と複数の文字列とを対応づける対応情報を記憶している。例えば、対応情報は、「じっせき」、「じいせき」、「じせき」等の文字列を、「実績」という指示に対応づける。記憶部310は、対応情報を記憶する対応情報記憶部として機能する。指示特定部380は、対応情報によって認識結果取得部270が取得した文字列に対応づけられている指示を、ウェアラブル端末10に対する指示として特定する。指示特定部380が特定した指示を示す情報は、通信部390及びネットワーク90を通じて、ウェアラブル端末10に送信される。   The storage unit 310 stores correspondence information that associates an instruction for the wearable terminal 10 with a plurality of character strings. For example, in the correspondence information, a character string such as “jiseki”, “jiseki”, “jiseki” is associated with an instruction “actual result”. The storage unit 310 functions as a correspondence information storage unit that stores correspondence information. The instruction specifying unit 380 specifies an instruction associated with the character string acquired by the recognition result acquisition unit 270 based on the correspondence information as an instruction for the wearable terminal 10. Information indicating the instruction specified by the instruction specifying unit 380 is transmitted to the wearable terminal 10 through the communication unit 390 and the network 90.

利用頻度取得部332、取消頻度取得部334、及び無効化部330は、それぞれウェアラブル端末10における利用頻度取得部232、取消頻度取得部234、及び無効化部230に対応する機能ブロックである。すなわち、利用頻度取得部332は、複数の点検項目のそれぞれについて、それぞれの点検項目に関連づけられた画像が作業者40に提供されている場合において複数の指示が使用された頻度を取得する。   The usage frequency acquisition unit 332, the cancellation frequency acquisition unit 334, and the invalidation unit 330 are functional blocks corresponding to the usage frequency acquisition unit 232, the cancellation frequency acquisition unit 234, and the invalidation unit 230, respectively, in the wearable terminal 10. That is, the usage frequency acquisition unit 332 acquires, for each of a plurality of inspection items, the frequency at which a plurality of instructions are used when an image associated with each inspection item is provided to the worker 40.

取消頻度取得部334は、対応情報によって指示に対応づけられている複数の文字列のそれぞれについて、指示特定部380が特定した指示が作業者40によって取り消された頻度を取得する。無効化部330は、対応情報において、取り消された頻度が予め定められた値以上の文字列と指示との対応づけを無効にする。例えば、取消頻度取得部334は、作業者40からの「ちせき」と認識された音声指示に応じて「実績」の処理を実行した後に、すぐに「もどる」という音声指示を取得した場合に、指示が取消されたと判断して、「ちせき」に対応する取消回数をカウントアップする。   The cancellation frequency acquisition unit 334 acquires the frequency at which the instruction specified by the instruction specifying unit 380 is canceled by the worker 40 for each of a plurality of character strings associated with the instruction by the correspondence information. The invalidating unit 330 invalidates the correspondence between the character string whose frequency of cancellation is equal to or greater than a predetermined value in the correspondence information and the instruction. For example, when the cancellation frequency acquisition unit 334 executes the “actual result” process in response to the voice instruction recognized as “chiseki” from the worker 40, the cancellation frequency acquisition unit 334 immediately acquires the voice instruction “return”. Therefore, it is determined that the instruction has been canceled, and the number of cancellations corresponding to “Chiseki” is counted up.

ここで、サーバ80の記憶部310及びウェアラブル端末10の記憶部210に記憶される対応情報の生成方法について説明する。集計部392は、複数の人による指示の音声の音声認識により得られた複数の文字列を取得し、当該複数の文字列のそれぞれの文字列として音声が認識された人数を文字列毎に集計する。選択部394は、集計部392によって集計された人数に基づいて、複数の文字列の中から、対応情報において指示に対応づけられるべき文字列を選択する。これにより、様々な人の発声に対応することができる。対応情報により指示に対応づける文字列の選択方法の具体例については、図12等に関連して説明する。   Here, a method of generating correspondence information stored in the storage unit 310 of the server 80 and the storage unit 210 of the wearable terminal 10 will be described. The totaling unit 392 acquires a plurality of character strings obtained by voice recognition of voices instructed by a plurality of people, and totals the number of persons whose voice is recognized as the character strings of the plurality of character strings for each character string. To do. The selection unit 394 selects a character string to be associated with the instruction in the correspondence information from among a plurality of character strings based on the number of people counted by the counting unit 392. Thereby, it can respond to the utterance of various people. A specific example of a method for selecting a character string to be associated with an instruction by correspondence information will be described with reference to FIG.

以上に説明したウェアラブル端末10及びサーバ80によれば、音声認識結果としての複数の文字列と指示とを対応づける対応情報を用いて指示を特定するので、ユーザ毎の発音の違いや周囲の外乱等の影響を低減することができる。また、サーバ80が点検結果データを提供する場合、ウェアラブル端末10とサーバ80とが時刻合わせされていない状態で点検結果が入力された作業については、点検開始時刻及び点検終了時刻のデータを「−−−−」等の文字列でマスクするので、正確でない値が管理データとして提供されることを抑制することができる。   According to the wearable terminal 10 and the server 80 described above, since the instruction is specified using the correspondence information that associates the plurality of character strings as the voice recognition result with the instruction, the difference in pronunciation for each user or the disturbance of the surroundings Etc. can be reduced. Further, when the server 80 provides the inspection result data, the inspection start time and inspection end time data for the work in which the inspection result is input in a state where the wearable terminal 10 and the server 80 are not set in time is “−”. Since it is masked with a character string such as “---”, it is possible to prevent an incorrect value from being provided as management data.

図4は、ウェアラブル端末10による点検支援処理の全体を示すフローチャートである。本フローチャートの処理は、主として、制御部200がウェアラブル端末10の各部を制御することにより実現される。   FIG. 4 is a flowchart showing the entire inspection support process by the wearable terminal 10. The process of this flowchart is mainly realized by the control unit 200 controlling each unit of the wearable terminal 10.

S402において、ウェアラブル端末10が電源ONされると、開始処理部208は、計時部204に固定時刻から計時を開始させる。   In S402, when the wearable terminal 10 is powered on, the start processing unit 208 causes the timing unit 204 to start timing from a fixed time.

S404において、表示制御部220は、ログイン画面を表示部12に表示させる。ログイン画面が表示されている状態でユーザID等の認証情報が入力されると、S406において、開始処理部208は、認証情報を用いて認証する。S406の処理の詳細については、図6に関連して説明する。   In S404, the display control unit 220 causes the display unit 12 to display a login screen. If authentication information such as a user ID is input while the login screen is displayed, the start processing unit 208 performs authentication using the authentication information in S406. Details of the process of S406 will be described with reference to FIG.

ログインが完了すると、S410において、点検対象の場所、設備、及び部位を取得する。場所、設備、及び部位の指示は、作業者40の音声により入力される。続いて、S412において、ウェアラブル端末10は、点検項目リストを設定する。例えば、ウェアラブル端末10は、サーバ80と通信可能な場合、S410で取得した場所、設備、及び部位を示す情報をサーバ80に送信して、サーバ80から1以上の点検項目を含む点検項目リストを取得する。サーバ80と通信可能でない場合、S410で取得した場所、設備、及び部位を示す情報に対応づけて記憶部210が記憶している点検項目リストを、記憶部210から読み出す。   When the login is completed, the location, equipment, and part to be inspected are acquired in S410. The location, equipment, and part instructions are input by the voice of the operator 40. Subsequently, in S412, the wearable terminal 10 sets an inspection item list. For example, when the wearable terminal 10 can communicate with the server 80, the wearable terminal 10 transmits information indicating the location, equipment, and part acquired in S410 to the server 80, and generates an inspection item list including one or more inspection items from the server 80. get. If communication with the server 80 is not possible, the inspection item list stored in the storage unit 210 in association with the information indicating the location, facility, and part acquired in S410 is read from the storage unit 210.

S414において、作業者40の点検を支援するための処理を行う。S414の具体的な処理については後述する。   In S414, a process for supporting the inspection of the worker 40 is performed. Specific processing of S414 will be described later.

図5は、ログイン画面500の一例を示す。ログイン画面500は、音声で入力する内容を示すオブジェクト510と、音声入力が可能であるか否かを示すオブジェクト580を含む。表示制御部220は、音声入力が可能である場合に、オブジェクト580の外枠の色を予め定められた第1の色で表示させる。表示制御部220は、例えば、音声認識中である場合等、新たな音声入力が可能でない場合に、オブジェクト580の外枠の色を予め定められた第2の色で表示させる。表示制御部220は、音声入力が可能である場合において、音声が入力されると、認識された文字を枠内に表示させる。   FIG. 5 shows an example of the login screen 500. The login screen 500 includes an object 510 indicating contents input by voice and an object 580 indicating whether voice input is possible. When the voice input is possible, the display control unit 220 displays the color of the outer frame of the object 580 in a predetermined first color. The display control unit 220 displays the color of the outer frame of the object 580 in a predetermined second color when a new voice input is not possible, for example, during voice recognition. In the case where voice input is possible, the display control unit 220 displays the recognized character in the frame when the voice is input.

図6は、ウェアラブル端末10によるログイン処理を示すフローチャートである。本フローチャートの処理は、主として、制御部200がウェアラブル端末10の各部を制御することにより実現される。本フローチャートの処理は、図4のS406の処理に適用することができる。   FIG. 6 is a flowchart showing login processing by the wearable terminal 10. The process of this flowchart is mainly realized by the control unit 200 controlling each unit of the wearable terminal 10. The process of this flowchart can be applied to the process of S406 in FIG.

S602において、制御部200は認証情報を取得する。例えば、作業者40は、図5に示すログイン画面が表示されている状態で取得されたユーザの音声を認識することにより、認証情報を取得する。なお、制御部200は、撮像部202で撮像された画像から認証情報を取得してよい。例えば、ウェアラブル端末10を利用可能な作業者40には、認証情報をコード化したQRコード(登録商標)が印刷されたログイン証が配布される。作業者40がログイン証を撮像部202で撮像すると、制御部200は、ログイン証の画像から抽出したコード化情報を復号して、認証情報を取得してよい。   In step S602, the control unit 200 acquires authentication information. For example, the worker 40 acquires the authentication information by recognizing the user's voice acquired in a state where the login screen shown in FIG. 5 is displayed. Note that the control unit 200 may acquire authentication information from an image captured by the imaging unit 202. For example, a login certificate printed with a QR code (registered trademark) in which authentication information is encoded is distributed to the worker 40 who can use the wearable terminal 10. When the worker 40 images the login certificate with the imaging unit 202, the control unit 200 may acquire the authentication information by decoding the encoded information extracted from the image of the login certificate.

S604において、開始処理部208は、通信部290を通じて認証情報をサーバ80に送信する。開始処理部208は、S606において、サーバ80により認証されたか否かを判断する。サーバ80により認証された場合、S608において、開始処理部208は、計時部204が計時する時刻をサーバ80の現在時刻に合わせて、図4のS410に進む。なお、サーバ80により認証された状態のことを、「オンライン状態」と呼ぶ場合がある。   In step S <b> 604, the start processing unit 208 transmits authentication information to the server 80 through the communication unit 290. In step S <b> 606, the start processing unit 208 determines whether the server 80 has authenticated. When authenticated by the server 80, in S608, the start processing unit 208 adjusts the time measured by the time measuring unit 204 to the current time of the server 80, and proceeds to S410 in FIG. The state authenticated by the server 80 may be referred to as “online state”.

S606において、サーバ80により認証されなかった場合、S610に進む。サーバ80により認証されなかった場合とは、サーバ80から作業者40を認証できない旨が通知された場合や、ウェアラブル端末10がサーバ80と通信可能でない場合を含む。S610において、開始処理部208は、記憶部210に記憶されている参照情報と認証情報とを照合する。記憶部210の参照情報と認証情報とを照合することにより作業者40を認証した場合、図4のS410に進む。なお、サーバ80により認証されず、記憶部210の参照情報と認証情報との照合により認証された状態のことを、「オフライン状態」と呼ぶ場合がある。参照情報と認証情報とを照合することにより作業者40を認証できなかった場合、図4のS404に進む。   If it is not authenticated by the server 80 in S606, the process proceeds to S610. The case where the server 80 has not authenticated includes the case where the server 80 notifies that the worker 40 cannot be authenticated, and the case where the wearable terminal 10 cannot communicate with the server 80. In S610, the start processing unit 208 collates the reference information stored in the storage unit 210 with the authentication information. When the worker 40 is authenticated by comparing the reference information in the storage unit 210 with the authentication information, the process proceeds to S410 in FIG. A state in which authentication is not performed by the server 80 but is verified by comparing reference information in the storage unit 210 with authentication information may be referred to as an “offline state”. If the worker 40 cannot be authenticated by comparing the reference information with the authentication information, the process proceeds to S404 in FIG.

図7は、ウェアラブル端末10による点検支援処理を示すフローチャートである。本フローチャートの処理は、主として、制御部200がウェアラブル端末10の各部を制御することにより実現される。本フローチャートの処理は、図4のS414の処理に適用することができる。   FIG. 7 is a flowchart showing inspection support processing by the wearable terminal 10. The process of this flowchart is mainly realized by the control unit 200 controlling each unit of the wearable terminal 10. The process of this flowchart can be applied to the process of S414 in FIG.

S702において、表示制御部220は点検開始画面を表示部12に表示させ、制御部200は「点検開始」の指示を取得するまで待機する(S704)。   In S702, the display control unit 220 displays an inspection start screen on the display unit 12, and the control unit 200 waits until an instruction of “inspection start” is acquired (S704).

「点検開始」が指示されると、S706において、作業結果情報生成部240は、点検報告用の開始時刻を記憶部210に記憶する。S708において、表示制御部220は、最初の点検項目の画面を表示させる。点検項目の画面については後述する。   When “inspection start” is instructed, the work result information generation unit 240 stores the inspection report start time in the storage unit 210 in S706. In step S708, the display control unit 220 displays a screen for the first inspection item. The inspection item screen will be described later.

S720において、指示取得部250は作業者40の指示を取得する。上述したように、作業者40の音声による指示は、サーバ80又は指示特定部280により特定される。S720の処理については、図10に関連して説明する。   In S720, the instruction acquisition unit 250 acquires the instruction of the worker 40. As described above, the voice instruction of the worker 40 is specified by the server 80 or the instruction specifying unit 280. The process of S720 will be described with reference to FIG.

本フローチャートでは、S720で取得した指示として、点検結果の入力指示と、コマンド一覧を表示するための「コマンド」指示と、コマンド一覧を非表示にするための「閉じる」指示と、他の指示又は対応する指示がなかった場合を取り上げて説明する。   In this flowchart, as the instructions acquired in S720, an inspection result input instruction, a “command” instruction for displaying a command list, a “close” instruction for hiding the command list, and other instructions or A case where there is no corresponding instruction will be described.

S720で取得した指示が点検結果の入力指示であった場合、S722において現在時刻を取得し、S724において、作業結果情報生成部240が生成した点検結果情報を、記憶部210又はサーバ80に出力する。   If the instruction acquired in S720 is an instruction to input an inspection result, the current time is acquired in S722, and the inspection result information generated by the work result information generation unit 240 is output to the storage unit 210 or the server 80 in S724. .

続いて、S726において、点検項目リストに次の点検項目が存在するか否かを判断する。次の点検項目が存在する場合、S708に処理を移行する。次の点検項目が存在しない場合、S728において点検報告用の終了時刻を記憶して、本フローチャートの処理を終了する。   Subsequently, in S726, it is determined whether or not the next inspection item exists in the inspection item list. When the next inspection item exists, the process proceeds to S708. If the next inspection item does not exist, the end time for inspection report is stored in S728, and the process of this flowchart is terminated.

S720で取得した指示が「コマンド」の場合、S730において、音声コマンド一覧を表示して、S720に処理を移行する。音声コマンド一覧については、図9に関連して説明する。S720で取得した指示が「閉じる」の場合、S732において、音声コマンド一覧の表示を閉じて、S720に処理を移行する。S720で取得した指示が点検結果の入力指示、「コマンド」及び「閉じる」のいずれでない場合や、作業者40の音声の認識結果に対応する指示がなかった場合、S734において、他の指示に対応する処理、又は、対応する指示がなかった場合の予め定められた処理を実行して、S720に処理を移行する。   If the instruction acquired in S720 is “command”, a voice command list is displayed in S730, and the process proceeds to S720. The voice command list will be described with reference to FIG. If the instruction acquired in S720 is “close”, the display of the voice command list is closed in S732, and the process proceeds to S720. If the instruction acquired in S720 is not an inspection result input instruction, “command” or “close”, or if there is no instruction corresponding to the voice recognition result of the worker 40, other instructions are handled in S734. Or a predetermined process when there is no corresponding instruction, and the process proceeds to S720.

図8は、点検画面800の一例を示す。点検画面800は、点検結果を入力する内容を示すオブジェクト810と、本点検項目において最も良く使用される3つの指示を示すオブジェクト820を含む。   FIG. 8 shows an example of the inspection screen 800. The inspection screen 800 includes an object 810 indicating contents for inputting the inspection result and an object 820 indicating three instructions most frequently used in this inspection item.

点検画面800は、ケーブルの型番を点検するための画面である。点検画面800においては、数字、アルファベット及び記号を、点検結果として入力することができる。アルファベットの小文字は、アルファベットの文字の直前に「こもじ」を付けることで音声入力可能である。例えば、「xYz」は、「こもじえっくすわいこもじぜっと」と発声することで入力可能である。すなわち、指示特定部280は、認識結果に「こもじ」が含まれている場合、「こもじ」に続く文字列が表すアルファベットを小文字に変換することで、指示された文字列を特定する。なお、日本語の発音では数字の「9」とアルファベットの「Q」を識別しにくいため、アルファベットの「Q」には「けべっく」を対応づける。すなわち、指示特定部280は、認識結果の「けべっく」を「Q」に変換する。   The inspection screen 800 is a screen for inspecting the cable model number. On the inspection screen 800, numbers, alphabets, and symbols can be input as inspection results. Lowercase letters can be input by adding “komoji” immediately before the letters of the alphabet. For example, “xYz” can be input by uttering “Komoji-ku-waiko-komo-zetsuto”. That is, when “Komoji” is included in the recognition result, the instruction specifying unit 280 specifies the instructed character string by converting the alphabet represented by the character string following “Komoji” to lower case. In Japanese pronunciation, the number “9” and the alphabet “Q” are difficult to distinguish, and therefore the alphabet “Q” is associated with “Kebek”. That is, the instruction specifying unit 280 converts the “result” of the recognition result into “Q”.

図9は、音声コマンド一覧が表示されている状態の点検画面900の一例を示す。点検画面900は、音声コマンド一覧を示すオブジェクト910を含む。表示制御部220は、オブジェクト910を点検画面800上にオーバーレイ表示することにより、音声コマンド一覧を表示する。   FIG. 9 shows an example of an inspection screen 900 in a state where a voice command list is displayed. The inspection screen 900 includes an object 910 indicating a voice command list. The display control unit 220 displays a voice command list by displaying the object 910 as an overlay on the inspection screen 800.

オブジェクト910は、点検画面800において入力可能な指示の一覧を含む。表示制御部220は、オブジェクト910において指示を表示する順番を、利用頻度が高い順に並べる。例えば、画面に向かって左側に位置する指示が、画面に向かって右側に位置する指示より利用頻度が高くなるように並べてよい。左右方向に同じ位置に指示については、画面に向かって上側に位置する指示が、画面に向かって下側に位置する指示より利用頻度が高くなるように並べてよい。   The object 910 includes a list of instructions that can be input on the inspection screen 800. The display control unit 220 arranges the order of displaying instructions in the object 910 in descending order of usage frequency. For example, the instructions positioned on the left side of the screen may be arranged so that the usage frequency is higher than the instructions positioned on the right side of the screen. The instructions at the same position in the left-right direction may be arranged so that the instruction located on the upper side toward the screen is used more frequently than the instruction located on the lower side toward the screen.

オブジェクト910が表示されている状態で「閉じる」の指示があった場合、表示制御部220は、オブジェクト910の表示を終了する。なお、オブジェクト910が表示されている状態でも、指示を入力することができる。例えば、オブジェクト910が表示されている状態で、作業者40が「じっせき」と発声すると、過去実績を表示する画面へと遷移する。   If there is an instruction to “close” while the object 910 is displayed, the display control unit 220 ends the display of the object 910. An instruction can be input even when the object 910 is displayed. For example, when the worker 40 utters “Jiseki” in a state where the object 910 is displayed, the screen transitions to a screen that displays past results.

図10は、ウェアラブル端末10において作業者40から音声で指示を取得する処理を表すフローチャートである。本フローチャートの処理は、主として、制御部200がウェアラブル端末10の各部を制御することにより実現される。本フローチャートの処理は、図7のS720の処理に適用することができる。   FIG. 10 is a flowchart showing a process of acquiring an instruction from the worker 40 by voice in the wearable terminal 10. The process of this flowchart is mainly realized by the control unit 200 controlling each unit of the wearable terminal 10. The process of this flowchart can be applied to the process of S720 of FIG.

S1002において、音声取得部260は、マイク205で取得された音声データを生成する。S1004において、指示取得部250は、ウェアラブル端末10がオンライン状態かつサーバ80と通信可能な状態であるか否かを判断する。ウェアラブル端末10がオンライン状態かつサーバ80と通信可能である場合、通信部290は、音声データをサーバ80に送信する。サーバ80において、音声取得部360、認識結果取得部370、指示特定部380により作業者40の指示が特定され、特定された指示を示す情報がサーバ80からウェアラブル端末10に送信される。サーバ80が作業者40の指示を特定する処理については、図11に関連して後述する。S1008において、指示取得部250は、通信部290を通じて、サーバ80で特定された指示を取得し、本フローチャートの処理を終了する。   In step S <b> 1002, the voice acquisition unit 260 generates voice data acquired by the microphone 205. In step S <b> 1004, the instruction acquisition unit 250 determines whether the wearable terminal 10 is online and can communicate with the server 80. When the wearable terminal 10 is online and can communicate with the server 80, the communication unit 290 transmits audio data to the server 80. In the server 80, the instruction of the worker 40 is specified by the voice acquisition unit 360, the recognition result acquisition unit 370, and the instruction specifying unit 380, and information indicating the specified instruction is transmitted from the server 80 to the wearable terminal 10. The process in which the server 80 specifies the instruction of the worker 40 will be described later with reference to FIG. In step S1008, the instruction acquisition unit 250 acquires the instruction specified by the server 80 through the communication unit 290, and ends the processing of this flowchart.

S1004において、ウェアラブル端末10がオフライン状態である場合、又は、ウェアラブル端末10がサーバ80と通信不可能である場合、S1010において、ウェアラブル端末10において作業者40の指示を特定し、本フローチャートの処理を終了する。S1010では、上述したように、音声認識部272、認識結果取得部270、及び指示特定部280により、作業者40の指示が特定される。   If the wearable terminal 10 is offline in S1004, or if the wearable terminal 10 cannot communicate with the server 80, in S1010, the wearable terminal 10 specifies the instruction of the worker 40, and the processing of this flowchart is performed. finish. In S1010, as described above, the voice recognition unit 272, the recognition result acquisition unit 270, and the instruction specifying unit 280 specify the instruction of the worker 40.

図11は、対応情報として記憶される情報をテーブル形式で示す。図11は、「実績」の指示に対応づけられた対応情報である。対応情報は指示毎に用意される。対応情報は、認識文字列と、認識回数と、取消回数と、有効フラグとを互いに対応づける。   FIG. 11 shows information stored as correspondence information in a table format. FIG. 11 shows correspondence information associated with the “result” instruction. Correspondence information is prepared for each instruction. The correspondence information associates the recognized character string, the number of times of recognition, the number of times of cancellation, and the valid flag with each other.

認識文字列は、音声認識により得られた文字列に該当する。認識回数は、音声認識によって認識文字列の文字列が得られた回数を表す。例えば、認識回数は、音声認識サーバ82等によって「じっせき」の文字列として認識される毎にインクリメントされる。   The recognized character string corresponds to a character string obtained by voice recognition. The number of times of recognition represents the number of times the character string of the recognized character string is obtained by voice recognition. For example, the number of times of recognition is incremented every time the voice recognition server 82 or the like recognizes it as a character string “Jiseki”.

取消回数は、認識文字列の文字列が認識された後に対応する指示が取り消された回数を表す。例えば、音声認識サーバ82等によって「ちせき」の文字列として認識されてから予め定められた時間内に「戻る」の指示が入力された場合に、「ちせき」に基づく「実績」の指示が取り消されたと判断して、「ちせき」に対応する取消回数をインクリメントする。   The number of times of cancellation represents the number of times the corresponding instruction is canceled after the character string of the recognized character string is recognized. For example, when a “return” instruction is input within a predetermined time after being recognized as a character string “chiseki” by the voice recognition server 82 or the like, an “actual” instruction based on “chiseki” Is canceled, and the number of cancellations corresponding to “Chiseki” is incremented.

有効フラグは、認識文字列と指示とが対応づけられているか否かを示す。「有効」は、認識文字列と指示とが対応づけられていることを示し、「無効」は、認識文字列と指示とが対応づけられていないことを示す。無効化部230は、認識回数及び取消回数に基づく指示の取消頻度が予め定められた値を以上となった場合に、有効フラグを「有効」から「無効」に切り換える。   The valid flag indicates whether or not the recognized character string and the instruction are associated with each other. “Valid” indicates that the recognized character string and the instruction are associated with each other, and “invalid” indicates that the recognized character string and the instruction are not associated with each other. The invalidation unit 230 switches the validity flag from “valid” to “invalid” when the cancellation frequency of the instruction based on the number of times of recognition and the number of cancellations exceeds a predetermined value.

図12は、対応情報を生成するための事前学習データの一例を示す。図12は、「実績」の指示に対応づけられた事前学習データである。「実績」の指示についての対応情報は、多数の人が「実績」を発声したときの音声の認識結果を学習することにより、生成される。   FIG. 12 shows an example of pre-learning data for generating correspondence information. FIG. 12 shows pre-learning data associated with the “actual” instruction. Correspondence information regarding the “actual” instruction is generated by learning a speech recognition result when a large number of people utter “actual”.

図12において、認識文字列は、多数の人が「実績」と発声したときに音声認識サーバ82等により認識された文字列を表す。人数は、認識文字列の文字列として認識された音声を発声した人の数を表す。人数は、事前学習を行う場合に、集計部392により集計される。選択部394は、事前学習データに基づいて、対応情報において「実績」の指示に対応づける認識文字列を選択する。具体的には、選択部394は、人数が多い順に認識文字列を選択する。選択部394は、選択した認識文字列の人数の合計が全人数の95%を上回るまで認識文字列を選択する。選択部394が選択した認識文字列は、対応情報により、「実績」の指示に対応づけられる。具体的には、図11に示されるように、「じっせき」から「ちせき」までの認識文字列が選択されて「実績」の指示との対応づけが有効となる。一方、「じせいき」の認識文字列は「実績」の指示との対応づけは無効とされる。   In FIG. 12, a recognized character string represents a character string recognized by the voice recognition server 82 or the like when a large number of people uttered “actual results”. The number of people represents the number of people who uttered the speech recognized as the character string of the recognized character string. The number of people is counted by the counting unit 392 when performing prior learning. The selection unit 394 selects a recognized character string to be associated with the “result” instruction in the correspondence information based on the prior learning data. Specifically, the selection unit 394 selects recognized character strings in descending order of the number of people. The selection unit 394 selects the recognized character string until the total number of the selected recognized character strings exceeds 95% of the total number of people. The recognized character string selected by the selection unit 394 is associated with the “result” instruction by the correspondence information. Specifically, as shown in FIG. 11, the recognized character string from “Jiseki” to “Chiseki” is selected, and the association with the “result” instruction becomes effective. On the other hand, the association of the recognized character string “Jiseiki” with the “result” instruction is invalid.

図13は、サーバ80において作業者40の指示を特定する処理を表すフローチャートである。本フローチャートの処理は、主として、制御部300がサーバ80の各部を制御することにより実現される。   FIG. 13 is a flowchart showing processing for specifying an instruction of the worker 40 in the server 80. The process of this flowchart is mainly realized by the control unit 300 controlling each unit of the server 80.

S1302において、音声取得部360は、通信部390を通じて、ウェアラブル端末10から受信した音声データを取得すると、S1304において、通信部390は、音声認識サーバ82に音声データを送信する。S1306において、認識結果取得部370は、通信部390を介して、音声認識サーバ82で認識された文字列を取得する。   When the voice acquisition unit 360 acquires the voice data received from the wearable terminal 10 through the communication unit 390 in S1302, the communication unit 390 transmits the voice data to the voice recognition server 82 in S1304. In S <b> 1306, the recognition result acquisition unit 370 acquires the character string recognized by the voice recognition server 82 via the communication unit 390.

S1310において、指示特定部380は、各指示の対応情報を参照して、有効フラグが「有効」である認識文字列の中に、S1306で取得した文字列が存在する対応情報が発見されたか否かを判断する。対応情報が発見された場合、S1312において、指示特定部380は、発見された対応情報に対応づけられている指示を、作業者40の指示として特定する。   In S1310, the instruction specifying unit 380 refers to the correspondence information of each instruction, and has found whether correspondence information in which the character string acquired in S1306 exists in the recognized character string whose valid flag is “valid” is found. Determine whether. If the correspondence information is found, in S1312, the instruction specifying unit 380 specifies the instruction associated with the found correspondence information as the instruction of the worker 40.

S1314において、対応情報の更新処理を行う。S1314の処理については図14に関連して説明する。   In S1314, the correspondence information is updated. The process of S1314 will be described with reference to FIG.

S1316において、通信部390は、S1312で特定した指示を示す情報を、ウェアラブル端末10に送信する。S1310において、対応情報が発見されなかった場合、S1318において、通信部390は、対応する指示がなかったことを示す情報をウェアラブル端末10に送信する。   In S1316, the communication unit 390 transmits information indicating the instruction specified in S1312 to the wearable terminal 10. If no corresponding information is found in S1310, the communication unit 390 transmits information indicating that there is no corresponding instruction to the wearable terminal 10 in S1318.

図14は、対応情報の更新処理を表すフローチャートである。本フローチャートの処理は、主として、制御部300がサーバ80の各部を制御することにより実現される。本フローチャートの処理は、図13のS1314の処理に適用することができる。   FIG. 14 is a flowchart showing the correspondence information update process. The process of this flowchart is mainly realized by the control unit 300 controlling each unit of the server 80. The process of this flowchart can be applied to the process of S1314 in FIG.

S1402において、無効化部330は、特定された指示に対応する対応情報において、認識文字列に対応づけられた認識回数の値をインクリメントする。S1404において、S1312で特定した作業者40の指示が、直前の指示を取り消す指示であるか否かを判断する。例えば、S1312で特定された作業者40の指示が「戻る」であり、かつ、直前の指示を行った時刻からの経過時間が予め定められた値より短い場合に、直前の指示を取り消す指示であると判断する。直前の指示を取り消す指示でなかった場合は、本フローチャートの処理を終了する。直前の指示を取り消す指示であった場合、S1406において、無効化部330は、直前の指示の対応情報において、直前の指示における認識文字列に対応づけられている取消回数をインクリメントする。   In S1402, the invalidating unit 330 increments the value of the number of times of recognition associated with the recognized character string in the correspondence information corresponding to the specified instruction. In S1404, it is determined whether or not the instruction of the worker 40 identified in S1312 is an instruction to cancel the immediately preceding instruction. For example, in the case where the instruction of the worker 40 identified in S1312 is “return” and the elapsed time from the time when the previous instruction is given is shorter than a predetermined value, the instruction to cancel the previous instruction is issued. Judge that there is. If it is not an instruction to cancel the immediately preceding instruction, the process of this flowchart is terminated. If the instruction is to cancel the immediately preceding instruction, in S1406, the invalidating unit 330 increments the number of cancellations associated with the recognized character string in the immediately preceding instruction in the correspondence information of the immediately preceding instruction.

S1408において、取消頻度取得部334は利用頻度及び取消頻度に基づいて取消頻度を算出し、無効化部330は、取消頻度が予め定められた閾値以上であるか否かを判断する。取消頻度が予め定められた閾値未満の場合は、本フローチャートの処理を終了する。取消頻度が予め定められた閾値以上の場合、S1410において、無効化部330は、直前の指示の認識文字列の有効フラグを「無効」に切り換える。S1412において、無効化部330は、有効フラグが「無効」であった認識文字列のうち、事前学習において人数が最も多い認識文字列の有効フラグを「有効」に切り換える。例えば、「実績」に対応づけられた対応情報において、「ちせき」の有効フラグを「無効」に切り換える場合、「じせいき」の有効フラグを「有効」に切り換える。   In S1408, the cancellation frequency acquisition unit 334 calculates the cancellation frequency based on the usage frequency and the cancellation frequency, and the invalidation unit 330 determines whether the cancellation frequency is equal to or higher than a predetermined threshold. When the cancellation frequency is less than a predetermined threshold, the process of this flowchart is terminated. If the cancellation frequency is greater than or equal to a predetermined threshold value, in S1410, the invalidation unit 330 switches the validity flag of the recognized character string of the immediately preceding instruction to “invalid”. In S1412, the invalidating unit 330 switches the valid flag of the recognized character string having the largest number of people in the pre-learning among the recognized character strings whose valid flag is “invalid” to “valid”. For example, in the correspondence information associated with “actual”, when the valid flag of “Chiseki” is switched to “invalid”, the valid flag of “jiseki” is switched to “valid”.

図11から図14に関連して説明したように、対応情報により、音声認識により得られる可能性がある複数の文字列を一つの指示に対応づけるので、ユーザ毎の発音の違いや周囲の外乱等により、指示が認識されない確率を低減することができる。ウェアラブル端末10においては、複数の作業項目を順次に表示して指示を音声で入力するが、一つの作業項目において入力可能な指示の数は比較的少数にすることができる。各指示に複数の文字列を対応づける手法は、入力可能な指示の数が少ないシステムにおいて、特に有効である。   As described with reference to FIGS. 11 to 14, the correspondence information associates a plurality of character strings that may be obtained by voice recognition with one instruction. Thus, the probability that the instruction is not recognized can be reduced. In the wearable terminal 10, a plurality of work items are sequentially displayed and instructions are input by voice. However, the number of instructions that can be input in one work item can be relatively small. The method of associating a plurality of character strings with each instruction is particularly effective in a system in which the number of instructions that can be input is small.

なお、図11から図14に関連して、サーバ80で指示を特定する場合のサーバ80が行う処理を説明した。図11から図14に関連して説明した処理のうちの少なくとも一部の理を、ウェアラブル端末10において指示を特定する場合の処理に適用できる。例えば、図10のS1010の処理に適用できる。   11 to 14, the processing performed by the server 80 when the server 80 specifies an instruction has been described. At least part of the processing described with reference to FIGS. 11 to 14 can be applied to processing in the case of specifying an instruction in the wearable terminal 10. For example, it can be applied to the processing of S1010 in FIG.

図15は、サーバ80がウェアラブル端末10から収集した点検結果データに基づく点検結果の表示画面の一例を示す。図15の画面は、例えば、作業者40の点検を管理する管理者のコンピュータ端末に表示される。   FIG. 15 shows an example of an inspection result display screen based on inspection result data collected by the server 80 from the wearable terminal 10. The screen of FIG. 15 is displayed, for example, on the computer terminal of the manager who manages the inspection of the worker 40.

ウェアラブル端末10からサーバ80に送信される点検結果情報には、点検結果情報の送信者を識別する情報と、報告用の点検開始時刻及び報告用の点検終了時刻と、点検対象の場所、設備、部位を識別する情報と、複数の点検項目を識別する情報と、各点検項目の点検結果、点検開始時刻、点検終了時刻、及び点検時間とが含まれる。結果出力部340は、点検結果情報と、記憶部310に記憶されている点検項目の詳細情報から、点検結果データを生成する。   The inspection result information transmitted from the wearable terminal 10 to the server 80 includes information for identifying the sender of the inspection result information, a report inspection start time and a report inspection end time, a location to be inspected, equipment, Information for identifying a part, information for identifying a plurality of inspection items, inspection results of each inspection item, inspection start time, inspection end time, and inspection time are included. The result output unit 340 generates inspection result data from the inspection result information and the detailed information of the inspection items stored in the storage unit 310.

図15は、ウェアラブル端末10がオンライン状態、かつ、サーバ80と通信可能な状態で取得した点検結果の点検結果情報から生成された点検結果の表示画面である。図15の「作業項目表示時刻」、「作結果入力時刻」、及び「作業時間」は、それぞれ点検開始時刻、点検終了時刻、及び点検時間を表す。「作業時間合計」は、合計時間算出部344によって点検時間を合計した時間を表す。ウェアラブル端末10はオンライン状態で点検結果を取得しているので、結果出力部340は、点検開始時刻及び点検終了時刻の時間をマスクせずに点検結果データに含める。よって、「作業項目表示時刻」及び「作結果入力時刻」にはウェアラブル端末10で計時された時刻が表示される。   FIG. 15 is a display screen of the inspection result generated from the inspection result information of the inspection result acquired when the wearable terminal 10 is online and can communicate with the server 80. “Work item display time”, “work result input time”, and “work time” in FIG. 15 represent an inspection start time, an inspection end time, and an inspection time, respectively. “Total work time” represents the total time of inspection time by the total time calculation unit 344. Since the wearable terminal 10 has acquired the inspection result in the online state, the result output unit 340 includes the inspection start time and the inspection end time in the inspection result data without masking. Therefore, the time counted by the wearable terminal 10 is displayed in the “work item display time” and “work result input time”.

図16は、点検結果データに基づく点検結果の表示画面の他の一例を示す。図16の表示画面は、ウェアラブル端末10がオフライン状態で取得した点検結果の点検結果情報から生成された点検結果の表示画面である点で、図15の表示画面とは異なる。ウェアラブル端末10はオフライン状態で点検結果を取得しているので、結果出力部340は、点検結果データにおける点検開始時刻及び点検終了時刻の時間をマスクする。そのため、「作業項目表示時刻」及び「作結果入力時刻」には「−−−−」が表示される。一方、「作業時間」及び「作業時間合計」にはウェアラブル端末10で計時された点検時間に基づく正確な時間が表示される。そのため、管理者は作業者40が点検に要した時間をきちんと把握することができる。   FIG. 16 shows another example of the inspection result display screen based on the inspection result data. The display screen of FIG. 16 is different from the display screen of FIG. 15 in that the display screen of the inspection result generated from the inspection result information of the inspection result acquired by the wearable terminal 10 in the offline state. Since the wearable terminal 10 has acquired the inspection result in an off-line state, the result output unit 340 masks the inspection start time and inspection end time in the inspection result data. Therefore, “----” is displayed for “work item display time” and “product result input time”. On the other hand, “work time” and “total work time” display accurate times based on the inspection time counted by the wearable terminal 10. Therefore, the manager can grasp the time required for the inspection by the worker 40 properly.

図17は、ウェアラブル端末10からダウンロードされる、各点検項目の点検結果データの一例を示す。図18は、ウェアラブル端末10からダウンロードされる、点検対象毎の点検結果データの一例を示す。   FIG. 17 shows an example of inspection result data of each inspection item downloaded from the wearable terminal 10. FIG. 18 shows an example of inspection result data for each inspection object downloaded from the wearable terminal 10.

各点検結果データは、例えばCSV形式のテキストデータとしてダウンロードすることができる。図17及び図18は、ウェアラブル端末10がオンライン状態、かつ、サーバ80と通信可能な状態で取得した点検結果の点検結果情報から生成された点検結果データを示す。図17の「作業項目表示時刻」、「作結果入力時刻」、及び「作業時間」は、それぞれ点検開始時刻、点検終了時刻、及び点検時間を表す。図18の「作業時間合計」は、合計時間算出部344によって点検時間を合計した時間を表す。図18の「作業開始時刻」及び「作業終了時刻」は、報告用の点検開始時刻及び報告用の点検終了時刻を示す。ウェアラブル端末10はオンライン状態で点検結果を取得している。そのため、結果出力部340は、各時刻をマスクせずに点検結果データに含める。   Each inspection result data can be downloaded as, for example, CSV format text data. FIGS. 17 and 18 show the inspection result data generated from the inspection result information of the inspection result acquired when the wearable terminal 10 is online and can communicate with the server 80. “Work item display time”, “Work result input time”, and “Work time” in FIG. 17 represent an inspection start time, an inspection end time, and an inspection time, respectively. “Total work time” in FIG. 18 represents a time obtained by totaling the inspection time by the total time calculation unit 344. “Work start time” and “work end time” in FIG. 18 indicate the inspection start time for reporting and the inspection end time for reporting. The wearable terminal 10 acquires the inspection result in an online state. Therefore, the result output unit 340 includes each time in the inspection result data without masking.

図19は、ウェアラブル端末10からダウンロードされる、点検項目毎の点検結果データの他の一例を示す。図20は、ウェアラブル端末10からダウンロードされる、点検対象毎の点検結果データの他の一例を示す。   FIG. 19 shows another example of inspection result data for each inspection item downloaded from the wearable terminal 10. FIG. 20 shows another example of inspection result data for each inspection object downloaded from the wearable terminal 10.

各点検結果データは、例えばCSV形式のテキストデータとしてダウンロードすることができる。図19及び図20は、ウェアラブル端末10がオフライン状態で取得した点検結果の点検結果情報から生成された点検結果データである点で、図17及び図18の点検結果データとは異なる。ウェアラブル端末10はオフライン状態で点検結果を取得している。そのため、結果出力部340は、点検結果データに含まれる各時刻を「−−−−」でマスクする。一方、「作業時間」及び「作業時間合計」には、ウェアラブル端末10で計時された点検時間に基づく正確な時間が含まれる。そのため、管理者は作業者40が点検に要した時間をきちんと把握することができる。   Each inspection result data can be downloaded as, for example, CSV format text data. 19 and 20 differ from the inspection result data of FIGS. 17 and 18 in that the inspection result data is generated from the inspection result information of the inspection result acquired by the wearable terminal 10 in the offline state. The wearable terminal 10 acquires the inspection result in an offline state. Therefore, the result output unit 340 masks each time included in the inspection result data with “----”. On the other hand, “work time” and “total work time” include accurate time based on the inspection time counted by the wearable terminal 10. Therefore, the manager can grasp the time required for the inspection by the worker 40 properly.

以上において、ウェアラブル端末10が、点検項目毎に点検開始時刻、点検終了時刻、及び点検時間を記憶する形態を主として説明した。しかし、点検開始時刻、点検終了時刻、及び点検時間を示す情報を記憶するために、点検開始時刻、点検終了時刻、及び点検時間の全てが必要ではない。例えば、点検開始時刻及び点検終了時刻の少なくとも一方と、点検時間とを記憶すれば、点検開始時刻、点検終了時刻、及び点検時間を表すことができる。他にも、点検開始時刻及び点検終了時刻を記憶すれば、点検開始時刻、点検終了時刻、及び点検時間を表すことができる。   In the above, the form which the wearable terminal 10 memorize | stores inspection start time, inspection end time, and inspection time for every inspection item was mainly demonstrated. However, in order to store information indicating the inspection start time, the inspection end time, and the inspection time, not all of the inspection start time, the inspection end time, and the inspection time are necessary. For example, if at least one of the inspection start time and the inspection end time and the inspection time are stored, the inspection start time, the inspection end time, and the inspection time can be expressed. In addition, if the inspection start time and the inspection end time are stored, the inspection start time, the inspection end time, and the inspection time can be expressed.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is as follows. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is explained using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 ウェアラブル端末
11 本体部
12 表示部
40 作業者
42 頭部
80 サーバ
82 音声認識サーバ
90 ネットワーク
100 作業支援システム
200 制御部
202 撮像部
204 計時部
205 マイク
207 操作部材
208 開始処理部
210 記憶部
220 表示制御部
230 無効化部
232 利用頻度取得部
234 取消頻度取得部
240 作業結果情報生成部
248 作業結果出力部
250 指示取得部
260 音声取得部
270 認識結果取得部
272 音声認識部
280 指示特定部
290 通信部
300 制御部
304 時刻管理部
310 記憶部
320 認証制御部
330 無効化部
332 利用頻度取得部
334 取消頻度取得部
340 結果出力部
342 判断部
344 合計時間算出部
360 音声取得部
370 認識結果取得部
380 指示特定部
390 通信部
392 集計部
394 選択部
500 ログイン画面
510 オブジェクト
580 オブジェクト
800 点検画面
810 オブジェクト
820 オブジェクト
900 点検画面
910 オブジェクト
DESCRIPTION OF SYMBOLS 10 Wearable terminal 11 Main body part 12 Display part 40 Worker 42 Head 80 Server 82 Voice recognition server 90 Network 100 Work support system 200 Control part 202 Imaging part 204 Timekeeping part 205 Microphone 207 Operation member 208 Start processing part 210 Storage part 220 Display Control unit 230 Invalidation unit 232 Usage frequency acquisition unit 234 Cancellation frequency acquisition unit 240 Work result information generation unit 248 Work result output unit 250 Instruction acquisition unit 260 Speech acquisition unit 270 Recognition result acquisition unit 272 Speech recognition unit 280 Instruction identification unit 290 Communication Unit 300 control unit 304 time management unit 310 storage unit 320 authentication control unit 330 invalidation unit 332 usage frequency acquisition unit 334 cancellation frequency acquisition unit 340 result output unit 342 determination unit 344 total time calculation unit 360 voice acquisition unit 370 recognition result acquisition unit 380 Instruction specifying unit 39 The communication unit 392 counting unit 394 selecting unit 500 login screen 510 Object 580 Object 800 check screen 810 Object 820 Object 900 check screen 910 objects

Claims (12)

作業者の頭部に装着されるウェアラブル端末によって取得された音声から前記ウェアラブル端末に対する指示を特定するためのシステムであって、
前記作業者の音声を取得する音声取得部と、
前記作業者の音声の音声認識によって得られた文字列を取得する認識結果取得部と、
前記ウェアラブル端末に対する指示と複数の文字列とを対応づける対応情報を記憶する対応情報記憶部と、
前記対応情報によって前記認識結果取得部が取得した前記文字列に対応づけられている指示を、前記ウェアラブル端末に対する指示として特定する指示特定部と
を備えるシステム。
A system for specifying an instruction for the wearable terminal from a voice acquired by a wearable terminal worn on a worker's head,
A voice acquisition unit for acquiring the voice of the worker;
A recognition result acquisition unit for acquiring a character string obtained by voice recognition of the worker's voice;
A correspondence information storage unit that stores correspondence information associating an instruction for the wearable terminal with a plurality of character strings;
A system comprising: an instruction specifying unit that specifies an instruction associated with the character string acquired by the recognition result acquisition unit based on the correspondence information as an instruction for the wearable terminal.
前記ウェアラブル端末は、複数の作業項目のそれぞれに関連づけられた画像を前記作業者に提供し、
前記対応情報記憶部は、前記複数の作業項目のそれぞれの作業項目に対応づけて、それぞれの作業項目に関連づけられた画像が前記作業者に提供されているときに入力されるべき指示を複数の文字列に対応づける対応情報を記憶し、
前記指示特定部は、前記ウェアラブル端末を通じて前記作業者に提供されている画像が関連づけられた作業項目に対応づけて前記対応情報記憶部が記憶している前記対応情報によって前記認識結果取得部が取得した前記文字列と対応づけられている指示を、前記ウェアラブル端末に対する指示として特定する
請求項1に記載のシステム。
The wearable terminal provides the worker with an image associated with each of a plurality of work items,
The correspondence information storage unit associates each work item of the plurality of work items with a plurality of instructions to be input when an image associated with each work item is provided to the worker. Stores correspondence information associated with a character string,
The instruction specifying unit is acquired by the recognition result acquisition unit based on the correspondence information stored in the correspondence information storage unit in association with a work item associated with an image provided to the worker through the wearable terminal. The system according to claim 1, wherein an instruction associated with the character string is specified as an instruction for the wearable terminal.
指示の一覧を提示する指示に応じて、前記ウェアラブル端末を通じて前記作業者に提供されている画像が関連づけられた作業項目に対応づけて前記対応情報によって対応づけられている複数の前記指示の一覧を、前記作業者に提示する指示提示制御部
をさらに備える請求項2に記載のシステム。
In response to an instruction for presenting a list of instructions, a list of the plurality of instructions associated with the work item associated with the work item associated with the image provided to the worker through the wearable terminal is associated with the work information. The system according to claim 2, further comprising an instruction presentation control unit that presents the worker.
前記複数の作業項目のそれぞれについて、それぞれの作業項目に関連づけられた画像が前記作業者に提供されている場合において前記複数の指示が使用された頻度を取得する利用頻度取得部
をさらに備え、
前記指示提示制御部は、前記複数の指示の一覧を前記頻度に応じた順序で前記作業者に提示する
請求項3に記載のシステム。
For each of the plurality of work items, further comprising a usage frequency acquisition unit that acquires the frequency of use of the plurality of instructions when an image associated with each work item is provided to the worker,
The system according to claim 3, wherein the instruction presentation control unit presents a list of the plurality of instructions to the worker in an order corresponding to the frequency.
前記対応情報によって前記指示に対応づけられている複数の文字列のそれぞれについて、前記指示特定部が特定した指示が前記作業者によって取り消された頻度を取得する取消頻度取得部と、
前記対応情報において、前記取り消された頻度が予め定められた値以上の文字列と前記指示との前記対応づけを無効にする無効化部と
をさらに備える請求項1から4のいずれか一項に記載のシステム。
For each of a plurality of character strings associated with the instruction by the correspondence information, a cancellation frequency acquisition unit that acquires the frequency at which the instruction specified by the instruction specifying unit is canceled by the operator;
The invalidation part which invalidates the said correspondence with the said character string and the said instruction | indication more than the predetermined value in the said correspondence information further in any one of Claim 1 to 4 The described system.
複数の人による前記指示の音声の音声認識により得られた複数の文字列を取得し、当該複数の文字列のそれぞれの文字列として音声が認識された人数を文字列毎に集計する集計部と、
前記集計部によって集計された人数に基づいて、前記複数の文字列の中から、前記対応情報において前記指示に対応づけられるべき文字列を選択する選択部と
をさらに備える請求項1から5のいずれか一項に記載のシステム。
A totaling unit that acquires a plurality of character strings obtained by voice recognition of the voice of the instruction by a plurality of people, and totals the number of persons whose voices are recognized as the respective character strings of the plurality of character strings for each character string; ,
The selection unit according to any one of claims 1 to 5, further comprising: a selection unit that selects a character string to be associated with the instruction in the correspondence information from the plurality of character strings based on the number of persons counted by the aggregation unit. A system according to claim 1.
前記音声取得部、前記認識結果取得部、前記対応情報記憶部、及び前記指示特定部は、前記ウェアラブル端末と通信可能なサーバに設けられ、
前記サーバは、前記指示特定部が特定した指示を示す情報を、前記ウェアラブル端末に送信する
請求項1から6のいずれか一項に記載のシステム。
The voice acquisition unit, the recognition result acquisition unit, the correspondence information storage unit, and the instruction specifying unit are provided in a server that can communicate with the wearable terminal,
The system according to any one of claims 1 to 6, wherein the server transmits information indicating the instruction specified by the instruction specifying unit to the wearable terminal.
前記ウェアラブル端末
を備える請求項7に記載のシステム。
The system according to claim 7, comprising the wearable terminal.
前記ウェアラブル端末は、
前記作業者の音声を取得するマイクと、
前記マイクにより取得された音声を認識して文字列を生成する音声認識部と、
前記対応情報を記憶する記憶部と、
前記サーバと通信可能である場合に、前記マイクにより取得された音声を前記サーバに送信して、前記指示特定部が特定した指示を前記サーバから受信し、前記サーバと通信可能でない場合に、前記記憶部が記憶している前記対応情報によって前記音声認識部が生成した前記文字列に対応づけられている指示を、前記ウェアラブル端末に対する指示として取得する指示取得部と
を備える請求項8に記載のシステム。
The wearable terminal is
A microphone for obtaining the voice of the worker;
A voice recognition unit that recognizes the voice acquired by the microphone and generates a character string;
A storage unit for storing the correspondence information;
When the communication with the server is possible, the voice acquired by the microphone is transmitted to the server, the instruction specified by the instruction specifying unit is received from the server, and when the communication with the server is not possible, The instruction acquiring unit according to claim 8, further comprising: an instruction acquisition unit that acquires, as an instruction to the wearable terminal, an instruction associated with the character string generated by the voice recognition unit based on the correspondence information stored in the storage unit. system.
前記音声取得部、前記認識結果取得部、前記対応情報記憶部、及び前記指示特定部は、前記ウェアラブル端末に設けられる
請求項1から6のいずれか一項に記載のシステム。
The system according to claim 1, wherein the voice acquisition unit, the recognition result acquisition unit, the correspondence information storage unit, and the instruction specifying unit are provided in the wearable terminal.
作業者の頭部に装着されるウェアラブル端末によって取得された音声から前記ウェアラブル端末に対する指示を特定する方法であって、
前記作業者の音声を取得する音声取得段階と、
前記作業者の音声の音声認識によって得られた文字列を取得する認識結果取得段階と、
前記ウェアラブル端末に対する指示と複数の文字列とを対応づける対応情報を記憶する対応情報記憶段階と、
前記対応情報によって前記認識結果取得段階で取得した前記文字列に対応づけられている指示を、前記ウェアラブル端末に対する指示として特定する指示特定段階と
を備える方法。
A method for identifying an instruction for the wearable terminal from voice acquired by a wearable terminal worn on a worker's head,
Obtaining a voice of the worker;
A recognition result acquisition step of acquiring a character string obtained by voice recognition of the worker's voice;
A correspondence information storing step for storing correspondence information associating an instruction for the wearable terminal with a plurality of character strings;
A method comprising: an instruction specifying step of specifying, as an instruction to the wearable terminal, an instruction associated with the character string acquired in the recognition result acquisition step by the correspondence information.
作業者の頭部に装着されるウェアラブル端末によって取得された音声から前記ウェアラブル端末に対する指示を特定するためのシステム用のプログラムであって、コンピュータを、
前記作業者の音声を取得する音声取得部、
前記作業者の音声の音声認識によって得られた文字列を取得する認識結果取得部、
前記ウェアラブル端末に対する指示と複数の文字列とを対応づける対応情報を記憶する対応情報記憶部、
前記対応情報によって前記認識結果取得部が取得した前記文字列に対応づけられている指示を、前記ウェアラブル端末に対する指示として特定する指示特定部
として機能させるためのプログラム。
A program for a system for specifying an instruction for the wearable terminal from a voice acquired by a wearable terminal worn on a worker's head, the computer comprising:
A voice acquisition unit for acquiring the voice of the worker;
A recognition result acquisition unit for acquiring a character string obtained by voice recognition of the worker's voice;
A correspondence information storage unit that stores correspondence information that associates an instruction for the wearable terminal with a plurality of character strings;
A program for causing an instruction associated with the character string acquired by the recognition result acquisition unit based on the correspondence information to function as an instruction specifying unit that specifies an instruction for the wearable terminal.
JP2018098934A 2018-05-23 2018-05-23 System, method and program Active JP7124442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018098934A JP7124442B2 (en) 2018-05-23 2018-05-23 System, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018098934A JP7124442B2 (en) 2018-05-23 2018-05-23 System, method and program

Publications (2)

Publication Number Publication Date
JP2019203987A true JP2019203987A (en) 2019-11-28
JP7124442B2 JP7124442B2 (en) 2022-08-24

Family

ID=68726829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018098934A Active JP7124442B2 (en) 2018-05-23 2018-05-23 System, method and program

Country Status (1)

Country Link
JP (1) JP7124442B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102307688B1 (en) * 2021-05-04 2021-10-05 구스텍 주식회사 Intelligent automatic power supply/shutdown command method and system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070293A (en) * 1999-09-06 2001-03-21 Toshiba Corp Radio-diagnostic device
JP2002055694A (en) * 2000-08-11 2002-02-20 Mitsubishi Motors Corp Device for voice manipulation operation by voice
JP2004294803A (en) * 2003-03-27 2004-10-21 Clarion Co Ltd Speech recognition device
JP2007213005A (en) * 2006-01-10 2007-08-23 Nissan Motor Co Ltd Recognition dictionary system and recognition dictionary system updating method
JP2014106523A (en) * 2012-11-30 2014-06-09 Aisin Aw Co Ltd Voice input corresponding device and voice input corresponding program
JP2017146587A (en) * 2016-02-19 2017-08-24 株式会社東芝 Voice translation device, voice translation method, and program
JP2017173530A (en) * 2016-03-23 2017-09-28 富士通株式会社 Voice input support program, head mounted display, voice input support method, and voice input support device
JP2017228030A (en) * 2016-06-21 2017-12-28 日本電気株式会社 Work support system, management server, mobile terminal, work support method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070293A (en) * 1999-09-06 2001-03-21 Toshiba Corp Radio-diagnostic device
JP2002055694A (en) * 2000-08-11 2002-02-20 Mitsubishi Motors Corp Device for voice manipulation operation by voice
JP2004294803A (en) * 2003-03-27 2004-10-21 Clarion Co Ltd Speech recognition device
JP2007213005A (en) * 2006-01-10 2007-08-23 Nissan Motor Co Ltd Recognition dictionary system and recognition dictionary system updating method
JP2014106523A (en) * 2012-11-30 2014-06-09 Aisin Aw Co Ltd Voice input corresponding device and voice input corresponding program
JP2017146587A (en) * 2016-02-19 2017-08-24 株式会社東芝 Voice translation device, voice translation method, and program
JP2017173530A (en) * 2016-03-23 2017-09-28 富士通株式会社 Voice input support program, head mounted display, voice input support method, and voice input support device
JP2017228030A (en) * 2016-06-21 2017-12-28 日本電気株式会社 Work support system, management server, mobile terminal, work support method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102307688B1 (en) * 2021-05-04 2021-10-05 구스텍 주식회사 Intelligent automatic power supply/shutdown command method and system

Also Published As

Publication number Publication date
JP7124442B2 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
JP6594646B2 (en) Robot, robot control method, and robot system
JP7339167B2 (en) Work support system and work support method
KR102483834B1 (en) Method for authenticating user based on voice command and electronic dvice thereof
US7224367B2 (en) Face information transmission system
US10482872B2 (en) Speech recognition apparatus and speech recognition method
CN110192386B (en) Information processing apparatus, information processing method, and computer program
JP6744025B2 (en) Work support system, management server, mobile terminal, work support method and program
CN108093167B (en) Apparatus, method, system, and computer-readable storage medium for capturing images
CN101506828A (en) Media identification
JP6780767B2 (en) Inspection support device, inspection support method and program
CN109784128A (en) Mixed reality intelligent glasses with text and language process function
CN109947971A (en) Image search method, device, electronic equipment and storage medium
JP7124442B2 (en) System, method and program
EP3671699A1 (en) Electronic apparatus and controlling method thereof
US20210398539A1 (en) Systems and methods for processing audio and video
JP7059798B2 (en) Servers, systems, methods, and programs
WO2020075358A1 (en) Information processing device, information processing method, and program
US10963548B2 (en) Information acquisition device, information acquisition system, and information acquisition method
US20230042310A1 (en) Wearable apparatus and methods for approving transcription and/or summary
KR20200068277A (en) Smart glasses system for the visually impaired to provice traffic information
JP4849630B2 (en) Utterance content identification device and personal identification device
CN114627898A (en) Voice conversion method, apparatus, computer device, storage medium and program product
WO2021107308A1 (en) Electronic device and control method therefor
JP7399413B1 (en) Information processing device, information processing method, and program
JP7127864B2 (en) Information processing method, information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7124442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150