JP2015219717A - Electronic apparatus and program - Google Patents

Electronic apparatus and program Download PDF

Info

Publication number
JP2015219717A
JP2015219717A JP2014102711A JP2014102711A JP2015219717A JP 2015219717 A JP2015219717 A JP 2015219717A JP 2014102711 A JP2014102711 A JP 2014102711A JP 2014102711 A JP2014102711 A JP 2014102711A JP 2015219717 A JP2015219717 A JP 2015219717A
Authority
JP
Japan
Prior art keywords
unit
data
control unit
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014102711A
Other languages
Japanese (ja)
Inventor
規和 横井
Norikazu Yokoi
規和 横井
隆文 豊田
Takafumi Toyoda
隆文 豊田
明日香 中村
Asuka Nakamura
明日香 中村
藤田 優
Masaru Fujita
優 藤田
政一 関口
Masaichi Sekiguchi
政一 関口
直樹 關口
Naoki Sekiguchi
直樹 關口
雄 村越
Yu MURAKOSHI
雄 村越
利一 石田
Riichi Ishida
利一 石田
康春 杉田
Yasuharu Sugita
康春 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014102711A priority Critical patent/JP2015219717A/en
Publication of JP2015219717A publication Critical patent/JP2015219717A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus with improved usability and a program.SOLUTION: An electronic apparatus includes an input unit that receives input of voice data from a first external device, and a determination unit that determines whether image data associated with the voice data input by the input unit is transmitted to the first external device or a second external device different from the first external device.

Description

本発明は、電子機器及びプログラムに関する。   The present invention relates to an electronic device and a program.

従来より、来店者の商品の購買に関する行動情報を取得し、その情報を販売促進に結びつける販売促進システムが提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a sales promotion system that acquires behavior information related to purchase of merchandise by a store visitor and links the information to sales promotion has been proposed (for example, see Patent Document 1).

特開2010−277256号公報JP 2010-277256 A

しかしながら、従来は、必要な情報が十分に取得できているとはいえず、使い勝手が十分でなかった。   Conventionally, however, it cannot be said that necessary information is sufficiently acquired, and the usability is not sufficient.

本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an electronic device and a program that are easy to use.

本発明の電子機器(40)は、第1外部機器(10)から音声データを入力する入力部(41)と、前記入力部が入力した音声データに関連する画像データを前記第1外部機器に送信するか、前記第1外部機器とは異なる第2外部機器に送信するかを判断する判断部(46)と、を備えている。   The electronic device (40) of the present invention includes an input unit (41) for inputting audio data from the first external device (10), and image data related to the audio data input by the input unit to the first external device. A determination unit (46) for determining whether to transmit to a second external device different from the first external device.

この場合において、前記画像データに付随する情報を抽出する抽出部(46)を備えていてもよい。この場合、前記判断部は、前記抽出部が抽出した情報を送信するかどうかを判断することとしてもよい。この場合、前記画像データを送信する前記第1外部機器又は前記第2外部機器のユーザを特定する特定部(46)を備え、前記判断部は、前記特定部が特定したユーザに応じて、前記抽出部が抽出した情報の少なくとも一部を送信するかどうかを判断することとしてもよい。この場合、前記特定部は、前記ユーザに関する情報を記憶する記憶部(45)を備え、前記判断部は、前記記憶部に記憶された前記ユーザに関する情報に応じて、前記抽出部が抽出した情報の少なくとも一部を送信するかどうかを判断することとしてもよい。   In this case, an extraction unit (46) for extracting information accompanying the image data may be provided. In this case, the determination unit may determine whether to transmit the information extracted by the extraction unit. In this case, the image processing apparatus includes a specifying unit (46) that specifies a user of the first external device or the second external device that transmits the image data, and the determination unit is configured to determine the user according to the user specified by the specifying unit. It may be determined whether or not at least part of the information extracted by the extraction unit is transmitted. In this case, the specifying unit includes a storage unit (45) that stores information about the user, and the determination unit extracts information extracted by the extraction unit according to the information about the user stored in the storage unit. It is also possible to determine whether to transmit at least a part of.

本発明の電子機器では、前記第1外部機器と前記第2外部機器とに前記画像データを送信可能な送信部(41)を備えていてもよい。この場合、前記判断部は、前記送信部が前記画像データを送信するタイミングを判断することとしてもよい。また、前記送信部が前記画像データを送信した後に、前記音声データの削除を指示する指示部(46)を備えていてもよい。   The electronic device of the present invention may include a transmission unit (41) capable of transmitting the image data to the first external device and the second external device. In this case, the determination unit may determine the timing at which the transmission unit transmits the image data. Moreover, after the said transmission part transmits the said image data, you may provide the instruction | indication part (46) which instruct | indicates deletion of the said audio | speech data.

本発明の電子機器(40)は、ユーザに関するデータを記憶する記憶部(45)と、前記ユーザの音声データと画像データとの少なくとも一方を入力する入力部(41)と、前記入力部が前記音声データと前記画像データとの少なくとも一方を入力した際に、前記記憶部に記憶されたデータを選択して送信する送信部(46、41)と、を備えている。   The electronic device (40) of the present invention includes a storage unit (45) that stores data relating to a user, an input unit (41) that inputs at least one of the user's voice data and image data, and the input unit includes the input unit A transmission unit (46, 41) that selects and transmits data stored in the storage unit when at least one of audio data and image data is input;

この場合において、前記入力部は、外部機器から前記音声データと前記画像データとの少なくとも一方を入力し、前記送信部は、前記外部機器への送信の履歴から前記データを選択して送信することとしてもよい。また、前記入力部は、外部機器から前記音声データと前記画像データとの少なくとも一方を入力し、前記送信部は、前記外部機器の認識結果に応じて前記データを選択して送信することとしてもよい。   In this case, the input unit inputs at least one of the audio data and the image data from an external device, and the transmission unit selects and transmits the data from a history of transmission to the external device. It is good. The input unit may input at least one of the audio data and the image data from an external device, and the transmission unit may select and transmit the data according to a recognition result of the external device. Good.

本発明の電子機器(40)は、音声データと画像データとの少なくとも一方を入力する入力部(41)と、前記入力部が入力した前記音声データ及び前記画像データの少なくとも一方に基づいて、報知する情報及び報知する条件を決定する決定部(46)と、前記決定部が決定した条件を満たしたときに前記情報を報知する報知部(46,41)と、を備えている。   The electronic device (40) according to the present invention provides an input unit (41) for inputting at least one of audio data and image data, and notification based on at least one of the audio data and the image data input by the input unit. A determination unit (46) for determining information to be notified and a condition for notification, and a notification unit (46, 41) for notifying the information when the condition determined by the determination unit is satisfied.

本発明のプログラムは、コンピュータに、ユーザに関するデータを記憶させるステップと、前記ユーザの音声データと画像データとを入力させるステップと、前記音声データと前記画像データとを入力した際に、記憶された前記ユーザに関するデータを選択して送信するステップと、を実行させるプログラムである。   The program of the present invention is stored when a computer stores data relating to a user, the step of inputting voice data and image data of the user, and the voice data and image data are input. Selecting and transmitting data relating to the user.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明は、使い勝手のよい電子機器及びプログラムを提供することができるという効果を奏する。   The present invention has an effect that it is possible to provide a user-friendly electronic device and program.

第1の実施形態に係る電子機器システムの構成を示す図である。It is a figure which shows the structure of the electronic device system which concerns on 1st Embodiment. 装着装置の斜視図である。It is a perspective view of a mounting apparatus. 従業員が装着装置及び携帯端末を装着、保持した状態を示す図である。It is a figure which shows the state which the employee mounted | weared and hold | maintained the mounting apparatus and the portable terminal. 従業員の視界と表示部の表示範囲を示す図である。It is a figure which shows the visual field of an employee, and the display range of a display part. サーバの記憶部に記憶されているデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the memory | storage part of the server. 図6(a)は、第1の実施形態に係る装着装置の制御部による処理を示すフローチャートであり、図6(b)は、第1の実施形態に係る携帯端末の制御部による処理(その1)を示すフローチャートである。FIG. 6A is a flowchart showing a process performed by the control unit of the mounting apparatus according to the first embodiment, and FIG. 6B shows a process performed by the control unit of the mobile terminal according to the first embodiment. It is a flowchart which shows 1). 図7(a)は、装着装置の記憶部に記憶されている従業員情報の一例を示す図であり、図7(b)は、装着装置から携帯端末に送信されるデータの一例を示す図である。FIG. 7A is a diagram illustrating an example of employee information stored in the storage unit of the mounting device, and FIG. 7B is a diagram illustrating an example of data transmitted from the mounting device to the mobile terminal. It is. 図8(a)は、第1の実施形態に係るサーバの制御部による処理を示すフローチャートであり、図8(b)は、第1の実施形態に係る携帯端末の制御部による処理(その2)を示すフローチャートである。FIG. 8A is a flowchart showing processing by the control unit of the server according to the first embodiment, and FIG. 8B is processing (part 2) by the control unit of the mobile terminal according to the first embodiment. Is a flowchart showing. サーバによる音声認識結果を示す図である。It is a figure which shows the speech recognition result by a server. サーバから携帯端末に送信されるデータの一例を示す図である。It is a figure which shows an example of the data transmitted to a portable terminal from a server. 調理場における表示例を示す図である。It is a figure which shows the example of a display in a kitchen. テーブル近傍における表示例を示す図(その1)である。It is a figure (the 1) which shows the example of a display in the table vicinity. テーブル近傍における表示例を示す図(その2)である。It is FIG. (2) which shows the example of a display in the table vicinity. 図14(a)は、第2の実施形態に係る装着装置の制御部による処理を示すフローチャートであり、図14(b)は、第2の実施形態に係る携帯端末の制御部による処理を示すフローチャートである。FIG. 14A is a flowchart showing processing by the control unit of the mounting apparatus according to the second embodiment, and FIG. 14B shows processing by the control unit of the portable terminal according to the second embodiment. It is a flowchart. 第2の実施形態において装着装置から携帯端末に送信されるデータの一例を示す図である。It is a figure which shows an example of the data transmitted to a portable terminal from a mounting apparatus in 2nd Embodiment. 第2の実施形態に係るサーバの制御部による処理を示すフローチャートである。It is a flowchart which shows the process by the control part of the server which concerns on 2nd Embodiment. 第3の実施形態に係る装着装置及び携帯端末の使用態様を示す図である。It is a figure which shows the usage condition of the mounting apparatus and portable terminal which concern on 3rd Embodiment. 図18(a)は、第3の実施形態に係る装着装置の制御部による処理を示すフローチャートであり、図18(b)は、第3の実施形態に係る携帯端末の制御部による処理を示すフローチャートである。FIG. 18A is a flowchart showing processing by the control unit of the mounting apparatus according to the third embodiment, and FIG. 18B shows processing by the control unit of the mobile terminal according to the third embodiment. It is a flowchart. 介護士の視界と表示部の表示範囲を示す図である。It is a figure which shows the field of view of a caregiver, and the display range of a display part. 第3の実施形態に係るサーバの制御部による処理を示すフローチャートである。It is a flowchart which shows the process by the control part of the server which concerns on 3rd Embodiment. 第4の実施形態に係る電子機器システムの構成を示す図である。It is a figure which shows the structure of the electronic device system which concerns on 4th Embodiment. 第4の実施形態に係る購入者及び購入情報関連付け処理を示すフローチャートである。It is a flowchart which shows the purchaser and purchase information correlation process which concern on 4th Embodiment. 第4の実施形態に係るコンビニ内装置の故障対応処理を示すフローチャートである。It is a flowchart which shows the failure response process of the apparatus in the convenience store which concerns on 4th Embodiment. 図24(a)は、コピー機の表示画面を示す図であり、図24(b)は、コピー機に対してAR表示をした状態を示す図である。FIG. 24A is a diagram showing a display screen of the copier, and FIG. 24B is a diagram showing a state where AR display is performed on the copier. 第4の実施形態に係る強盗対応処理を示すフローチャートである。It is a flowchart which shows the robbery response process which concerns on 4th Embodiment. 図26(a)は、第4の実施形態に係る装着装置の別例を示すブロック図であり、図26(b)は、図26(a)の装着装置による処理を示すフローチャートである。FIG. 26A is a block diagram illustrating another example of the mounting apparatus according to the fourth embodiment, and FIG. 26B is a flowchart illustrating processing by the mounting apparatus in FIG.

《第1の実施形態》
以下、第1の実施形態について、図1〜図13に基づいて、詳細に説明する。図1には、第1の実施形態に係る電子機器システム100の構成がブロック図にて示されている。
<< First Embodiment >>
Hereinafter, the first embodiment will be described in detail with reference to FIGS. FIG. 1 is a block diagram showing the configuration of an electronic device system 100 according to the first embodiment.

電子機器システム100は、図1に示すように、装着装置10、携帯端末20、サーバ40、及びテーブル札50、を備える(利用する)。なお、図1では、装着装置10及び携帯端末20をレストランなどの飲食店においてサービスを提供する従業員(ウエイターやウエイトレスなどの給仕係)が1つずつ有しているものとする。また、図1では、一例として2人の従業員A,Bの装着装置10及び携帯端末20を図示している。   As shown in FIG. 1, the electronic device system 100 includes (uses) a mounting device 10, a mobile terminal 20, a server 40, and a table tag 50. In FIG. 1, it is assumed that the mounting device 10 and the mobile terminal 20 are provided by one employee (a waiter such as a waiter or waitress) who provides a service in a restaurant or the like. Moreover, in FIG. 1, the mounting apparatus 10 and the portable terminal 20 of two employees A and B are illustrated as an example.

(装着装置10)
装着装置10は、従業員A,Bが身体(顔)に装着するメガネ型の情報端末であり、撮像部11、表示部12、操作部13、マイク14、記憶部15、第1通信部16、第2通信部17、位置検出部19および制御部18を備える。なお、図1に示す2つの装着装置10の基本構成は同一である。また、図2には、装着装置10が斜視図にて示されている。図2に示すように、装着装置10は、従業員が装着可能な眼鏡型のフレーム110を備えている。なお、図1において図示され、図2において図示されていない装着装置10の構成は、フレーム110の内部や、フレーム110の一部に設けられているものとする。
(Mounting device 10)
The wearing device 10 is a glasses-type information terminal worn by the employees A and B on the body (face). The imaging unit 11, the display unit 12, the operation unit 13, the microphone 14, the storage unit 15, and the first communication unit 16. , A second communication unit 17, a position detection unit 19, and a control unit 18. The basic configuration of the two mounting devices 10 shown in FIG. 1 is the same. In addition, FIG. 2 shows the mounting device 10 in a perspective view. As shown in FIG. 2, the mounting apparatus 10 includes a glasses-type frame 110 that can be worn by an employee. The configuration of the mounting device 10 illustrated in FIG. 1 and not illustrated in FIG. 2 is provided inside the frame 110 or a part of the frame 110.

撮像部11は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部11は、図2に示すようにフレーム110の端部近傍(従業員の右目近傍)に設けられている。このため、従業員が装着装置10を装着した状態(図3の状態)では、従業員が向いている(見ている)方向の画像を撮像することができる。   The imaging unit 11 includes a lens, an imaging device, an image processing unit, and the like, and captures still images and moving images. As shown in FIG. 2, the imaging unit 11 is provided near the end of the frame 110 (near the right eye of the employee). For this reason, in a state where the employee wears the mounting device 10 (the state shown in FIG. 3), an image in a direction in which the employee is facing (looking) can be taken.

表示部12は、フレーム110内部又はフレーム110近傍に設けられたプロジェクタと、プロジェクタからの投影像を従業員の目に導くためのプリズムとを有している。表示部12は、制御部18の指示の下、各種情報を表示する。図4は、従業員の視界(一点鎖線範囲)内における、表示部12の表示範囲(破線範囲)を示す図である。   The display unit 12 includes a projector provided in or near the frame 110 and a prism for guiding a projection image from the projector to the eyes of the employee. The display unit 12 displays various information under the instruction of the control unit 18. FIG. 4 is a diagram showing a display range (broken line range) of the display unit 12 in the employee's field of view (a dashed-dotted line range).

操作部13は、フレーム110に設けられたタッチパッドであり、従業員の指の動きを検知して、従業員からの操作を受け付け、受け付けた操作情報を制御部18に送信する。   The operation unit 13 is a touch pad provided on the frame 110, detects the movement of the employee's finger, receives an operation from the employee, and transmits the received operation information to the control unit 18.

なお、撮像部11、表示部12、操作部13については、例えば、米国公開特許2013/0044042号にもその詳細が開示されている。   Details of the imaging unit 11, the display unit 12, and the operation unit 13 are also disclosed in, for example, US Published Patent No. 2013/0044042.

マイク14は、フレーム110に設けられ、従業員が発した音声や、客が発した音声を収集する。マイク14が収音した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部18に送信される。制御部18は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部18が音声認識を実行してもよい。また、制御部18は、収集した音声データを記憶部15に格納する。   The microphone 14 is provided in the frame 110 and collects voices uttered by employees and voices uttered by customers. The voice picked up by the microphone 14 is recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 18. The control unit 18 executes processing (for example, command execution processing) based on the voice recognition result. Note that the control unit 18 may perform voice recognition. Further, the control unit 18 stores the collected audio data in the storage unit 15.

記憶部15は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部11が撮像した撮像データや、マイク14が収集した音声データ、表示部12に表示する表示データ等を記憶している。なお、本実施形態においては、記憶部15は、音声を発した人の顔の撮像データと、音声データとを紐付けて記憶する(図7(b)参照)。また、記憶部15は、装着装置10を利用するユーザ(従業員)に関する情報(従業員情報)を、図7(a)に示すようなデータ形式で保持している。従業員情報は、一例として、図7(a)に示すように、従業員IDと、氏名と、年齢と、業務開始年月日の情報を含んでいる。業務開始年月日の情報は、従業員が新人であるか、ベテランであるかを判断するための材料となる。なお、記憶部15は、音声認識機能を有していてもよい。なお、従業員情報として、業務開始年月日の情報に代えて、又はこれとともに従業員のスキルや役職等を格納してもよい。   The storage unit 15 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores imaging data captured by the imaging unit 11, audio data collected by the microphone 14, display data displayed on the display unit 12, and the like. Yes. In the present embodiment, the storage unit 15 stores image data of the face of the person who made the sound and the sound data in association with each other (see FIG. 7B). Further, the storage unit 15 holds information (employee information) related to a user (employee) who uses the mounting device 10 in a data format as shown in FIG. As an example, as shown in FIG. 7A, the employee information includes employee ID, name, age, and business start date. The information on the start date of work is a material for determining whether an employee is a new employee or a veteran. Note that the storage unit 15 may have a voice recognition function. As employee information, instead of or in addition to information on the start date of work, employee skills, job titles, and the like may be stored.

第1通信部16は、他の機器と近接通信や、人体通信を行うものである。なお、本実施形態では、第1通信部16は、例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信により、携帯端末20と通信するものとする。また、第1通信部16は、人体通信により、テーブル札50と通信するものとする。なお、第1通信部16が行う人体通信として、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式と、人体の表面に誘起する電界を変調して情報を伝達する電界方式とのいずれの方式を用いてもよい。あるいは、これらとは別の方式の人体通信を採用してもよい。   The first communication unit 16 performs proximity communication and human body communication with other devices. In the present embodiment, it is assumed that the first communication unit 16 communicates with the mobile terminal 20 by proximity communication such as Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet (registered trademark), or the like. Moreover, the 1st communication part 16 shall communicate with the table tag 50 by human body communication. In addition, as human body communication performed by the first communication unit 16, a weak current is passed through the human body, the current is modulated to transmit information, and the electric field induced on the surface of the human body is modulated to transmit information. Any of the electric field methods may be used. Or you may employ | adopt the human body communication of a system different from these.

第2通信部17は、本実施形態においては近接通信よりも通信距離が長い無線通信により、他の従業員の携帯端末20と通信するものである。なお、第2通信部17によりサーバ40と通信する場合には、第1通信部16を省略してもよい。また、他の従業員の携帯端末20との通信において携帯端末20を経由する場合には、第2通信部17を省略してもよい。このようにすることで、装着装置10の構成を簡略化することができる。   The 2nd communication part 17 communicates with the portable terminal 20 of another employee by radio | wireless communication whose communication distance is longer than proximity communication in this embodiment. Note that when the second communication unit 17 communicates with the server 40, the first communication unit 16 may be omitted. Moreover, when communicating with the mobile terminal 20 of another employee via the mobile terminal 20, the 2nd communication part 17 may be abbreviate | omitted. By doing in this way, the structure of the mounting apparatus 10 can be simplified.

位置検出部19は、装着装置10の位置を検出する。具体的には、位置検出部19は、GPS(Global Positioning System)モジュールや、複数の無線LAN(Local Area Network)基地局との間の通信強度に基づいて位置検出を行うモジュール等を含み、従業員が店内のどの位置にいるか(どのテーブルの近傍にいるか)を検出する。   The position detection unit 19 detects the position of the mounting device 10. Specifically, the position detection unit 19 includes a GPS (Global Positioning System) module, a module that performs position detection based on communication strength with a plurality of wireless LAN (Local Area Network) base stations, and the like. It is detected in which position the employee is in the store (which table is in the vicinity).

制御部18は、装着装置10全体を統括的に制御する。制御部18は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部18は、撮像部11が撮像した撮像データと、マイク14が収集した音声データとを紐付けて記憶部15に記憶させるとともに、携帯端末20に対して、紐付けられた画像データと音声データを送信する。また、サーバ40から携帯端末20を経由して送信されてきた表示データを表示部12に表示させる。なお、制御部18は、音声認識機能を有していてもよい。   The control unit 18 controls the entire mounting device 10 in an integrated manner. The control unit 18 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In the present embodiment, the control unit 18 associates the imaging data captured by the imaging unit 11 and the audio data collected by the microphone 14 and stores them in the storage unit 15 and also associates with the mobile terminal 20. Transmit the image data and audio data. In addition, the display data transmitted from the server 40 via the portable terminal 20 is displayed on the display unit 12. Note that the control unit 18 may have a voice recognition function.

(携帯端末20)
携帯端末20は、例えばスマートフォンや携帯電話などの端末である。本実施形態では、携帯端末20は、装着装置10とサーバ40との間に介在して、装着装置10とサーバ40との間のデータの受け渡しを行う。また、携帯端末20同士でのデータ通信も行う。
(Mobile terminal 20)
The mobile terminal 20 is a terminal such as a smartphone or a mobile phone. In the present embodiment, the portable terminal 20 is interposed between the mounting device 10 and the server 40 and transfers data between the mounting device 10 and the server 40. Further, data communication between the portable terminals 20 is also performed.

携帯端末20は、第1通信部21、第2通信部22、記憶部23、位置検出部25、および制御部24を備える。なお、本実施形態では、携帯端末20の構成として、主にデータ通信に関する構成を図示し、その他の構成を省略している。したがって、携帯端末20は、例えば、撮像部、表示部、マイク、スピーカ、生体認証部、入力部などを備えていてもよい。   The mobile terminal 20 includes a first communication unit 21, a second communication unit 22, a storage unit 23, a position detection unit 25, and a control unit 24. In the present embodiment, as the configuration of the mobile terminal 20, a configuration mainly related to data communication is illustrated, and other configurations are omitted. Therefore, the mobile terminal 20 may include, for example, an imaging unit, a display unit, a microphone, a speaker, a biometric authentication unit, an input unit, and the like.

第1通信部21は、他の機器と近接通信や、人体通信を行うものである。本実施形態では、近接通信を用いて装着装置10との間で通信する。   The first communication unit 21 performs proximity communication and human body communication with other devices. In the present embodiment, communication is performed with the mounting apparatus 10 using proximity communication.

第2通信部22は、本実施形態においては近接通信よりも通信距離が長い無線通信により、サーバ40や、他の携帯端末20と通信する。   In the present embodiment, the second communication unit 22 communicates with the server 40 and other portable terminals 20 by wireless communication having a longer communication distance than the proximity communication.

記憶部23は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、装着装置10およびサーバ40から送信される各種データを記憶したり、サーバ40から送付されるプログラムを記憶する。記憶部23が記憶するプログラムの一例としては、装着装置10を装着した人の職種に合わせたプログラム(本実施形態では、ウエイター/ウェイトレス用プログラム)などが挙げられる。   The storage unit 23 is a non-volatile semiconductor memory such as a flash memory, for example, and stores various data transmitted from the mounting apparatus 10 and the server 40 and stores a program transmitted from the server 40. An example of a program stored in the storage unit 23 is a program (in this embodiment, a waiter / waitless program) that matches the job type of the person wearing the mounting device 10.

位置検出部25は、携帯端末20の位置を検出する。具体的には、位置検出部25は、GPSモジュールや、複数の無線LAN基地局との間の通信強度に基づいて位置検出を行うモジュール等を含み、従業員が店内のどの位置にいるか(どのテーブルの近傍にいるか)を検出する。   The position detection unit 25 detects the position of the mobile terminal 20. Specifically, the position detection unit 25 includes a GPS module, a module that performs position detection based on communication strength with a plurality of wireless LAN base stations, and the like. In the vicinity of the table).

制御部24は、携帯端末20全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部24は、装着装置10とサーバ40との間のデータの授受を制御する。なお、制御部24は、例えば位置検出部25が検出した位置データに基づき、特定の位置(場所)において上述のプログラムが実行されるように制御する。また、制御部24は、位置データに基づき、記憶部23に記憶されているデータ(画像データ等)の使用を特定の位置(場所)に制限する。   The control unit 24 controls the entire mobile terminal 20 and includes a CPU, a RAM, a ROM, and the like. In the present embodiment, the control unit 24 controls data exchange between the mounting device 10 and the server 40. Note that the control unit 24 controls the above-described program to be executed at a specific position (location) based on the position data detected by the position detection unit 25, for example. Further, the control unit 24 restricts use of data (image data or the like) stored in the storage unit 23 to a specific position (location) based on the position data.

なお、装着装置10の第2通信部17が、他の装着装置10やサーバ40と通信できる場合には、携帯端末20を省略してもよい。   In addition, when the 2nd communication part 17 of the mounting apparatus 10 can communicate with the other mounting apparatuses 10 and the server 40, you may abbreviate | omit the portable terminal 20. FIG.

(サーバ40)
サーバ40は、装着装置10の撮像部11が撮像した撮像データや、マイク14が集音した音声データを携帯端末20経由で取得し、必要なデータを携帯端末20経由で装着装置10に出力するものである。
(Server 40)
The server 40 acquires imaging data captured by the imaging unit 11 of the mounting apparatus 10 and audio data collected by the microphone 14 via the mobile terminal 20 and outputs necessary data to the mounting apparatus 10 via the mobile terminal 20. Is.

サーバ40は、通信部41、音声認識部42、画像認識部43、顔認識部44、記憶部45、および制御部46を備える。   The server 40 includes a communication unit 41, a voice recognition unit 42, an image recognition unit 43, a face recognition unit 44, a storage unit 45, and a control unit 46.

通信部41は、本実施形態においては無線通信により、携帯端末20と通信するものである。なお、通信部41は、携帯端末20を介在せずに、装着装置10の第2通信部17と直接通信してもよい。   In this embodiment, the communication unit 41 communicates with the mobile terminal 20 by wireless communication. Note that the communication unit 41 may directly communicate with the second communication unit 17 of the mounting device 10 without using the mobile terminal 20.

音声認識部42は、音声辞書を有し、装着装置10から携帯端末20経由で入力された音声データの音声認識を行う。   The voice recognition unit 42 has a voice dictionary and performs voice recognition of voice data input from the mounting apparatus 10 via the portable terminal 20.

画像認識部43は、装着装置10の撮像部11が撮像した画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSIFT(Scale Invariant Feature Transform)といった特徴量検出アルゴリズムにより抽出し、記憶部45に記憶されている複数の認識対象の標準パターンと比較することにより画像認識を行う。   The image recognition unit 43 extracts the feature points of the image data captured by the imaging unit 11 of the mounting apparatus 10 by using a feature amount detection algorithm such as SURF (Speeded Up Robust Features) or SIFT (Scale Invariant Feature Transform), for example, Image recognition is performed by comparing with a plurality of recognition target standard patterns stored in 45.

顔認識部44は、入力した顔の部分の画像データと、記憶部45に記憶されている顔の画像データとを比較(例えばパターンマッチング)して、撮像部11が撮像した人を認識する。また、顔認識部44は、撮像した人の性別(男性、女性)や年代(20代、30代など)も判別する。   The face recognition unit 44 compares the input face image data with the face image data stored in the storage unit 45 (for example, pattern matching), and recognizes the person imaged by the imaging unit 11. The face recognition unit 44 also determines the sex (male, female) and age (20s, 30s, etc.) of the person who has taken the image.

記憶部45は、例えば、フラッシュメモリ等の不揮発性の半導体メモリや、ハードディスクドライブ等であり、上述したような各種データを記憶している。また、記憶部45は、料理や飲み物の画像データや、料理や飲み物のデータに付随するデータ(付帯データ)を記憶する。図5には、記憶部45に格納されているデータの一例が示されている。図5に示すデータにおいては、品名と、画像データと、付帯データとが紐付けられている。例えば、品名「ハンバーグ」の画像データは、ハンバーグを撮影した画像データであり、付帯データは、ハンバーグを注文した客に対して準備する必要がある食器(ナイフとフォーク)の種類や配置方法を示す画像データである。また、例えば、品名「お子様ランチ」の画像データは、お子様ランチを撮影した画像データであり、付帯データは、お子様ランチを注文した客に対して準備する必要がある食器(子供用フォークと子供用スプーン)の種類や配置方法を示す画像データである。なお、付帯データをテキストデータとしてもよい。   The storage unit 45 is, for example, a nonvolatile semiconductor memory such as a flash memory, a hard disk drive, or the like, and stores various types of data as described above. In addition, the storage unit 45 stores image data of dishes and drinks, and data (accompanying data) associated with the data of dishes and drinks. FIG. 5 shows an example of data stored in the storage unit 45. In the data shown in FIG. 5, the product name, image data, and incidental data are associated with each other. For example, the image data of the product name “hamburg” is image data obtained by photographing the hamburger, and the incidental data indicates the type and arrangement method of the tableware (knife and fork) that need to be prepared for the customer who ordered the hamburger. Image data. In addition, for example, the image data of the product name “Children's lunch” is image data obtained by photographing a child's lunch, and the incidental data is tableware that needs to be prepared for the customer who ordered the child's lunch (children's fork and child It is image data which shows the kind and arrangement | positioning method of a spoon. The incidental data may be text data.

制御部46は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備え、携帯端末20を経由して装着装置10から入力された各種データに基づき、音声認識、画像認識、顔認識などを行い、必要なデータを携帯端末20を介して装着装置10に送信するための各種制御を行うものである。   The control unit 46 controls the entire server 40, and includes a CPU, a RAM, a ROM, and the like. Based on various data input from the mounting device 10 via the mobile terminal 20, voice recognition, image recognition, face It performs recognition and the like, and performs various controls for transmitting necessary data to the mounting apparatus 10 via the portable terminal 20.

制御部46は、音声認識部42が認識したワードに対応する画像を記憶部45より抽出する。一例をあげると、制御部46は、音声認識部42がとんかつ御膳というワードを認識すると記憶部45に記憶されているとんかつ御膳の画像データ及び付帯データ(図5参照)を抽出する。   The control unit 46 extracts an image corresponding to the word recognized by the voice recognition unit 42 from the storage unit 45. For example, when the voice recognition unit 42 recognizes the word “Tonkatsu Gyoen”, the control unit 46 extracts the image data and incidental data (see FIG. 5) stored in the storage unit 45.

なお、本実施形態ではサーバ40を用いる場合について説明したが、これに限らず、例えば、サーバ40を省略するとともに、サーバ40の機能の少なくとも一部(例えば音声認識部42、画像認識部43、顔認識部44など)を携帯端末20に設けることとしてもよい。   In the present embodiment, the case of using the server 40 has been described. However, the present invention is not limited to this. For example, the server 40 is omitted and at least a part of the functions of the server 40 (for example, the voice recognition unit 42, the image recognition unit 43, The face recognition unit 44 or the like) may be provided in the mobile terminal 20.

テーブル札50は、調理場で完成した料理の近傍に置かれる札であり、料理を配膳する従業員が料理を配膳する際に触れる札である。テーブル札50は、記憶部51と、通信部52とを備える。記憶部51は、テーブル番号の情報を記憶する。通信部52は、例えば、装着装置10の第1通信部16との間で人体通信を行い、テーブルの番号を装着装置10の制御部18に入力する。すなわち、従業員が料理を配膳する際にテーブル札50に触れると、そのテーブル札50の記憶部51に記憶されているテーブル番号の情報が、制御部18に入力されるので、制御部18は、装着装置10を装着する従業員が料理をテーブルに配膳するタイミングを検出することができる。   The table tag 50 is a tag placed in the vicinity of the dish completed at the cooking place, and is a tag that is touched when an employee serving the dish distributes the dish. The table tag 50 includes a storage unit 51 and a communication unit 52. The storage unit 51 stores table number information. For example, the communication unit 52 performs human body communication with the first communication unit 16 of the mounting apparatus 10 and inputs a table number to the control unit 18 of the mounting apparatus 10. That is, when the employee touches the table tag 50 when serving food, the table number information stored in the storage unit 51 of the table tag 50 is input to the control unit 18, so the control unit 18 It is possible to detect the timing at which the employee who wears the mounting apparatus 10 serves the dish on the table.

(電子機器システム100の処理・動作)
次に、本実施形態の電子機器システム100の処理・動作について説明する。
(Processing and operation of electronic device system 100)
Next, processing / operation of the electronic device system 100 of the present embodiment will be described.

図6(a)は、装着装置10の制御部18による処理を示すフローチャートであり、図6(b)は、携帯端末20の制御部24による処理(その1)を示すフローチャートである。また、図8(a)は、サーバ40の制御部46による処理を示すフローチャートであり、図8(b)は、携帯端末20の制御部24による処理(その2)を示すフローチャートである。本実施形態では、装着装置10、携帯端末20及びサーバ40が連携して、飲食店の従業員(特に配膳を行う従業員)の作業をサポートする。   FIG. 6A is a flowchart illustrating processing by the control unit 18 of the mounting apparatus 10, and FIG. 6B is a flowchart illustrating processing (part 1) by the control unit 24 of the mobile terminal 20. FIG. 8A is a flowchart showing processing by the control unit 46 of the server 40, and FIG. 8B is a flowchart showing processing (part 2) by the control unit 24 of the portable terminal 20. In the present embodiment, the mounting device 10, the portable terminal 20, and the server 40 cooperate to support the work of an employee of a restaurant (particularly an employee who performs a meal).

なお、本処理の前提として、従業員Aが図4に示す3人連れの客から注文を聞き、注文を受けた料理を別の従業員Bが配膳するものとする。また、各従業員が利用する装着装置10と携帯端末20とは、例えば事前に接触させたり、近接させるなどして、予めペアリングされている。ペアリング情報は、装着装置10と携帯端末20とが保持しているものとする。なお、本実施形態においてペアリングとは、複数の装置間の協働処理を実行され得る状態にすることである。なお、本ペアリングにより、装着装置10から携帯端末20に対して、図7(a)に示す従業員情報が転送されているものとする。   As a premise of this process, it is assumed that employee A listens to an order from a customer with three people shown in FIG. 4 and another employee B serves the ordered food. In addition, the mounting device 10 and the mobile terminal 20 used by each employee are paired in advance, for example, in contact with each other or in proximity. It is assumed that the pairing information is held by the mounting device 10 and the mobile terminal 20. In the present embodiment, pairing refers to a state in which cooperative processing between a plurality of devices can be executed. It is assumed that the employee information shown in FIG. 7A is transferred from the mounting apparatus 10 to the portable terminal 20 by this pairing.

(装着装置10の制御部18による処理)
装着装置10の制御部18は、図6(a)のフローチャートに沿った処理を実行する。
(Processing by the control unit 18 of the mounting apparatus 10)
The control unit 18 of the mounting apparatus 10 executes processing according to the flowchart of FIG.

図6(a)の処理では、制御部18は、ステップS10において、例えば、装着装置10を装着する従業員(従業員A)の声による“ご注文をどうぞ”などの所定の音声(1)がマイク14から入力されたか否かを判断する。なお、この場合、制御部18は、入力された音声を音声認識し、所定の音声(1)であるか否かを判断する。ここでの判断が否定された場合には、ステップS18に移行し、制御部18は、テーブル札50との人体通信が成立したか否かを判断するが、このステップS18の判断が否定された場合には、ステップS10に戻る。なお、ステップS10では、所定の音声が入力されたか否かを判断する場合に代えて、従業員がテーブルの前で所定時間以上動かないことを位置検出部19が検出したか否かを判断してもよい。いずれの場合であっても、ステップS10では、従業員が注文をとり始めるタイミングになったか否かを制御部18が判断しているといえる。   In the process of FIG. 6A, in step S10, the control unit 18 performs a predetermined voice (1) such as “please place an order” by the voice of the employee (employee A) wearing the mounting device 10, for example. Is input from the microphone 14. In this case, the control unit 18 recognizes the input voice and determines whether or not the voice is a predetermined voice (1). If the determination here is negative, the process proceeds to step S18, and the control unit 18 determines whether or not the human body communication with the table tag 50 has been established, but the determination in step S18 is negative. In the case, the process returns to step S10. In step S10, instead of determining whether or not a predetermined voice has been input, it is determined whether or not the position detection unit 19 has detected that the employee has not moved for a predetermined time in front of the table. May be. In any case, in step S10, it can be said that the control unit 18 determines whether or not it is time for the employee to start taking an order.

ステップS10の判断が肯定された場合、ステップS12に移行し、制御部18は、客の音声データを取得し、客の顔を撮像する。すなわち、従業員Aが3人の客に注文を聞く際に、客の顔を撮像部11により撮像するとともにマイク14により客が注文する音声を集音する。そして、制御部18は、撮像データと音声データを紐付けて(図7(b)参照)、記憶部15に記憶させる。この場合、制御部18は、位置検出部19により検出される従業員Aの位置に基づいて、従業員Aが位置するテーブルの番号情報を各データに紐付ける。なお、制御部18は、撮像データと音声データの紐付けに際して、音声データと、該音声データを取得している間に口が動いている客の撮像データとを紐付けるなどすればよい。   When the determination in step S10 is affirmed, the process proceeds to step S12, where the control unit 18 acquires the customer's voice data and images the customer's face. That is, when employee A asks three customers for an order, the customer's face is imaged by the imaging unit 11 and the voice ordered by the customer is collected by the microphone 14. Then, the control unit 18 associates the imaging data with the audio data (see FIG. 7B) and stores them in the storage unit 15. In this case, the control unit 18 associates the number information of the table in which the employee A is located with each data based on the position of the employee A detected by the position detection unit 19. The controller 18 may associate the audio data with the imaging data of the customer whose mouth is moving while acquiring the audio data when the imaging data and the audio data are associated with each other.

なお、ステップS12では、客の声を集音する代わりに従業員が注文を復唱する音声を集音するようにしてもよい。この場合、従業員は復唱の際に、注文した客の顔を見るようにすれば、制御部18は、注文した客の顔の撮像データと、音声データ(注文内容)とを紐付けることが可能である。   In step S12, instead of collecting the customer's voice, the employee may collect the voice that repeats the order. In this case, if the employee looks at the face of the customer who ordered, when the employee repeats, the control unit 18 can associate the imaging data of the face of the ordered customer with the voice data (order contents). Is possible.

次いで、ステップS14では、従業員の“少々お待ちください”などの所定の音声(2)が入力されたか否かを判断する。ここでの判断が否定された場合には、ステップS12に戻り、撮像データ及び音声データの取得処理を継続する。一方、ステップS14の判断が肯定された場合、すなわち、従業員Aによる注文をとる作業が完了した場合には、ステップS16に移行する。なお、制御部18は、ステップS14において、位置検出部19の検出結果に基づいて、例えば、従業員Aが移動を開始したタイミングを検出し、該タイミングで、ステップS16に移行するようにしてもよい。あるいは、制御部18は、装着装置10の加速度を検出する加速度センサの検出結果を用いて、従業員Aが移動を開始したタイミングを検出してもよい。   Next, in step S14, it is determined whether or not a predetermined voice (2) such as “please wait for a moment” of the employee is input. If the determination here is negative, the process returns to step S12, and the acquisition processing of imaging data and audio data is continued. On the other hand, if the determination in step S14 is affirmative, that is, if the work of placing an order by employee A is completed, the process proceeds to step S16. Note that the control unit 18 detects, for example, the timing at which the employee A starts moving based on the detection result of the position detection unit 19 in step S14, and proceeds to step S16 at this timing. Good. Alternatively, the control unit 18 may detect the timing at which the employee A starts moving using the detection result of the acceleration sensor that detects the acceleration of the mounting apparatus 10.

なお、本実施形態では、ステップS16に移行した段階で、装着装置10の記憶部15には、図7(b)に示すようなデータが格納されているものとする。   In the present embodiment, it is assumed that data as shown in FIG. 7B is stored in the storage unit 15 of the mounting apparatus 10 when the process proceeds to step S16.

ステップS16に移行すると、制御部18は、第1通信部16を介して、携帯端末20に対して、ステップS12で取得したデータ(図7(b)のデータ)を送信する。なお、制御部18は、ステップS16においてデータを送信した後に、送信したデータを削除してもよい。これにより、客のプライバシーを保護することができる。   If transfering it to step S16, the control part 18 will transmit the data (data of FIG.7 (b)) acquired by step S12 with respect to the portable terminal 20 via the 1st communication part 16. FIG. Note that the control unit 18 may delete the transmitted data after transmitting the data in step S16. Thereby, a customer's privacy can be protected.

次いで、ステップS18では、制御部18は、テーブル札50との人体通信が成立したか否かを判断する。このステップS18の判断が否定された場合には、ステップS10に戻るが、肯定された場合には、ステップS20に移行する。なお、制御部18は、テーブル札50との人体通信が成立した場合には、テーブル札50に記憶されているテーブルの番号情報を取得する。   Next, in step S <b> 18, the control unit 18 determines whether or not human body communication with the table tag 50 has been established. If the determination in step S18 is negative, the process returns to step S10. If the determination is positive, the process proceeds to step S20. In addition, the control part 18 acquires the number information of the table memorize | stored in the table tag 50, when the human body communication with the table tag 50 is materialized.

ステップS20に移行すると、制御部18は、第1通信部16を介して、テーブル札50から取得したテーブルの番号情報を携帯端末20に対して送信する。次いで、ステップS22では、制御部18は、携帯端末20から送信されてきたデータを、表示部12上に表示する。その後は、ステップS10に戻る。   When the process proceeds to step S <b> 20, the control unit 18 transmits the table number information acquired from the table tag 50 to the mobile terminal 20 via the first communication unit 16. Next, in step S <b> 22, the control unit 18 displays the data transmitted from the mobile terminal 20 on the display unit 12. Thereafter, the process returns to step S10.

装着装置10では、以上の処理が、繰り返し実行される。   In the mounting apparatus 10, the above process is repeatedly performed.

なお、従業員Aは、注文をとる間、オーダー端末に客のオーダーを入力するものとする。そして、オーダー端末に入力されたオーダーは、調理場に設けられた表示部に表示され、該表示を見た調理担当者により、調理が開始されるものとする。ただし、これに限らず、オーダー端末を省略し、装着装置10に入力された音声データに基づいてオーダーを特定し、該オーダーを調理場に設けられた表示部に表示することとしてもよい。   It is assumed that employee A inputs the customer's order to the order terminal while taking the order. And the order input into the order terminal is displayed on the display part provided in the cooking place, and cooking shall be started by the cook person who looked at this display. However, not limited to this, the order terminal may be omitted, the order may be specified based on the audio data input to the mounting device 10, and the order may be displayed on a display unit provided in the cooking place.

(携帯端末20の制御部24による処理(その1))
携帯端末20の制御部24は、図6(b)のフローチャートに沿った処理を実行する。
(Processing by the control unit 24 of the portable terminal 20 (part 1))
The control unit 24 of the mobile terminal 20 executes processing according to the flowchart of FIG.

図6(b)の処理では、制御部24は、ステップS30、S34において、ペアリングされている装着装置10からデータを受信するか、あるいは、テーブルの番号情報を受信するまで待機する。この場合、制御部24は、装着装置10においてステップS16の処理が実行されたタイミングで、ステップS30の判断が肯定され、ステップS32に移行する。なお、ここでは、制御部24は、図7(b)に示すデータを受信したものとする。制御部24は、受信したデータを記憶部23に記憶する。   In the process of FIG. 6B, the control unit 24 waits until it receives data from the paired mounting device 10 or receives the table number information in steps S30 and S34. In this case, at the timing when the process of step S16 is executed in the mounting device 10, the control unit 24 affirms the determination of step S30 and proceeds to step S32. Here, it is assumed that the control unit 24 has received the data shown in FIG. The control unit 24 stores the received data in the storage unit 23.

ステップS32に移行すると、制御部24は、第2通信部22を介して、装着装置10から受信したデータ(図7(b))をサーバ40に送信する。なお、制御部24は、サーバ40にデータを送信したのをトリガとして、記憶部23に記憶されている図7(b)のデータを消去するようにしてもよい。   If transfering it to step S32, the control part 24 will transmit the data (FIG.7 (b)) received from the mounting apparatus 10 to the server 40 via the 2nd communication part 22. FIG. Note that the control unit 24 may delete the data in FIG. 7B stored in the storage unit 23 using the transmission of data to the server 40 as a trigger.

一方、装着装置10からテーブルの番号情報を受信した場合(ステップS34が肯定された場合)、制御部24は、ステップS36において、サーバ40にテーブルの番号情報を送信する。その後は、ステップS30に戻り、制御部24は、上記処理を繰り返す。   On the other hand, when the table number information is received from the mounting apparatus 10 (when step S34 is affirmed), the control unit 24 transmits the table number information to the server 40 in step S36. Thereafter, the process returns to step S30, and the control unit 24 repeats the above processing.

(サーバ40の制御部46による処理)
サーバ40の制御部46は、図8(a)のフローチャートに沿った処理を実行する。
(Processing by the control unit 46 of the server 40)
The control unit 46 of the server 40 executes processing according to the flowchart of FIG.

図8(a)では、ステップS40、S46において、制御部46は、携帯端末20からデータを受信するまで、あるいはテーブルの番号情報を受信するまで待機する。ここで、携帯端末20の制御部24が図6(b)のステップS32の処理を実行すると、ステップS40の判断が肯定され、制御部46は、ステップS42に移行する。ここでは、制御部46は、携帯端末20から、図7(b)のデータを受信し、記憶部45に記憶したものとする。   In FIG. 8A, in steps S40 and S46, the control unit 46 stands by until data is received from the mobile terminal 20 or until table number information is received. Here, when the control unit 24 of the portable terminal 20 executes the process of step S32 of FIG. 6B, the determination of step S40 is affirmed, and the control unit 46 proceeds to step S42. Here, the control part 46 shall receive the data of FIG.7 (b) from the portable terminal 20, and memorize | store it in the memory | storage part 45. FIG.

ステップS42に移行すると、制御部46は、音声認識部42に指示を出し、受信した音声データの音声認識を行う。この音声認識の結果、図9に示すように、音声認識結果として3人の客が注文した品の名称「とんかつ御膳」、「ハンバーグとライス」、「お子様ランチ」が得られたとする。   In step S42, the control unit 46 instructs the voice recognition unit 42 to perform voice recognition of the received voice data. As a result of the voice recognition, as shown in FIG. 9, it is assumed that the names “Tonkatsu Gyoen”, “Hamburg and Rice”, and “Children's lunch” of the items ordered by three customers are obtained.

次いで、ステップS44では、制御部46は、記憶部45に記憶されているデータ(図5参照)の中から、ステップS42の音声認識結果に対応する画像データ及び付帯データを抽出する。そして、制御部46は、抽出した画像データ及び付帯データを撮像データ(顔画像データ)と紐付けて記憶部45に記憶する。この場合、制御部46は、例えば、図10に示すように、撮像データに抽出した画像データ(とんかつ御膳、ハンバーグ、ライス、お子様ランチの画像データ)及び付帯データを紐付けて、記憶部45に記憶する。   Next, in step S44, the control unit 46 extracts image data and incidental data corresponding to the voice recognition result in step S42 from the data (see FIG. 5) stored in the storage unit 45. Then, the control unit 46 stores the extracted image data and incidental data in the storage unit 45 in association with the imaging data (face image data). In this case, for example, as shown in FIG. 10, the control unit 46 associates the extracted image data (image data of tonkatsu-gyo, hamburger, rice, and child lunch) and incidental data with the captured data, and stores them in the storage unit 45. Remember.

一方、携帯端末20の制御部24において図6(b)のステップS36の処理が実行され、ステップS46の判断が肯定されると、制御部46は、ステップS48に移行する。なお、ここでは、従業員Bの携帯端末20から、テーブル番号「008」を受信したものとする。   On the other hand, when the process of step S36 of FIG. 6B is executed in the control unit 24 of the mobile terminal 20, and the determination of step S46 is affirmed, the control unit 46 proceeds to step S48. Here, it is assumed that the table number “008” is received from the portable terminal 20 of the employee B.

ステップS48に移行すると、記憶部45に記憶されているデータのうち、受信したテーブル番号(008)に対応する画像データ及び付帯データを、テーブルの番号情報を送信してきた携帯端末20に対して送信する。本実施形態では、調理場においてテーブル札50を手にした(料理の配膳を行おうとしている)従業員Bの携帯端末20に対して、図10のデータを送信したとする。   In step S48, the image data and the incidental data corresponding to the received table number (008) among the data stored in the storage unit 45 are transmitted to the mobile terminal 20 that has transmitted the table number information. To do. In the present embodiment, it is assumed that the data shown in FIG. 10 is transmitted to the portable terminal 20 of the employee B who holds the table tag 50 in the kitchen (who is going to serve a dish).

すなわち、本実施形態では、客が注文した品の調理が出来上がり、従業員が注文した料理をトレイ等に載せ、配膳を行うタイミングで、図10のデータが携帯端末20に対して送信されるようになっている。なお、図10のうち、客の顔の撮像データは、撮像部11が撮像した撮像データの再生画像であるといえる。   That is, in the present embodiment, the product ordered by the customer is cooked, the food ordered by the employee is placed on a tray and the data of FIG. 10 is transmitted to the portable terminal 20 at the timing of serving. It has become. In FIG. 10, it can be said that the image data of the customer's face is a reproduced image of the image data captured by the imaging unit 11.

その後は、制御部46は、ステップS40に戻る。なお、制御部46は、携帯端末20にデータを送信したのをトリガとして、記憶部45に記憶されている撮像データ(客の顔データ)を消去するようにしてもよい。これにより、客のプライバシーを保護することができる。   Thereafter, the control unit 46 returns to Step S40. Note that the control unit 46 may delete the imaging data (customer face data) stored in the storage unit 45 using the transmission of data to the portable terminal 20 as a trigger. Thereby, a customer's privacy can be protected.

(携帯端末20の制御部24による処理(その2))
図8(b)は、携帯端末20の制御部24が実行する処理(その2)のフローチャートである。なお、図8(b)の処理は、常時行うこととしてもよいし、図6(b)において、テーブルの番号情報を送信したタイミング(ステップS36が実行されたタイミング)で、図8(b)の処理を開始するようにしてもよい。
(Processing by the control unit 24 of the portable terminal 20 (part 2))
FIG. 8B is a flowchart of the process (part 2) executed by the control unit 24 of the mobile terminal 20. Note that the processing in FIG. 8B may be performed all the time, or in FIG. 6B, at the timing at which the table number information is transmitted (the timing at which step S36 is executed), the processing in FIG. You may make it start the process of.

図8(b)では、制御部24は、ステップS50において、サーバ40からデータを受信するまで待機する。この場合、サーバ40の制御部46がステップS48の処理を実行したタイミングで、制御部24は、ステップS52に移行する。なお、制御部24は、受信したデータを記憶部23に記憶する。   In FIG.8 (b), the control part 24 waits until it receives data from the server 40 in step S50. In this case, at the timing when the control unit 46 of the server 40 executes the process of step S48, the control unit 24 proceeds to step S52. The control unit 24 stores the received data in the storage unit 23.

ステップS52に移行すると、制御部24は、ペアリングされている装着装置10に対して送信するデータを選択する。この場合、例えば、制御部24は、図7(a)の従業員情報を参照して、従業員Bが新人である場合には、図10の全てのデータを選択する。一方、従業員Bがベテランである場合には、制御部24は、図10のデータのうち、付帯データを除くデータを選択する。また、従業員Bがベテランである場合、制御部24は、画像データに代えて、品名のテキストデータ(図9の認識結果)を選択することとしてもよい。なお、制御部24は、必要に応じて、データを転送する順番を決定しておいてもよい。本実施形態では、一例として、制御部24は、従業員が料理をトレイに載せるタイミングで、付帯データのみを装着装置10に送信し、従業員がテーブルにおいて配膳を行うタイミングで、全データを装着装置10に送信するように、順番を決定したものとする。   In step S52, the control unit 24 selects data to be transmitted to the paired mounting device 10. In this case, for example, with reference to the employee information in FIG. 7A, the control unit 24 selects all the data in FIG. 10 when the employee B is a new employee. On the other hand, when the employee B is a veteran, the control unit 24 selects data excluding incidental data from the data in FIG. When the employee B is a veteran, the control unit 24 may select the text data of the product name (the recognition result in FIG. 9) instead of the image data. Note that the control unit 24 may determine the order in which data is transferred as necessary. In the present embodiment, as an example, the control unit 24 transmits only the incidental data to the mounting device 10 at the timing when the employee places the dish on the tray, and mounts all the data at the timing when the employee performs the serving on the table. It is assumed that the order is determined so as to be transmitted to the device 10.

次いで、ステップS54では、制御部24は、データ送信のタイミングになるまで待機する。この場合、例えば、テーブル札50に触れた直後のタイミング、すなわち従業員Bが調理場で料理をトレイに載せるタイミングで、ステップS54の判断は肯定され、制御部24は、ステップS56に移行する。   Next, in step S54, the control unit 24 stands by until the data transmission timing comes. In this case, for example, the determination in step S54 is affirmed at the timing immediately after touching the table tag 50, that is, the timing at which the employee B places the dish on the tray at the cooking place, and the control unit 24 proceeds to step S56.

ステップS56に移行すると、制御部24は、装着装置10に対してステップS52で選択したデータ(付帯データ)を送信する。この場合、装着装置10の制御部18は、図6(a)のステップS22においてデータを受信するので、表示部12上に付帯データを図11に示すように表示する。これにより、従業員Bは、付帯データを参照することで、用意すべき食器(フォークやナイフ、箸など)を確認することができる。   If transfering it to step S56, the control part 24 will transmit the data (attachment data) selected by step S52 with respect to the mounting apparatus 10. FIG. In this case, since the control unit 18 of the mounting apparatus 10 receives the data in step S22 of FIG. 6A, the accompanying data is displayed on the display unit 12 as shown in FIG. Thereby, employee B can confirm the tableware (fork, knife, chopsticks, etc.) to be prepared by referring to the accompanying data.

次いで、ステップS58では、制御部24は、送信するデータが残っているか否かを判断する。ここでの判断が肯定された場合には、ステップS54に戻る。そして、従業員Bが配膳先のテーブル(テーブル番号=008)近傍に位置した段階、すなわち従業員Bが配膳を開始するタイミングで、ステップS54の判断は肯定され、制御部24は、ステップS56に移行する。   Next, in step S58, the control unit 24 determines whether data to be transmitted remains. When judgment here is affirmed, it returns to step S54. Then, at the stage where employee B is located in the vicinity of the table (table number = 008) of the allocation destination, that is, the timing at which employee B starts the allocation, the determination in step S54 is affirmed, and the control unit 24 proceeds to step S56. Transition.

ステップS56に移行すると、制御部24は、選択した全データを装着装置10に送信する。この場合、装着装置10の制御部18は、図6(a)のステップS22においてデータを受信するので、表示部12上にデータを図12に示すように表示する。これにより、従業員Bは、データを参照することで、誰にどの料理を提供すればよいかを確認することができる。すなわち、飲食店等においては、料理を配膳する際に誰がどの料理を注文したか分からないため、従業員が客にどの料理を注文したかを質問することがあるが、上記処理により、注文を聞いた従業員と配膳する従業員とが異なる場合であっても、質問することなく、間違えずに客に料理を提供することができる。また、従業員が新人の場合、配膳する料理の名前が分からなかったり、どの食器をどのように配置すべきかがわからない場合もあるが、上記処理により、間違えずに食器を配置することができる。   In step S56, the control unit 24 transmits all the selected data to the mounting apparatus 10. In this case, since the control unit 18 of the mounting apparatus 10 receives the data in step S22 of FIG. 6A, the data is displayed on the display unit 12 as shown in FIG. Thereby, the employee B can confirm who should provide which food by referring to the data. In other words, in restaurants and so on, it is not known who ordered which food when serving food, so the employee may ask the customer which food to order. Even if the employee who heard is different from the employee serving, the dish can be provided to the customer without asking a question and without making a mistake. In addition, when the employee is a new employee, the name of the dish to be served may not be known, or it may not be clear which tableware should be arranged and how, but the above processing makes it possible to arrange the tableware without making a mistake.

なお、制御部18は、表示部12上に、客それぞれのデータを所定時間おきに表示するようにしてもよい(図13参照)。これにより、表示部12上には画像が大きく表示されるので、従業員Bは画像の確認がしやすくなる。この場合、制御部18は、表示順を適切な順序とすることができる。例えば、制御部18は、子供→女性→男性というように、所定時間毎に順番に表示することとしてもよい。これにより、従業員Bは、適切な順番で配膳を行うことが可能となる。また、制御部18は、表示部12の表示範囲の表示の切り替え(図12の全体表示から図13の部分表示への切り替え)を撮像部11の撮像に応じて行うようにしてもよい。例えば、撮像部11が1人の人の顔を撮像した場合には、制御部18は、この人に対応する撮像データと、この人が注文した料理の画像データと、付帯データに基づく画像を表示部12に表示すればよい。この場合、撮像データの再生画像の表示範囲への表示を省略するようにしてもよい。   Note that the control unit 18 may display each customer's data on the display unit 12 at predetermined intervals (see FIG. 13). Thereby, since the image is displayed large on the display unit 12, the employee B can easily confirm the image. In this case, the control unit 18 can set the display order to an appropriate order. For example, the control part 18 is good also as displaying in order for every predetermined time like child-> female-> male. Thereby, the employee B can perform the arrangement in an appropriate order. Further, the control unit 18 may perform display switching of the display range of the display unit 12 (switching from the whole display of FIG. 12 to the partial display of FIG. 13) according to the imaging of the imaging unit 11. For example, when the imaging unit 11 captures an image of one person's face, the control unit 18 captures image data corresponding to this person, image data of dishes ordered by this person, and images based on incidental data. What is necessary is just to display on the display part 12. In this case, display of the captured image data in the display range of the reproduced image may be omitted.

図8(b)に戻り、ステップS58の判断が否定されると、制御部24は、ステップS50に戻る。なお、制御部24は、装着装置10にデータを送信したタイミングで、送信したデータを削除するようにしてもよい。また、制御部18は、位置検出部19の検出結果に基づいて、従業員Bがテーブル(008)から所定距離離れたと判断できる場合に、携帯端末20から受信したデータを削除してもよい。   Returning to FIG. 8B, when the determination in step S58 is negative, the control unit 24 returns to step S50. Note that the control unit 24 may delete the transmitted data at the timing when the data is transmitted to the mounting apparatus 10. Moreover, the control part 18 may delete the data received from the portable terminal 20, when it can be judged that the employee B has left | separated predetermined distance from the table (008) based on the detection result of the position detection part 19. FIG.

以上、詳細に説明したように、本第1の実施形態によると、制御部18は、マイク14に入力した音声データに関連する画像データをサーバ40から取得し、該画像データと、音声データの入力に応じて撮像部11により撮像された撮像データ(客の顔の撮像データ)と、を表示部12に表示する。これにより、音声データに関連する画像データと撮像データとを関連付けて表示部12に表示することができる。したがって、本第1の実施形態のように、配膳を行う従業員Bが視認できるように、注文時の客の音声に対応する画像データ(注文した料理の画像データ)と、注文した客の顔の撮像データとを表示することで、従業員Bは、客に質問をしなくても、間違えずに、注文した客に対して料理を配膳することができる。   As described above in detail, according to the first embodiment, the control unit 18 acquires image data related to the audio data input to the microphone 14 from the server 40, and the image data and the audio data In accordance with the input, image data captured by the image capturing unit 11 (image data of a customer's face) and the display unit 12 are displayed. Thereby, the image data related to the audio data and the imaging data can be associated with each other and displayed on the display unit 12. Therefore, as in the first embodiment, the image data corresponding to the voice of the customer at the time of ordering (the image data of the ordered food) and the face of the customer who has ordered the food are provided so that the employee B who is serving can visually recognize it. By displaying the image data of the employee B, the employee B can serve dishes to the ordered customer without making a mistake even without asking the customer a question.

また、本第1の実施形態では、制御部18は、マイク14に入力された音声データに関連する画像データと、画像データに関連する(付帯する)付帯データとを取得し、表示部12に表示する。これにより、例えば、付帯データが料理を配膳する際の食器の配置に関する情報である場合には、従業員Bは、間違えずに、料理に応じた食器を配置することができる。   In the first embodiment, the control unit 18 acquires image data related to the audio data input to the microphone 14 and auxiliary data related to (attached to) the image data, and displays the data on the display unit 12. indicate. Thereby, for example, when the incidental data is information relating to the arrangement of dishes when serving dishes, the employee B can arrange the dishes according to the dishes without making a mistake.

また、本第1の実施形態では、制御部18は、配膳を行う従業員Bの状態(例えば、テーブル札50を持ったか否か、テーブルに近づいたか否かなど)に基づいて画像データ及び撮像データを表示する。これにより、適切なタイミングで、従業員Bが必要とする画像データ及び撮像データを表示することができる。   Further, in the first embodiment, the control unit 18 uses the image data and the imaging based on the state of the employee B who is serving (for example, whether or not the table tag 50 is held or whether or not the table is approached). Display data. Thereby, the image data and imaging data which the employee B needs can be displayed at an appropriate timing.

また、本第1の実施形態では、音声を発した客の顔を撮像するので、音声を発した客の顔と、音声データや音声データに基づく画像データとを紐付けることができる。   In the first embodiment, since the face of the customer who made the sound is imaged, the face of the customer who made the sound can be associated with the sound data and the image data based on the sound data.

また、本第1の実施形態では、サーバ40の制御部46は、装着装置10から音声データを取得し、該音声データに関連する画像データ(料理の画像データ)を音声データの取得先の装着装置10に送信するか、別の装着装置10に送信するかを判断する。すなわち、制御部46は、図6(a)において、テーブルの番号を送信してきた装着装置10(及びこれにペアリングしている携帯端末20)に対して画像データを送信すると判断する。これにより、画像データを必要とする適切な装着装置10(配膳を行う従業員が装着する装着装置)に対して画像データを送信することが可能となる。   In the first embodiment, the control unit 46 of the server 40 acquires audio data from the mounting device 10 and attaches image data (cooking image data) related to the audio data to the acquisition destination of the audio data. Whether to transmit to the device 10 or to another mounting device 10 is determined. That is, in FIG. 6A, the control unit 46 determines to transmit image data to the mounting apparatus 10 that has transmitted the table number (and the mobile terminal 20 paired with the mounting apparatus 10). As a result, the image data can be transmitted to an appropriate mounting device 10 that requires image data (a mounting device worn by an employee who performs the layout).

また、本第1の実施形態では、制御部46は、料理の画像データに付帯する付帯データを抽出するので、配膳を行う従業員に、配膳に関するより多くの情報を提供することができる。   In the first embodiment, the control unit 46 extracts the incidental data attached to the image data of the dish, and therefore can provide more information regarding the arrangement to the employee who performs the arrangement.

また、本第1の実施形態では、制御部24は、データ送信先の装着装置10を利用する従業員に応じて、付帯データを送信するかどうかを判断するので、従業員の経験値やスキルに応じた情報を提供することができる。   In the first embodiment, the control unit 24 determines whether to transmit incidental data according to the employee who uses the mounting apparatus 10 that is the data transmission destination. It is possible to provide information according to.

また、本第1の実施形態では、テーブル札50を従業員が持ったタイミングで、サーバ40の制御部46が、携帯端末20に対してデータを送信するので、従業員がデータを必要とする適切なタイミングで、データの送信を行うことができる。   In the first embodiment, since the control unit 46 of the server 40 transmits data to the mobile terminal 20 at the timing when the employee holds the table tag 50, the employee needs the data. Data can be transmitted at an appropriate timing.

なお、上記第1の実施形態では、制御部24が、表示部12に表示する撮像データや付帯データを、装着装置10を装着する従業員に応じて異ならせる場合について説明したが、これに限られるものではない。例えば、テーブル札50の番号を携帯端末20からサーバ40に送信する際に、図7(a)の従業員情報も携帯端末20からサーバ40に送信しておき、サーバ40が、従業員情報に基づいて携帯端末20及び装着装置10に送信するデータを選択するようにしてもよい。   In the first embodiment, the case has been described in which the control unit 24 changes the imaging data and incidental data displayed on the display unit 12 according to the employee wearing the mounting device 10. It is not something that can be done. For example, when the number of the table tag 50 is transmitted from the portable terminal 20 to the server 40, the employee information in FIG. 7A is also transmitted from the portable terminal 20 to the server 40, and the server 40 stores the employee information in the employee information. Based on this, data to be transmitted to the mobile terminal 20 and the mounting apparatus 10 may be selected.

なお、上記第1の実施形態では、例えば、従業員Aが注文を受ける際に、ドリンクやデザートを提供するタイミングを客から聞く場合もある。このような場合、サーバ40の制御部46は、当該タイミングに関する情報を記憶部45に記憶しておき、該タイミングが到来した場合に、その旨を従業員に対して通知することとしてもよい。例えば、客がデザートを食後に要求した場合には、制御部46は、料理を配膳してから所定時間経過後に、全従業員又は調理場の担当者の装着装置10又は携帯端末20にその旨を通知することとしてもよい。   In the first embodiment, for example, when employee A receives an order, the customer may be asked when to provide a drink or dessert. In such a case, the control unit 46 of the server 40 may store information related to the timing in the storage unit 45 and notify the employee of the fact when the timing comes. For example, when a customer requests dessert after a meal, the control unit 46 informs all the employees or the staff in charge of the kitchen place 10 or the portable terminal 20 after a predetermined time has passed since the food is served. May be notified.

また、上記第1の実施形態では、注文をとってから所定時間経過したにもかかわらず配膳が完了していない場合に、サーバ40が装着装置10に対してその旨を通知することとしてもよい。通知を受けた従業員は、調理を急いだり、客に現在調理中であることを知らせたりすることで、客の機嫌を損ねないよう事前に対応することが可能である。また、調理時間や調理順により、配膳の順番が入れ替わる場合にも、サーバ40が装着装置10に対してその旨を通知してもよい。この場合にも、上記と同様、従業員は、客の機嫌を損ねないよう事前に対応することができる。また、例えば、従業員があるテーブルの近くを通った場合に、そのテーブルの情報(注文から何分経過したか、全ての料理を配膳したか否かなど)をサーバ40から従業員が装着装置10に対して通知してもよい。このように、本実施形態では、音声データや画像データに基づいて、報知する情報や該情報を報知する条件を決定し、決定した条件を満たしたときに該情報を報知するようにすることとしてもよい。   In the first embodiment, the server 40 may notify the mounting device 10 when the arrangement is not completed even though a predetermined time has elapsed since the order was placed. . The employee who has received the notification can respond in advance so as not to damage the customer's mood by rushing cooking or notifying the customer that cooking is in progress. In addition, even when the order of the serving is changed depending on the cooking time or cooking order, the server 40 may notify the mounting device 10 to that effect. In this case as well, as described above, the employee can respond in advance so as not to damage the customer's mood. Further, for example, when an employee passes near a table, the employee installs information on the table (how many minutes have passed since the order has been placed, whether all dishes have been served, etc.) from the server 40. 10 may be notified. As described above, in the present embodiment, information to be notified and conditions for notifying the information are determined based on audio data and image data, and the information is notified when the determined conditions are satisfied. Also good.

なお、上記第1の実施形態では、例えば、従業員の位置等に応じた適切なタイミングで、装着装置10の制御部18が、従業員が発すべき言葉(“右がソースで、左が醤油です”や、“鉄板が熱いのでお気をつけください”など)を表示部12に表示するようにしてもよい。この場合、従業員のスキルに応じて、表示量を変更してもよい。なお、制御部18は、従業員が発すべき言葉を表示した後、従業員により表示した言葉が発せられたタイミングで、表示を消去することとしてもよい。このように適切なタイミングで従業員が発すべき言葉を表示する装着装置10は、新人の研修用に用いることとしてもよい。   In the first embodiment, for example, at an appropriate timing according to the position of the employee, the control unit 18 of the mounting device 10 causes the employee to speak (“right is the source, left is the soy sauce” Or “Please be careful because the iron plate is hot”) may be displayed on the display unit 12. In this case, the display amount may be changed according to the skill of the employee. The control unit 18 may delete the display at the timing when the words displayed by the employee are issued after displaying the words that the employee should speak. Thus, the mounting device 10 that displays words to be uttered by employees at an appropriate timing may be used for training for newcomers.

なお、上記実施形態では、装着装置10がマイク14や撮像部11を備える場合について説明したが、これに限られるものではない。例えば、装着装置10にマイクや撮像部を設けずに、外部に設けられたマイクや撮像部11から音声データや撮像データを取得することとしてもよい。   In addition, although the said embodiment demonstrated the case where the mounting apparatus 10 was provided with the microphone 14 or the imaging part 11, it is not restricted to this. For example, it is good also as acquiring audio | voice data and imaging data from the microphone provided in the exterior, or the imaging part 11, without providing a microphone and an imaging part in the mounting apparatus 10. FIG.

なお、上記第1の実施形態では、従業員が配膳を開始するタイミングを検出するために、テーブル札を用いる場合について説明したが、これに限られるものではない。例えば、従業員教育において、配膳を行う直前に「○番のテーブルの配膳を開始します」などと音声を発するよう教育しておく。そして、装着装置10において従業員が上記音声を発したことをマイク14を介して検出した場合に、制御部18が、配膳開始のタイミングと判断してもよい。   In the first embodiment, the case where a table tag is used to detect the timing at which an employee starts serving is described. However, the present invention is not limited to this. For example, in the employee education, an instruction is given so that a voice such as “starts the arrangement of the No. ○ table” is issued immediately before the arrangement. Then, when it is detected via the microphone 14 that the employee has uttered the voice in the mounting device 10, the control unit 18 may determine that the start timing of the serving.

《第2の実施形態》
次に、第2の実施形態について図14〜図16に基づいて説明する。本第2の実施形態は、装着装置10及び携帯端末20を、洋服売り場などの店員(販売員)が装着、保持する場合の例である。なお、本第2の実施形態のシステム構成及び装置構成は、第1の実施形態(図1)と同様であるので、その説明は省略するものとする。ただし、本第2の実施形態では、電子機器システム100からテーブル札50が省略されるものとする。
<< Second Embodiment >>
Next, a second embodiment will be described with reference to FIGS. The second embodiment is an example of a case where a store clerk (salesperson) such as a clothes department wears and holds the mounting device 10 and the mobile terminal 20. Note that the system configuration and apparatus configuration of the second embodiment are the same as those of the first embodiment (FIG. 1), and thus the description thereof will be omitted. However, in the second embodiment, the table tag 50 is omitted from the electronic device system 100.

なお、サーバ40の記憶部45には、洋服売り場の在庫情報(各製品、各サイズの在庫数、在庫がない場合には入荷予定日など)が格納されているものとする。また、記憶部45には、各商品に付帯する情報(例えば、年代別の人気度や、各商品の紹介情報、代替商品の情報など)が格納されているものとする。   Note that the storage unit 45 of the server 40 stores inventory information of clothes departments (stocks of each product, size, stock arrival date when there is no stock, etc.). In addition, it is assumed that information accompanying each product (for example, popularity by age, introduction information of each product, information on alternative products, etc.) is stored in the storage unit 45.

図14(a)には、装着装置10の制御部18の処理がフローチャートにて示され、図14(b)には、携帯端末20の制御部24の処理がフローチャートにて示され、図16には、サーバ40の制御部46の処理がフローチャートにて示されている。   FIG. 14A shows a process of the control unit 18 of the mounting apparatus 10 in a flowchart, and FIG. 14B shows a process of the control unit 24 of the mobile terminal 20 in a flowchart. The flowchart shows the process of the control unit 46 of the server 40.

(装着装置10の制御部18の処理)
装着装置10の制御部18は、図14(a)のステップS102において、客の音声がマイク14から入力されるまで待機する。なお、客の音声か否かは、予め登録されている洋服売り場の従業員以外の音声か否かにより判断するものとする。客の音声が入力されると、制御部18は、ステップS12に移行する。
(Processing of the control unit 18 of the mounting apparatus 10)
The controller 18 of the mounting apparatus 10 stands by until the customer's voice is input from the microphone 14 in step S102 of FIG. Whether or not the voice is a customer's voice is determined based on whether or not the voice is a voice other than a registered employee of the clothes department. When the customer's voice is input, the control unit 18 proceeds to step S12.

ステップS104に移行すると、制御部18は、客の声(要望)をマイク14により集音するとともに、撮像部11により客の顔を撮像する。ここで、客の要望は、サイズ(XSや、XXLなど)に関する在庫の有無の問い合わせや、素材に関する質問、ファッションアドバイスの依頼、アパレル用語に関する質問等を含む。なお、客の声を集音する代わりに販売員が復唱する音声を集音するようにしてもよい。ここでは、一例として、30代の女性が青いダンガリーシャツのSサイズの在庫を問い合わせたとする。なお、制御部18は、図15に示すように、客の顔の撮像データと、音声データとを紐付けて記憶部15に格納するものとする。   In step S <b> 104, the control unit 18 collects the customer's voice (request) with the microphone 14 and images the customer's face with the imaging unit 11. Here, the customer's request includes an inquiry about the presence / absence of inventory regarding the size (XS, XXL, etc.), a question regarding materials, a request for fashion advice, a question regarding apparel terms, and the like. In addition, you may make it collect the voice which a salesperson repeats instead of collecting a customer's voice. Here, as an example, it is assumed that a woman in her 30's inquires about an S size inventory of a blue dungary shirt. As shown in FIG. 15, the control unit 18 associates image data of the customer's face and audio data and stores them in the storage unit 15.

次いで、制御部18は、ステップS106において、ステップS104で記憶部15に記憶した客の撮像データと、音声データとを第1通信部16を用いて携帯端末20に送信する。なお、制御部18は、ステップS106の終了とともに、送信したデータを記憶部15から削除してもよい。あるいは、後述するステップS102の後(接客終了後)に送信したデータを削除してもよい。その後は、制御部18は、ステップS108において、携帯端末20から情報を受信するまで待機する。携帯端末20から情報を受信すると、制御部18は、ステップS110において、表示部12や不図示のスピーカから情報を報知し、ステップS102に戻る。   Next, in step S <b> 106, the control unit 18 transmits the customer imaging data and audio data stored in the storage unit 15 in step S <b> 104 to the mobile terminal 20 using the first communication unit 16. Note that the control unit 18 may delete the transmitted data from the storage unit 15 at the end of step S106. Or you may delete the data transmitted after step S102 mentioned later (after the end of customer service). Thereafter, the control unit 18 stands by until information is received from the portable terminal 20 in step S108. When the information is received from the portable terminal 20, the control unit 18 notifies the information from the display unit 12 or a speaker (not shown) in step S110, and returns to step S102.

(携帯端末20の制御部24の処理)
携帯端末20の制御部24は、図14(b)のステップS120において、装着装置10からデータ(図15参照)を受信するまで待機する。この場合、装着装置10においてステップS106の処理が行われたタイミングで、制御部24は、ステップS122に移行する。なお、制御部24は、受信したデータを記憶部23に記憶する。
(Processing of the control unit 24 of the portable terminal 20)
The control unit 24 of the portable terminal 20 stands by until data (see FIG. 15) is received from the mounting apparatus 10 in step S120 of FIG. In this case, at the timing when the process of step S106 is performed in the mounting apparatus 10, the control unit 24 proceeds to step S122. The control unit 24 stores the received data in the storage unit 23.

ステップS122に移行すると、制御部24は、第2通信部22を介して、受信し、記憶部23に記憶したデータをサーバ40に送信する。   In step S122, the control unit 24 transmits the data received and stored in the storage unit 23 to the server 40 via the second communication unit 22.

その後は、制御部24は、ステップS124において、サーバ40から情報を受信するまで待機する。そして、サーバ40から情報を受信し、記憶部23に記憶すると、制御部24は、ステップS126において、装着装置10に対して情報を送信する。その後は、ステップS120に戻る。なお、ステップS120に戻ったタイミングで、制御部24は、ステップS120〜S126において記憶部23に記憶したデータを削除するようにしてもよい。   Thereafter, the control unit 24 stands by until information is received from the server 40 in step S124. And if information is received from the server 40 and memorize | stored in the memory | storage part 23, the control part 24 will transmit information with respect to the mounting apparatus 10 in step S126. Thereafter, the process returns to step S120. Note that at the timing of returning to step S120, the control unit 24 may delete the data stored in the storage unit 23 in steps S120 to S126.

(サーバ40の制御部46による処理)
サーバ40の制御部46は、図16のステップS140において、携帯端末20から図15のデータを受信するまで待機する。この場合、携帯端末20においてステップS122の処理が実行されると、制御部46は、データを受信して、記憶部45に記憶し、ステップS142に移行する。
(Processing by the control unit 46 of the server 40)
The control unit 46 of the server 40 stands by until the data of FIG. 15 is received from the portable terminal 20 in step S140 of FIG. In this case, when the process of step S122 is executed in the portable terminal 20, the control unit 46 receives the data, stores it in the storage unit 45, and proceeds to step S142.

ステップS142に移行すると、制御部46は、音声認識部42に音声認識を実行させる。ここで、音声認識部42は、音声データから“青いダンガリーシャツのSサイズはありますか?”という音声を認識する。なお、制御部46は、ステップS142において、画像認識部43に客の顔の撮像データから性別、年代、表情を認識するようにしてもよい。このようにすることで、客の属性や、客が通常の状態であるのか、怒っていたり焦っていたりするのかを判断することができる。制御部46は、客の眉間に皺が寄っているなど、機嫌が悪い状態であると判断した場合、例えば、ベテランの販売員や管理者(店長等)が保持する端末に通知し、ベテランの販売員や管理者を売り場に行かせるようにしてもよい。   In step S142, the control unit 46 causes the voice recognition unit 42 to perform voice recognition. Here, the voice recognizing unit 42 recognizes a voice “Are there an S size of a blue dungary shirt?” From the voice data. In step S142, the control unit 46 may cause the image recognition unit 43 to recognize the sex, age, and facial expression from the image data of the customer's face. In this way, it is possible to determine the customer's attributes and whether the customer is in a normal state, angry or impatient. If the control unit 46 determines that the customer is in a bad state, such as a wrinkle in the eyebrows of the customer, for example, the control unit 46 notifies the terminal held by an experienced salesperson or manager (store manager, etc.) A salesperson or manager may be sent to the sales floor.

次いで、ステップS144では、制御部46は、ステップS142の音声認識結果に基づき記憶部45に記憶されている在庫情報や付帯情報を抽出する。一例として、制御部46は、Sサイズの在庫がなく、商品が届くまでに3日かかるという情報を抽出する。また、制御部46は、付帯情報として青いデニムシャツであればSサイズの在庫があること、30代の女性にデニムシャツの人気があること、および、ダンガリーとデニムとは似ており、その違いは青色と白色の糸の使い方が縦横逆であること、などの情報を記憶部45から抽出する。   Next, in step S144, the control unit 46 extracts inventory information and incidental information stored in the storage unit 45 based on the voice recognition result in step S142. As an example, the control unit 46 extracts information that there is no stock of S size and it takes 3 days to receive the product. In addition, the control unit 46 is similar to Dungaree and Denim because there is an S size stock if it is a blue denim shirt as ancillary information, the popularity of denim shirts for women in their 30s, and the difference Extracts information from the storage unit 45 that the usage of the blue and white threads is reversed vertically and horizontally.

次いで、ステップS146では、制御部46は、ステップS144で抽出されたデータを携帯端末20に送信し、ステップS140に戻る。なお、制御部46は、ステップS146の処理を行った後に、記憶部45に記憶した客の顔の撮像データや、音声データを削除してもよい。また、制御部46は、ログとして、音声データの音声認識結果(テキストデータ)と、客の属性(30代女性)を記憶部45に記憶させてもよい。   Next, in step S146, the control unit 46 transmits the data extracted in step S144 to the mobile terminal 20, and returns to step S140. Note that the control unit 46 may delete the customer face image data and audio data stored in the storage unit 45 after performing the process of step S146. Moreover, the control part 46 may memorize | store the speech recognition result (text data) of voice data and a customer's attribute (30's female) in the memory | storage part 45 as a log.

ステップS146において携帯端末20に送信された情報は、携帯端末20から装着装置10に送信され(図14(b)のS126)、装着装置10の制御部18は、受信した情報を販売員に報知する(図14(a)のS110)。この場合、制御部18は、受信した情報を表示部12上に表示することで販売員に情報を報知してもよいし、サーバ40において音声に変換した情報を受信し、不図示のスピーカから出力することで販売員に情報を報知してもよい。なお、スピーカは、一例として、販売員にのみ音声が聞こえるように、指向性を有するスピーカを採用することが好ましい。   The information transmitted to the mobile terminal 20 in step S146 is transmitted from the mobile terminal 20 to the mounting device 10 (S126 in FIG. 14B), and the control unit 18 of the mounting device 10 notifies the salesperson of the received information. (S110 in FIG. 14A). In this case, the control unit 18 may notify the salesperson of the information by displaying the received information on the display unit 12, or receives the information converted into voice in the server 40 and receives it from a speaker (not shown). Information may be notified to the salesperson by outputting. As an example, it is preferable to employ a speaker having directivity so that only the salesperson can hear the sound.

以上のように、本第2の実施形態では、電子機器システム100において、図14(a)、図14(b)、図16の処理が行われることで、販売員の経験や知識にかかわらず客の問合せや要望に適切に対応することができる。   As described above, in the second embodiment, the electronic device system 100 performs the processes of FIG. 14A, FIG. 14B, and FIG. 16 regardless of the experience and knowledge of the salesperson. It can respond appropriately to customer inquiries and requests.

以上、詳細に説明したように、本第2の実施形態によると、制御部18は、マイク14に入力した音声データに関連する情報(客の要望や問い合わせに対応するための情報)をサーバ40から取得し、該情報を表示部12に表示する。これにより、販売員は、客の要望や問い合わせに適切に対応することが可能である。   As described above in detail, according to the second embodiment, the control unit 18 transmits information related to the voice data input to the microphone 14 (information for responding to customer requests and inquiries) to the server 40. And the information is displayed on the display unit 12. As a result, the salesperson can appropriately respond to customer requests and inquiries.

《第3の実施形態》
次に、第3の実施形態について、図17〜図19に基づいて詳細に説明する。本第3の実施形態は、図17に示すように、装着装置10及び携帯端末20を、お年寄りなどの介護を行う介護士が装着、保持する場合の例である。なお、本第3の実施形態のシステム構成及び装置構成は、第1の実施形態(図1)と同様であるので、その説明は省略するものとする。ただし、本第3の実施形態では、電子機器システム100からテーブル札50が省略されるものとする。
<< Third Embodiment >>
Next, a third embodiment will be described in detail with reference to FIGS. As shown in FIG. 17, the third embodiment is an example in which the wearer 10 and the portable terminal 20 are worn and held by a caregiver who cares for an elderly person or the like. Note that the system configuration and apparatus configuration of the third embodiment are the same as those of the first embodiment (FIG. 1), and the description thereof will be omitted. However, in the third embodiment, the table tag 50 is omitted from the electronic device system 100.

なお、サーバ40の記憶部45には、お年寄りごとに、過去の音声データと、その音声を発したときの顔の撮像データ、音声の意味などが紐付けられて記憶されている。なお、音声の意味は、例えば、お年寄りの介護に慣れているベテランの介護士等が音声入力、キーボード(仮想キーボードも含む)等を用いて入力するものとする。また、記憶部45には、お年寄りごとに、お年寄りの表情や状態を撮像した撮像データと、その表情や状態のときのお年寄りの体調や感情などの情報と、が紐付けて記憶されている。なお、体調や感情などの情報は、例えば、ベテランの介護士等が入力するものとする。更に、記憶部45には、お年寄りごとの介護履歴情報が記憶されている。なお、介護履歴情報は、実際に介護を行った介護士が記録する介護日誌のファイルから抽出される情報であるものとする。   The storage unit 45 of the server 40 stores, for each elderly person, past voice data, face imaging data when the voice is emitted, meaning of voice, and the like. The meaning of the voice is assumed to be input, for example, by an experienced caregiver or the like who is used to elderly care using voice input, a keyboard (including a virtual keyboard), or the like. In addition, the storage unit 45 stores, for each elderly person, image data obtained by imaging an elderly person's facial expression and state, and information such as the physical condition and emotions of the elderly person in the facial expression and state. ing. It is assumed that information such as physical condition and emotion is input by, for example, an experienced caregiver. Further, the storage unit 45 stores care history information for each elderly person. The care history information is information extracted from a care diary file recorded by a caregiver who actually performed care.

(装着装置10の制御部18の処理)
以下、装着装置10及び携帯端末20を、介護士Aが装着、保持してお年寄りCの介護を行う場合について説明する。なお、図18(a)の処理は、介護士Aが介護を開始する旨を操作部13から入力したタイミングで開始される。
(Processing of the control unit 18 of the mounting apparatus 10)
Hereinafter, a case where the caregiver A wears and holds the mounting device 10 and the mobile terminal 20 and cares for the elderly C will be described. The process of FIG. 18A is started at the timing when the caregiver A inputs from the operation unit 13 that the caregiver A starts care.

装着装置10の制御部18は、図18(a)のステップS202において、介護履歴を携帯端末20に対して要求する。なお、ここで要求する介護履歴は、前日などにお年寄りCを介護した介護士からお年寄りCの介護を引き継ぐのに必要な情報である。特に、介護士Aがお年寄りCを初めて介護する場合などにおいて、お年寄りCの状態や癖や特徴や行動パターンなどを把握するのに役立つ情報である。   The control unit 18 of the mounting apparatus 10 requests a care history from the portable terminal 20 in step S202 of FIG. The care history requested here is information necessary for taking over care of the elderly C from a caregiver who cares for the elderly C the day before. In particular, when the caregiver A first cares for the elderly C, the information is useful for grasping the state, wrinkles, features, behavior patterns, etc. of the elderly C.

次いで、ステップS204では、制御部18は、携帯端末20から送信されてくる介護履歴を取得し、介護士Aに対して通知する。この場合、制御部18は、介護履歴を表示部12に文字、絵文字、画像で表示したり、不図示のスピーカから出力したりする。表示部12に表示される例としては、図19に示すように、“ブロッコリーは食べない”、“食後の薬はA,Bの2種類”、“耳が遠いので大きな声で話す”、“健康に関する話題が好き”などが挙げられる。このうち、制御部18は、薬A,Bの画像データもしくは絵文字データをサーバ40から取得して、表示部12に画像や絵文字を表示するようにしてもよい。   Next, in step S <b> 204, the control unit 18 acquires the care history transmitted from the mobile terminal 20 and notifies the caregiver A of the care history. In this case, the control unit 18 displays the care history on the display unit 12 with characters, pictograms, and images, or outputs them from a speaker (not shown). As an example displayed on the display unit 12, as shown in FIG. 19, “do not eat broccoli”, “two types of post-meal drugs A and B”, “speak loudly because ears are far away”, “ I like topics related to health. " Among these, the control unit 18 may acquire the image data or pictographic data of the medicines A and B from the server 40 and display the images and pictographs on the display unit 12.

次いで、ステップS206では、制御部18は、お年寄りCの音声が入力されるまで待機する。お年寄りCの音声が入力されると、ステップS208に移行し、制御部18は、お年寄りCの声をマイク14で集音して音声データを取得し、撮像部11を用いてお年寄りCの顔を撮像して撮像データを取得する。これらのデータは、お年寄りCの状態をサーバ40に蓄積するためや、お年寄りCの言っていることが聞き取りづらいときに、サーバ40の記憶部45に記憶されたデータからお年寄りの言っていることを把握するために用いられる。   Next, in step S206, the control unit 18 stands by until the voice of the elderly C is input. When the voice of the elderly C is input, the process proceeds to step S208, where the control unit 18 collects the voice of the elderly C with the microphone 14 to acquire voice data, and uses the imaging unit 11 to obtain the elderly C. The face is picked up to obtain image data. These data are used to store the state of the elderly C in the server 40, or when it is difficult to hear what the elderly C is saying, It is used to grasp that

次いで、ステップS210では、制御部18は、第1通信部16を介して、携帯端末20にステップS208で取得したデータを送信する。なお、制御部18は、ステップS202の終了とともに、撮像データと音声データを記憶部15から削除してもよい。あるいは、介護士Aが操作部13を介してお年寄りCの介護を終了する旨を入力したタイミングで撮像データと音声データを削除してもよい。   Next, in step S210, the control unit 18 transmits the data acquired in step S208 to the portable terminal 20 via the first communication unit 16. Note that the control unit 18 may delete the imaging data and audio data from the storage unit 15 at the end of step S202. Alternatively, the imaging data and the voice data may be deleted at the timing when the caregiver A inputs the fact that the elderly person C is finished nursing care via the operation unit 13.

次いで、ステップS212では、制御部18は、携帯端末20から情報を受信するまで待機し、情報を受信すると、ステップS214において情報を介護士Aに報知する。この場合、制御部18は、情報を表示部12に表示したり、不図示のスピーカから出力したりすることで、介護士Aに情報を報知する。制御部18は、その後、ステップS206に戻る。なお、撮像部11の撮像に基づくお年寄りCの表情や状態に基づきサーバ40から取得した情報を制御部18が表示部12に表示するようにしてもよい。この場合、サーバ40は、撮像部11の撮像した撮像データに加えて、マイク14にて集音したお年寄りCの音声の抑揚からお年寄りCの感情や体調を推定し、この推定に基づく情報(例えば、音楽を流したり、テレビをつける、昼寝をさせる)を装着装置10に送信すればよい。   Next, in step S212, the control unit 18 waits until information is received from the portable terminal 20, and when the information is received, informs the caregiver A of the information in step S214. In this case, the control unit 18 notifies the caregiver A of the information by displaying the information on the display unit 12 or outputting the information from a speaker (not shown). Thereafter, the control unit 18 returns to step S206. Note that the control unit 18 may cause the display unit 12 to display information acquired from the server 40 based on the facial expression and state of the elderly C based on the imaging of the imaging unit 11. In this case, the server 40 estimates the emotion and physical condition of the elderly C from the inflection of the voice of the elderly C collected by the microphone 14 in addition to the imaging data captured by the imaging unit 11, and information based on this estimation (For example, playing music, turning on the TV, or taking a nap) may be transmitted to the mounting apparatus 10.

なお、図18(a)のステップS206〜S214の処理は、介護士Aが、操作部13を介して、お年寄りCの介護を終了する旨を入力するまで繰り返し実行される。   Note that the processing in steps S206 to S214 in FIG. 18A is repeatedly executed until the caregiver A inputs an instruction to end the care for the elderly C via the operation unit 13.

(携帯端末20の制御部24の処理)
次に、携帯端末20の制御部24の処理について、図18(b)に基づいて説明する。
(Processing of the control unit 24 of the portable terminal 20)
Next, the process of the control part 24 of the portable terminal 20 is demonstrated based on FIG.18 (b).

制御部24は、図18(b)の処理において、装着装置10からの介護履歴の要求があるまで待機する(S220)。そして、装着装置10からの要求を受信すると、制御部24は、ステップS222において、第2通信部22を介してサーバ40に介護履歴を要求する。   In the process of FIG. 18B, the control unit 24 waits until a care history request is received from the mounting device 10 (S220). And if the request | requirement from the mounting apparatus 10 is received, the control part 24 will request | require the nursing care history from the server 40 via the 2nd communication part 22 in step S222.

次いで、ステップS224では、制御部24は、サーバ40から介護履歴を受信するまで待機する。そして、制御部24は、サーバ40から介護履歴を受信した段階で、ステップS226において、第1通信部21を介して介護履歴を装着装置10に送信する。   Next, in step S224, the control unit 24 waits until a care history is received from the server 40. And the control part 24 transmits the care history to the mounting apparatus 10 via the 1st communication part 21 in step S226 in the step which received the care history from the server 40. FIG.

次いで、ステップS228では、制御部24は、装着装置10からお年寄りCの撮像データや音声データを受信するまで待機する。そして、制御部24は、データを受信すると記憶部23にデータを記憶するとともに、ステップS230において、第2通信部22を介してサーバ40に受信したデータを送信する。   Next, in step S <b> 228, the control unit 24 stands by until image data and audio data of the elderly C are received from the mounting apparatus 10. Then, when receiving the data, the control unit 24 stores the data in the storage unit 23 and transmits the received data to the server 40 via the second communication unit 22 in step S230.

次いで、制御部24は、ステップS232において、サーバ40から情報を受信するまで待機する。そして、情報を受信した段階で、制御部24は、受信した情報を記憶部23に格納するとともに、ステップS234において、第1通信部21を介して、装着装置10に情報を送信する。その後は、ステップS228に戻る。   Next, the control unit 24 waits until information is received from the server 40 in step S232. When the information is received, the control unit 24 stores the received information in the storage unit 23 and transmits the information to the mounting apparatus 10 via the first communication unit 21 in step S234. Thereafter, the process returns to step S228.

なお、制御部24は、ステップS234を実行したタイミングで、図18(b)の処理において、それまでに記憶部23に記憶されたデータや情報を削除するようにしてもよい。   Note that the control unit 24 may delete the data and information stored in the storage unit 23 so far in the process of FIG. 18B at the timing of executing step S234.

(サーバ40の制御部46の処理)
次に、サーバ40の制御部46の処理について、図20に基づいて説明する。
(Processing of the control unit 46 of the server 40)
Next, the process of the control part 46 of the server 40 is demonstrated based on FIG.

制御部46は、図20の処理において、まず、携帯端末20から介護履歴の要求を受信するまで待機する(S240)。そして、要求を受信すると、ステップS242において、制御部46は、通信部41を介して介護履歴を携帯端末20に送信する。   In the process of FIG. 20, the control unit 46 first waits until receiving a care history request from the mobile terminal 20 (S <b> 240). And if a request | requirement is received, the control part 46 will transmit care history to the portable terminal 20 via the communication part 41 in step S242.

次いで、ステップS244では、制御部46は、携帯端末20から撮像データや音声データを受信するまで待機する。そして、データを受信すると、制御部46は、受信したデータを記憶部45に記憶するとともに、ステップS246において、音声認識部42に音声認識を行わせるとともに、画像認識部43に画像認識を行わせる。   Next, in step S <b> 244, the control unit 46 waits until image data and audio data are received from the mobile terminal 20. When the data is received, the control unit 46 stores the received data in the storage unit 45, and in step S246, causes the voice recognition unit 42 to perform voice recognition and causes the image recognition unit 43 to perform image recognition. .

ここで、音声認識部42は、入力したお年寄りCの音声データと、記憶部45に記憶されている過去のお年寄りCの音声パターン(例えば周波数)を比較して、お年寄りCが発した音声の意味を認識する。また、画像認識部43は、入力したお年寄りCの撮像データと、記憶部45に記憶されている過去のお年寄りCの画像データとを比較して、お年寄りの状態(機嫌や体調)や、癖を認識する。なお、画像認識部43による認識は、画像の特徴点を抽出して行うようにすればよい。また、画像認識部43は、お年寄りCの撮像データに基づいて、お年寄りが言いたいことを認識することとしてもよい。この場合、特開2008−310382号に記載されているように動画像を用いて読唇を行うこととしてもよい。この場合、口の動きには個人差があるので、ユーザ毎のデータを記憶部45に記憶しておき、顔認識部44の顔認識結果を用いて画像認識部43による読唇を行うようにしてもよい。   Here, the voice recognition unit 42 compares the input voice data of the elderly C with the voice pattern (for example, frequency) of the past elderly C stored in the storage unit 45, and the elderly C issued. Recognize the meaning of speech. In addition, the image recognition unit 43 compares the input image data of the elderly C input with the past image data of the elderly C stored in the storage unit 45, and determines the state of the elderly (money and physical condition) , Recognize jealousy. Note that recognition by the image recognition unit 43 may be performed by extracting feature points of the image. Moreover, the image recognition part 43 is good also as recognizing what the elderly person wants to say based on the imaging data of the elderly person C. In this case, as described in Japanese Patent Application Laid-Open No. 2008-310382, lip reading may be performed using a moving image. In this case, since there are individual differences in mouth movements, data for each user is stored in the storage unit 45, and the lip is read by the image recognition unit 43 using the face recognition result of the face recognition unit 44. Also good.

次いで、ステップS248では、制御部46は、ステップS248の処理結果に基づいて、情報を抽出する。この場合、制御部46は、例えば、お年寄りCが発した音声の意味を示すテキストデータや、お年寄りCの状態を示すテキストデータ等を抽出する。   Next, in step S248, the control unit 46 extracts information based on the processing result of step S248. In this case, the control unit 46 extracts, for example, text data indicating the meaning of the voice uttered by the elderly C, text data indicating the state of the elderly C, and the like.

次いで、ステップS250では、制御部46は、通信部41を介して、ステップS248で抽出された情報を携帯端末20に送信する。その後は、ステップS244に戻る。なお、制御部46は、ステップS250の処理が実行されたタイミングで記憶部45に記憶したお年寄りCの顔データや、音声データからお年寄りCの癖や習慣(新たな癖や習慣)や、発音の変化をアップデートするようにしてもよい。   Next, in step S250, the control unit 46 transmits the information extracted in step S248 to the mobile terminal 20 via the communication unit 41. Thereafter, the process returns to step S244. In addition, the control part 46 is the elderly person C's face data memorize | stored in the memory | storage part 45 at the timing when the process of step S250 was performed, the elderly person's C habits and customs (new habits and habits) from voice data, You may make it update the change of pronunciation.

なお、サーバ40においてステップS250が行われると、携帯端末20を介して、装着装置10に上記情報が送信され(S212:肯定)、報知される(S214)。これにより、介護士Aが、お年寄りCの介護に不慣れな場合であっても、お年寄りCの発した音声の意味や、お年寄りの状態を認識できる。これにより、介護におけるコミュニケーションを促進することができる。なお、制御部46は、お年寄りCを顔認識した結果に基づいて、お年寄りCの好む話題(例えば、野菜ジュースが健康によい)や、食事の好き嫌いなどを介護士Aの装着装置10に対して報知するようにしてもよい。   In addition, if step S250 is performed in the server 40, the said information will be transmitted to the mounting apparatus 10 via the portable terminal 20 (S212: affirmation), and will be notified (S214). Thereby, even if caregiver A is not familiar with elderly C's care, he can recognize the meaning of the voice issued by elderly C and the state of the elderly. Thereby, communication in care can be promoted. Note that the control unit 46 gives the caregiver A wearing device 10 a topic that the elderly C prefers (for example, vegetable juice is good for health) and likes and dislikes meals based on the result of face recognition of the elderly C. You may make it alert | report to.

以上、詳細に説明したように、本第3の実施形態によると、制御部18は、マイク14に入力した音声データに関連する情報(音声の意味など)をサーバ40から取得し、該情報と、音声データの入力に応じて撮像部11により撮像された撮像データ(お年寄りCの顔の撮像データ)に応じた情報(お年寄りの状態を示す情報)と、を表示部12に表示する。これにより、介護士が必要とするお年寄りの情報を提供することができる。   As described above in detail, according to the third embodiment, the control unit 18 acquires information (such as the meaning of voice) related to the voice data input to the microphone 14 from the server 40, and The display unit 12 displays information (information indicating the state of the elderly) corresponding to the imaging data (imaging data of the face of the elderly C) captured by the imaging unit 11 in response to the input of the audio data. As a result, it is possible to provide information on elderly people that a caregiver needs.

なお、上記第3の実施形態では、介護において、電子機器システム100を用いる場合について説明したが、これに限られるものではない。例えば、保育園や幼稚園、小学校などにおいて、児童や生徒が発した音声の意味や、状態を認識するために電子機器システム100を用いることとしてもよい。   In the third embodiment, the case where the electronic device system 100 is used for nursing care has been described. However, the present invention is not limited to this. For example, the electronic device system 100 may be used for recognizing the meaning and state of a voice uttered by a child or student in a nursery school, a kindergarten, an elementary school, or the like.

《第4の実施形態》
次に、第4の実施形態について、図21〜図26に基づいて、詳細に説明する。図21には、本第4の実施形態に係る電子機器システム100’の構成が概略的に示されている。なお、本第4の実施形態では、電子機器システム100が、コンビニエンスストア(コンビニ)で利用される場合について説明する。
<< Fourth Embodiment >>
Next, a fourth embodiment will be described in detail based on FIGS. FIG. 21 schematically shows the configuration of an electronic device system 100 ′ according to the fourth embodiment. In the fourth embodiment, a case where the electronic device system 100 is used in a convenience store (convenience store) will be described.

図21に示すように、電子機器システム100’は、装着装置10と、レジ端末20’と、サーバ40と、を備える。   As shown in FIG. 21, the electronic device system 100 ′ includes a mounting device 10, a cash register terminal 20 ′, and a server 40.

装着装置10は、コンビニの店員が装着する装置であり、第2通信部17が省略されている点を除き、第1〜第3の実施形態の装着装置10と同様の構成となっている。ただし、電子機器システム100’が装着装置10を複数備える(利用する)場合には、装着装置10は、他の装着装置10と通信するための第2通信部17を備えていてもよい。   The mounting device 10 is a device worn by a clerk at a convenience store, and has the same configuration as the mounting device 10 of the first to third embodiments except that the second communication unit 17 is omitted. However, when the electronic device system 100 ′ includes (uses) a plurality of mounting apparatuses 10, the mounting apparatus 10 may include a second communication unit 17 for communicating with other mounting apparatuses 10.

レジ端末20’は、コンビニの店員が操作する端末であり、位置検出部25が省略されている点を除き、第1〜第3の実施形態の携帯端末20と同様の構成となっている。なお、図21では、レジ端末20’の一部の構成のみを図示している。したがって、レジ端末20’は、実際には、一般的なレジ機能(会計機能やレシートの印刷機能など)を備えているものとする。   The cash register terminal 20 ′ is a terminal operated by a store clerk at the convenience store, and has the same configuration as the portable terminal 20 of the first to third embodiments except that the position detection unit 25 is omitted. In FIG. 21, only a part of the configuration of the cashier terminal 20 'is illustrated. Accordingly, it is assumed that the cash register terminal 20 'actually has a general cash register function (such as an accounting function and a receipt printing function).

サーバ40は、第1〜第3の実施形態のサーバ40と同様の構成を有している。   The server 40 has the same configuration as the server 40 of the first to third embodiments.

次に、本実施形態における電子機器システム100の処理について、詳細に説明する。   Next, processing of the electronic device system 100 in the present embodiment will be described in detail.

(購入者及び購入情報関連付け処理)
以下、図22のフローチャートに沿って、購入者及び購入情報関連付け処理について説明する。なお、本処理は、商品の購入者(客)がレジで商品を購入する場合(店員が会計処理する場合)に実行される処理である。
(Purchaser and purchase information association processing)
The purchaser / purchase information association process will be described below with reference to the flowchart of FIG. This process is a process executed when the purchaser (customer) of the product purchases the product at the cash register (when the store clerk performs accounting processing).

図22の処理では、レジ端末20’の制御部24は、店員からレジ作業開始指示があるまで待機する(S302)。この場合、店員が名札に付されているバーコードをレジ端末20’に読み込ませるなどすることで、レジ作業開始指示が入力されると、制御部24は、ステップS304に移行する。ステップS304では、制御部24は、第1通信部21を介して撮像開始指示を装着装置10に送信する。その後は、ステップS306において、制御部24は、通常の会計処理(レジ打ち処理、レシートへの印刷処理等)を実行する。   In the process of FIG. 22, the control unit 24 of the cashier terminal 20 ′ waits until there is a cashier operation start instruction from the store clerk (S <b> 302). In this case, when a cashier operation start instruction is input by, for example, causing the store clerk to read the barcode attached to the name tag into the cashier terminal 20 ', the control unit 24 proceeds to step S304. In step S <b> 304, the control unit 24 transmits an imaging start instruction to the mounting apparatus 10 via the first communication unit 21. Thereafter, in step S306, the control unit 24 executes normal transaction processing (such as registering processing and printing on a receipt).

一方、装着装置10の制御部18は、ステップS320において、撮像開始指示があるまで待機している。したがって、レジ端末20’においてステップS304の処理が行われたタイミングで、制御部18は、ステップS322に移行し、撮像部11を用いた客の顔の撮像を実行する。次いで、ステップS324では、制御部18は、ステップS322で撮像した画像データを、第1通信部16を介してレジ端末20’に送信する。   On the other hand, the control unit 18 of the mounting apparatus 10 stands by until an imaging start instruction is issued in step S320. Therefore, at the timing when the processing of step S304 is performed at the cash register terminal 20 ', the control unit 18 proceeds to step S322 and executes imaging of the customer's face using the imaging unit 11. Next, in step S324, the control unit 18 transmits the image data captured in step S322 to the cashier terminal 20 'via the first communication unit 16.

これに対し、レジ端末20’の制御部24では、ステップS306の後、ステップS308において、画像データを受信するまで待機している。したがって、制御部24は、装着装置10においてステップS324の処理が実行されたタイミングで、ステップS310に移行する。ステップS310では、制御部24は、ステップS308で受信した画像データと、ステップS306で得られた会計データを、第2通信部22を介してサーバ40に送信する。   On the other hand, the control unit 24 of the cash register terminal 20 'waits until image data is received in step S308 after step S306. Therefore, the control unit 24 proceeds to step S310 at the timing when the process of step S324 is executed in the mounting apparatus 10. In step S <b> 310, the control unit 24 transmits the image data received in step S <b> 308 and the transaction data obtained in step S <b> 306 to the server 40 via the second communication unit 22.

サーバ40では、ステップS340において、制御部46は、レジ端末20’から画像データと会計データが送信されてくるまで待機している。したがって、制御部46は、レジ端末20’においてステップS310の処理が実行されたタイミングで、ステップS342に移行する。ステップS342では、制御部46は、画像認識部43や顔認識部44を用いて、受信した画像データから、客の性別・年齢の情報を抽出する。次いで、ステップS344では、制御部46は、性別・年齢の情報と、会計データと、購入日時等を紐付けて、記憶部45に記憶する。   In the server 40, in step S340, the control unit 46 stands by until image data and transaction data are transmitted from the cash register terminal 20 '. Therefore, the control unit 46 proceeds to Step S342 at the timing when the process of Step S310 is executed in the cash register terminal 20 '. In step S342, the control unit 46 uses the image recognition unit 43 and the face recognition unit 44 to extract information on the sex and age of the customer from the received image data. Next, in step S344, the control unit 46 associates the sex / age information, the accounting data, the purchase date and time, and stores them in the storage unit 45.

以上のように、図22の処理が実行されることで、どのような商品をどのような種別の客がいつ購入したかを自動的に収集することができる。これにより、店員はレジ端末20’に設けられたタッチパネル等を用いて客の属性等を入力する必要がなく、作業の手間を省くことが可能となる。   As described above, by executing the processing in FIG. 22, it is possible to automatically collect what products and what types of customers have purchased. This eliminates the need for the store clerk to input customer attributes and the like using a touch panel or the like provided on the cash register terminal 20 ′, thereby saving labor.

(客からの問い合わせに対する対応処理)
本第4の実施形態では、第2の実施形態と同様、客の質問や要望に対応するための情報をサーバ40から装着装置10に提供する。例えば、客が店員に対して“ビールはどこですか?”という質問をしたとする。この場合、客の音声データが、装着装置10からレジ端末20’を経由してサーバ40に送信され、サーバ40の制御部46は、音声データを音声認識して、質問に対する回答内容を記憶部45等から抽出して、装着装置10に送信する。そして、装着装置10の制御部18は、質問に対する回答内容を表示部12等に表示する。これにより、店員は、質問に対する回答内容を表示部12上で確認することができるので、業務に不慣れな店員(新人など)であっても、質問をした客に対して適切な回答を行うことが可能である。
(Processing for inquiries from customers)
In the fourth embodiment, as in the second embodiment, information for responding to a customer's question or request is provided from the server 40 to the mounting apparatus 10. For example, a customer asks a store clerk "Where is beer?" In this case, the customer's voice data is transmitted from the mounting apparatus 10 to the server 40 via the cash register terminal 20 ', and the control unit 46 of the server 40 recognizes the voice data and stores the answer content to the question. 45 and the like and transmitted to the mounting apparatus 10. And the control part 18 of the mounting apparatus 10 displays the reply content with respect to a question on the display part 12 grade | etc.,. As a result, the store clerk can check the content of the answer to the question on the display unit 12, so even a store clerk (such as a new employee) who is unfamiliar with the business must give an appropriate answer to the customer who asked the question. Is possible.

なお、客が外国人であり、客の言葉を店員が理解できないような場合であっても、サーバ40において客の音声を認識するとともに、自動翻訳を行い、その音声の内容や回答を装着装置10に送信するようにすることで、店員は、外国人の客に対応することも可能となる。なお、回答内容は、外国人客の言語をカタカナ等で表記することとしてもよい。店員は、カタカナ等で表記された文を読むことで、外国人客に対して、言葉で回答をすることができる。   Even if the customer is a foreigner and the store clerk cannot understand the customer's words, the server 40 recognizes the customer's voice and automatically translates the content and answer of the voice. By transmitting to 10, the store clerk can also handle foreign customers. In addition, the content of the answer may be written in the language of the foreign customer in katakana. By reading sentences written in katakana, etc., the clerk can reply to foreign customers in words.

また、例えば、店員が装着装置10のマイク14から特定の商品の在庫確認要求を音声にて入力したり、撮像部11を用いてバーコードや商品そのものあるいは商品の写真(チラシなど)を撮像することで、商品の在庫確認要求を入力することもできる。この場合、装着装置10からレジ端末20’を経由して在庫確認要求がサーバ40に送信されると、サーバ40の制御部46は、在庫確認要求に対する回答内容を記憶部45等から抽出して、装着装置10に送信する。なお、サーバ40の記憶部45には、コンビニ内の商品の管理情報が格納されており、制御部46は、在庫確認要求に基づいて管理情報を検索するものとする。そして、装着装置10の制御部18は、在庫確認要求に対する回答内容(在庫数、色違い、サイズ違いの在庫数、関連商品の在庫数、店頭在庫と陳列棚の位置、バックヤード位置など)を表示部12等に表示する。これにより、在庫確認要求を行った店員に対して適切な回答をすることができる。   In addition, for example, a store clerk inputs an inventory confirmation request for a specific product from the microphone 14 of the mounting apparatus 10 or captures a barcode, the product itself, or a photograph of the product (such as a flyer) using the imaging unit 11. Thus, it is possible to input a stock confirmation request for the product. In this case, when an inventory confirmation request is transmitted from the mounting apparatus 10 via the cash register terminal 20 ′ to the server 40, the control unit 46 of the server 40 extracts the response content to the inventory confirmation request from the storage unit 45 or the like. To the mounting apparatus 10. The storage unit 45 of the server 40 stores product management information in the convenience store, and the control unit 46 searches the management information based on the inventory confirmation request. Then, the control unit 18 of the mounting apparatus 10 displays the contents of the response to the inventory confirmation request (the number of stocks, the number of colors, the number of stocks of different sizes, the number of related products, the number of store inventory and display shelf positions, the backyard position, etc.). Displayed on the display unit 12 or the like. Thereby, an appropriate answer can be given to the store clerk who made the inventory check request.

なお、上記例においては、レジ端末20’を経由して、装着装置10とサーバ40が通信する場合について説明したが、これに限らず、レジ端末20’に代えて、第1〜第3の実施形態と同様、携帯端末20を用いることとしてもよい。また、装着装置10とサーバ40とが直接データの送受信を行える場合には、レジ端末20’を経由しなくてもよい。   In the above example, the case where the mounting apparatus 10 and the server 40 communicate via the cash register terminal 20 ′ has been described. However, the present invention is not limited to this, and instead of the cash register terminal 20 ′, first to third Similar to the embodiment, the mobile terminal 20 may be used. Further, when the mounting apparatus 10 and the server 40 can directly transmit and receive data, it is not necessary to go through the cash register terminal 20 '.

なお、店員が装着装置10を装着した状態で、店内を巡回している間に、撮像部11において画像を撮像し、撮像した画像をサーバ40に送信することとしてもよい。この場合、サーバ40では、撮像した画像を画像処理し、当該画像に基づいて抽出可能な情報を装着装置10等に提供することができる。例えば、撮像した画像から、消費期限を経過している商品が発見された場合には、その旨を装着装置10に通知することとしてもよい。また、撮像した画像から在庫が少なくなっている商品が発見され、かつ倉庫にも在庫がないような場合には、その旨を流通管理者に通知するようにしてもよい。   Note that while the store clerk is traveling around the store with the mounting device 10 mounted, the imaging unit 11 may capture an image and transmit the captured image to the server 40. In this case, the server 40 can perform image processing on the captured image and provide information that can be extracted based on the image to the mounting device 10 or the like. For example, when a product for which the expiration date has expired is found from the captured image, it may be notified to the mounting apparatus 10. In addition, when a product whose inventory is low is found from the captured image and there is no inventory in the warehouse, a notification to that effect may be sent to the distribution manager.

(コンビニ内装置の故障対応処理)
次に、客が利用するコンビニ内装置(例えば、図24(b)に示すようなコピー機200)において故障が発生し、その対応を店員が行う場合の処理について、図23のフローチャートに沿って説明する。
(Failure handling processing for devices in convenience stores)
Next, the processing in the case where a failure occurs in the in-convenience store apparatus (for example, the copy machine 200 as shown in FIG. 24B) used by the customer and the store clerk performs the countermeasure is described with reference to the flowchart of FIG. explain.

図23の説明の前提として、図24(a)に示すように、コピー機200の表示画面202にエラー情報が表示され、客が店員を呼んだものとする。   As a premise of the description of FIG. 23, it is assumed that error information is displayed on the display screen 202 of the copier 200 and a customer calls a store clerk as shown in FIG.

図23の処理では、装着装置10の制御部18は、ステップS402において、コピー機200のエラー情報が撮像されるまで待機する。装着装置10を装着する店員は、コピー機200にエラーが発生した場合に、そのコピー機200の表示画面202に表示されているエラー情報を撮像部11を用いて撮像する。このようにエラー情報の撮像が行われると、ステップS404において、制御部18は、第1通信部16を介して撮像データをレジ端末20’に送信する。   In the process of FIG. 23, the control unit 18 of the mounting apparatus 10 waits until error information of the copying machine 200 is imaged in step S402. When an error occurs in the copying machine 200, the store clerk who wears the mounting apparatus 10 images the error information displayed on the display screen 202 of the copying machine 200 using the imaging unit 11. When the error information is imaged in this way, in step S404, the control unit 18 transmits imaging data to the cashier terminal 20 'via the first communication unit 16.

これに対し、レジ端末20’の制御部24は、撮像データを受信するまで待機している(S420)ので、装着装置10においてステップS404の処理が行われたタイミングで、ステップS422に移行する。ステップS422に移行すると、制御部24は、第2通信部22を介して撮像データをサーバ40に送信する。   On the other hand, the control unit 24 of the cash register terminal 20 ′ is on standby until the imaging data is received (S <b> 420). Therefore, the process proceeds to step S <b> 422 at the timing when the process of step S <b> 404 is performed in the mounting apparatus 10. In step S 422, the control unit 24 transmits imaging data to the server 40 via the second communication unit 22.

一方、サーバ40では、ステップS440において、制御部46が撮像データを受信するまで待機しているので、レジ端末20’においてステップS422が実行されたタイミングで、制御部46は、ステップS442に移行する。   On the other hand, in the server 40, since it waits until the control part 46 receives imaging data in step S440, the control part 46 transfers to step S442 at the timing when step S422 was performed in cash register terminal 20 '. .

ステップS442では、制御部46は、記憶部45に記憶されている情報の中から、対応方法に関する情報を検索し、通信部41を介してレジ端末20’に送信する。ここで、記憶部45には、各エラー情報に対応するための対応方法(修理方法等)に関する情報が格納されている。したがって、制御部46は、エラー情報に含まれるエラーIDをキーとして対応方法に関する情報を検索することができる。なお、ここでは、検索された情報が“2番のドアを開けて、紙詰まりを確かめてください”であったとする。   In step S442, the control unit 46 searches the information stored in the storage unit 45 for information relating to the handling method, and transmits the information to the cashier terminal 20 'via the communication unit 41. Here, the storage unit 45 stores information on a handling method (such as a repair method) for handling each error information. Therefore, the control unit 46 can search for information on the handling method using the error ID included in the error information as a key. Here, it is assumed that the searched information is “Open door 2 and check for paper jam”.

ところで、レジ端末20’の制御部24は、ステップS422の後、ステップS424において、サーバ40から送信されてくる情報を受信するまで待機している。したがって、サーバ40においてステップS442の処理が実行されたタイミングで、制御部24は、ステップS426に移行する。ステップS426では、制御部24は、受信した情報を第1通信部21を介して装着装置10に送信する。   By the way, the control unit 24 of the cashier terminal 20 ′ waits until receiving information transmitted from the server 40 in step S <b> 424 after step S <b> 422. Accordingly, at the timing when the process of step S442 is executed in the server 40, the control unit 24 proceeds to step S426. In step S426, the control unit 24 transmits the received information to the mounting apparatus 10 via the first communication unit 21.

装着装置10の制御部18は、ステップS404の後、ステップS408において、レジ端末20’から送信されてくる情報を受信するまで待機している。したがって、レジ端末20’においてステップS426の処理が実行されたタイミングで、制御部18は、ステップS410に移行する。ステップS410では、制御部18は、表示部12を用いて、“2番のドアを開けて、紙詰まりを確かめてください”という操作に関する情報を表示する。なお、表示部12が視界全体又は視界中央の領域に情報を表示できる場合には、制御部18は、図24(b)の破線枠150内に示すように、矢印や実行すべき動作内容をAR表示してもよい。これにより、店員は直感的に実行すべき動作内容を確認することができる。   After step S404, the control unit 18 of the mounting apparatus 10 is on standby until information transmitted from the cashier terminal 20 'is received in step S408. Therefore, the control unit 18 proceeds to step S410 at the timing when the process of step S426 is executed in the cash register terminal 20 '. In step S <b> 410, the control unit 18 uses the display unit 12 to display information related to an operation “open the second door and check for paper jam”. When the display unit 12 can display information in the entire field of view or in the center of the field of view, the control unit 18 displays an arrow or an operation content to be executed as shown in a broken line frame 150 in FIG. You may display AR. Thereby, the store clerk can confirm the operation content which should be performed intuitively.

なお、コピー機以外にも、チケット発券機やATMなど、客が利用する装置が故障した場合に、上記処理により、店員は早急に故障対応することができる。   In addition to the copy machine, when a device used by a customer, such as a ticket issuing machine or an ATM, breaks down, the store clerk can quickly deal with the trouble by the above processing.

なお、上記においては、装着装置10は、コピー機200のエラー情報を表示画面を撮像することにより、取得する場合について説明したが、これに限られるものではない。例えば、装着装置10とコピー機200が近接通信等することで、装着装置10がエラー情報を取得し、コピー機200の画像データとともにサーバ40に向けて送信することとしてもよい。また、客の音声(例えば、“紙詰まりしました”や“用紙がありません”など)をマイク14を用いて集音して音声データを取得し、該音声データをコピー機200の画像データとともにサーバ40側に送信してもよい。このように音声データからエラー情報を取得しても、上記と同様の効果を得ることができる。   In the above description, the case where the mounting apparatus 10 acquires the error information of the copier 200 by imaging the display screen has been described. However, the present invention is not limited to this. For example, when the mounting apparatus 10 and the copy machine 200 perform close proximity communication or the like, the mounting apparatus 10 may acquire error information and transmit the error information to the server 40 together with the image data of the copy machine 200. Further, the voice of the customer (for example, “paper jammed” or “no paper”) is collected using the microphone 14 to obtain voice data, and the voice data is stored together with the image data of the copier 200 on the server. You may transmit to 40 side. Thus, even if error information is acquired from audio data, the same effect as described above can be obtained.

(強盗対応処理)
次に、コンビニ内に強盗などの怪しい人物が来た場合に通報する処理について、図25に基づいて説明する。
(Robbery handling processing)
Next, a process of reporting when a suspicious person such as a robber comes in a convenience store will be described with reference to FIG.

図25には、装着装置10の制御部18による処理が示されている。なお、図25の処理は、店員が業務を開始する旨を操作部13から入力したタイミングで開始される。   FIG. 25 shows processing by the control unit 18 of the mounting apparatus 10. The process of FIG. 25 is started at the timing when the store clerk inputs from the operation unit 13 that the business starts.

図25の処理では、まず、ステップS502において、制御部18は、撮像部11を用いて撮像を開始する。なお、ここでは、制御部18は、静止画像を所定間隔で撮像するものとする。ただし、これに限らず、制御部18は、動画を撮像することとしてもよい。   In the process of FIG. 25, first, in step S <b> 502, the control unit 18 starts imaging using the imaging unit 11. Here, it is assumed that the control unit 18 captures still images at predetermined intervals. However, the present invention is not limited to this, and the control unit 18 may capture a moving image.

次いで、ステップS504では、制御部18は、ステップS502において撮像された画像内に人が存在する場合に、該画像認識処理を実行する。次いで、ステップS506では、制御部18は、画像認識処理の結果、画像内の人が怪しい人物であるか否かを判断する。例えば、制御部18は、画像認識処理の結果、画像内の人がフルフェイスヘルメットを被っていたり、目出し帽を被っていたり、武器を保持していることが認識できた場合には、当該人は怪しい人物であるので、ステップS506の判断は肯定され、ステップS508に移行する。一方、ステップS506の判断が否定された場合には、ステップS502に戻る。   Next, in step S504, the control unit 18 executes the image recognition process when a person is present in the image captured in step S502. In step S506, the control unit 18 determines whether the person in the image is a suspicious person as a result of the image recognition process. For example, as a result of the image recognition process, the control unit 18 recognizes that a person in the image is wearing a full-face helmet, a balaclava, or holding a weapon. Since the person is a suspicious person, the determination in step S506 is affirmed, and the process proceeds to step S508. On the other hand, if the determination in step S506 is negative, the process returns to step S502.

ステップS508に移行すると、制御部18は、撮像部11を用いて動画像の録画を開始し、記憶部15に記憶する。次いで、ステップS510では、制御部18は、録画している動画と通報情報をレジ端末20’を介してサーバ40に送信する。なお、サーバ40は、動画と通報情報を警備会社のシステムに送信する。なお、本通報は、警備会社の担当者に出動準備を要請するための通報である。   In step S <b> 508, the control unit 18 starts recording a moving image using the imaging unit 11 and stores it in the storage unit 15. Next, in step S510, the control unit 18 transmits the recorded video and report information to the server 40 via the cash register terminal 20 '. The server 40 transmits the moving image and the report information to the security company system. This notification is for requesting the security company staff to prepare for dispatch.

次いで、ステップS512では、店員が操作部13を介して「問題なし」の情報を入力したか否かを判断する。ここでの判断が否定された場合、すなわち、怪しい人物が強盗などでない可能性が高い場合には、ステップS518に移行し、制御部18は、通報を解除する情報を、レジ端末20’を介してサーバ40に送信する。サーバ40は、該情報を警備会社のシステムに送信する。これにより、警備会社の担当者は、無駄な出動を行わずに済むことになる。   Next, in step S 512, it is determined whether or not the store clerk has input “no problem” information via the operation unit 13. If the determination here is negative, that is, if there is a high possibility that the suspicious person is not a robber or the like, the process proceeds to step S518, and the control unit 18 sends information for canceling the notification via the cash register terminal 20 ′. To the server 40. The server 40 transmits the information to the security company system. Thereby, the person in charge of the security company does not have to perform useless dispatch.

次いで、ステップS520では、制御部18は、記憶部15に記憶されている動画を削除する。その後は、ステップS502に戻る。なお、ステップS520の処理が行われるタイミングで、サーバ40の制御部46は、これまでに装着装置10(レジ端末20’)から受信し、記憶部45に格納した動画を削除することとしてもよい。   Next, in step S520, the control unit 18 deletes the moving image stored in the storage unit 15. Thereafter, the process returns to step S502. Note that at the timing when the process of step S520 is performed, the control unit 46 of the server 40 may delete the moving image received from the mounting device 10 (the cash register terminal 20 ′) and stored in the storage unit 45 so far. .

一方、ステップS512の判断が肯定された場合、ステップS514において制御部18は、「問題なし」が入力されずに所定時間が経過したか否かを判断する。ここでの判断が否定された場合には、ステップS512に戻るが、肯定された場合には、ステップS516に移行する。   On the other hand, when the determination in step S512 is affirmed, in step S514, the control unit 18 determines whether or not a predetermined time has passed without “no problem” being input. If the determination is negative, the process returns to step S512. If the determination is positive, the process proceeds to step S516.

ステップS516に移行すると、制御部18は、レジ端末20’を介してサーバ40に対し、通報が確定したという情報を送信する。サーバ40では、通報が確定したという情報を受信すると、該情報を警備会社のシステムに送信する。これにより、店員が入力等を一切行うことなく、警備会社に通報をすることができ、警備会社の担当者は出動することができる。なお、警備会社は、通報が確定した場合には、その情報を警察のシステムに送信することとしてもよい。   In step S516, the control unit 18 transmits information that the notification has been confirmed to the server 40 via the cash register terminal 20 '. When the server 40 receives the information that the report has been confirmed, the server 40 transmits the information to the security company system. As a result, the store clerk can make a report to the security company without any input and the person in charge of the security company can be dispatched. The security company may transmit the information to the police system when the report is confirmed.

なお、図25のステップS502〜S506の処理は、コンビニの店内に設置されている防犯カメラ180(図21の破線枠参照)において実行することとしてもよい。この場合、防犯カメラ180において怪しい人物が入店したことを検知した場合に、その情報が装着装置10に送信され、装着装置10において動画の録画が開始される(S508以降の処理が実行される)ようにすればよい。   Note that the processing in steps S502 to S506 in FIG. 25 may be executed in the security camera 180 (see the broken line frame in FIG. 21) installed in the convenience store. In this case, when it is detected by the security camera 180 that a suspicious person has entered the store, the information is transmitted to the mounting apparatus 10 and video recording is started in the mounting apparatus 10 (the processing after S508 is executed). )

なお、本例では、装着装置10からの通報がレジ端末20’及びサーバ40を介して警備会社のシステムに送信される場合について説明したが、これに限らず、装着装置10から直接警備会社のシステムに通報してもよい。また、装着装置10から警備会社が設置する防犯カメラ180を介して、警備会社のシステムに通報してもよい。   In this example, the case where the report from the mounting device 10 is transmitted to the security company system via the cash register terminal 20 ′ and the server 40 has been described. You may notify the system. Moreover, you may report to the system of a security company through the security camera 180 which a security company installs from the mounting apparatus 10. FIG.

なお、図25の処理とは別に、あるいは図25の処理と並行して、装着装置10の制御部18は、図26(b)の処理を実行することとしてもよい。なお、図26(b)の処理を実行する場合、装着装置10には、図26(a)に示すように、装着装置10が店員に装着されていることを検出するための接触センサ111や、装着装置10の加速度を検出する加速度センサ112が設けられているものとする。   In addition, the control part 18 of the mounting apparatus 10 is good also as performing the process of FIG.26 (b) separately from the process of FIG. 25 or in parallel with the process of FIG. When performing the process of FIG. 26B, the mounting device 10 includes a contact sensor 111 for detecting that the mounting device 10 is mounted on a store clerk, as shown in FIG. Assume that an acceleration sensor 112 that detects the acceleration of the mounting apparatus 10 is provided.

図26(b)の処理では、ステップS602において、制御部18は、装着装置10の装着状態が解除され、所定の加速度が検出されたか否かを判断する。ここでは、例えば、店員が強盗などに顔を殴られ、装着装置10が顔から外れ落ちたか否かを判断しているといえる。このステップS602の判断が否定された場合には、ステップS602の判断を繰り返すが、肯定された場合には、ステップS604に移行する。   In the process of FIG. 26B, in step S602, the control unit 18 determines whether or not the mounting state of the mounting apparatus 10 is released and a predetermined acceleration is detected. Here, for example, it can be said that the store clerk is scolded by a burglar or the like and judges whether or not the mounting device 10 has fallen off the face. If the determination in step S602 is negative, the determination in step S602 is repeated. If the determination is positive, the process proceeds to step S604.

ステップS604に移行すると、制御部18は、レジ端末20’及びサーバ40を介して、警備会社のシステムに通報する。なお、制御部18は、レジ端末20’及びサーバ40を介さずに、直接、警備会社のシステムに通報することとしてもよい。その後は、ステップS602に戻る。   In step S604, the control unit 18 notifies the security company system via the cash register terminal 20 'and the server 40. In addition, the control part 18 is good also as notifying the system of a security company directly not via the cashier terminal 20 'and the server 40. FIG. Thereafter, the process returns to step S602.

以上のように、制御部18は、図26(b)の処理を実行することで、装着装置10の状態から緊急事態と判断できる場合に、警備会社のシステムに対して自動的に通報することができる。これにより、強盗等に対する対応の迅速化を図ることができる。なお、図25のステップS602においては、制御部18は、装着装置10の装着状態が解除され、所定の加速度が検出され、かつ所定の音声(店員の音声である“痛い”や、“助けて”や、“通報しますよ”などの音声や、強盗の音声である“金を出せ”や、“大声を出すな”などの音声)がマイク14から入力された場合に、通報を行うこととしてもよい。   As described above, the control unit 18 automatically notifies the system of the security company when it can be determined from the state of the mounting device 10 that an emergency has occurred by executing the process of FIG. Can do. As a result, it is possible to speed up the response to a robbery or the like. In step S602 in FIG. 25, the control unit 18 releases the mounting state of the mounting device 10, detects a predetermined acceleration, and detects a predetermined voice ("pain" that is a voice of a store clerk or "help"). ”Or“ I ’ll report you ”, or the voice of a burglar, like“ Take out money ”or“ Do not scream ”, etc.) It is good.

なお、図26(b)の処理では、装着装置10と防犯カメラ180が常時通信し、装着装置10が破壊されることで、通信が途切れた場合に、防犯カメラ180から警備会社のシステムに対して自動的に通報することとしてもよい。あるいは、防犯カメラ180が破壊され、通信が途切れた場合に、装着装置10から警備会社のシステムに向けて通報を行うこととしてもよい。   In the process of FIG. 26 (b), when the mounting device 10 and the security camera 180 always communicate with each other, and the communication is interrupted due to the mounting device 10 being destroyed, the security camera 180 sends the security system to the security company system. It is also possible to report automatically. Or when the security camera 180 is destroyed and communication is interrupted, it is good also as making a report from the mounting apparatus 10 toward the system of a security company.

以上、詳細に説明したように、本第4の実施形態によると、装着装置10は、撮像部11と、レジ端末20’やサーバ40と通信可能な第1通信部16と、撮像部11により商品を撮像したことに応じて、商品の在庫、サイズ、期限の少なくとも1つに関する情報を第1通信部16を介してレジ端末20’やサーバ40から取得する制御部18とを備えているので、商品を撮像することにより、商品に関する情報を迅速に取得し、客等に回答することができる。   As described above in detail, according to the fourth embodiment, the mounting apparatus 10 includes the imaging unit 11, the first communication unit 16 that can communicate with the cash register terminal 20 ′ and the server 40, and the imaging unit 11. Since it has the control part 18 which acquires the information regarding at least one of stock, size, and a time limit of goods from the cash register terminal 20 'or the server 40 via the 1st communication part 16 according to having imaged goods. By imaging the product, it is possible to quickly obtain information about the product and reply to customers.

また、本第4の実施形態によると、マイク14が音声データを取得し、該音声データを第1通信部16を介してレジ端末20’やサーバ40に送信し、音声データに対する受け答えに関する情報(客の問い合わせに対応するための情報)を第1通信部16を介して取得する。これにより、問い合わせ内容に基づいて、在庫等を調べたりしなくても、簡易に問い合わせに対する回答を行うことができる。   Further, according to the fourth embodiment, the microphone 14 acquires voice data, transmits the voice data to the cash register terminal 20 ′ and the server 40 via the first communication unit 16, and information on the response to the voice data ( Information for responding to customer inquiries) is acquired via the first communication unit 16. As a result, it is possible to simply answer the inquiry based on the contents of the inquiry without checking the stock or the like.

また、本第4の実施形態によると、サーバ40において、外国語が自動翻訳されるので、店員は、簡易に、外国語の音声の意味内容を知ったり、外国語による問い合わせに対する回答を行ったりすることができる。   Further, according to the fourth embodiment, since the foreign language is automatically translated in the server 40, the store clerk can easily know the meaning content of the foreign language voice or answer the inquiry in the foreign language. can do.

また、本第4の実施形態では、撮像部11が、コピー機200などの装置を撮像し、第1通信部16が、撮像部11が撮像した画像をレジ端末20(サーバ40)に送信するとともに、コピー機などの装置の操作に関する情報を受信し、制御部18は、受信した情報を表示部12に表示する。これにより、装着装置10を装着する店員は、コピー機200などの装置を撮像部11を用いて撮像することで、装置の操作に関する情報を簡易に知得することができる。   In the fourth embodiment, the imaging unit 11 images a device such as the copy machine 200, and the first communication unit 16 transmits the image captured by the imaging unit 11 to the cash register terminal 20 (server 40). At the same time, information related to the operation of a device such as a copier is received, and the control unit 18 displays the received information on the display unit 12. As a result, the store clerk who wears the mounting apparatus 10 can easily acquire information related to the operation of the apparatus by imaging the apparatus such as the copy machine 200 using the imaging unit 11.

なお、上記第4の実施形態では、装着装置10を店員が装着する場合について説明したが、これに限らず、装着装置10は、例えば、買い物をする客や、コピー機等の装置を利用する人が装着してもよい。例えば、買い物をする客が装着する場合、撮像部11を用いて撮像した商品に関連する情報(例えば、商品の在庫やサイズ、期限とは異なる情報)をサーバ40が提供することとしてもよい。この場合、装着装置10の識別情報や客の識別情報をサーバ40に送付するようにすることで、サーバ40は、客に応じて適切な情報を抽出し、提供することが可能である。   In the fourth embodiment, the case where the store clerk wears the mounting device 10 has been described. However, the present invention is not limited to this, and the mounting device 10 uses, for example, a customer who makes a purchase or a device such as a copy machine. It may be worn by a person. For example, when a shopping customer wears, the server 40 may provide information related to the product imaged using the imaging unit 11 (for example, information different from the inventory, size, and expiration date of the product). In this case, by sending the identification information of the mounting apparatus 10 and the customer identification information to the server 40, the server 40 can extract and provide appropriate information according to the customer.

なお、上記実施形態では、コピー機200が故障した際に、装着装置10はサーバ40に対して操作に関する情報を問い合わせる場合について説明したが、これに限らず、装着装置10は、故障したコピー機200そのものに対して問い合わせることとしてもよい。この場合、コピー機200において操作に関する情報を保持しておけばよい。   In the above-described embodiment, a case has been described in which the mounting apparatus 10 inquires of the server 40 about operation information when the copy machine 200 fails. However, the present invention is not limited thereto, and the mounting apparatus 10 may It is also possible to make an inquiry to 200 itself. In this case, information related to the operation may be held in the copier 200.

なお、上記第4の実施形態では、コンビニを例にとり説明したが、これに限らず、その他の店舗、サービス業においても利用することができる。   In the fourth embodiment, a convenience store has been described as an example. However, the present invention is not limited to this and can be used in other stores and service industries.

なお、上記各実施形態は、撮像部11が装着装置10に設けられ、人体に装着可能である場合について説明したが、これに限らず、撮像部11は、手持ち可能であってもよい。   In each of the above embodiments, the case where the imaging unit 11 is provided in the mounting device 10 and can be mounted on a human body has been described. However, the present invention is not limited thereto, and the imaging unit 11 may be handheld.

なお、装着装置10は、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。   Note that the wearing device 10 may not be a glasses-type terminal. For example, it may be a wearable terminal that can be worn at any position on the body, and some of its functions may be separated. As an example, a wristwatch type terminal may have other functions as a contact lens type terminal provided with a display unit.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、第1の実施形態から第4の実施形態を適宜組み合わせたり、変形させてもよく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and the first to fourth embodiments may be appropriately combined or modified, and various modifications can be made without departing from the scope of the present invention.

10 装着装置
11 撮像部
12 表示部
14 マイク
16 第1通信部
18 制御部
20 携帯端末
20’ レジ端末
40 サーバ
41 通信部
45 記憶部
46 制御部
100 電子機器システム
110 フレーム
111 接触センサ
112 加速度センサ
180 防犯カメラ
200 コピー機
DESCRIPTION OF SYMBOLS 10 Mounting apparatus 11 Imaging part 12 Display part 14 Microphone 16 1st communication part 18 Control part 20 Portable terminal 20 'Cash register terminal 40 Server 41 Communication part 45 Storage part 46 Control part 100 Electronic device system 110 Frame 111 Contact sensor 112 Acceleration sensor 180 Security camera 200 Copy machine

Claims (13)

第1外部機器から音声データを入力する入力部と、
前記入力部が入力した音声データに関連する画像データを前記第1外部機器に送信するか、前記第1外部機器とは異なる第2外部機器に送信するかを判断する判断部と、を備えた電子機器。
An input unit for inputting audio data from the first external device;
A determination unit that determines whether image data related to audio data input by the input unit is transmitted to the first external device or a second external device different from the first external device; Electronics.
前記画像データに付随する情報を抽出する抽出部を備えた請求項1に記載の電子機器。   The electronic apparatus according to claim 1, further comprising an extraction unit that extracts information accompanying the image data. 前記判断部は、前記抽出部が抽出した情報を送信するかどうかを判断する請求項2に記載の電子機器。   The electronic device according to claim 2, wherein the determination unit determines whether to transmit the information extracted by the extraction unit. 前記画像データを送信する前記第1外部機器又は前記第2外部機器のユーザを特定する特定部を備え、
前記判断部は、前記特定部が特定したユーザに応じて、前記抽出部が抽出した情報の少なくとも一部を送信するかどうかを判断する請求項3に記載の電子機器。
A specifying unit for specifying a user of the first external device or the second external device that transmits the image data;
The electronic device according to claim 3, wherein the determination unit determines whether to transmit at least a part of the information extracted by the extraction unit according to a user specified by the specification unit.
前記特定部は、前記ユーザに関する情報を記憶する記憶部を備え、
前記判断部は、前記記憶部に記憶された前記ユーザに関する情報に応じて、前記抽出部が抽出した情報の少なくとも一部を送信するかどうかを判断する請求項4に記載の電子機器。
The specifying unit includes a storage unit that stores information about the user,
The electronic device according to claim 4, wherein the determination unit determines whether to transmit at least a part of the information extracted by the extraction unit in accordance with information about the user stored in the storage unit.
前記第1外部機器と前記第2外部機器とに前記画像データを送信可能な送信部を備えた請求項1〜5のいずれか一項に記載の電子機器。   The electronic device according to claim 1, further comprising a transmission unit capable of transmitting the image data to the first external device and the second external device. 前記判断部は、前記送信部が前記画像データを送信するタイミングを判断する請求項6に記載の電子機器。   The electronic device according to claim 6, wherein the determination unit determines a timing at which the transmission unit transmits the image data. 前記送信部が前記画像データを送信した後に、前記音声データの削除を指示する指示部を備えた請求項6または7記載の電子機器。   8. The electronic apparatus according to claim 6, further comprising an instruction unit that instructs to delete the audio data after the transmission unit transmits the image data. ユーザに関するデータを記憶する記憶部と、
前記ユーザの音声データと画像データとの少なくとも一方を入力する入力部と、
前記入力部が前記音声データと前記画像データとの少なくとも一方を入力した際に、前記記憶部に記憶されたデータを選択して送信する送信部と、を備えた電子機器。
A storage unit for storing data about the user;
An input unit for inputting at least one of the user's voice data and image data;
An electronic apparatus comprising: a transmission unit that selects and transmits data stored in the storage unit when the input unit inputs at least one of the audio data and the image data.
前記入力部は、外部機器から前記音声データと前記画像データとの少なくとも一方を入力し、
前記送信部は、前記外部機器への送信の履歴から前記データを選択して送信する請求項9に記載の電子機器。
The input unit inputs at least one of the audio data and the image data from an external device,
The electronic device according to claim 9, wherein the transmission unit selects and transmits the data from a history of transmission to the external device.
前記入力部は、外部機器から前記音声データと前記画像データとの少なくとも一方を入力し、
前記送信部は、前記外部機器の認識結果に応じて前記データを選択して送信する請求項9に記載の電子機器。
The input unit inputs at least one of the audio data and the image data from an external device,
The electronic device according to claim 9, wherein the transmission unit selects and transmits the data according to a recognition result of the external device.
音声データと画像データとの少なくとも一方を入力する入力部と、
前記入力部が入力した前記音声データ及び前記画像データの少なくとも一方に基づいて、報知する情報及び報知する条件を決定する決定部と、
前記決定部が決定した条件を満たしたときに前記情報を報知する報知部と、を備えた電子機器。
An input unit for inputting at least one of audio data and image data;
A determination unit for determining information to be notified and a condition for notification based on at least one of the audio data and the image data input by the input unit;
An electronic device comprising: a notification unit that notifies the information when a condition determined by the determination unit is satisfied.
コンピュータに、
ユーザに関するデータを記憶させるステップと、
前記ユーザの音声データと画像データとを入力させるステップと、
前記音声データと前記画像データとを入力した際に、記憶された前記ユーザに関するデータを選択して送信するステップと、を実行させるプログラム。

On the computer,
Storing data about the user;
Inputting the user's voice data and image data;
And a step of selecting and transmitting the stored data relating to the user when the audio data and the image data are input.

JP2014102711A 2014-05-16 2014-05-16 Electronic apparatus and program Pending JP2015219717A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014102711A JP2015219717A (en) 2014-05-16 2014-05-16 Electronic apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014102711A JP2015219717A (en) 2014-05-16 2014-05-16 Electronic apparatus and program

Publications (1)

Publication Number Publication Date
JP2015219717A true JP2015219717A (en) 2015-12-07

Family

ID=54779033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014102711A Pending JP2015219717A (en) 2014-05-16 2014-05-16 Electronic apparatus and program

Country Status (1)

Country Link
JP (1) JP2015219717A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11165986B2 (en) 2019-04-18 2021-11-02 Canon Kabushiki Kaisha Data transfer apparatus and control method thereof
US11445144B2 (en) 2017-12-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device for linking music to photography, and control method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445144B2 (en) 2017-12-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device for linking music to photography, and control method therefor
US11165986B2 (en) 2019-04-18 2021-11-02 Canon Kabushiki Kaisha Data transfer apparatus and control method thereof

Similar Documents

Publication Publication Date Title
US9986419B2 (en) Social reminders
US11093995B2 (en) Monitoring of customer consumption activity and management based on monitoring
JP6621033B2 (en) Age confirmation system and shopping support system equipped with the same
JP2010519656A (en) Remote object recognition
US20070144835A1 (en) Wireless electronic menu device and ordering system containing the same device
JP6185216B1 (en) Information providing system, information providing apparatus, information providing method, and program
US20150242833A1 (en) Information processing device and screen setting method
JP6302567B2 (en) Food management system, refrigerator, server, refrigerator control method, and server control method
JP5142306B1 (en) Product information providing system, product information providing device, and product information output device
JP2021157840A (en) Customer call system
JP2017041120A (en) Information processing device, information processing system, information processing method and program
JP2015220597A (en) Electronic apparatus and program
JP2016200666A (en) Merchandise explanation system for visually challenged person
US20110055027A1 (en) Cooking assistance terminal, wearable cooking assitance terminal and method
JP2011076323A (en) Ordering management device, ordering management system and control program
JP2015219717A (en) Electronic apparatus and program
TW201237658A (en) Input device, input system and computer readable medium
JP2015220596A (en) Electronic apparatus
JP2011118684A (en) Cooking assisting terminal and program
JP2014109910A (en) Merchandise information providing system, merchandise information providing device and merchandise information output device
JP7363163B2 (en) Monitoring device, monitoring method, program, and monitoring system
WO2018088062A1 (en) Age verification system and shopping assistance system comprising same
JP2019185250A (en) Consumer goods procurement support system
JP6180344B2 (en) Shopping support device and program
JP6196079B2 (en) Shopping support system