JP2012185303A - Information processor and program - Google Patents

Information processor and program Download PDF

Info

Publication number
JP2012185303A
JP2012185303A JP2011048093A JP2011048093A JP2012185303A JP 2012185303 A JP2012185303 A JP 2012185303A JP 2011048093 A JP2011048093 A JP 2011048093A JP 2011048093 A JP2011048093 A JP 2011048093A JP 2012185303 A JP2012185303 A JP 2012185303A
Authority
JP
Japan
Prior art keywords
information
attribute
voice
person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011048093A
Other languages
Japanese (ja)
Inventor
Masahito Sano
雅仁 佐野
Kiyomitsu Yamaguchi
清充 山口
Koji Kurosawa
幸次 黒沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2011048093A priority Critical patent/JP2012185303A/en
Publication of JP2012185303A publication Critical patent/JP2012185303A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform effective presentation of information by recognizing the age and sexuality (attribute) of a person to produce a performance effect by voice and movement.SOLUTION: An information processor includes attribute determination means for determining the attribute of a person and information output means for outputting guidance information by voice for assisting user's operation for executing various processing, with the voice projection of the guidance information being changed according to the attribute of a person determined by the attribute determination means.

Description

本発明の実施形態は、情報処理装置およびプログラムに関する。   Embodiments described herein relate generally to an information processing apparatus and a program.

従来、ユーザと対面した状態で、案内、宣伝、勧誘、応答などを行う情報端末が知られている。   2. Description of the Related Art Conventionally, information terminals that perform guidance, advertisement, solicitation, response, and the like while facing a user are known.

ところで、上述したような情報端末では、対面したユーザの性別などの属性にかかわらず画一的な案内、宣伝、勧誘、応答などを行っている。   By the way, in the information terminal as described above, uniform guidance, advertisement, solicitation, response, and the like are performed regardless of the attributes such as the sex of the facing user.

このように対面したユーザの性別などの属性にかかわらず画一的な案内、宣伝、勧誘、応答などを行った場合、ユーザに対して決して効果的なものではないという問題がある。   Thus, there is a problem that when uniform guidance, advertisement, solicitation, response, etc. are performed regardless of attributes such as the gender of the user who faced, it is not effective for the user.

実施形態の情報処理装置は、人物の属性を判別する属性判別手段と、各種処理を実行するためのユーザ操作をアシストするための音声によるガイダンス情報を、前記属性判別手段によって判別された前記人物の属性に応じて口跡を変化させて出力する情報出力手段と、を備える。   The information processing apparatus according to the embodiment includes an attribute determination unit that determines an attribute of a person, and voice guidance information for assisting a user operation for performing various processes. And an information output means for changing the mouth according to the attribute and outputting the information.

実施形態のプログラムは、情報処理装置を制御するコンピュータを、人物の属性を判別する属性判別手段と、各種処理を実行するためのユーザ操作をアシストするための音声によるガイダンス情報を、前記属性判別手段によって判別された前記人物の属性に応じて口跡を変化させて出力する情報出力手段と、として機能させる。   The program according to the embodiment includes a computer that controls the information processing apparatus, an attribute determination unit that determines a person's attribute, and voice guidance information that assists a user operation for performing various processes. And functioning as information output means for changing the mouth according to the attribute of the person determined by the above and outputting it.

図1は、実施形態にかかる情報処理装置の外観を示す斜視図である。FIG. 1 is a perspective view illustrating an appearance of the information processing apparatus according to the embodiment. 図2は、情報提供装置の電装系の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the electrical system of the information providing apparatus. 図3は、アシスト装置の構成を機能的に示すブロック図である。FIG. 3 is a block diagram functionally showing the configuration of the assist device. 図4は、人物判別部の構成を機能的に示すブロック図である。FIG. 4 is a block diagram functionally showing the configuration of the person determination unit. 図5は、音声ガイダンスの一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of voice guidance. 図6は、属性にあわせた声色や言い回しの設定の一例を示す模式図である。FIG. 6 is a schematic diagram showing an example of voice color and wording settings according to attributes. 図7は、情報処理装置の言語切替処理を示す模式図である。FIG. 7 is a schematic diagram illustrating language switching processing of the information processing apparatus. 図8は、言語切替処理における機能構成を示す機能ブロック図である。FIG. 8 is a functional block diagram showing a functional configuration in the language switching process. 図9は、言語切替処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing the flow of language switching processing. 図10は、属性にあわせた宣伝コンテンツの設定の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of setting of advertising content according to attributes.

図1は、実施形態にかかる情報処理装置1の外観を示す斜視図である。この情報処理装置1は、ショッピングセンターなどで利用されるものであって、例えば顧客と対面した状態で、案内、宣伝、勧誘、応答などを2ヶ国語以上の言語で行う情報端末(サイネージ)である。なお、情報処理装置1は必ずしも顧客と向かい合っている状態である必要はなく、後述する人物判別部(属性判別手段)によって属性判別が可能な状態であれば足りる。このような情報処理装置1は、顧客に対する種々の情報の提供を簡易な操作で可能にした情報提供装置2と、当該情報提供装置2に対する顧客の操作をアシスト(支援)するアシスト(支援)装置3と、を備えている。   FIG. 1 is a perspective view illustrating an appearance of an information processing apparatus 1 according to the embodiment. The information processing apparatus 1 is used in a shopping center or the like, and is an information terminal (signage) that performs guidance, advertisement, solicitation, response, etc. in two or more languages while facing a customer, for example. is there. Note that the information processing apparatus 1 does not necessarily have to face the customer as long as the attribute can be determined by a person determination unit (attribute determination unit) described later. Such an information processing apparatus 1 includes an information providing apparatus 2 that enables various information to be provided to a customer with a simple operation, and an assist apparatus that assists (supports) the customer's operation on the information providing apparatus 2. 3 is provided.

まず、情報提供装置2について説明する。情報提供装置2は、例えばポイントサービス装置として機能する。図1に示すように、情報提供装置2は、筐体4の上面にアシスト装置3を載置している。なお、情報提供装置2の筐体4の上面には、アシスト装置3を充電するための充電ステーション(図示せず)が設けられている。   First, the information providing apparatus 2 will be described. The information providing device 2 functions as a point service device, for example. As shown in FIG. 1, the information providing device 2 has an assist device 3 placed on the upper surface of the housing 4. Note that a charging station (not shown) for charging the assist device 3 is provided on the upper surface of the housing 4 of the information providing device 2.

また、情報提供装置2は、筐体4に、所定の情報をカラー画像で表示可能なLCD(Liquid Crystal Display:液晶ディスプレイ)や有機ELディスプレイなどで構成された表示装置5、この表示装置5の表示面に重ねて配置されるものであって例えば抵抗膜式のタッチパネル6、非接触型無線ICカードである会員カードや携帯電話との間でデータの授受を行うカードリーダライタ7、後述する割引券や景品引換券等を発行するための発行口8等を備えている。カードリーダライタ7は、非接触ICカードや携帯電話と無線通信を確立し、非接触ICカードや携帯電話に対して情報を読み書きする。非接触ICカードや携帯電話は、一例として現金と等価な価値を有する電子マネーや会員番号を記憶保存することが可能である。図1中、カードリーダライタ7の内部に図示しないアンテナが内蔵され、このアンテナを介して非接触ICカードや携帯電話との間の無線通信が確立される。   In addition, the information providing device 2 includes a display device 5 constituted by an LCD (Liquid Crystal Display) or an organic EL display capable of displaying predetermined information in a color image on the housing 4, and the display device 5. For example, a resistive touch panel 6, a card reader / writer 7 for exchanging data with a membership card or a mobile phone as a non-contact type wireless IC card, a discount which will be described later. An issuing port 8 for issuing tickets, gift vouchers and the like is provided. The card reader / writer 7 establishes wireless communication with a non-contact IC card or a mobile phone, and reads / writes information from / to the non-contact IC card or the mobile phone. As an example, a non-contact IC card or a mobile phone can store and save electronic money or a membership number having a value equivalent to cash. In FIG. 1, an antenna (not shown) is built in the card reader / writer 7, and wireless communication with a non-contact IC card or a mobile phone is established through this antenna.

このような情報提供装置2の電装系は図2に示すように構成されている。ここで、図2は情報提供装置2の電装系の構成を示すブロック図である。   Such an electrical system of the information providing apparatus 2 is configured as shown in FIG. Here, FIG. 2 is a block diagram showing the configuration of the electrical system of the information providing apparatus 2.

図2に示すように、情報提供装置2は、CPU(Central Processing Unit)、制御プログラムを格納するROM(Read Only Memory)、RAM(Random Access Memory)等で構成されるコンピュータ構成の情報提供制御部11と、不揮発性ROMやHDD(Hard Disk Drive)等で構成されるメモリ部12とを保有し、バス13を介して接続された通信部14を介してアシスト装置3との間で相互にオンライン通信を実行し得るように構成されている。   As shown in FIG. 2, the information providing apparatus 2 includes an information provision control unit having a computer configuration including a CPU (Central Processing Unit), a ROM (Read Only Memory) storing a control program, a RAM (Random Access Memory), and the like. 11 and a memory unit 12 composed of a nonvolatile ROM, HDD (Hard Disk Drive), etc., and online with each other via the communication unit 14 connected via the bus 13. It is comprised so that communication can be performed.

また、情報提供制御部11には、バス13及びI/O機器制御部15を介して、前述した表示装置5、タッチパネル6、カードリーダライタ7が接続され、さらに、プリンタ9が接続されている。このプリンタ9は筐体4に内蔵され、情報提供制御部11の制御によって、例えば割引券や景品引換券等を印刷し発行口8から発行する。表示装置5は、情報提供制御部11の制御によって、ユーザに対する可視的なガイダンス情報として画像やメッセージを表示する。   The information providing control unit 11 is connected to the display device 5, the touch panel 6, and the card reader / writer 7 through the bus 13 and the I / O device control unit 15, and further connected to the printer 9. . The printer 9 is built in the housing 4, and prints a discount ticket, a gift voucher, etc. and issues it from the issuing port 8 under the control of the information providing control unit 11. The display device 5 displays an image or a message as visible guidance information for the user under the control of the information provision control unit 11.

そして、情報提供制御部11は、CPUがROMの制御プログラムに従って動作することにより、顧客によりカードリーダライタ7にかざされた非接触ICカードや携帯電話から会員番号を取得すると、ポイント加算処理を実行する。ポイント加算処理は、一般的なポイントサービスに加え、商品の買上げに関係なく顧客が来店するだけで所定のポイントを顧客に付与する来店ポイントサービスも含む。通常、来店ポイントサービスは、来店した顧客が一日一回だけ受けられるサービスである。また、ポイント加算処理は、抽選、例えばスロットゲーム等を実行して抽選結果に応じた来店ポイントを顧客に付与することも可能である。そして、情報提供制御部11は、ポイント加算処理の結果として一定のポイント数に達した場合には、割引券や景品引換券等を発行する。   Then, when the CPU obtains a membership number from a non-contact IC card or a mobile phone held by the customer over the card reader / writer 7 by the CPU operating according to the ROM control program, the information provision control unit 11 executes point addition processing. To do. The point addition process includes, in addition to a general point service, a store visit point service in which a predetermined point is given to a customer only by the customer visiting the store regardless of the purchase of the product. Usually, the store visit point service is a service that a customer who visits a store can receive only once a day. In addition, the point addition processing can also execute a lottery, for example, a slot game or the like, and give store visit points according to the lottery result to the customer. And the information provision control part 11 issues a discount ticket, a gift voucher, etc., when a fixed point number is reached as a result of the point addition process.

続いて、アシスト装置3について説明する。ここで、図3はアシスト装置3の構成を機能的に示すブロック図である。図1及び図3に示すように、アシスト装置3は、主に、自身の外郭を形成する筐体21と、駆動源となるバッテリ22等とを備えている。ここで、アシスト装置3は、外部から電源を供給するための配線を持たず、上記バッテリ22で動作する。つまり、アシスト装置3は、情報提供装置2の筐体4の上面に設置された充電ステーション(図示せず)の充電用の電極に対し、自身のバッテリ22を接触させることで、自動充電を行うように構成されている。   Next, the assist device 3 will be described. Here, FIG. 3 is a block diagram functionally showing the configuration of the assist device 3. As shown in FIG.1 and FIG.3, the assist apparatus 3 is mainly provided with the housing | casing 21 which forms its outer shell, the battery 22 etc. which become a drive source. Here, the assist device 3 does not have wiring for supplying power from the outside, and operates with the battery 22. That is, the assist device 3 performs automatic charging by bringing its own battery 22 into contact with a charging electrode of a charging station (not shown) installed on the upper surface of the housing 4 of the information providing device 2. It is configured as follows.

さらに、アシスト装置3は、図1及び図3に示すように、筐体21の外側部分に、カメラ部23と、マイク24と、スピーカ25と、通信部26と、操作部27とを備え、筐体21の内部に、画像処理部28と、人物判別部29と、音声認識部30と、動作制御部31と、記憶部32と、これらのハードウェアを統括的に制御する統括制御部33とを備える。統括制御部33は、CPU、制御プログラムを格納するROM、RAM等で構成されるコンピュータ構成となっている。   Furthermore, as shown in FIG.1 and FIG.3, the assist apparatus 3 is provided with the camera part 23, the microphone 24, the speaker 25, the communication part 26, and the operation part 27 in the outer part of the housing | casing 21, Inside the housing 21, an image processing unit 28, a person determination unit 29, a voice recognition unit 30, an operation control unit 31, a storage unit 32, and an overall control unit 33 that controls these hardware in an integrated manner. With. The overall control unit 33 has a computer configuration including a CPU, a ROM that stores a control program, a RAM, and the like.

なお、アシスト装置3は、ROMにプログラムが記憶された状態にて販売や譲渡がなされても良いし、記憶媒体に記憶された状態や通信回線を介した通信により販売または譲渡されたプログラムが任意にアシスト装置3にインストールされても良い。なお、上記の記憶媒体としては、磁気ディスク、光磁気ディスク、光ディスク、あるいは半導体メモリなどのあらゆる種類のものを利用できる。   The assist device 3 may be sold or transferred in a state where the program is stored in the ROM, or the program stored or transferred in the state stored in the storage medium or by communication via the communication line is arbitrary. May be installed in the assist device 3. As the above storage medium, any type of media such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory can be used.

カメラ部23は、CCDセンサなどの撮像素子を有したものであって、アシスト装置3の周囲の状況を撮像する。画像処理部28は、カメラ部23によって撮像された映像を画像処理してデジタル画像に変換する。   The camera unit 23 has an image sensor such as a CCD sensor, and images the situation around the assist device 3. The image processing unit 28 performs image processing on the video captured by the camera unit 23 and converts it into a digital image.

人物判別部29は、属性判別手段として機能するものであって、画像処理部28によって処理された画像から情報処理装置1の前に立つ人物の年齢及び性別を判別する。人物の年齢及び性別の判別手法としては、例えば特開2005−165447号公報に開示された技術を用いることができる。概略的には、図4に示すように、人物判別部29は、顔領域検出部51、顔特徴抽出部52、個人顔特徴作成部53、顔特徴保持部54、照合演算部55、判別部56、結果出力部57を有している。なお、人物判別部29は、統括制御部33のCPUがプログラムに従って実行することによって実現されるものであっても良い。   The person determination unit 29 functions as an attribute determination unit, and determines the age and sex of a person standing in front of the information processing apparatus 1 from the image processed by the image processing unit 28. As a technique for discriminating the age and sex of a person, for example, the technique disclosed in Japanese Patent Laid-Open No. 2005-165447 can be used. 4, the person determination unit 29 includes a face area detection unit 51, a face feature extraction unit 52, a personal face feature creation unit 53, a face feature holding unit 54, a collation calculation unit 55, and a determination unit. 56 and a result output unit 57. The person determination unit 29 may be realized by the CPU of the overall control unit 33 being executed according to a program.

顔領域検出部51は、画像処理部28により入力された画像から人物の顔領域を検出する。顔特徴抽出部52は、顔領域検出部51により検出された顔領域内の顔の特徴情報を抽出する。   The face area detection unit 51 detects a human face area from the image input by the image processing unit 28. The face feature extraction unit 52 extracts face feature information in the face area detected by the face area detection unit 51.

個人顔特徴作成部53は、あらかじめ男女別の幅広い年齢層の人物から個人の顔の特徴情報を作成する。顔特徴保持部54は、個人顔特徴作成部53により作成された複数の個人顔特徴情報を、当該個人顔特徴情報を取得した人物の年齢情報および性別情報と対応させて記憶(保持)している。   The personal face feature creation unit 53 creates personal face feature information in advance from persons of a wide age group by gender. The face feature holding unit 54 stores (holds) a plurality of pieces of personal face feature information created by the personal face feature creation unit 53 in association with the age information and gender information of the person who acquired the personal face feature information. Yes.

照合演算部55は、顔特徴抽出部52により抽出された顔特徴情報と顔特徴保持部54に保持された複数の個人顔特徴情報とを照合することにより両情報の類似度を求め、この求めた類似度のうち所定値以上の類似度および当該所定値以上の類似度が得られた個人顔特徴情報に対応させて顔特徴保持部54に保持されている年齢情報および性別情報を出力する。   The collation calculation unit 55 obtains the similarity between both pieces of information by collating the face feature information extracted by the face feature extraction unit 52 with a plurality of individual face feature information held in the face feature holding unit 54. The age information and the sex information held in the face feature holding unit 54 are output in correspondence with the degree of similarity equal to or higher than a predetermined value and the personal face feature information obtained with the degree of similarity higher than the predetermined value.

判別部56は、照合演算部55から出力された類似度および年齢、性別情報から当該人物の年齢および性別を判別する。そして、結果出力部57は、判別部56の判別結果を出力する。   The determination unit 56 determines the age and gender of the person from the similarity, age, and gender information output from the collation calculation unit 55. Then, the result output unit 57 outputs the determination result of the determination unit 56.

また、図1及び図3に示すように、アシスト装置3の筐体21の一部に動作機構40が形成されており、動作制御部31は、動作機構40の駆動を制御する。ここで、動作機構40は、例えば羽形状の構造体であって、動作制御部31の制御によって上下方向に羽ばたく動作を実行することが可能である。   As shown in FIGS. 1 and 3, the operation mechanism 40 is formed in a part of the casing 21 of the assist device 3, and the operation control unit 31 controls driving of the operation mechanism 40. Here, the operation mechanism 40 is a wing-shaped structure, for example, and can perform an operation of flapping in the vertical direction under the control of the operation control unit 31.

スピーカ25は、ユーザに対し音声によるメッセージや報知音等を出力する。通信部26は、情報提供制御部11との間で相互に情報のやり取りを行うために設けられている。マイク24は、アシスト装置3の周囲の音や人物の発する声を集音する。操作部27は、スピーカ25より出力される情報などに基づいて、ユーザがキー操作により情報を入力するためのものである。   The speaker 25 outputs a voice message or notification sound to the user. The communication unit 26 is provided to exchange information with the information provision control unit 11. The microphone 24 collects sounds around the assist device 3 and voices of people. The operation unit 27 is used by a user to input information by key operation based on information output from the speaker 25 or the like.

音声認識部30は、マイク24を介して入力された音声信号を入力として、集音された人物の音声と対応する文字や単語列の音声認識結果を生成する。音声認識部30は、マイク24を介して入力された音声信号に対して言語辞書との比較を行うことにより利用者の発話内容を認識する。なお、音声認識部30は、日本語、英語、中国語の3カ国語にそれぞれ対応して、言語毎の辞書(日本語辞書、英語辞書および中国語辞書)を記憶する辞書メモリを備える。   The voice recognition unit 30 receives a voice signal input through the microphone 24 and generates a voice recognition result of characters and word strings corresponding to the collected voice of the person. The voice recognition unit 30 recognizes the utterance content of the user by comparing the voice signal input through the microphone 24 with a language dictionary. The voice recognition unit 30 includes a dictionary memory that stores dictionaries for each language (Japanese dictionary, English dictionary, and Chinese dictionary) corresponding to three languages, Japanese, English, and Chinese.

記憶部32には、情報提供装置2の操作をアシストするための情報を記憶する音声ガイダンス60やコンテンツ70が記憶されている。図5は、音声ガイダンス60の一例を示す模式図である。図5に示すように、音声ガイダンス60は、各種処理を実行するためのユーザ操作をアシストするためのものであってガイダンス番号がそれぞれ付与された一つの音声ガイダンス情報について日本語、英語、中国語の3カ国語を設定している。例えば、日本語で「こんにちは。ICカードをタッチするとクーポンが出るよ!」という音声ガイダンス情報に対して、英語および中国語に翻訳した音声ガイダンス情報も設定されている。同様に、コンテンツ70は、ユーザに対して宣伝するためのものであってコンテンツ番号がそれぞれ付与された一つの宣伝コンテンツ情報について日本語、英語、中国語の3カ国語を設定している。なお、音声ガイダンス情報や宣伝コンテンツ情報は、テキスト情報を音声信号に変換する音声合成処理を施すものであっても良いし、予め用意した音声信号を再生するものであっても良い。なお、音声合成の技術は、すでに確立しており、そのソフトウェアも市販されているので、その説明は省略する。   The storage unit 32 stores voice guidance 60 and content 70 for storing information for assisting the operation of the information providing apparatus 2. FIG. 5 is a schematic diagram illustrating an example of the voice guidance 60. As shown in FIG. 5, the voice guidance 60 is for assisting user operations for executing various processes, and one voice guidance information to which a guidance number is assigned is provided in Japanese, English, and Chinese. The three languages are set. For example, for voice guidance information "Hello .IC by card coupon appear when you touch!" In Japanese, it is also set voice guidance information that has been translated into English and Chinese. Similarly, the content 70 is for advertising to the user, and three languages of Japanese, English, and Chinese are set for one piece of advertising content information assigned with a content number. Note that the voice guidance information and the advertisement content information may be subjected to voice synthesis processing for converting text information into a voice signal, or may be a voice signal prepared in advance. Since the speech synthesis technology has already been established and its software is commercially available, the description thereof will be omitted.

なお、音声合成処理にあたっては、判別部56で判別されて結果出力部57から出力された人物の年齢および性別(人物の属性)にあわせて、口跡(声色や言い回しなど)を変えるようにしても良い。音声合成処理によれば、声色に合わせた言い回しを容易に設定・変更できる。例えば、男性には女性の声、女性には子供の声で話しかけることでより注目度をあげ、親和性の高いものにする。図6に、人物の年齢および性別(人物の属性)にあわせた声色や言い回しの設定の一例を示す。   In the speech synthesis process, the mouthpiece (voice color, wording, etc.) may be changed in accordance with the age and sex (person attribute) of the person determined by the determination unit 56 and output from the result output unit 57. good. According to the speech synthesis process, it is possible to easily set / change the phrase according to the voice color. For example, talking to a woman ’s voice for a man and a child ’s voice for a woman will raise the level of attention and make it highly compatible. FIG. 6 shows an example of voice color and wording settings according to the age and sex (character attributes) of the person.

このように人物の年齢および性別(人物の属性)にあわせて、音声ガイダンス情報や宣伝コンテンツ情報の声色や言い回しを変えるのは、音声合成処理に限らず録音音声でもできるが、作業およびデータが膨大になる。   In this way, changing the voice color and wording of voice guidance information and promotional content information according to the age and gender (person attributes) of a person can be done not only by voice synthesis processing but also by recorded voice, but the work and data are enormous. become.

次に、情報処理装置1が実行する機能について説明する。前述したように、この情報処理装置1は、顧客と対面した状態で、案内、宣伝、勧誘、応答などを3ヶ国語の言語で行う情報端末(サイネージ)である。従来、複数の言語に対応可能な情報処理装置1では、使用する言語を選択したうえで、その選択した言語で案内、宣伝、勧誘、応答を開始する。すなわち、このような情報処理装置1において、言語の選択を音声入力で行おうとする場合には、例えば、現在設定されている英語から日本語に言語を変更する場合には、英語を発声することによって日本語に変更することになる。   Next, functions executed by the information processing apparatus 1 will be described. As described above, the information processing apparatus 1 is an information terminal (signage) that performs guidance, advertisement, solicitation, response, and the like in a language of three languages while facing a customer. Conventionally, in the information processing apparatus 1 capable of handling a plurality of languages, after selecting a language to be used, guidance, advertisement, solicitation, and response are started in the selected language. That is, in such an information processing apparatus 1, when the language is selected by voice input, for example, when the language is changed from the currently set English to Japanese, the English is spoken. Will change to Japanese.

ところで、このような場合、英語の話せない顧客は言語を英語から日本語に変更することができなくなる。また、顧客の発音が明瞭でない場合には、入力音声を誤認識する可能性が高くなり、言語を変更できないという問題がある。   In such a case, a customer who cannot speak English cannot change the language from English to Japanese. In addition, when the customer's pronunciation is not clear, there is a high possibility that the input speech is erroneously recognized and the language cannot be changed.

そこで、情報処理装置1は、図7に示すように、一定の待ち時間を含むインターバルで言語(例えば、日本語、英語、中国語の3カ国語)を切替え、利用者が反応したときの最後の言語を使用してその後の案内、応答を行うようにしたものである。   Therefore, as shown in FIG. 7, the information processing apparatus 1 switches the languages (for example, three languages of Japanese, English, and Chinese) at intervals including a certain waiting time, and finally the user responds. The following language is used to provide guidance and response.

ここで、図8は言語切替処理における機能構成を示す機能ブロック図、図9は言語切替処理の流れを示すフローチャートである。   Here, FIG. 8 is a functional block diagram showing a functional configuration in the language switching process, and FIG. 9 is a flowchart showing a flow of the language switching process.

アシスト装置3の統括制御部33のCPUで実行されるプログラムは、図8に示すような各部(情報出力手段81、応答検出手段82、処理言語確定手段83、切替受付手段84)を含むモジュール構成となっており、実際のハードウェアとしてはCPUがROMからプログラムを読み出して実行することにより上記各部がRAM上にロードされ、情報出力手段81、応答検出手段82、処理言語確定手段83、切替受付手段84がRAM上に生成されるようになっている。   The program executed by the CPU of the overall control unit 33 of the assist device 3 includes a module configuration including each unit (information output unit 81, response detection unit 82, processing language determination unit 83, and switch reception unit 84) as shown in FIG. As the actual hardware, the CPU reads the program from the ROM and executes it, so that the above-described units are loaded onto the RAM, and the information output means 81, the response detection means 82, the processing language determination means 83, the switching acceptance Means 84 is generated on the RAM.

図9のフローチャートに示すように、情報出力手段81は、人物判別部29が人物を判別した場合や操作部27からユーザのキー操作を受け付けた場合などにより、音声ガイダンスの開始を判断すると(ステップS1のYes)、所定のガイダンス番号(開始時は、“1”)が付与された音声ガイダンス情報を音声ガイダンス60から取得する(ステップS2)。   As shown in the flowchart of FIG. 9, the information output unit 81 determines the start of voice guidance when the person determination unit 29 determines a person or when a user key operation is received from the operation unit 27 (step S <b> 9). The voice guidance information to which a predetermined guidance number ("1" at the start) is assigned is acquired from the voice guidance 60 (step S2).

その後、情報出力手段81は、音声ガイダンス情報中の日本語、英語、中国語の3カ国語のガイダンスを一定のインターバル時間間隔で切り替えてスピーカ25から出力するとともに、3カ国語の音声ガイダンスの切替えに合わせて音声認識部30の辞書(日本語辞書、英語辞書および中国語辞書)を切り替える(ステップS3〜S14)。ここで、言語を切り替える一定の待ち時間を含むインターバルは、約10秒に設定する。このようにインターバルに一定の待ち時間を含めるのは、音声ガイダンスによる案内後の所定時間を利用者のための応答時間として確保するためである。   Thereafter, the information output means 81 switches the guidance in three languages Japanese, English, and Chinese in the voice guidance information at a predetermined interval time and outputs it from the speaker 25, and switches the voice guidance in the three languages. Accordingly, the dictionary (Japanese dictionary, English dictionary, and Chinese dictionary) of the speech recognition unit 30 is switched (steps S3 to S14). Here, the interval including a certain waiting time for switching the language is set to about 10 seconds. The reason for including a certain waiting time in the interval is to secure a predetermined time after guidance by voice guidance as a response time for the user.

なお、インターバル時間は、操作部27からユーザのインターバル時間設定ボタンのキー操作を受け付けることなどにより、変更可能である。例えば、英語はあまり話せないが語学学習的な意味合いで英語による応答したような場合には、応答のタイミング長くするようにインターバル時間を長くすることができる。   Note that the interval time can be changed by receiving a key operation of the user's interval time setting button from the operation unit 27. For example, in the case where English is not spoken very much but a response is made in English with a language learning meaning, the interval time can be increased so as to increase the response timing.

応答検出手段82は、上述したような一定の待ち時間を含むインターバルで言語を切替えている際に、利用者が音声ガイダンスに反応して当該音声ガイダンスの言語に応じた応答を返すことによって音声認識部30で音声が認識されたと判断した場合には(ステップS5のYes、ステップS9のYes、ステップS13のYes)、当該音声認識された言語を利用者が理解可能な言語であると判断する。   When the language is switched at intervals including a certain waiting time as described above, the response detection means 82 responds to the voice guidance and returns a response according to the language of the voice guidance. When it is determined that the voice has been recognized by the unit 30 (Yes in step S5, Yes in step S9, Yes in step S13), it is determined that the speech recognized language is a language that the user can understand.

そして、処理言語確定手段83は、応答のあった言語に応じた音声認識部30の辞書(日本語辞書、英語辞書または中国語辞書)を設定し、当該言語を使用して処理(例えば、案内や応答など)を実行する(ステップS15)。例えば、処理言語確定手段83は、応答した音声ガイダンス以後のガイダンス番号が付与された音声ガイダンス情報を順次取得して出力する。   Then, the processing language determination unit 83 sets a dictionary (Japanese dictionary, English dictionary, or Chinese dictionary) of the speech recognition unit 30 corresponding to the language that has responded, and performs processing using the language (for example, guidance) Or response) is executed (step S15). For example, the processing language determination unit 83 sequentially acquires and outputs voice guidance information to which a guidance number after the voice guidance that has been responded is given.

ところで、ステップS15における言語を使用した処理には、宣伝も含まれる。このような宣伝においては、人物の年齢および性別(人物の属性)にあわせて、声色や言い回しを変えるとともに宣伝コンテンツを変えるのが効果的である。そこで、実施形態の情報処理装置1においては、判別部56で判別されて結果出力部57から出力された人物の年齢および性別(人物の属性)にあわせて宣伝コンテンツを選択し、選択した宣伝コンテンツのテキストに基づく音声を音声合成処理によって生成する。例えば、若い女性には流行ファッションの宣伝、年配の男性には定番ブランドスーツの専門店の宣伝など、需要見込みがあるものを宣伝する。図10に、人物の年齢および性別(人物の属性)にあわせた宣伝コンテンツの設定の一例を示す。   By the way, the process using the language in step S15 includes advertisement. In such advertising, it is effective to change the voice content and wording and change the advertising content according to the age and sex (character attributes) of the person. Therefore, in the information processing apparatus 1 of the embodiment, the advertisement content is selected according to the age and sex (person attribute) of the person determined by the determination unit 56 and output from the result output unit 57, and the selected advertisement content A voice based on the text is generated by a voice synthesis process. For example, it promotes trendy fashions for young women, and a popular brand suit specialty store for older men. FIG. 10 shows an example of the setting of the advertising content in accordance with the age and sex (person attribute) of the person.

ステップS15の処理は、ガイダンスや宣伝の終了指示があるまで(ステップS16のYes)または言語切り替えの指示があるまで(ステップS17のYes)、繰り返される。統括制御部33のCPUは、ガイダンスや宣伝の終了指示があると、ステップS1の音声ガイダンスの開始の待ち受けに戻る。ガイダンスや宣伝の終了指示は、一定時間応答が無くなった場合でも良いし、カメラ部23で撮像した画像から人物判別部29で人物の判別ができなくなった場合でも良いし、操作部27からユーザの応答終了ボタンのキー操作を受け付けた場合でも良いし、音声認識部30がキーワード(「バイバイ」など)を認識した場合でも良い。   The process of step S15 is repeated until an instruction to end guidance or advertisement is given (Yes in step S16) or until a language switching instruction is given (Yes in step S17). When there is an instruction to end guidance or advertisement, the CPU of the overall control unit 33 returns to the standby for starting the voice guidance in step S1. The guidance or the end instruction of the advertisement may be when there is no response for a certain period of time, when the person determination unit 29 cannot determine the person from the image captured by the camera unit 23, or from the operation unit 27 by the user. The key operation of the response end button may be accepted, or the voice recognition unit 30 may recognize a keyword (such as “bye-bye”).

また、ガイダンスや宣伝の終了指示がある前に(ステップS16のNo)、切替受付手段84が操作部27からユーザの言語切り替えボタンのキー操作を受け付けた場合などには(ステップS17のYes)、情報出力手段81は、切り替え指示の際に出力されていた音声ガイダンスに対応する音声ガイダンス情報や宣伝コンテンツに対応する宣伝コンテンツ情報を取得し(ステップS18)、日本語、英語、中国語の3カ国語のガイダンスや宣伝コンテンツを一定のインターバル時間間隔で切り替えてスピーカ25から出力するとともに、3カ国語の音声ガイダンスや宣伝コンテンツの切替えに合わせて音声認識部30の辞書(日本語辞書、英語辞書および中国語辞書)を切り替える(ステップS3〜S14)。   Further, before the guidance or advertisement end instruction (No in Step S16), when the switching receiving unit 84 receives a key operation of the user language switching button from the operation unit 27 (Yes in Step S17), etc. The information output means 81 acquires the voice guidance information corresponding to the voice guidance that was output at the time of the switching instruction and the advertising content information corresponding to the advertising content (step S18), and the three countries, Japanese, English, and Chinese. The word guidance and the advertising content are switched at a predetermined interval time and output from the speaker 25, and the dictionary of the speech recognition unit 30 (Japanese dictionary, English dictionary, and so on) is switched in accordance with the switching of the three language voice guidance and the advertising content. The Chinese dictionary is switched (steps S3 to S14).

なお、実施形態の情報処理装置1においては、情報提供装置2の操作をアシストするためのガイダンスや宣伝コンテンツを日本語、英語、中国語の3カ国語の音声で提示するようにしたが、これに限るものではなく、情報提供装置2の操作をアシストするためのガイダンスや宣伝コンテンツを日本語、英語、中国語の3カ国語のテキストで例えば表示装置5に表示するようにしても良い。このように情報提供装置2の操作をアシストするためのガイダンスや宣伝コンテンツをテキストで表示装置5に表示するような場合には、利用者はタッチパネル6や音声応答で情報のリクエストをすることができる。また、情報提供装置2の操作をアシストするためのガイダンスや宣伝コンテンツをテキストで表示装置5に表示するような場合には、確保されたインターバル時間の間だけタッチパネル6上にボタンを表示したり、色を変えて表示したりするなどして、そのときの言語の音声認識を動作させる。   In the information processing apparatus 1 according to the embodiment, guidance and advertisement contents for assisting the operation of the information providing apparatus 2 are presented in three languages of Japanese, English, and Chinese. However, the present invention is not limited to this, and guidance and advertising content for assisting the operation of the information providing device 2 may be displayed on the display device 5, for example, in Japanese, English, and Chinese texts. Thus, when displaying guidance and advertising content for assisting the operation of the information providing device 2 on the display device 5 as text, the user can request information by the touch panel 6 or voice response. . Further, in the case where guidance or advertising content for assisting the operation of the information providing device 2 is displayed on the display device 5 as text, a button is displayed on the touch panel 6 only during the reserved interval time, The voice recognition of the language at that time is operated by changing the color and displaying it.

また、情報提供装置2の操作をアシストするためのガイダンスや宣伝コンテンツについて、音声での提示とテキストでの表示とを併用するようにしても良い。また、音声での提示とテキストでの表示とを併用する場合には、音声での提示とテキストでの表示との間で言語を変えるようにしても良い。例えば、日本語によってガイダンスや宣伝コンテンツを音声提示し、英語によってガイダンスや宣伝コンテンツをテキスト表示する。   In addition, guidance and advertising content for assisting the operation of the information providing apparatus 2 may be used in combination with voice presentation and text display. Further, in the case of using both voice presentation and text display, the language may be changed between voice presentation and text display. For example, guidance and promotional contents are presented in audio in Japanese, and guidance and promotional contents are displayed in text in English.

また、実施形態の情報処理装置1においては、判別部56で判別されて結果出力部57から出力された人物の年齢および性別(人物の属性)にあわせて、音声ガイダンスや宣伝コンテンツの声色や言い回しを変えるとともに、宣伝コンテンツを選択するようにしたが、これに限るものではない。例えば、情報出力手段81は、判別部56で判別されて結果出力部57から出力された人物の年齢および性別(人物の属性)にあわせてアシスト装置3の筐体21の一部に形成された動作機構40の動作を動作制御部31を制御することで変えるようにしても良い。このように人物の属性に応じて動きによる演出効果を行うことで、来店者誘導と集客力の向上を図ることができる。   Further, in the information processing apparatus 1 according to the embodiment, the voice guidance and the voice of the advertising content and the wording are determined according to the age and sex (person attributes) of the person determined by the determination unit 56 and output from the result output unit 57. In addition, the advertisement content is selected, but the present invention is not limited to this. For example, the information output unit 81 is formed in a part of the casing 21 of the assist device 3 in accordance with the age and sex (person attribute) of the person determined by the determination unit 56 and output from the result output unit 57. The operation of the operation mechanism 40 may be changed by controlling the operation control unit 31. In this way, by performing the effect of movement according to the attributes of the person, it is possible to improve store visitor guidance and customer attraction.

このように本実施形態によれば、各種処理を実行するためのユーザ操作をアシストするために、複数の言語で設定されたガイダンス情報を一定の時間間隔で各言語を切り替えて出力する情報出力手段81と、各言語を切り替えながらガイダンス情報を出力している際に、ガイダンス情報に対する応答を検出する応答検出手段82と、ガイダンス情報に対する応答を検出した言語を、処理を実行する言語として確定する処理言語確定手段83と、を備えることにより、日本語、英語、中国語の3ヶ国語の音声ガイダンスから、利用者の理解可能な言語に合わせた音声ガイダンスを特別な選択操作をさせることなく選択することができる。   As described above, according to the present embodiment, in order to assist the user operation for executing various processes, the guidance information set in a plurality of languages is output by switching each language at a constant time interval. 81, when outputting guidance information while switching each language, response detection means 82 for detecting a response to the guidance information, and a process for determining the language that has detected the response to the guidance information as a language for executing the process By providing the language determination means 83, the voice guidance that matches the language understandable by the user is selected from the voice guidance in three languages, Japanese, English, and Chinese, without any special selection operation. be able to.

また、本実施形態によれば、情報処理装置1の周囲の状況を撮像した画像から当該情報処理装置1に対面する人物の属性を判別する属性判別手段29と、各種処理を実行するためのユーザ操作をアシストするための音声によるガイダンス情報を、属性判別手段29によって判別された人物の属性に応じて口跡を変化させて出力する情報出力手段81と、を備えることにより、人物の年齢および性別(人物の属性)を認識して音声や動きによる演出効果を行うことで、来店者誘導と集客UPが行えるので、効果的な情報提示を行うことができる。   In addition, according to the present embodiment, the attribute determination unit 29 that determines the attribute of the person facing the information processing apparatus 1 from an image obtained by capturing the situation around the information processing apparatus 1, and the user for executing various processes By providing information output means 81 that outputs voice guidance information for assisting the operation by changing the mouth according to the attribute of the person determined by the attribute determination means 29, the age and sex of the person ( Recognizing a person's attributes) and producing a presentation effect by voice or movement can guide the store visitor and attract more customers, so that effective information presentation can be performed.

1 情報処理装置
29 属性判別手段
40 動作機構
81 情報出力手段
82 応答検出手段
83 処理言語確定手段
84 切替受付手段
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 29 Attribute discrimination | determination means 40 Operating mechanism 81 Information output means 82 Response detection means 83 Processing language decision means 84 Switching acceptance means

特開2001−83991号公報JP 2001-83991 A

Claims (6)

人物の属性を判別する属性判別手段と、
各種処理を実行するためのユーザ操作をアシストするための音声によるガイダンス情報を、前記属性判別手段によって判別された前記人物の属性に応じて口跡を変化させて出力する情報出力手段と、
を備える情報処理装置。
Attribute discriminating means for discriminating an attribute of a person;
Information output means for outputting guidance information by voice for assisting a user operation for executing various processes by changing a mouth according to the attribute of the person determined by the attribute determination means;
An information processing apparatus comprising:
前記情報出力手段は、ユーザに対して宣伝するための音声による宣伝コンテンツ情報を、前記属性判別手段によって判別された前記人物の属性に応じて口跡を変化させて出力する、
請求項1記載の情報処理装置。
The information output means outputs the advertisement content information by voice for advertising to the user by changing the mouth according to the attribute of the person determined by the attribute determination means.
The information processing apparatus according to claim 1.
前記情報出力手段は、前記ガイダンス情報または前記宣伝コンテンツ情報となるテキスト情報を音声信号に変換するとともに前記人物の属性に応じて口跡を変化させる音声合成処理を施す、
請求項2記載の情報処理装置。
The information output means converts the text information to be the guidance information or the advertising content information into a voice signal and performs a voice synthesis process for changing a mouth according to the attribute of the person.
The information processing apparatus according to claim 2.
前記情報出力手段は、予め複数用意された宣伝コンテンツ情報から前記属性判別手段によって判別された前記人物の属性に応じて一の宣伝コンテンツ情報を選択する、
請求項2または3記載の情報処理装置。
The information output means selects one advertisement content information according to the attribute of the person determined by the attribute determination means from a plurality of advertisement content information prepared in advance;
The information processing apparatus according to claim 2 or 3.
筐体に形成されていて動作を制御可能な動作機構を更に備え、
前記情報出力手段は、前記属性判別手段によって判別された前記人物の属性に応じて前記動作機構の動作を変える、
請求項1ないし4のいずれか一記載の情報処理装置。
It further includes an operation mechanism that is formed in the housing and can control the operation,
The information output means changes the operation of the operation mechanism according to the attribute of the person determined by the attribute determination means;
The information processing apparatus according to claim 1.
情報処理装置を制御するコンピュータを、
人物の属性を判別する属性判別手段と、
各種処理を実行するためのユーザ操作をアシストするための音声によるガイダンス情報を、前記属性判別手段によって判別された前記人物の属性に応じて口跡を変化させて出力する情報出力手段と、
として機能させるプログラム。
A computer for controlling the information processing apparatus;
Attribute discriminating means for discriminating an attribute of a person;
Information output means for outputting guidance information by voice for assisting a user operation for executing various processes by changing a mouth according to the attribute of the person determined by the attribute determination means;
Program to function as.
JP2011048093A 2011-03-04 2011-03-04 Information processor and program Pending JP2012185303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011048093A JP2012185303A (en) 2011-03-04 2011-03-04 Information processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011048093A JP2012185303A (en) 2011-03-04 2011-03-04 Information processor and program

Publications (1)

Publication Number Publication Date
JP2012185303A true JP2012185303A (en) 2012-09-27

Family

ID=47015447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011048093A Pending JP2012185303A (en) 2011-03-04 2011-03-04 Information processor and program

Country Status (1)

Country Link
JP (1) JP2012185303A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183898A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Display device, program and display system
JP2015018418A (en) * 2013-07-11 2015-01-29 日本電信電話株式会社 Content distribution device, content distribution method and program
JP2017211798A (en) * 2016-05-25 2017-11-30 シャープ株式会社 Network system, information processing method, and server
CN109151366A (en) * 2018-09-27 2019-01-04 惠州Tcl移动通信有限公司 A kind of sound processing method of video calling
JP2020064151A (en) * 2018-10-16 2020-04-23 東京瓦斯株式会社 Reproduction system and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175081A (en) * 1997-12-11 1999-07-02 Toshiba Corp Device and method for speaking
JPH11259446A (en) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk Agent device
JP2001083991A (en) * 1999-09-16 2001-03-30 Denso Corp User interface device, navigation system, information processing device and recording medium
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic
JP2001215993A (en) * 2000-01-31 2001-08-10 Sony Corp Device and method for interactive processing and recording medium
JP2003122554A (en) * 2001-10-18 2003-04-25 Casio Comput Co Ltd Electronic book data delivery device, electronic book device, and program
JP2008271397A (en) * 2007-04-24 2008-11-06 Cube:Kk Voice-reactive stuffed toy
JP2010128099A (en) * 2008-11-26 2010-06-10 Toyota Infotechnology Center Co Ltd In-vehicle voice information providing system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175081A (en) * 1997-12-11 1999-07-02 Toshiba Corp Device and method for speaking
JPH11259446A (en) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk Agent device
JP2001083991A (en) * 1999-09-16 2001-03-30 Denso Corp User interface device, navigation system, information processing device and recording medium
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic
JP2001215993A (en) * 2000-01-31 2001-08-10 Sony Corp Device and method for interactive processing and recording medium
JP2003122554A (en) * 2001-10-18 2003-04-25 Casio Comput Co Ltd Electronic book data delivery device, electronic book device, and program
JP2008271397A (en) * 2007-04-24 2008-11-06 Cube:Kk Voice-reactive stuffed toy
JP2010128099A (en) * 2008-11-26 2010-06-10 Toyota Infotechnology Center Co Ltd In-vehicle voice information providing system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183898A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Display device, program and display system
JP2015018418A (en) * 2013-07-11 2015-01-29 日本電信電話株式会社 Content distribution device, content distribution method and program
JP2017211798A (en) * 2016-05-25 2017-11-30 シャープ株式会社 Network system, information processing method, and server
CN109151366A (en) * 2018-09-27 2019-01-04 惠州Tcl移动通信有限公司 A kind of sound processing method of video calling
JP2020064151A (en) * 2018-10-16 2020-04-23 東京瓦斯株式会社 Reproduction system and program
JP7218143B2 (en) 2018-10-16 2023-02-06 東京瓦斯株式会社 Playback system and program

Similar Documents

Publication Publication Date Title
JP5250066B2 (en) Information processing apparatus and program
EP3824462B1 (en) Electronic apparatus for processing user utterance and controlling method thereof
CN108804536B (en) Man-machine conversation and strategy generation method, equipment, system and storage medium
JP5689057B2 (en) Contact card recognition system and recognition method using a touch screen
JP2012185303A (en) Information processor and program
US20140010417A1 (en) Command input method of terminal and terminal for inputting command using mouth gesture
US11861318B2 (en) Method for providing sentences on basis of persona, and electronic device supporting same
WO2016203805A1 (en) Information processing device, information processing system, information processing method, and program
US20200226671A1 (en) Method and electronic device for displaying at least one visual object
KR102628211B1 (en) Electronic apparatus and thereof control method
CN112735429B (en) Method for determining lyric timestamp information and training method of acoustic model
US10025772B2 (en) Information processing apparatus, information processing method, and program
KR102443636B1 (en) Electronic device and method for providing information related to phone number
CN104281560B (en) Display method, device and terminal of memory text information
JP2004078876A (en) Interactive vending machine, and interactive sales system
JP2004053825A (en) Apparatus, method, and program for language identification
CN111652624A (en) Ticket buying processing method, ticket checking processing method, device, equipment and storage medium
CN112786025B (en) Method for determining lyric timestamp information and training method of acoustic model
JP2014191602A (en) Display device, program, and display system
US11720324B2 (en) Method for displaying electronic document for processing voice command, and electronic device therefor
KR20210095291A (en) Electronic device and method for generating a story
JP7195545B2 (en) Equipment for providing products and services with interactive functions
CN213876939U (en) All-in-one of depositing and withdrawing of sign indicating number withdrawal function is swept in area
JP2003022154A (en) User interface device and its control method
TWM641562U (en) Financial service system based on sign language operation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318