JP2019153160A - Digital signage device and program - Google Patents

Digital signage device and program Download PDF

Info

Publication number
JP2019153160A
JP2019153160A JP2018038861A JP2018038861A JP2019153160A JP 2019153160 A JP2019153160 A JP 2019153160A JP 2018038861 A JP2018038861 A JP 2018038861A JP 2018038861 A JP2018038861 A JP 2018038861A JP 2019153160 A JP2019153160 A JP 2019153160A
Authority
JP
Japan
Prior art keywords
cpu
text
digital signage
microphone
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018038861A
Other languages
Japanese (ja)
Inventor
松本 征二
Seiji Matsumoto
征二 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018038861A priority Critical patent/JP2019153160A/en
Publication of JP2019153160A publication Critical patent/JP2019153160A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a digital signage device and the like for displaying information to meet needs of a person in the vicinity.SOLUTION: A digital signage device comprises: a display part 35 covered by a half mirror; a microphone 36 for acquiring a voice from the vicinity of the display part 35; a text acquisition part for acquiring a text based on the voice acquired by the microphone 36; and an output part for outputting a content based on the text acquired by the text acquisition part to the display part 35. The output part outputs a search result using the text as a key.SELECTED DRAWING: Figure 1

Description

本発明は、デジタルサイネージ装置およびプログラムに関する。   The present invention relates to a digital signage apparatus and a program.

工事現場に設置される仮囲い用の壁にディスプレイを設けたデジタルサイネージ装置が提案されている(特許文献1)。工事現場周辺の歩行者および近隣住民等に、工事情報、地域情報および広告等の情報を提供できる。   There has been proposed a digital signage device in which a display is provided on a temporary enclosure wall installed at a construction site (Patent Document 1). Information such as construction information, regional information and advertisements can be provided to pedestrians and neighbors around the construction site.

特開2017−227113号公報JP 2017-227113 A

しかしながら、特許文献1のデジタルサイネージ装置においては、装置の近くにいる人のニーズに合わせた情報を表示することはできない。   However, the digital signage device of Patent Document 1 cannot display information that meets the needs of people near the device.

一つの側面では、近くにいる人のニーズに合わせた情報を表示するデジタルサイネージ装置等を提供することを目的とする。   In one aspect, an object of the present invention is to provide a digital signage device that displays information according to the needs of people nearby.

デジタルサイネージ装置は、ハーフミラーにより覆われた表示部と、前記表示部の近傍から音声を取得するマイクと、前記マイクが取得した音声に基づくテキストを取得するテキスト取得部と、前記テキスト取得部が取得した前記テキストに基づくコンテンツを前記表示部に出力する出力部とを備える。   The digital signage device includes a display unit covered with a half mirror, a microphone that acquires voice from the vicinity of the display unit, a text acquisition unit that acquires text based on the voice acquired by the microphone, and the text acquisition unit And an output unit that outputs content based on the acquired text to the display unit.

一つの側面では、近くにいる人のニーズに合わせた情報を表示するデジタルサイネージ装置等を提供できる。   In one aspect, it is possible to provide a digital signage device that displays information according to the needs of people nearby.

デジタルサイネージシステムの概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of a digital signage system. デジタルサイネージシステムの構成を示す説明図である。It is explanatory drawing which shows the structure of a digital signage system. 問合先DBのレコードレイアウトを説明する説明図である。It is explanatory drawing explaining the record layout of inquiry DB. プログラムの処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of a program. コンテンツ取得のサブルーチンの処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of processing of a subroutine for content acquisition. 実施の形態2のデジタルサイネージシステムの概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the digital signage system of Embodiment 2. FIG. 実施の形態2のデジタルサイネージシステムの概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the digital signage system of Embodiment 2. FIG. 実施の形態2のプログラムの処理の流れを説明するフローチャートである。10 is a flowchart for explaining a processing flow of a program according to the second embodiment. 議事録表示のサブルーチンの処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of processing of a subroutine for displaying minutes. 実施の形態3のデジタルサイネージ装置の機能ブロック図である。6 is a functional block diagram of a digital signage apparatus according to Embodiment 3. FIG. 実施の形態4のデジタルサイネージシステムの構成を示す説明図である。FIG. 10 is an explanatory diagram illustrating a configuration of a digital signage system according to a fourth embodiment.

[実施の形態1]
図1は、デジタルサイネージシステム10の概要を説明する説明図である。デジタルサイネージシステム10は、壁に取り付けられた表示部35、マイク36およびスピーカ37を含む。表示部35は、たとえば液晶表示パネルまたは有機EL(electro-luminescence)表示パネルである。
[Embodiment 1]
FIG. 1 is an explanatory diagram for explaining the outline of the digital signage system 10. The digital signage system 10 includes a display unit 35, a microphone 36, and a speaker 37 attached to a wall. The display unit 35 is, for example, a liquid crystal display panel or an organic EL (electro-luminescence) display panel.

表示部35の表面は、アクリル板またはガラス板等の、透光性板により覆われている。透光性板は、一面に薄い反射膜を有するハーフミラーである。表示部35の表示面と、透光性板とは、いわゆるダイレクトボンディングにより接合しても良い。表示面と透光性板とを、空気層を介さずに直接接合することにより、透光性板と表示面との間の光の反射による画質低下を防止できる。   The surface of the display unit 35 is covered with a translucent plate such as an acrylic plate or a glass plate. The translucent plate is a half mirror having a thin reflective film on one surface. The display surface of the display unit 35 and the translucent plate may be joined by so-called direct bonding. By directly joining the display surface and the translucent plate without interposing an air layer, it is possible to prevent deterioration in image quality due to light reflection between the translucent plate and the display surface.

マイク36は、複数のマイクロフォンを含むアレイマイクであり、感度および音声検出領域を適宜調整できる。スピーカ37の音量も適宜調整できる。マイク36およびスピーカ37は、表示部35に一体に構成されていても良い。   The microphone 36 is an array microphone including a plurality of microphones, and can adjust sensitivity and sound detection area as appropriate. The volume of the speaker 37 can also be adjusted as appropriate. The microphone 36 and the speaker 37 may be configured integrally with the display unit 35.

表示部35を覆う透光性板に、表示部35よりも大きい板を使用し、透光性板の裏面の表示部35で覆われていない部分にエキサイターを固定してスピーカ37を構成しても良い。表示部35全体から、音を発生するスピーカ37を実現できる。マイク36およびスピーカ37は、天井等に取り付けられていても良い。   A plate larger than the display unit 35 is used as the translucent plate that covers the display unit 35, and an exciter is fixed to a portion of the rear surface of the translucent plate that is not covered with the display unit 35 to configure the speaker 37. Also good. A speaker 37 that generates sound can be realized from the entire display unit 35. The microphone 36 and the speaker 37 may be attached to a ceiling or the like.

本実施の形態のデジタルサイネージシステム10は、たとえば駅のコンコース、バス停、公共施設の内壁、または、道路に面した建物の外壁等の、様々な場所に設置して使用される。   The digital signage system 10 according to the present embodiment is installed and used in various places such as a concourse of a station, a bus stop, an inner wall of a public facility, or an outer wall of a building facing a road.

図1Aは、動作していない場合のデジタルサイネージシステム10を示す。表示部35を覆う透光性板により光が反射され、表示部35は鏡の機能を果たす。これにより、空間を広く見せる演出が可能である。   FIG. 1A shows the digital signage system 10 when not in operation. Light is reflected by the translucent plate covering the display unit 35, and the display unit 35 functions as a mirror. Thereby, it is possible to produce a wide space.

図1Bは、動作している場合のデジタルサイネージシステム10を示す。図1Bにおいては表示部35の前に立ったユーザが「天気」と発声した場合を示す。マイク36がユーザの声を検出して、天気情報を取得し、表示部35に表示する。さらにスピーカ37から「現在の天気は曇りです」という音声が出力される。   FIG. 1B shows the digital signage system 10 when operating. FIG. 1B shows a case where a user standing in front of the display unit 35 utters “weather”. The microphone 36 detects the voice of the user, acquires weather information, and displays it on the display unit 35. Further, a sound “Current weather is cloudy” is output from the speaker 37.

たとえばユーザが「札幌の天気」と発声した場合には、札幌の天気が表示部35およびスピーカ37から出力される。ユーザが「明日の大阪の天気」と発声した場合には、翌日の大阪の天気が表示部35およびスピーカ37から出力される。同様に、ユーザの発声に応じて、たとえば株価、交通機関の運行情報、地図、ニュース等の、様々なコンテンツが表示部35およびスピーカから出力される。   For example, when the user utters “Sapporo weather”, the Sapporo weather is output from the display unit 35 and the speaker 37. When the user utters “Tomorrow's Osaka weather”, the next day's Osaka weather is output from the display unit 35 and the speaker 37. Similarly, various contents such as stock prices, transportation operation information, maps, news, and the like are output from the display unit 35 and the speaker according to the user's utterance.

以上のように、本実施の形態のデジタルサイネージシステム10は、個々のユーザに対してニーズに応じた情報を提供し、非使用時には鏡になる。   As described above, the digital signage system 10 according to the present embodiment provides information according to needs to individual users and becomes a mirror when not in use.

図2は、デジタルサイネージシステム10の構成を示す説明図である。デジタルサイネージシステム10は、インターネット、公衆通信回線またはLAN(Local Area Network)等のネットワークを介して接続されたデジタルサイネージ装置11、音声認識サーバ30および分野サーバ42を備える。   FIG. 2 is an explanatory diagram showing the configuration of the digital signage system 10. The digital signage system 10 includes a digital signage device 11, a voice recognition server 30, and a field server 42 connected via a network such as the Internet, a public communication line, or a LAN (Local Area Network).

デジタルサイネージ装置11は、前述の表示部35、マイク36およびスピーカ37に加えて情報処理装置20を備える。本実施の形態の情報処理装置20は、表示部35の背面に固定可能な小型コンピュータである。情報処理装置20は、汎用のパソコン、タブレットまたはスマートフォン等であっても良い。   The digital signage device 11 includes an information processing device 20 in addition to the display unit 35, the microphone 36, and the speaker 37 described above. The information processing apparatus 20 according to the present embodiment is a small computer that can be fixed to the back surface of the display unit 35. The information processing apparatus 20 may be a general-purpose personal computer, a tablet, a smartphone, or the like.

情報処理装置20は、第1CPU(Central Processing Unit)21、主記憶装置22、補助記憶装置23、通信部24、表示I/F(Interface)25、マイクI/F26、スピーカI/F27およびバスを備える。   The information processing device 20 includes a first CPU (Central Processing Unit) 21, a main storage device 22, an auxiliary storage device 23, a communication unit 24, a display I / F (Interface) 25, a microphone I / F 26, a speaker I / F 27, and a bus. Prepare.

第1CPU21は、本実施の形態にかかるプログラムを実行する演算制御装置である。第1CPU21には、一または複数のCPUまたはマルチコアCPU等が使用される。第1CPU21は、バスを介して情報処理装置20を構成するハードウェア各部と接続されている。   The first CPU 21 is an arithmetic control device that executes a program according to the present embodiment. As the first CPU 21, one or a plurality of CPUs, a multi-core CPU, or the like is used. The first CPU 21 is connected to each hardware unit constituting the information processing apparatus 20 via a bus.

主記憶装置22は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、第1CPU21が行なう処理の途中で必要な情報および第1CPU21で実行中のプログラムが一時的に保存される。   The main storage device 22 is a storage device such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory. The main storage device 22 temporarily stores information necessary during the processing performed by the first CPU 21 and a program being executed by the first CPU 21.

補助記憶装置23は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置23には、第1CPU21に実行させるプログラム、問合先DB51およびプログラムの実行に必要な各種情報が保存される。   The auxiliary storage device 23 is a storage device such as an SRAM, a flash memory, a hard disk, or a magnetic tape. The auxiliary storage device 23 stores a program to be executed by the first CPU 21, an inquiry DB 51, and various information necessary for executing the program.

問合先DB51は、ネットワーク等を介して情報処理装置20に接続された別の記憶装置に記憶されても良い。問合先DB51の詳細については後述する。通信部24は、ネットワークとの通信を行なうインターフェイスである。   The inquiry DB 51 may be stored in another storage device connected to the information processing apparatus 20 via a network or the like. Details of the contact DB 51 will be described later. The communication unit 24 is an interface that performs communication with a network.

表示I/F25は、表示部35とバスとを接続するインターフェイスである。マイクI/F26は、マイク36とバスとを接続するインターフェイスである。スピーカI/F27は、スピーカ37とバスとを接続するI/Fである。   The display I / F 25 is an interface that connects the display unit 35 and the bus. The microphone I / F 26 is an interface that connects the microphone 36 and the bus. The speaker I / F 27 is an I / F that connects the speaker 37 and the bus.

表示部35と表示I/F25との間、マイク36とマイクI/F26との間、および、スピーカ37とスピーカI/F27との間は、ケーブル、または、Bluetooth(登録商標)等の無線通信により接続される。   Wireless communication such as a cable or Bluetooth (registered trademark) between the display unit 35 and the display I / F 25, between the microphone 36 and the microphone I / F 26, and between the speaker 37 and the speaker I / F 27. Connected by.

音声認識サーバ30は、ネットワークを介して音声データを取得し、音声認識によりテキストデータに変換するサーバである。音声認識サーバ30は、第2CPU31、主記憶装置32、補助記憶装置33および通信部34を有する。   The voice recognition server 30 is a server that acquires voice data via a network and converts it into text data by voice recognition. The voice recognition server 30 includes a second CPU 31, a main storage device 32, an auxiliary storage device 33, and a communication unit 34.

第2CPU31は、本実施の形態にかかるプログラムを実行する演算制御装置である。第2CPU31には、一または複数のCPUまたはマルチコアCPU等が使用される。第2CPU31は、バスを介して音声認識サーバ30を構成するハードウェア各部と接続されている。   The second CPU 31 is an arithmetic control device that executes a program according to the present embodiment. As the second CPU 31, one or a plurality of CPUs, a multi-core CPU, or the like is used. The second CPU 31 is connected to each hardware part constituting the voice recognition server 30 via a bus.

主記憶装置32は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置32には、第2CPU31が行なう処理の途中で必要な情報および第2CPU31で実行中のプログラムが一時的に保存される。   The main storage device 32 is a storage device such as SRAM, DRAM, or flash memory. The main storage device 32 temporarily stores information necessary during the processing performed by the second CPU 31 and a program being executed by the second CPU 31.

補助記憶装置33は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置33には、第2CPU31に実行させるプログラム、およびプログラムの実行に必要な各種情報が保存される。   The auxiliary storage device 33 is a storage device such as an SRAM, a flash memory, a hard disk, or a magnetic tape. The auxiliary storage device 33 stores a program to be executed by the second CPU 31 and various information necessary for executing the program.

本実施の形態の音声認識サーバ30は汎用のパーソナルコンピュータ、サーバマシン等の情報処理装置である。また、本実施の形態の音声認識サーバ30は、大型計算機上で動作する仮想マシンでも良い。   The voice recognition server 30 of this embodiment is an information processing apparatus such as a general-purpose personal computer or server machine. Further, the voice recognition server 30 according to the present embodiment may be a virtual machine that operates on a large computer.

分野サーバ42は、たとえば天気サーバ421、株価サーバ422、図示を省略する、交通機関の運行情報サーバ、地図サーバ、ニュースサーバ等の、様々なコンテンツ提供サーバを含む。それぞれの分野サーバ42は、インターネットを介して一般ユーザに公開されたサーバであっても、本実施の形態のデジタルサイネージシステム10の運営事業者が管理するサーバであっても良い。   The field server 42 includes various content providing servers such as a weather server 421, a stock price server 422, a transportation operation information server, a map server, a news server, etc. (not shown). Each field server 42 may be a server opened to general users via the Internet or a server managed by an operator of the digital signage system 10 according to the present embodiment.

図3は、問合先DB51のレコードレイアウトを説明する説明図である。問合先DB51は、デジタルサイネージシステム10が出力するコンテンツの分野と、コンテンツを取得する取得元とを関連づけて記録するデータベースである。   FIG. 3 is an explanatory diagram illustrating the record layout of the inquiry destination DB 51. The inquiry DB 51 is a database that records the field of content output by the digital signage system 10 in association with the acquisition source from which the content is acquired.

問合先DB51は、分野フィールド、取得元フィールドおよび書式フィールドを有する。分野フィールドにはコンテンツの分野が記録されている。取得元フィールドには、コンテンツを取得する取得元の分野サーバ42のURL(Uniform Resource Locator)が記録されている。書式フィールドには、分野サーバから必要な情報を取得する際に用いるパラメータ等の書式が記録されている。   The inquiry DB 51 has a field field, an acquisition source field, and a format field. The field of the content is recorded in the field of field. In the acquisition source field, the URL (Uniform Resource Locator) of the field server 42 from which the content is acquired is recorded. In the format field, a format such as a parameter used when acquiring necessary information from the field server is recorded.

なお、問合先DB51には、コンテンツを取得する際に用いるAPI(Application Programming Interface)とパラメータ等が記録されていても良い。   The inquiry destination DB 51 may record an API (Application Programming Interface) and parameters used when acquiring content.

図4は、プログラムの処理の流れを説明するフローチャートである。なお、プログラムを開始する段階では、表示部35にはコンテンツが出力されておらず、鏡にみえる状態である。   FIG. 4 is a flowchart for explaining the flow of processing of the program. Note that at the stage of starting the program, no content is output on the display unit 35, and the screen appears to be a mirror.

第1CPU21は、マイク36を介して音声データを取得する(ステップS501)。なお、前述のとおりマイク36は、複数のマイクロフォンを含むアレイマイクである。マイク36は、音声をA/D(Analog/Digital)変換した音声データをバスに出力する。マイク36は、それぞれのマイクロフォンが受信した音声の波形を所定の時間差で合成することにより、表示部35の正面の所定の領域で発声された音声を増幅して取得できる。マイク36は、それぞれのマイクロフォンが受信した音声をA/D変換した音声データをバスに出力し、第1CPUが所定の時間差で音声データを合成しても良い。   The first CPU 21 acquires audio data through the microphone 36 (step S501). As described above, the microphone 36 is an array microphone including a plurality of microphones. The microphone 36 outputs audio data obtained by A / D (Analog / Digital) conversion of audio to the bus. The microphones 36 can amplify and acquire the voice uttered in a predetermined area in front of the display unit 35 by synthesizing the waveforms of the sounds received by the respective microphones with a predetermined time difference. The microphone 36 may output audio data obtained by A / D converting audio received by each microphone to the bus, and the first CPU may synthesize the audio data with a predetermined time difference.

第1CPU21は取得した音声データを主記憶装置22または補助記憶装置23に一時的に記憶する。第1CPU21は、音声データを解析して日本語、英語、または、中国語等、どの言語の音声であるかを判定する言語判定を行なう(ステップS502)。言語判定を行なう方法は、従来から知られているため、詳細な説明については省略する。   The first CPU 21 temporarily stores the acquired audio data in the main storage device 22 or the auxiliary storage device 23. The first CPU 21 analyzes the audio data and performs language determination for determining which language, such as Japanese, English, or Chinese, is used (step S502). Since the method for performing language determination has been conventionally known, detailed description thereof is omitted.

第1CPU21は、言語判定が成功したか否かを判定する(ステップS503)。たとえば、取得した音声の音量が小さい場合、または、車の騒音等言語以外の音声である場合には、どの言語であるかの判定を行なえないため、第1CPU21は、言語判定は失敗したと判定する。言語判定が失敗したと判定した場合(ステップS503でNO)、第1CPU21はステップS501に戻る。   The first CPU 21 determines whether or not the language determination is successful (step S503). For example, when the volume of the acquired voice is low, or when the voice is a language other than a language such as a car noise, the first CPU 21 determines that the language determination has failed because the language cannot be determined. To do. If it is determined that the language determination has failed (NO in step S503), the first CPU 21 returns to step S501.

言語判定に成功したと判定した場合(ステップS503でYES)、第1CPU21は主記憶装置22または補助記憶装置23に一時的に記憶した音声データ、および、ステップS502で判定した言語の種類を音声認識サーバ30に送信する(ステップS504)。   If it is determined that the language determination is successful (YES in step S503), the first CPU 21 recognizes the voice data temporarily stored in the main storage device 22 or the auxiliary storage device 23 and the language type determined in step S502. It transmits to the server 30 (step S504).

第2CPU31は、送信された音声データおよび言語を受信する(ステップS601)。第2CPU31は、送信された音声データの言語認識を行い、テキストデータに変換する(ステップS602)。言語認識は従来から広く行なわれているため、詳細な説明については省略する。なお、音声データと共に取得した言語種類に基づいて言語認識を行なうことにより、第2CPU31は短い処理時間で、正確が言語認識を行なえる。第2CPU31は、ステップS601で受信した音声データに対応するテキストデータを、情報処理装置20に送信する(ステップS603)。   The second CPU 31 receives the transmitted voice data and language (step S601). The second CPU 31 performs language recognition of the transmitted voice data and converts it into text data (step S602). Since language recognition has been widely performed in the past, detailed description is omitted. In addition, by performing language recognition based on the language type acquired together with the voice data, the second CPU 31 can accurately perform language recognition in a short processing time. The second CPU 31 transmits text data corresponding to the voice data received in step S601 to the information processing apparatus 20 (step S603).

第1CPU21は、テキストデータを受信する(ステップS510)。第1CPU21は、テキストデータの意味を解析する(ステップS511)。意味の解析は、たとえば形態素解析等の自然言語処理手法により行なわれる。テキストの意味解析を行なう方法は、従来から知られているため、詳細な説明については省略する。   The first CPU 21 receives text data (step S510). The first CPU 21 analyzes the meaning of the text data (step S511). The semantic analysis is performed by a natural language processing technique such as morphological analysis. Since a method for analyzing the meaning of text has been conventionally known, a detailed description thereof will be omitted.

第1CPU21は、意味解析に成功したか否かを判定する(ステップS512)。たとえば、ステップS510で受信したテキストに、ステップS502で判定した言語の単語が含まれていない場合に、第1CPU21は意味解析に成功していないと判定する。意味解析に成功していないと判定した場合(ステップS512でNO)、第1CPU21はステップS501に戻る。   The first CPU 21 determines whether or not the semantic analysis has succeeded (step S512). For example, if the text received in step S510 does not include the word in the language determined in step S502, the first CPU 21 determines that the semantic analysis has not been successful. If it is determined that the semantic analysis has not been successful (NO in step S512), the first CPU 21 returns to step S501.

意味解析に成功したと判定した場合(ステップS512でYES)、第1CPU21はコンテンツ取得のサブルーチンを起動する(ステップS513)。コンテンツ取得のサブルーチンは、テキストデータに基づいて表示部35およびスピーカ37から出力するコンテンツを取得するサブルーチンである。コンテンツ取得のサブルーチンの処理の流れは後述する。   If it is determined that the semantic analysis is successful (YES in step S512), the first CPU 21 starts a content acquisition subroutine (step S513). The content acquisition subroutine is a subroutine for acquiring content output from the display unit 35 and the speaker 37 based on text data. The processing flow of the content acquisition subroutine will be described later.

第1CPU21は、取得したコンテンツを表示部35およびスピーカ37から出力する(ステップS514)。第1CPU21は、処理を終了するか否かを判定する(ステップS515)。たとえば、あらかじめ設定された運用終了時刻になった場合、または、ネットワークを介して管理者から運用終了の指示を受け付けた場合に、第1CPU21は処理を終了すると判定する。   The first CPU 21 outputs the acquired content from the display unit 35 and the speaker 37 (step S514). The first CPU 21 determines whether or not to end the process (step S515). For example, when the operation end time set in advance is reached, or when an operation end instruction is received from the administrator via the network, the first CPU 21 determines to end the process.

処理を終了すると判定した場合(ステップS515でYES)、第1CPU21は処理を終了する。処理を終了しないと判定した場(ステップS515でNO)、第1CPU21はステップS501に戻る。   If it is determined that the process is to be ended (YES in step S515), the first CPU 21 ends the process. If it is determined not to end the process (NO in step S515), the first CPU 21 returns to step S501.

図5は、コンテンツ取得のサブルーチンの処理の流れを説明するフローチャートである。コンテンツ取得のサブルーチンは、テキストデータに基づいて表示部35およびスピーカ37から出力するコンテンツを取得するサブルーチンである。   FIG. 5 is a flowchart for explaining the flow of processing of the content acquisition subroutine. The content acquisition subroutine is a subroutine for acquiring content output from the display unit 35 and the speaker 37 based on text data.

第1CPU21は、テキストを意味解析した結果に基づいて表示するコンテンツの分野を判定する(ステップS521)。たとえば、天気に関する質問であると判定した場合に、第1CPU21は分野は天気であると判定する。   The first CPU 21 determines the field of the content to be displayed based on the result of the semantic analysis of the text (step S521). For example, when it is determined that the question is related to the weather, the first CPU 21 determines that the field is weather.

第1CPU21は、判定した分野をキーとして問合先DB51を検索して、レコードを抽出する。第1CPU21は、抽出したレコードの書式フィールドに基づいて、コンテンツを取得するコマンドを生成する(ステップS522)。なお第1CPU21は、ユーザが使用した言語を用いたコンテンツを取得するコマンドを生成することが望ましい。   The first CPU 21 searches the inquiry DB 51 using the determined field as a key, and extracts a record. The first CPU 21 generates a command for acquiring content based on the format field of the extracted record (step S522). Note that the first CPU 21 desirably generates a command for acquiring content using the language used by the user.

第1CPU21は、抽出したレコードの取得元フィールドに記録されたURL宛にコマンドを送信する。第1CPU21は、コマンドを受信した分野サーバ42は、コマンドに基づいて検索処理を行い、検索結果であるコンテンツを送信する。第1CPU21は、コンテンツを取得する(ステップS523)。第1CPU21は、処理を終了する。   The first CPU 21 transmits a command to the URL recorded in the acquisition source field of the extracted record. The first CPU 21 receives the command, the field server 42 performs search processing based on the command, and transmits the content that is the search result. The first CPU 21 acquires content (step S523). The first CPU 21 ends the process.

第1CPU21が取得するコンテンツは、「現在の天気は曇りです」のようなテキスト情報、天気図のような静止画、過去24時間の天気図の移り変わり等の動画等、任意の形式のコンテンツを使用できる。どのような形式のコンテンツを取得するかの指定を、ステップS522で作成するコマンドに含めても良い。   The content acquired by the first CPU 21 uses content in an arbitrary format such as text information such as “current weather is cloudy”, a still image such as a weather map, and a moving image such as a transition of the weather map for the past 24 hours. it can. Specification of what type of content is to be acquired may be included in the command created in step S522.

スピーカ37は、鋭い指向性を持ち特定の位置にいる人だけに音が聞こえるようにするパラメトリック・スピーカであっても良い。たとえば図書館または美術館等の、静粛な場所に設置可能なデジタルサイネージシステム10を提供できる。   The speaker 37 may be a parametric speaker that has a sharp directivity and allows only a person at a specific position to hear a sound. For example, the digital signage system 10 that can be installed in a quiet place such as a library or an art museum can be provided.

デジタルサイネージ装置11は、人感センサを備えても良い。たとえば、一定時間以上表示部の前で立ち止まっているユーザを検知した場合、第1CPU21は「御質問があれば、話して下さい」等の文字および音声を出力して、ユーザに入力を促しても良い。   The digital signage device 11 may include a human sensor. For example, when the first CPU 21 detects a user who has stopped in front of the display unit for a certain period of time, the first CPU 21 may output characters and voices such as “Please speak if there is a question” to prompt the user to input. good.

表示部35は、表面にタッチセンサを備えるタッチパネルであっても良い。音声に加えて、タッチ操作によりユーザが入力を行なえるデジタルサイネージ装置11を提供できる。   The display unit 35 may be a touch panel including a touch sensor on the surface. In addition to voice, the digital signage device 11 that allows the user to input by touch operation can be provided.

本実施の形態によると、近くにいる人のニーズに合わせた情報を表示するデジタルサイネージ装置を提供できる。本実施の形態によると、非使用時には鏡にみえて、空間を広く見せる効果を有するデジタルサイネージ装置11を提供できる。   According to this embodiment, it is possible to provide a digital signage device that displays information according to the needs of people nearby. According to the present embodiment, it is possible to provide the digital signage device 11 having an effect of making the space look wide when not in use.

本実施の形態によると、図4を使用して説明したステップS502においてどの言語の音声であるかを判定した後に、音声認識サーバ30において言語認識を行なう。これにより、言語以外の音を処理するため、および、様々な言語である場合の処理を行なうため音声認識サーバ30のリソースが消費されることを防ぐことができる。以上により、ユーザの発声から、コンテンツの表示までの時間が短く、ユーザが快適に使用できるデジタルサイネージシステム10を提供できる。   According to the present embodiment, the speech recognition server 30 performs language recognition after determining which language is the speech in step S502 described with reference to FIG. Accordingly, it is possible to prevent the resources of the speech recognition server 30 from being consumed for processing sounds other than languages and for processing in the case of various languages. As described above, it is possible to provide the digital signage system 10 that can be used comfortably by the user with a short time from the user's voice to the display of the content.

本実施の形態によると、ネットワークを介して様々な分野サーバ42からコンテンツを取得するため、ユーザの使用する言語に応じたコンテンツを表示できる。マイク36にアレイマイクを使用することにより、騒音のある環境であっても表示部35の前にいるユーザの声を増幅して取得するデジタルサイネージシステム10を提供できる。   According to the present embodiment, since content is acquired from various field servers 42 via a network, it is possible to display content according to the language used by the user. By using an array microphone as the microphone 36, it is possible to provide the digital signage system 10 that amplifies and acquires the voice of the user in front of the display unit 35 even in a noisy environment.

[実施の形態2]
本実施の形態は、ユーザの声をテキストに変換して表示部35に表示する議事録モードを有するデジタルサイネージシステム10に関する。実施の形態1と共通する部分については、説明を省略する。
[Embodiment 2]
The present embodiment relates to a digital signage system 10 having a minutes mode in which a user's voice is converted into text and displayed on a display unit 35. Description of portions common to the first embodiment is omitted.

図6および図7は、実施の形態2のデジタルサイネージシステムの概要を説明する説明図である。図6は、二人のユーザが表示部35の前に立って日本語で会話をしている。会話の内容がテキストに変換されて、表示部35に表示される。   6 and 7 are explanatory diagrams for explaining the outline of the digital signage system according to the second embodiment. In FIG. 6, two users are standing in front of the display unit 35 and talking in Japanese. The contents of the conversation are converted into text and displayed on the display unit 35.

図7においては、ユーザは英語で会話をしている。表示部35には、英語のテキストが表示されている。なお、表示部35に表示されたテキストは、議事録モードの終了後、メール等によりユーザに送信される。   In FIG. 7, the user has a conversation in English. The display unit 35 displays English text. Note that the text displayed on the display unit 35 is transmitted to the user by e-mail or the like after the minutes mode ends.

図8は、実施の形態2のプログラムの処理の流れを説明するフローチャートである。ステップS512までは、図1を使用して説明した実施の形態1のプログラムの処理の流れと同一であるため、説明を省略する。   FIG. 8 is a flowchart for explaining the processing flow of the program according to the second embodiment. Steps up to step S512 are the same as the process flow of the program according to the first embodiment described with reference to FIG.

意味解析に成功していないと判定した場合(ステップS512でNO)、第1CPU21はステップS501に戻る。意味解析に成功したと判定した場合(ステップS512でYES)、第1CPU21は、テキストが議事録モードの起動を意味するか否かを判定する(ステップS531)。   If it is determined that the semantic analysis has not been successful (NO in step S512), the first CPU 21 returns to step S501. If it is determined that the semantic analysis is successful (YES in step S512), the first CPU 21 determines whether or not the text means activation of the minutes mode (step S531).

議事録モードの起動を意味すると判定した場合(ステップS531でYES)、第1CPU21は議事録表示のサブルーチンを起動する(ステップS532)。議事録表示のサブルーチンは、ユーザの音声をテキスト変換して、表示部35に表示するサブルーチンである。議事録表示のサブルーチンの処理の流れについては、後述する。   If it is determined that it means the start of the minutes mode (YES in step S531), the first CPU 21 starts a minutes display subroutine (step S532). The minutes display subroutine is a subroutine for converting the user's voice into text and displaying it on the display unit 35. The process flow of the minutes display subroutine will be described later.

議事録モードの起動を意味しないと判定した場合(ステップS531でNO)、第1CPU21はコンテンツ取得のサブルーチンを起動する(ステップS513)。コンテンツ取得のサブルーチンは、図5を使用して説明したサブルーチンと同一のサブルーチンである。   If it is determined that it does not mean that the minutes mode is activated (NO in step S531), the first CPU 21 activates a content acquisition subroutine (step S513). The content acquisition subroutine is the same as the subroutine described with reference to FIG.

第1CPU21は、取得したコンテンツを表示部35およびスピーカ37から出力する(ステップS514)。ステップS514またはステップS532の終了後、第1CPU21は、処理を終了するか否かを判定する(ステップS515)。   The first CPU 21 outputs the acquired content from the display unit 35 and the speaker 37 (step S514). After step S514 or step S532, the first CPU 21 determines whether or not to end the process (step S515).

処理を終了すると判定した場合(ステップS515でYES)、第1CPU21は処理を終了する。処理を終了しないと判定した場(ステップS515でNO)、第1CPU21はステップS501に戻る。   If it is determined that the process is to be ended (YES in step S515), the first CPU 21 ends the process. If it is determined not to end the process (NO in step S515), the first CPU 21 returns to step S501.

図9は、議事録表示のサブルーチンの処理の流れを説明するフローチャートである。議事録表示のサブルーチンは、ユーザの音声をテキスト変換して、表示部35に表示するサブルーチンである。   FIG. 9 is a flowchart for explaining the processing flow of the minutes display subroutine. The minutes display subroutine is a subroutine for converting the user's voice into text and displaying it on the display unit 35.

第1CPU21は、マイク36を介して音声データを取得する(ステップS541)。第1CPU21は取得した音声データを主記憶装置22または補助記憶装置23に一時的に記憶する。第1CPU21は、音声データを解析して日本語、英語、または、中国語等、どの言語の音声であるかを判定する言語判定を行なう(ステップS542)。   The first CPU 21 acquires audio data through the microphone 36 (step S541). The first CPU 21 temporarily stores the acquired audio data in the main storage device 22 or the auxiliary storage device 23. The first CPU 21 analyzes the audio data and performs language determination for determining which language, such as Japanese, English, Chinese, or the like (step S542).

第1CPU21は、言語判定が成功したか否かを判定する(ステップS543)。言語判定が失敗したと判定した場合(ステップS543でNO)、第1CPU21はステップS541に戻る。   The first CPU 21 determines whether or not the language determination is successful (step S543). If it is determined that the language determination has failed (NO in step S543), the first CPU 21 returns to step S541.

言語判定に成功したと判定した場合(ステップS543でYES)、第1CPU21は音声の話者を識別する(ステップS544)。ここで識別とは、表示部35の前にいる数名程度の話者のうち、どの話者が発声したかを識別することを意味する。   If it is determined that the language determination has succeeded (YES in step S543), the first CPU 21 identifies a speaker of speech (step S544). Here, the identification means identifying which speaker has spoken out of about several speakers in front of the display unit 35.

たとえば、第1CPU21は声紋解析等により話者を識別できる。また、第1CPU21はマイク36のマイクアレイを構成する各マイクロフォンの出力に基づいて、話者の位置を推定することにより、話者を識別してもよい。   For example, the first CPU 21 can identify the speaker by voiceprint analysis or the like. Further, the first CPU 21 may identify the speaker by estimating the position of the speaker based on the output of each microphone constituting the microphone array of the microphone 36.

第1CPU21は主記憶装置22または補助記憶装置23に一時的に記憶した音声データ、および、ステップS502で判定した言語の種類を音声認識サーバ30に送信する(ステップS545)。   The first CPU 21 transmits the voice data temporarily stored in the main storage device 22 or the auxiliary storage device 23 and the language type determined in step S502 to the voice recognition server 30 (step S545).

第2CPU31は、送信された音声データおよび言語を受信する(ステップS621)。第2CPU31は、送信された音声データの言語認識を行い、テキストデータに変換する(ステップS622)。第2CPU31は、テキストデータを情報処理装置20に送信する(ステップS623)。   The second CPU 31 receives the transmitted voice data and language (step S621). The second CPU 31 performs language recognition of the transmitted voice data and converts it into text data (step S622). The second CPU 31 transmits text data to the information processing apparatus 20 (step S623).

第1CPU21は、テキストデータを受信する(ステップS550)。第1CPU21は、受信したテキストデータを、主記憶装置22または補助記憶装置23に一時的に記憶する。第1CPU550は、表示部35にテキストデータを表示する(ステップS551)。   The first CPU 21 receives text data (step S550). The first CPU 21 temporarily stores the received text data in the main storage device 22 or the auxiliary storage device 23. The first CPU 550 displays text data on the display unit 35 (step S551).

なお、ステップS551において第1CPUは、図6および図7に例示するように吹き出しの向きで区別して表示する。第1CPUは、吹き出しの向きの代わりに、吹き出しの色、文字の色またはフォント等、任意の形式で話者を区別して表示しても良い。第1CPU21は、話者を区別せずにテキストデータを表示しても良い。   In step S551, the first CPU distinguishes and displays the directions according to the direction of the balloon as illustrated in FIGS. The first CPU may distinguish and display the speaker in an arbitrary format such as a balloon color, a character color, or a font instead of the balloon direction. The first CPU 21 may display text data without distinguishing speakers.

第1CPU21は、処理を終了するか否かを判定する(ステップS555)。たとえば、所定の時間音声データが検出されない場合に、第1CPU21は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS555でNO)、第1CPU21はステップS541に戻る。   The first CPU 21 determines whether or not to end the process (step S555). For example, if no audio data is detected for a predetermined time, the first CPU 21 determines to end the process. When it determines with not complete | finishing a process (it is NO at step S555), 1st CPU21 returns to step S541.

処理を終了すると判定した場合(ステップS555でYES)、第1CPU21は処理を終了する。なお第1CPU21は、処理を終了する前に主記憶装置22または補助記憶装置23に記憶したテキストをユーザにより指定されたメールアドレス等に送信しても良い。第1CPU21は、処理を終了する前に主記憶装置22または補助記憶装置23に記憶したテキストを所定のサーバに保存し、アクセス用のURLを表示部35に表示しても良い。   If it is determined that the process is to be ended (YES in step S555), the first CPU 21 ends the process. Note that the first CPU 21 may transmit the text stored in the main storage device 22 or the auxiliary storage device 23 to an e-mail address or the like designated by the user before finishing the process. The first CPU 21 may store the text stored in the main storage device 22 or the auxiliary storage device 23 in a predetermined server before displaying the process, and display the access URL on the display unit 35.

本実施の形態によると、自動的に議事録を作成するデジタルサイネージシステム10を提供できる。ユーザは、議事録モードを一人で使用しても良い。いわゆる口述筆記を行なうデジタルサイネージシステム10を提供できる。   According to the present embodiment, it is possible to provide a digital signage system 10 that automatically creates minutes. The user may use the minutes mode alone. A digital signage system 10 that performs so-called dictation can be provided.

なお、図9を使用して説明した議事録表示のサブルーチンにおいて、ステップS550で受信したテキストデータを機械翻訳した後に、ステップS551で表示しても良い。たとえば、日本語の話者による発言を図7に示すように英語で、英語の話者による発言を図6に示すように日本語で表示することにより、異なる言語を使用するユーザ同士のコミュニュケーションを支援するデジタルサイネージシステム10を提供できる。   In the minutes display subroutine described with reference to FIG. 9, the text data received in step S550 may be machine translated and then displayed in step S551. For example, by displaying a speech by a Japanese speaker in English as shown in FIG. 7 and a speech by an English speaker in Japanese as shown in FIG. 6, communication between users who use different languages can be performed. The digital signage system 10 that supports the application can be provided.

[実施の形態3]
図10は、実施の形態3のデジタルサイネージ装置11の機能ブロック図である。デジタルサイネージ装置11は、前述のマイク36と表示部35とに加えて、テキスト取得部81および出力部82を備える。
[Embodiment 3]
FIG. 10 is a functional block diagram of the digital signage apparatus 11 according to the third embodiment. The digital signage apparatus 11 includes a text acquisition unit 81 and an output unit 82 in addition to the microphone 36 and the display unit 35 described above.

表示部35は、ハーフミラーにより覆われている。マイク36は、表示部35の近傍から音声を取得する。テキスト取得部81は、マイク36が取得した音声に基づくテキストを取得する。出力部82は、テキスト取得部81が取得したテキストに基づくコンテンツを表示部35に出力する。   The display unit 35 is covered with a half mirror. The microphone 36 acquires sound from the vicinity of the display unit 35. The text acquisition unit 81 acquires text based on the voice acquired by the microphone 36. The output unit 82 outputs content based on the text acquired by the text acquisition unit 81 to the display unit 35.

[実施の形態4]
本実施の形態は、汎用のコンピュータとプログラム97とを組み合わせて動作させることにより、本実施の形態のデジタルサイネージシステム10を実現する形態に関する。図11は、実施の形態4のデジタルサイネージシステム10の構成を示す説明図である。なお、実施の形態1と共通する部分の説明は省略する。
[Embodiment 4]
The present embodiment relates to a mode for realizing the digital signage system 10 of the present embodiment by operating a general-purpose computer and a program 97 in combination. FIG. 11 is an explanatory diagram illustrating a configuration of the digital signage system 10 according to the fourth embodiment. Note that description of portions common to the first embodiment is omitted.

本実施の形態のデジタルサイネージシステム10は、ネットワークを介して接続されたデジタルサイネージ装置11、音声認識サーバ30および分野サーバ42を備える。デジタルサイネージ装置11は、コンピュータ90、表示部35、マイク36およびスピーカ37を備える。   The digital signage system 10 of this embodiment includes a digital signage device 11, a voice recognition server 30, and a field server 42 connected via a network. The digital signage apparatus 11 includes a computer 90, a display unit 35, a microphone 36, and a speaker 37.

コンピュータ90は、第1CPU21、主記憶装置22、補助記憶装置23、通信部24、表示I/F25、マイクI/F26、スピーカI/F27、読取部95およびバスを備える。   The computer 90 includes a first CPU 21, a main storage device 22, an auxiliary storage device 23, a communication unit 24, a display I / F 25, a microphone I / F 26, a speaker I / F 27, a reading unit 95, and a bus.

プログラム97は、可搬型記録媒体96に記録されている。第1CPU21は、読取部95を介してプログラム97を読み込み、補助記憶装置23に保存する。また第1CPU21は、コンピュータ90に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、第1CPU21は、通信部24および図示しないネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置23に保存しても良い。   The program 97 is recorded on a portable recording medium 96. The first CPU 21 reads the program 97 via the reading unit 95 and stores it in the auxiliary storage device 23. The first CPU 21 may read the program 97 stored in the semiconductor memory 98 such as a flash memory mounted on the computer 90. Furthermore, the first CPU 21 may download the program 97 from another server computer (not shown) connected via the communication unit 24 and a network (not shown) and store the program 97 in the auxiliary storage device 23.

プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置22にロードして実行される。これにより、コンピュータ90は上述した情報処理装置20として機能する。   The program 97 is installed as a control program for the computer 90, loaded into the main storage device 22, and executed. Thereby, the computer 90 functions as the information processing apparatus 20 described above.

各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
The technical features (components) described in each embodiment can be combined with each other, and new technical features can be formed by combining them.
The embodiments disclosed herein are illustrative in all respects and should not be considered as restrictive. The scope of the present invention is defined not by the above-described meaning but by the scope of the claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of the claims.

10 デジタルサイネージシステム
11 デジタルサイネージ装置
20 情報処理装置
21 第1CPU
22 主記憶装置
23 補助記憶装置
24 通信部
25 表示I/F
26 マイクI/F
27 スピーカI/F
30 音声認識サーバ
31 第2CPU
32 主記憶装置
33 補助記憶装置
34 通信部
35 表示部
36 マイク
37 スピーカ
42 分野サーバ
421 天気サーバ
422 株価サーバ
51 問合先DB
81 テキスト取得部
82 出力部
90 コンピュータ
95 読取部
96 可搬型記録媒体
97 プログラム
98 半導体メモリ
DESCRIPTION OF SYMBOLS 10 Digital signage system 11 Digital signage apparatus 20 Information processing apparatus 21 1st CPU
22 Main storage device 23 Auxiliary storage device 24 Communication unit 25 Display I / F
26 Microphone I / F
27 Speaker I / F
30 Voice recognition server 31 2nd CPU
32 Main storage device 33 Auxiliary storage device 34 Communication unit 35 Display unit 36 Microphone 37 Speaker 42 Field server 421 Weather server 422 Stock price server 51 Inquiry DB
81 Text Acquisition Unit 82 Output Unit 90 Computer 95 Reading Unit 96 Portable Recording Medium 97 Program 98 Semiconductor Memory

Claims (4)

ハーフミラーにより覆われた表示部と、
前記表示部の近傍から音声を取得するマイクと、
前記マイクが取得した音声に基づくテキストを取得するテキスト取得部と、
前記テキスト取得部が取得した前記テキストに基づくコンテンツを前記表示部に出力する出力部と
を備えるデジタルサイネージ装置。
A display unit covered with a half mirror;
A microphone for acquiring sound from the vicinity of the display unit;
A text acquisition unit for acquiring text based on the voice acquired by the microphone;
A digital signage apparatus comprising: an output unit that outputs content based on the text acquired by the text acquisition unit to the display unit.
前記出力部は、前記テキストをキーとする検索結果を出力する
請求項1に記載のデジタルサイネージ装置。
The digital signage apparatus according to claim 1, wherein the output unit outputs a search result using the text as a key.
前記マイクが取得した音声に基づいて言語を判定する言語判定部を備え、
前記テキスト取得部は、前記言語判定部が特定した言語に対応する前記テキストを取得する
請求項1または請求項2に記載のデジタルサイネージ装置。
A language determination unit for determining a language based on the voice acquired by the microphone;
The digital signage apparatus according to claim 1, wherein the text acquisition unit acquires the text corresponding to the language specified by the language determination unit.
マイクを介して音声を取得し、
取得した音声に基づくテキストを取得し、
取得した前記テキストに基づくコンテンツを、前記マイクの近傍に配置されておりハーフミラーにより覆われた表示部に出力する
処理をコンピュータに実行させるプログラム。
Get audio through the microphone,
Get text based on the acquired voice,
A program that causes a computer to execute a process of outputting content based on the acquired text to a display unit that is disposed in the vicinity of the microphone and covered with a half mirror.
JP2018038861A 2018-03-05 2018-03-05 Digital signage device and program Pending JP2019153160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018038861A JP2019153160A (en) 2018-03-05 2018-03-05 Digital signage device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018038861A JP2019153160A (en) 2018-03-05 2018-03-05 Digital signage device and program

Publications (1)

Publication Number Publication Date
JP2019153160A true JP2019153160A (en) 2019-09-12

Family

ID=67946607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018038861A Pending JP2019153160A (en) 2018-03-05 2018-03-05 Digital signage device and program

Country Status (1)

Country Link
JP (1) JP2019153160A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386253B2 (en) 2019-09-19 2023-11-24 三井デザインテック株式会社 Digital signage management system
JP7444742B2 (en) 2020-09-11 2024-03-06 Toa株式会社 Information provision system and information provision method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386253B2 (en) 2019-09-19 2023-11-24 三井デザインテック株式会社 Digital signage management system
JP7444742B2 (en) 2020-09-11 2024-03-06 Toa株式会社 Information provision system and information provision method

Similar Documents

Publication Publication Date Title
US9864745B2 (en) Universal language translator
KR102509464B1 (en) Utterance classifier
US11514886B2 (en) Emotion classification information-based text-to-speech (TTS) method and apparatus
JP6750125B2 (en) Hot word trigger suppression for recording media
KR102458805B1 (en) Multi-user authentication on a device
JP6463825B2 (en) Multi-speaker speech recognition correction system
KR102196400B1 (en) Determining hotword suitability
CN101287043B (en) Method and apparatus for providing expressive user interaction with a multimodal application
JP6819672B2 (en) Information processing equipment, information processing methods, and programs
US9349367B2 (en) Records disambiguation in a multimodal application operating on a multimodal device
US20140278379A1 (en) Integration of semantic context information
TW201629949A (en) A caching apparatus for serving phonetic pronunciations
US10062385B2 (en) Automatic speech-to-text engine selection
TW201926079A (en) Bidirectional speech translation system, bidirectional speech translation method and computer program product
WO2019199742A1 (en) Continuous detection of words and related user experience
US20190130917A1 (en) Automated enrichment of speech transcription with context
WO2019031268A1 (en) Information processing device and information processing method
JP2019153160A (en) Digital signage device and program
WO2018135303A1 (en) Information processing device, information processing method, and program
US10522135B2 (en) System and method for segmenting audio files for transcription
JP6828741B2 (en) Information processing device
JPH10326176A (en) Voice conversation control method
JP2010128766A (en) Information processor, information processing method, program and recording medium
US20210026923A1 (en) Intent-Based Language Translation
JP2002132291A (en) Natural language interaction processor and method for the same as well as memory medium for the same