JP2019153160A - Digital signage device and program - Google Patents
Digital signage device and program Download PDFInfo
- Publication number
- JP2019153160A JP2019153160A JP2018038861A JP2018038861A JP2019153160A JP 2019153160 A JP2019153160 A JP 2019153160A JP 2018038861 A JP2018038861 A JP 2018038861A JP 2018038861 A JP2018038861 A JP 2018038861A JP 2019153160 A JP2019153160 A JP 2019153160A
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- text
- digital signage
- microphone
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、デジタルサイネージ装置およびプログラムに関する。 The present invention relates to a digital signage apparatus and a program.
工事現場に設置される仮囲い用の壁にディスプレイを設けたデジタルサイネージ装置が提案されている(特許文献1)。工事現場周辺の歩行者および近隣住民等に、工事情報、地域情報および広告等の情報を提供できる。 There has been proposed a digital signage device in which a display is provided on a temporary enclosure wall installed at a construction site (Patent Document 1). Information such as construction information, regional information and advertisements can be provided to pedestrians and neighbors around the construction site.
しかしながら、特許文献1のデジタルサイネージ装置においては、装置の近くにいる人のニーズに合わせた情報を表示することはできない。
However, the digital signage device of
一つの側面では、近くにいる人のニーズに合わせた情報を表示するデジタルサイネージ装置等を提供することを目的とする。 In one aspect, an object of the present invention is to provide a digital signage device that displays information according to the needs of people nearby.
デジタルサイネージ装置は、ハーフミラーにより覆われた表示部と、前記表示部の近傍から音声を取得するマイクと、前記マイクが取得した音声に基づくテキストを取得するテキスト取得部と、前記テキスト取得部が取得した前記テキストに基づくコンテンツを前記表示部に出力する出力部とを備える。 The digital signage device includes a display unit covered with a half mirror, a microphone that acquires voice from the vicinity of the display unit, a text acquisition unit that acquires text based on the voice acquired by the microphone, and the text acquisition unit And an output unit that outputs content based on the acquired text to the display unit.
一つの側面では、近くにいる人のニーズに合わせた情報を表示するデジタルサイネージ装置等を提供できる。 In one aspect, it is possible to provide a digital signage device that displays information according to the needs of people nearby.
[実施の形態1]
図1は、デジタルサイネージシステム10の概要を説明する説明図である。デジタルサイネージシステム10は、壁に取り付けられた表示部35、マイク36およびスピーカ37を含む。表示部35は、たとえば液晶表示パネルまたは有機EL(electro-luminescence)表示パネルである。
[Embodiment 1]
FIG. 1 is an explanatory diagram for explaining the outline of the
表示部35の表面は、アクリル板またはガラス板等の、透光性板により覆われている。透光性板は、一面に薄い反射膜を有するハーフミラーである。表示部35の表示面と、透光性板とは、いわゆるダイレクトボンディングにより接合しても良い。表示面と透光性板とを、空気層を介さずに直接接合することにより、透光性板と表示面との間の光の反射による画質低下を防止できる。
The surface of the
マイク36は、複数のマイクロフォンを含むアレイマイクであり、感度および音声検出領域を適宜調整できる。スピーカ37の音量も適宜調整できる。マイク36およびスピーカ37は、表示部35に一体に構成されていても良い。
The
表示部35を覆う透光性板に、表示部35よりも大きい板を使用し、透光性板の裏面の表示部35で覆われていない部分にエキサイターを固定してスピーカ37を構成しても良い。表示部35全体から、音を発生するスピーカ37を実現できる。マイク36およびスピーカ37は、天井等に取り付けられていても良い。
A plate larger than the
本実施の形態のデジタルサイネージシステム10は、たとえば駅のコンコース、バス停、公共施設の内壁、または、道路に面した建物の外壁等の、様々な場所に設置して使用される。
The
図1Aは、動作していない場合のデジタルサイネージシステム10を示す。表示部35を覆う透光性板により光が反射され、表示部35は鏡の機能を果たす。これにより、空間を広く見せる演出が可能である。
FIG. 1A shows the
図1Bは、動作している場合のデジタルサイネージシステム10を示す。図1Bにおいては表示部35の前に立ったユーザが「天気」と発声した場合を示す。マイク36がユーザの声を検出して、天気情報を取得し、表示部35に表示する。さらにスピーカ37から「現在の天気は曇りです」という音声が出力される。
FIG. 1B shows the
たとえばユーザが「札幌の天気」と発声した場合には、札幌の天気が表示部35およびスピーカ37から出力される。ユーザが「明日の大阪の天気」と発声した場合には、翌日の大阪の天気が表示部35およびスピーカ37から出力される。同様に、ユーザの発声に応じて、たとえば株価、交通機関の運行情報、地図、ニュース等の、様々なコンテンツが表示部35およびスピーカから出力される。
For example, when the user utters “Sapporo weather”, the Sapporo weather is output from the
以上のように、本実施の形態のデジタルサイネージシステム10は、個々のユーザに対してニーズに応じた情報を提供し、非使用時には鏡になる。
As described above, the
図2は、デジタルサイネージシステム10の構成を示す説明図である。デジタルサイネージシステム10は、インターネット、公衆通信回線またはLAN(Local Area Network)等のネットワークを介して接続されたデジタルサイネージ装置11、音声認識サーバ30および分野サーバ42を備える。
FIG. 2 is an explanatory diagram showing the configuration of the
デジタルサイネージ装置11は、前述の表示部35、マイク36およびスピーカ37に加えて情報処理装置20を備える。本実施の形態の情報処理装置20は、表示部35の背面に固定可能な小型コンピュータである。情報処理装置20は、汎用のパソコン、タブレットまたはスマートフォン等であっても良い。
The
情報処理装置20は、第1CPU(Central Processing Unit)21、主記憶装置22、補助記憶装置23、通信部24、表示I/F(Interface)25、マイクI/F26、スピーカI/F27およびバスを備える。
The
第1CPU21は、本実施の形態にかかるプログラムを実行する演算制御装置である。第1CPU21には、一または複数のCPUまたはマルチコアCPU等が使用される。第1CPU21は、バスを介して情報処理装置20を構成するハードウェア各部と接続されている。
The
主記憶装置22は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、第1CPU21が行なう処理の途中で必要な情報および第1CPU21で実行中のプログラムが一時的に保存される。
The
補助記憶装置23は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置23には、第1CPU21に実行させるプログラム、問合先DB51およびプログラムの実行に必要な各種情報が保存される。
The
問合先DB51は、ネットワーク等を介して情報処理装置20に接続された別の記憶装置に記憶されても良い。問合先DB51の詳細については後述する。通信部24は、ネットワークとの通信を行なうインターフェイスである。
The
表示I/F25は、表示部35とバスとを接続するインターフェイスである。マイクI/F26は、マイク36とバスとを接続するインターフェイスである。スピーカI/F27は、スピーカ37とバスとを接続するI/Fである。
The display I /
表示部35と表示I/F25との間、マイク36とマイクI/F26との間、および、スピーカ37とスピーカI/F27との間は、ケーブル、または、Bluetooth(登録商標)等の無線通信により接続される。
Wireless communication such as a cable or Bluetooth (registered trademark) between the
音声認識サーバ30は、ネットワークを介して音声データを取得し、音声認識によりテキストデータに変換するサーバである。音声認識サーバ30は、第2CPU31、主記憶装置32、補助記憶装置33および通信部34を有する。
The
第2CPU31は、本実施の形態にかかるプログラムを実行する演算制御装置である。第2CPU31には、一または複数のCPUまたはマルチコアCPU等が使用される。第2CPU31は、バスを介して音声認識サーバ30を構成するハードウェア各部と接続されている。
The
主記憶装置32は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置32には、第2CPU31が行なう処理の途中で必要な情報および第2CPU31で実行中のプログラムが一時的に保存される。
The
補助記憶装置33は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置33には、第2CPU31に実行させるプログラム、およびプログラムの実行に必要な各種情報が保存される。
The
本実施の形態の音声認識サーバ30は汎用のパーソナルコンピュータ、サーバマシン等の情報処理装置である。また、本実施の形態の音声認識サーバ30は、大型計算機上で動作する仮想マシンでも良い。
The
分野サーバ42は、たとえば天気サーバ421、株価サーバ422、図示を省略する、交通機関の運行情報サーバ、地図サーバ、ニュースサーバ等の、様々なコンテンツ提供サーバを含む。それぞれの分野サーバ42は、インターネットを介して一般ユーザに公開されたサーバであっても、本実施の形態のデジタルサイネージシステム10の運営事業者が管理するサーバであっても良い。
The
図3は、問合先DB51のレコードレイアウトを説明する説明図である。問合先DB51は、デジタルサイネージシステム10が出力するコンテンツの分野と、コンテンツを取得する取得元とを関連づけて記録するデータベースである。
FIG. 3 is an explanatory diagram illustrating the record layout of the
問合先DB51は、分野フィールド、取得元フィールドおよび書式フィールドを有する。分野フィールドにはコンテンツの分野が記録されている。取得元フィールドには、コンテンツを取得する取得元の分野サーバ42のURL(Uniform Resource Locator)が記録されている。書式フィールドには、分野サーバから必要な情報を取得する際に用いるパラメータ等の書式が記録されている。
The
なお、問合先DB51には、コンテンツを取得する際に用いるAPI(Application Programming Interface)とパラメータ等が記録されていても良い。
The
図4は、プログラムの処理の流れを説明するフローチャートである。なお、プログラムを開始する段階では、表示部35にはコンテンツが出力されておらず、鏡にみえる状態である。
FIG. 4 is a flowchart for explaining the flow of processing of the program. Note that at the stage of starting the program, no content is output on the
第1CPU21は、マイク36を介して音声データを取得する(ステップS501)。なお、前述のとおりマイク36は、複数のマイクロフォンを含むアレイマイクである。マイク36は、音声をA/D(Analog/Digital)変換した音声データをバスに出力する。マイク36は、それぞれのマイクロフォンが受信した音声の波形を所定の時間差で合成することにより、表示部35の正面の所定の領域で発声された音声を増幅して取得できる。マイク36は、それぞれのマイクロフォンが受信した音声をA/D変換した音声データをバスに出力し、第1CPUが所定の時間差で音声データを合成しても良い。
The
第1CPU21は取得した音声データを主記憶装置22または補助記憶装置23に一時的に記憶する。第1CPU21は、音声データを解析して日本語、英語、または、中国語等、どの言語の音声であるかを判定する言語判定を行なう(ステップS502)。言語判定を行なう方法は、従来から知られているため、詳細な説明については省略する。
The
第1CPU21は、言語判定が成功したか否かを判定する(ステップS503)。たとえば、取得した音声の音量が小さい場合、または、車の騒音等言語以外の音声である場合には、どの言語であるかの判定を行なえないため、第1CPU21は、言語判定は失敗したと判定する。言語判定が失敗したと判定した場合(ステップS503でNO)、第1CPU21はステップS501に戻る。
The
言語判定に成功したと判定した場合(ステップS503でYES)、第1CPU21は主記憶装置22または補助記憶装置23に一時的に記憶した音声データ、および、ステップS502で判定した言語の種類を音声認識サーバ30に送信する(ステップS504)。
If it is determined that the language determination is successful (YES in step S503), the
第2CPU31は、送信された音声データおよび言語を受信する(ステップS601)。第2CPU31は、送信された音声データの言語認識を行い、テキストデータに変換する(ステップS602)。言語認識は従来から広く行なわれているため、詳細な説明については省略する。なお、音声データと共に取得した言語種類に基づいて言語認識を行なうことにより、第2CPU31は短い処理時間で、正確が言語認識を行なえる。第2CPU31は、ステップS601で受信した音声データに対応するテキストデータを、情報処理装置20に送信する(ステップS603)。
The
第1CPU21は、テキストデータを受信する(ステップS510)。第1CPU21は、テキストデータの意味を解析する(ステップS511)。意味の解析は、たとえば形態素解析等の自然言語処理手法により行なわれる。テキストの意味解析を行なう方法は、従来から知られているため、詳細な説明については省略する。
The
第1CPU21は、意味解析に成功したか否かを判定する(ステップS512)。たとえば、ステップS510で受信したテキストに、ステップS502で判定した言語の単語が含まれていない場合に、第1CPU21は意味解析に成功していないと判定する。意味解析に成功していないと判定した場合(ステップS512でNO)、第1CPU21はステップS501に戻る。
The
意味解析に成功したと判定した場合(ステップS512でYES)、第1CPU21はコンテンツ取得のサブルーチンを起動する(ステップS513)。コンテンツ取得のサブルーチンは、テキストデータに基づいて表示部35およびスピーカ37から出力するコンテンツを取得するサブルーチンである。コンテンツ取得のサブルーチンの処理の流れは後述する。
If it is determined that the semantic analysis is successful (YES in step S512), the
第1CPU21は、取得したコンテンツを表示部35およびスピーカ37から出力する(ステップS514)。第1CPU21は、処理を終了するか否かを判定する(ステップS515)。たとえば、あらかじめ設定された運用終了時刻になった場合、または、ネットワークを介して管理者から運用終了の指示を受け付けた場合に、第1CPU21は処理を終了すると判定する。
The
処理を終了すると判定した場合(ステップS515でYES)、第1CPU21は処理を終了する。処理を終了しないと判定した場(ステップS515でNO)、第1CPU21はステップS501に戻る。
If it is determined that the process is to be ended (YES in step S515), the
図5は、コンテンツ取得のサブルーチンの処理の流れを説明するフローチャートである。コンテンツ取得のサブルーチンは、テキストデータに基づいて表示部35およびスピーカ37から出力するコンテンツを取得するサブルーチンである。
FIG. 5 is a flowchart for explaining the flow of processing of the content acquisition subroutine. The content acquisition subroutine is a subroutine for acquiring content output from the
第1CPU21は、テキストを意味解析した結果に基づいて表示するコンテンツの分野を判定する(ステップS521)。たとえば、天気に関する質問であると判定した場合に、第1CPU21は分野は天気であると判定する。
The
第1CPU21は、判定した分野をキーとして問合先DB51を検索して、レコードを抽出する。第1CPU21は、抽出したレコードの書式フィールドに基づいて、コンテンツを取得するコマンドを生成する(ステップS522)。なお第1CPU21は、ユーザが使用した言語を用いたコンテンツを取得するコマンドを生成することが望ましい。
The
第1CPU21は、抽出したレコードの取得元フィールドに記録されたURL宛にコマンドを送信する。第1CPU21は、コマンドを受信した分野サーバ42は、コマンドに基づいて検索処理を行い、検索結果であるコンテンツを送信する。第1CPU21は、コンテンツを取得する(ステップS523)。第1CPU21は、処理を終了する。
The
第1CPU21が取得するコンテンツは、「現在の天気は曇りです」のようなテキスト情報、天気図のような静止画、過去24時間の天気図の移り変わり等の動画等、任意の形式のコンテンツを使用できる。どのような形式のコンテンツを取得するかの指定を、ステップS522で作成するコマンドに含めても良い。
The content acquired by the
スピーカ37は、鋭い指向性を持ち特定の位置にいる人だけに音が聞こえるようにするパラメトリック・スピーカであっても良い。たとえば図書館または美術館等の、静粛な場所に設置可能なデジタルサイネージシステム10を提供できる。
The
デジタルサイネージ装置11は、人感センサを備えても良い。たとえば、一定時間以上表示部の前で立ち止まっているユーザを検知した場合、第1CPU21は「御質問があれば、話して下さい」等の文字および音声を出力して、ユーザに入力を促しても良い。
The
表示部35は、表面にタッチセンサを備えるタッチパネルであっても良い。音声に加えて、タッチ操作によりユーザが入力を行なえるデジタルサイネージ装置11を提供できる。
The
本実施の形態によると、近くにいる人のニーズに合わせた情報を表示するデジタルサイネージ装置を提供できる。本実施の形態によると、非使用時には鏡にみえて、空間を広く見せる効果を有するデジタルサイネージ装置11を提供できる。
According to this embodiment, it is possible to provide a digital signage device that displays information according to the needs of people nearby. According to the present embodiment, it is possible to provide the
本実施の形態によると、図4を使用して説明したステップS502においてどの言語の音声であるかを判定した後に、音声認識サーバ30において言語認識を行なう。これにより、言語以外の音を処理するため、および、様々な言語である場合の処理を行なうため音声認識サーバ30のリソースが消費されることを防ぐことができる。以上により、ユーザの発声から、コンテンツの表示までの時間が短く、ユーザが快適に使用できるデジタルサイネージシステム10を提供できる。
According to the present embodiment, the
本実施の形態によると、ネットワークを介して様々な分野サーバ42からコンテンツを取得するため、ユーザの使用する言語に応じたコンテンツを表示できる。マイク36にアレイマイクを使用することにより、騒音のある環境であっても表示部35の前にいるユーザの声を増幅して取得するデジタルサイネージシステム10を提供できる。
According to the present embodiment, since content is acquired from
[実施の形態2]
本実施の形態は、ユーザの声をテキストに変換して表示部35に表示する議事録モードを有するデジタルサイネージシステム10に関する。実施の形態1と共通する部分については、説明を省略する。
[Embodiment 2]
The present embodiment relates to a
図6および図7は、実施の形態2のデジタルサイネージシステムの概要を説明する説明図である。図6は、二人のユーザが表示部35の前に立って日本語で会話をしている。会話の内容がテキストに変換されて、表示部35に表示される。
6 and 7 are explanatory diagrams for explaining the outline of the digital signage system according to the second embodiment. In FIG. 6, two users are standing in front of the
図7においては、ユーザは英語で会話をしている。表示部35には、英語のテキストが表示されている。なお、表示部35に表示されたテキストは、議事録モードの終了後、メール等によりユーザに送信される。
In FIG. 7, the user has a conversation in English. The
図8は、実施の形態2のプログラムの処理の流れを説明するフローチャートである。ステップS512までは、図1を使用して説明した実施の形態1のプログラムの処理の流れと同一であるため、説明を省略する。 FIG. 8 is a flowchart for explaining the processing flow of the program according to the second embodiment. Steps up to step S512 are the same as the process flow of the program according to the first embodiment described with reference to FIG.
意味解析に成功していないと判定した場合(ステップS512でNO)、第1CPU21はステップS501に戻る。意味解析に成功したと判定した場合(ステップS512でYES)、第1CPU21は、テキストが議事録モードの起動を意味するか否かを判定する(ステップS531)。
If it is determined that the semantic analysis has not been successful (NO in step S512), the
議事録モードの起動を意味すると判定した場合(ステップS531でYES)、第1CPU21は議事録表示のサブルーチンを起動する(ステップS532)。議事録表示のサブルーチンは、ユーザの音声をテキスト変換して、表示部35に表示するサブルーチンである。議事録表示のサブルーチンの処理の流れについては、後述する。
If it is determined that it means the start of the minutes mode (YES in step S531), the
議事録モードの起動を意味しないと判定した場合(ステップS531でNO)、第1CPU21はコンテンツ取得のサブルーチンを起動する(ステップS513)。コンテンツ取得のサブルーチンは、図5を使用して説明したサブルーチンと同一のサブルーチンである。
If it is determined that it does not mean that the minutes mode is activated (NO in step S531), the
第1CPU21は、取得したコンテンツを表示部35およびスピーカ37から出力する(ステップS514)。ステップS514またはステップS532の終了後、第1CPU21は、処理を終了するか否かを判定する(ステップS515)。
The
処理を終了すると判定した場合(ステップS515でYES)、第1CPU21は処理を終了する。処理を終了しないと判定した場(ステップS515でNO)、第1CPU21はステップS501に戻る。
If it is determined that the process is to be ended (YES in step S515), the
図9は、議事録表示のサブルーチンの処理の流れを説明するフローチャートである。議事録表示のサブルーチンは、ユーザの音声をテキスト変換して、表示部35に表示するサブルーチンである。
FIG. 9 is a flowchart for explaining the processing flow of the minutes display subroutine. The minutes display subroutine is a subroutine for converting the user's voice into text and displaying it on the
第1CPU21は、マイク36を介して音声データを取得する(ステップS541)。第1CPU21は取得した音声データを主記憶装置22または補助記憶装置23に一時的に記憶する。第1CPU21は、音声データを解析して日本語、英語、または、中国語等、どの言語の音声であるかを判定する言語判定を行なう(ステップS542)。
The
第1CPU21は、言語判定が成功したか否かを判定する(ステップS543)。言語判定が失敗したと判定した場合(ステップS543でNO)、第1CPU21はステップS541に戻る。
The
言語判定に成功したと判定した場合(ステップS543でYES)、第1CPU21は音声の話者を識別する(ステップS544)。ここで識別とは、表示部35の前にいる数名程度の話者のうち、どの話者が発声したかを識別することを意味する。
If it is determined that the language determination has succeeded (YES in step S543), the
たとえば、第1CPU21は声紋解析等により話者を識別できる。また、第1CPU21はマイク36のマイクアレイを構成する各マイクロフォンの出力に基づいて、話者の位置を推定することにより、話者を識別してもよい。
For example, the
第1CPU21は主記憶装置22または補助記憶装置23に一時的に記憶した音声データ、および、ステップS502で判定した言語の種類を音声認識サーバ30に送信する(ステップS545)。
The
第2CPU31は、送信された音声データおよび言語を受信する(ステップS621)。第2CPU31は、送信された音声データの言語認識を行い、テキストデータに変換する(ステップS622)。第2CPU31は、テキストデータを情報処理装置20に送信する(ステップS623)。
The
第1CPU21は、テキストデータを受信する(ステップS550)。第1CPU21は、受信したテキストデータを、主記憶装置22または補助記憶装置23に一時的に記憶する。第1CPU550は、表示部35にテキストデータを表示する(ステップS551)。
The
なお、ステップS551において第1CPUは、図6および図7に例示するように吹き出しの向きで区別して表示する。第1CPUは、吹き出しの向きの代わりに、吹き出しの色、文字の色またはフォント等、任意の形式で話者を区別して表示しても良い。第1CPU21は、話者を区別せずにテキストデータを表示しても良い。
In step S551, the first CPU distinguishes and displays the directions according to the direction of the balloon as illustrated in FIGS. The first CPU may distinguish and display the speaker in an arbitrary format such as a balloon color, a character color, or a font instead of the balloon direction. The
第1CPU21は、処理を終了するか否かを判定する(ステップS555)。たとえば、所定の時間音声データが検出されない場合に、第1CPU21は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS555でNO)、第1CPU21はステップS541に戻る。
The
処理を終了すると判定した場合(ステップS555でYES)、第1CPU21は処理を終了する。なお第1CPU21は、処理を終了する前に主記憶装置22または補助記憶装置23に記憶したテキストをユーザにより指定されたメールアドレス等に送信しても良い。第1CPU21は、処理を終了する前に主記憶装置22または補助記憶装置23に記憶したテキストを所定のサーバに保存し、アクセス用のURLを表示部35に表示しても良い。
If it is determined that the process is to be ended (YES in step S555), the
本実施の形態によると、自動的に議事録を作成するデジタルサイネージシステム10を提供できる。ユーザは、議事録モードを一人で使用しても良い。いわゆる口述筆記を行なうデジタルサイネージシステム10を提供できる。
According to the present embodiment, it is possible to provide a
なお、図9を使用して説明した議事録表示のサブルーチンにおいて、ステップS550で受信したテキストデータを機械翻訳した後に、ステップS551で表示しても良い。たとえば、日本語の話者による発言を図7に示すように英語で、英語の話者による発言を図6に示すように日本語で表示することにより、異なる言語を使用するユーザ同士のコミュニュケーションを支援するデジタルサイネージシステム10を提供できる。
In the minutes display subroutine described with reference to FIG. 9, the text data received in step S550 may be machine translated and then displayed in step S551. For example, by displaying a speech by a Japanese speaker in English as shown in FIG. 7 and a speech by an English speaker in Japanese as shown in FIG. 6, communication between users who use different languages can be performed. The
[実施の形態3]
図10は、実施の形態3のデジタルサイネージ装置11の機能ブロック図である。デジタルサイネージ装置11は、前述のマイク36と表示部35とに加えて、テキスト取得部81および出力部82を備える。
[Embodiment 3]
FIG. 10 is a functional block diagram of the
表示部35は、ハーフミラーにより覆われている。マイク36は、表示部35の近傍から音声を取得する。テキスト取得部81は、マイク36が取得した音声に基づくテキストを取得する。出力部82は、テキスト取得部81が取得したテキストに基づくコンテンツを表示部35に出力する。
The
[実施の形態4]
本実施の形態は、汎用のコンピュータとプログラム97とを組み合わせて動作させることにより、本実施の形態のデジタルサイネージシステム10を実現する形態に関する。図11は、実施の形態4のデジタルサイネージシステム10の構成を示す説明図である。なお、実施の形態1と共通する部分の説明は省略する。
[Embodiment 4]
The present embodiment relates to a mode for realizing the
本実施の形態のデジタルサイネージシステム10は、ネットワークを介して接続されたデジタルサイネージ装置11、音声認識サーバ30および分野サーバ42を備える。デジタルサイネージ装置11は、コンピュータ90、表示部35、マイク36およびスピーカ37を備える。
The
コンピュータ90は、第1CPU21、主記憶装置22、補助記憶装置23、通信部24、表示I/F25、マイクI/F26、スピーカI/F27、読取部95およびバスを備える。
The
プログラム97は、可搬型記録媒体96に記録されている。第1CPU21は、読取部95を介してプログラム97を読み込み、補助記憶装置23に保存する。また第1CPU21は、コンピュータ90に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、第1CPU21は、通信部24および図示しないネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置23に保存しても良い。
The
プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置22にロードして実行される。これにより、コンピュータ90は上述した情報処理装置20として機能する。
The
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
The technical features (components) described in each embodiment can be combined with each other, and new technical features can be formed by combining them.
The embodiments disclosed herein are illustrative in all respects and should not be considered as restrictive. The scope of the present invention is defined not by the above-described meaning but by the scope of the claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of the claims.
10 デジタルサイネージシステム
11 デジタルサイネージ装置
20 情報処理装置
21 第1CPU
22 主記憶装置
23 補助記憶装置
24 通信部
25 表示I/F
26 マイクI/F
27 スピーカI/F
30 音声認識サーバ
31 第2CPU
32 主記憶装置
33 補助記憶装置
34 通信部
35 表示部
36 マイク
37 スピーカ
42 分野サーバ
421 天気サーバ
422 株価サーバ
51 問合先DB
81 テキスト取得部
82 出力部
90 コンピュータ
95 読取部
96 可搬型記録媒体
97 プログラム
98 半導体メモリ
DESCRIPTION OF
22
26 Microphone I / F
27 Speaker I / F
30
32
81
Claims (4)
前記表示部の近傍から音声を取得するマイクと、
前記マイクが取得した音声に基づくテキストを取得するテキスト取得部と、
前記テキスト取得部が取得した前記テキストに基づくコンテンツを前記表示部に出力する出力部と
を備えるデジタルサイネージ装置。 A display unit covered with a half mirror;
A microphone for acquiring sound from the vicinity of the display unit;
A text acquisition unit for acquiring text based on the voice acquired by the microphone;
A digital signage apparatus comprising: an output unit that outputs content based on the text acquired by the text acquisition unit to the display unit.
請求項1に記載のデジタルサイネージ装置。 The digital signage apparatus according to claim 1, wherein the output unit outputs a search result using the text as a key.
前記テキスト取得部は、前記言語判定部が特定した言語に対応する前記テキストを取得する
請求項1または請求項2に記載のデジタルサイネージ装置。 A language determination unit for determining a language based on the voice acquired by the microphone;
The digital signage apparatus according to claim 1, wherein the text acquisition unit acquires the text corresponding to the language specified by the language determination unit.
取得した音声に基づくテキストを取得し、
取得した前記テキストに基づくコンテンツを、前記マイクの近傍に配置されておりハーフミラーにより覆われた表示部に出力する
処理をコンピュータに実行させるプログラム。 Get audio through the microphone,
Get text based on the acquired voice,
A program that causes a computer to execute a process of outputting content based on the acquired text to a display unit that is disposed in the vicinity of the microphone and covered with a half mirror.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018038861A JP2019153160A (en) | 2018-03-05 | 2018-03-05 | Digital signage device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018038861A JP2019153160A (en) | 2018-03-05 | 2018-03-05 | Digital signage device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019153160A true JP2019153160A (en) | 2019-09-12 |
Family
ID=67946607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018038861A Pending JP2019153160A (en) | 2018-03-05 | 2018-03-05 | Digital signage device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019153160A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7386253B2 (en) | 2019-09-19 | 2023-11-24 | 三井デザインテック株式会社 | Digital signage management system |
JP7444742B2 (en) | 2020-09-11 | 2024-03-06 | Toa株式会社 | Information provision system and information provision method |
-
2018
- 2018-03-05 JP JP2018038861A patent/JP2019153160A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7386253B2 (en) | 2019-09-19 | 2023-11-24 | 三井デザインテック株式会社 | Digital signage management system |
JP7444742B2 (en) | 2020-09-11 | 2024-03-06 | Toa株式会社 | Information provision system and information provision method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9864745B2 (en) | Universal language translator | |
KR102509464B1 (en) | Utterance classifier | |
US11514886B2 (en) | Emotion classification information-based text-to-speech (TTS) method and apparatus | |
JP6750125B2 (en) | Hot word trigger suppression for recording media | |
KR102458805B1 (en) | Multi-user authentication on a device | |
JP6463825B2 (en) | Multi-speaker speech recognition correction system | |
KR102196400B1 (en) | Determining hotword suitability | |
CN101287043B (en) | Method and apparatus for providing expressive user interaction with a multimodal application | |
JP6819672B2 (en) | Information processing equipment, information processing methods, and programs | |
US9349367B2 (en) | Records disambiguation in a multimodal application operating on a multimodal device | |
US20140278379A1 (en) | Integration of semantic context information | |
TW201629949A (en) | A caching apparatus for serving phonetic pronunciations | |
US10062385B2 (en) | Automatic speech-to-text engine selection | |
TW201926079A (en) | Bidirectional speech translation system, bidirectional speech translation method and computer program product | |
WO2019199742A1 (en) | Continuous detection of words and related user experience | |
US20190130917A1 (en) | Automated enrichment of speech transcription with context | |
WO2019031268A1 (en) | Information processing device and information processing method | |
JP2019153160A (en) | Digital signage device and program | |
WO2018135303A1 (en) | Information processing device, information processing method, and program | |
US10522135B2 (en) | System and method for segmenting audio files for transcription | |
JP6828741B2 (en) | Information processing device | |
JPH10326176A (en) | Voice conversation control method | |
JP2010128766A (en) | Information processor, information processing method, program and recording medium | |
US20210026923A1 (en) | Intent-Based Language Translation | |
JP2002132291A (en) | Natural language interaction processor and method for the same as well as memory medium for the same |