JP2012083925A - 電子機器及びその表示言語判定方法 - Google Patents

電子機器及びその表示言語判定方法 Download PDF

Info

Publication number
JP2012083925A
JP2012083925A JP2010229165A JP2010229165A JP2012083925A JP 2012083925 A JP2012083925 A JP 2012083925A JP 2010229165 A JP2010229165 A JP 2010229165A JP 2010229165 A JP2010229165 A JP 2010229165A JP 2012083925 A JP2012083925 A JP 2012083925A
Authority
JP
Japan
Prior art keywords
language
viewer
output
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010229165A
Other languages
English (en)
Inventor
Kazuhiro Tomarino
和広 泊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2010229165A priority Critical patent/JP2012083925A/ja
Priority to PCT/JP2011/073002 priority patent/WO2012050029A1/ja
Publication of JP2012083925A publication Critical patent/JP2012083925A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

【課題】視聴者が選択することなしに、自動で視聴者に合った言語に切り替える。
【解決手段】映像解析部121は、映像入力部11からの映像情報から得られる視聴者の顔などから少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データ131を生成して記憶装置13に記憶する。言語判定部122は、特徴抽出データ131の複数の特徴の値と、特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データ132とに基づいて、視聴者が最も使用する可能性のある言語を判定する。表示・音声制御部123は、言語データ133の中から言語判定部122が判定した最も使用する可能性がある言語の言語データを表示部14に表示し、音声出力部15により音声出力する。
【選択図】図1

Description

本発明は電子機器及びその表示言語判定方法に係り、特に画面に表示する言語の切換機能を有する電子機器及びその表示言語判定方法に関する。
現在普及している、テレビジョン受像機やモニタ等の画面に画像等を表示する電子機器の多くは、視聴者が画面に表示されるメニューを見ながら、リモートコントローラで操作し、電子機器の各種設定を行ったり、電子機器をコントロールすることができる。視聴者が日本語を使用する日本人の場合は、画面に表示されるメニューの言語が日本語で表示されれば問題ないが、日本国内に住んでいる日本語の判らない外国人にとっては、日本語のメニューでは、表示内容が理解できず、操作できない。
このような問題を解決するため、画面に画像等を表示する多くの電子機器では、その機器内に複数の言語データを持ち、視聴者がこれらの言語の中から好みの言語を選択し、選択された言語でメニューを表示する言語切換機能を有している。
例えば、特許文献1には、表示装置に内蔵された記憶部に、予め複数種の言語(日本語、英語、ドイツ語等)に対応した文字データを単語単位で有し、各言語にはそれぞれ表示するための優先度が割り当てられ、言語切替えボタンの操作によって、予め設定された優先度に応じて順次言語を切替えて画面上に表示するようにした表示装置が開示されている。
また、デジタル放送やDVD(デジタル多用途ディスク)では、複数の言語の音声データを送出/記録することが可能であり、受信/再生機器側でこれらの言語の中から好みの言語を選んで音声出力させることができる。特許文献2には、複数の言語の音声情報が映像情報と共に記録されているビデオディスクからユーザーの好みの言語の音声情報をユーザーが選択部により選択して再生する情報再生装置が開示されている。
特開平9−127926号公報 特開平9−259507号公報
上記の特許文献1記載の表示装置や特許文献2記載の情報再生装置では、表示される言語を切り替えるためには、視聴者あるいはユーザー自らが、言語切替えボタン、選択部、あるいはリモートコントローラやタッチパネル等を使って、自分に合った言語を選択しなければならない。
しかしながら、通常、電子看板を表示するデジタルサイネージモニタでは、不特定多数の通行人への視聴を目的とし、盗難防止の理由等からリモートコントローラは用意されておらず、また言語切り替えボタンやタッチパネルは設けられていない。このため、通行人である視聴者が変わって、視聴者の使用言語が変わった場合は言語切り替えを行うべきであるが、特許文献1や特許文献2記載の発明を適用して言語切り替えのための操作ができない。また、仮にリモートコントローラを設置したとしても、切替方法が判らない、切り替えるのが面倒であるといった理由で、言語が判らないにもかかわらず、実際に切り替えが行われるケースが少ないのが現状である。
本発明は以上の点に鑑みなされたもので、視聴者が選択することなしに、自動で視聴者に合った言語に切り替えできる電子機器及びその表示言語判定方法を提供することを目的とする。
上記の目的を達成するため、本発明の電子機器は、画面前方の視聴者の映像情報を入力する映像入力手段と、入力される映像情報から得られる視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析手段と、映像解析手段により生成された特徴抽出データを記憶すると共に、予め設定した複数の言語のそれぞれで表され、かつ、少なくとも画面に表示される文字列を含む言語出力情報と、特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとを予め格納している記憶手段と、記憶手段に記憶された特徴抽出データの複数の特徴の値と、言語使用可能性データとに基づいて、視聴者が最も使用する可能性のある言語を判定する言語判定手段と、記憶手段に格納されている複数の言語の言語出力情報のうち、言語判定手段により判定された言語と同じ言語の言語出力情報を選択して出力し、少なくとも文字列を画面に表示させる出力制御手段とを有することを特徴とする。
また、上記の目的を達成するため、本発明の電子機器は、上記記憶手段が、出力制御手段により選択された言語の言語出力情報の出力結果が視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを複数の言語のそれぞれについて更に記憶しており、上記言語判定手段により判定された言語と同じ言語の確認メッセージを記憶手段から読み出して出力制御手段により出力させ、その後に映像入力手段から入力される映像情報中の視聴者の動きが所定の動きであるか否かの映像解析結果に基づいて、言語出力情報の出力結果が視聴者により理解できないと判断したときは、出力制御手段により視聴者が次に使用する可能性のある言語として言語判定手段が判定した言語と同じ言語の言語出力情報に切り替え出力させる正誤判定・訂正手段を更に有することを特徴とする。
また、上記の目的を達成するため、本発明の電子機器の表示言語判定方法は、画面前方の視聴者の映像情報を入力する映像入力ステップと、入力される映像情報から得られる視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析ステップと、映像解析ステップにより生成された特徴抽出データを記憶手段に記憶する記憶ステップと、記憶手段に記憶された特徴抽出データの複数の特徴の値と、記憶手段に予め格納されている特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとに基づいて、視聴者が最も使用する可能性のある言語を判定する言語判定ステップと、記憶手段に格納されている複数の言語のそれぞれで表され、かつ、少なくとも画面に表示される文字列を含む言語出力情報のうち、言語判定ステップにより判定された言語と同じ言語の言語出力情報を選択して少なくとも画面に文字列を表示させる出力制御ステップとを含むことを特徴とする。
また、上記の目的を達成するため、本発明の電子機器の表示言語判定方法は、記憶手段は、出力制御ステップにより選択された言語の言語出力情報の出力結果が視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを複数の言語のそれぞれについて更に記憶しており、言語判定ステップにより判定された言語と同じ言語の確認メッセージを記憶手段から読み出して出力させ、その後に入力される映像情報中の視聴者の動きが所定の動きであるか否かの映像解析結果に基づいて、言語出力情報の出力結果が視聴者により理解できるか否かを判断する正誤判断ステップと、正誤判断ステップにより言語出力情報の出力結果が視聴者により理解できないと判断したときは、視聴者が次に使用する可能性のある言語として言語判定ステップで判定した言語と同じ言語の言語出力情報を記憶手段から読み出して切り替え出力する訂正ステップとを更に含むことを特徴とする。
本発明によれば、視聴者が言語選択のための操作をすることなしに、視聴者の使用言語である可能性が最も高い言語の表示及び音声出力に自動で切り替えることができる。
本発明の電子機器の第1の実施の形態のブロック図である。 特徴抽出データの一例を説明するための図である。 特徴抽出データの他の例を説明するための図である。 肌の色の特徴抽出データに対応した言語使用可能性データの一例を示す図である。 目(虹彩)の色の特徴抽出データに対応した言語使用可能性データの一例を示す図である。 図1中の言語判定部の動作説明用フローチャートである。 図1の電子機器により日本語で画面表示及び音声出力を行う時の一例を示す図である。 図1の電子機器により英語で画面表示及び音声出力を行う時の一例を示す図である。 本発明の電子機器の第1の実施の形態のブロック図である。 図9の電子機器により日本語で確認用メッセージの画面表示及び音声出力を行う時の一例を示す図である。 図9の電子機器により英語で確認用メッセージの画面表示及び音声出力を行う時の一例を示す図である。
次に、本発明の実施の形態について図面を参照して詳細に説明する。
(第1の実施の形態)
図1は、本発明になる電子機器の第1の実施の形態のブロック図を示す。同図に示すように、本実施の形態の電子機器10は、デジタルサイネージモニタ(以下、単にモニタという)を構成しており、映像情報を入力する映像入力部11と、モニタ全体を統括的に制御する制御部12と、各種データを記憶する記憶装置13と、モニタの画面に画像や文字を表示する表示部14と、音声を出力するスピーカ等からなる音声出力部15とにより構成されている。
映像入力部11は、カメラ等によりモニタの画面前方の視聴者等を撮像して得た映像情報を入力する機能を有する。制御部12は、映像解析部121、言語判定部122、及び表示・音声制御部123を有し、映像入力部11から入力された映像情報を解析し、映像情報中の視聴者が使用する可能性が最も高い言語を判定し、表示部14による表示及び音声出力部15による音声出力をその言語に切り替える制御を行う。表示・音声制御部123は、本発明の出力制御手段を構成している。この制御部12の制御内容の詳細については後述する。
記憶装置13は、各種データを記憶するメモリであり、視聴者の使用言語を判定するために使われる言語使用可能性データ132と、予めこの電子機器10がサポートする各言語(本実施の形態では少なくとも日本語と英語)の文字列や音声に関する言語データ133とが格納されている。また、記憶装置13は、制御部12により得られた視聴者の特徴抽出データ131も記憶する。
次に、制御部12の動作について詳細に説明する。
映像解析部121は、映像入力部11から入力される映像情報から得られる視聴者の顔などから少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データ131を生成して記憶装置13に記憶する。本実施の形態では、上記の特徴情報として視聴者の肌の色と目(虹彩)の色を例にとって説明する。
図2、図3は、特徴抽出データの各例を示す。図2は、肌の色の特徴抽出データを示す。近年、デジタルカメラやビデオカメラ等で使われている顔認識技術は一般的である(例えば、特開2000−105819号公報参照)。映像解析部121は、この公知の顔認識技術により入力映像情報中の顔領域を検出し、更にその顔領域内の肌色部分の各画素の色の輝度成分の平均データを求め、これを特徴抽出データ131として記憶装置13に記憶する。図2に示す肌の色の特徴抽出データは、肌の色に含まれる複数の輝度の値に応じて、最も輝度の低い値を「0」、最も輝度の高い値を「255」として数値化されている。
図3は、目(虹彩)の色の特徴抽出データを示す。画像中から目(虹彩)を検出する技術は既に知られている(例えば、特開2004−326780号公報)。映像解析部121は、この公知の目(虹彩)を検出する技術を用いて映像情報中から視聴者の目(虹彩)の位置を検出し、更にその位置の色をサンプリングすることで、目(虹彩)の色を抽出する。図3に示す目(虹彩)の色の特徴抽出データは、目(虹彩)の色であるブラウン(濃褐色)、ヘーゼル(淡褐色)、アンバー(琥珀色)、グリーン(緑色)、グレー(灰色)、ブルー(青色)の6種類と、いずれにも属さないその他を含めた7種類の色系統を割り当てられた数値で示す。
映像解析部121は、映像情報から抽出した視聴者の目(虹彩)の色が、上記の7種類の色系統のいずれに近いかを決定し、決定した色系統に対応する数値を記憶装置13に特徴抽出データ131として記憶する。
図1の言語判定部122は、映像解析部121により抽出されて記憶装置13内に格納された肌の色や目(虹彩)の色の特徴抽出データ131と、予め記憶装置13内に格納されている言語使用可能性データ132とを参照し、本電子機器10がサポートしているそれぞれの言語について、その言語を使用する可能性を求める。言語使用可能性データ132は、特徴抽出データ131の複数の特徴のそれぞれについて、予め設定した複数の言語のそれぞれの使用可能性の度合いを示すデータである。
図4は、肌の色の特徴抽出データに対応した言語使用可能性データの一例を示す。肌の色の特徴データは、前述したように、肌の色の特徴データの特徴である輝度が最も低い「0」から最も輝度が高い「255」までの範囲で数値化されている。図4において、例えば、肌の色の特徴抽出データが「0」の場合、その肌の色を持つ視聴者が言語1を使用する可能性は40%、同じくその視聴者が言語2を使用する可能性は15%、言語3を使用する可能性は3%、言語4を使用する可能性は6%、言語5を使用する可能性は3%であることを示している。
本実施形態の電子機器10でサポートしている英語が言語1、日本語が言語2だと仮定し、肌の色の特徴抽出データが「3」であった場合、図4の使用可能性データからその視聴者が英語を使用する可能性は31%、日本語を使用する可能性は23%ということになる。予め、記憶装置13に格納しておく、肌の色の言語使用可能性データは、世界各地の人の肌の色とその人が使用する言語を実際に調査することで作成できる。
図5は、目(虹彩)の色の特徴抽出データに対応した言語使用可能性データの一例を示す。目(虹彩)の色の特徴抽出データは、前述したように、目(虹彩)の色の特徴抽出データの特徴である色の系統により、7種類のデータ(1〜7)に数値化されている。図5において、例えば、目(虹彩)の色の特徴抽出データの値「1」(目の色がブラウン系)の場合、その目の色を持つ視聴者が言語1を使用する可能性は27%、言語2を使用する可能性は39%、言語3を使用する可能性は36%、言語4を使用する可能性は15%、言語5を使用する可能性は11%であることを示している。
本実施の形態の電子機器10でサポートしている英語が言語1、日本語が言語2だと仮定し、目(虹彩)の色の特徴抽出データの値が「5」(グレー系)であった場合、図5の言語使用可能性データからその視聴者が英語を使用する可能性は15%、日本語を使用する可能性は17%ということになる。予め、記憶装置13に格納しておく、目(虹彩)の色の言語使用可能性データは、世界各地の人の目(虹彩)の色とその人が使用する言語を実際に調査することで作成できる。
次に、言語判定部122の動作について、図6のフローチャートを参照して説明する。ここでは、特徴抽出はa種類、言語の種類はb種類であるものとする。まず、言語判定部122は、変数nの値に初期値「1」を代入すると共に、b個の配列P[1]〜P[b]に初期値「0」を代入する(ステップS1)。ここで配列P[m]は、m番目の言語の使用可能性を示す数値を格納する。
続いて、言語判定部122は、n番目の特徴の特徴抽出データ131を取り込み(ステップS2)、変数mに初期値「1」を代入した後(ステップS3)、m番目の言語の使用可能性を求め、配列P[m]に加える(ステップS4)。つまり、n番目の特徴の特徴抽出データの値に対応した言語使用可能性データのm番目の言語の値を配列P[m]の値に加える。
続いて、言語判定部122は、変数mの値が最後の値である「b」であるかどうかを判定し(ステップS5)、「b」でなければ変数mの値を「1」だけインクリメントし(ステップS6)、ステップS4に戻る。以下、同様にして、言語判定部122は、ステップS5で変数mの値が最後の値である「b」であると判定されるまで、ステップS4〜S6の動作を繰り返す。
次に、言語判定部122は、変数nの値が最後の値「a」であるかどうかを判定し(ステップS7)、「a」でなければ変数nの値を「1」だけインクリメントし(ステップS8)、ステップS2に戻り次の順番の特徴の特徴抽出データを取り込む。以下、同様にして、言語判定部122は、ステップS7で変数nの値が最後の値である「a」であると判定されるまで、ステップS2〜S8の動作を繰り返す。そして、言語判定部122は、ステップS7でn=aと判定すると、配列P[1]〜P[m]の値を確認し、最も大きな値が格納されている配列が示す言語を、最も使用可能性の高い言語として判定する(ステップS9)。
これにより、例えばa=b=2であり、n=1番目の特徴の特徴抽出データが肌の色の特徴抽出データでその値が「3」であり、n=2番目の特徴の特徴抽出データが目(虹彩)の色の特徴抽出データでその値が「5」であり、また、ステップS4で求める使用可能性は、n=1のときは図4に示した肌の色の特徴抽出データに対応した言語可能性データ、n=2のときは図5に示した目(虹彩)の色の特徴抽出データに対応した言語可能性データに基づくものとすると、P[1]、P[2]の値は以下の通りになる。
すなわち、言語1の配列P[1]は肌の色の特徴データの値「3」のとき31%、目(虹彩)の色の特徴抽出データの値が「5」のとき15%であるから、両者の和の「46」となる。また、言語2の配列P[2]は肌の色の特徴データの値「3」のとき23%、目(虹彩)の色の特徴抽出データの値が「5」のとき17%であるから、両者の和の「40」となる。ここで、言語1が英語、言語2が日本語とすると、言語判定部122は、上記の例ではP[1]>P[2]であるから、ステップS9で使用可能性が高い言語として英語と判定する。
再び図1に戻って説明する。表示・音声制御部123は、言語判定部122による言語判定結果が示す言語の言語データ(文字列データや音声データ)133を記憶装置13から読み出し、文字列データは表示部14に供給して判定された言語の文字列を表示させると共に、音声データは音声出力部15に供給して判定された言語の音声により所定の音声内容を出力する。
これにより、例えば図7に示すように、本実施の形態の電子機器10であるモニタ1の画面の前方に位置する視聴者Aを、映像入力部11を構成するカメラ2により撮像して得られた映像情報から抽出した特徴抽出データに基づいて、モニタ1(電子機器10)が上述した方法により視聴者Aが使用する言語が日本語である可能性が高いと判定したときは、表示部14の画面に日本語表示4にてニュースや天気予報等の各種情報を表示すると共に、音声出力部15であるスピーカから日本語音声31を出力する。
また、例えば図8に示すように、本実施の形態の電子機器10であるモニタ1の画面の前方に位置する視聴者Bを、映像入力部11を構成するカメラ2により撮像して得られた映像情報から抽出した特徴抽出データに基づいて、モニタ1(電子機器10)が上述した方法により視聴者Bが使用する言語が英語である可能性が高いと判定したときは、表示部14の画面に英語表示6を行うと共に、音声出力部15であるスピーカから英語音声32を出力する。
このようにして、本実施の形態の電子機器10によれば、視聴者の映像情報から視聴者の特徴を示す特徴抽出データを生成し、その特徴抽出データと予め記憶装置13内に記憶しておいた各特徴における言語使用可能性を示す言語使用可能性データ132とに基づいて、その視聴者が使用する可能性が最も高い言語を判定(推定)し、その言語の言語データを画面表示及び音声出力するようにしたため、視聴者が言語選択のための操作をすることなしに、電子機器10が視聴者の使用言語である可能性が最も高い言語の表示及び音声出力に自動で切り替えることができる。
なお、上記の説明では、特徴抽出データの例として、肌の色と目(虹彩)の色の2つの例を挙げたが、この限りではなく、例えば視聴者の髪の色、鼻の高さ、服装、身につけているあるいは持っている物に記載されている文字情報等を抽出してもよい。
例えば、身につけている服装が日本の振袖であるかどうかを、襟や袖の形状、腹部に太い帯があるか等を解析し、その解析結果から得られる日本の振袖を着ている可能性を示すデータを特徴抽出データとしてもよい。この場合、振袖を着ている可能性が高いほど、日本語を使用する可能性が高くなるような言語使用可能性データを用意しておくことになる。
また、視聴者が手に持っているパスポートの表紙の図柄や、国籍が記載されたページの文字を認識することで、視聴者の国籍を推測し、その国籍を示すデータを特徴抽出データとしてもよい。この場合、各国籍毎の言語使用可能性データを用意しておくことになる。本明細書では、これらの具体的な特徴抽出データの規定はしない。
(第2の実施の形態)
次に、本発明の第2の実施の形態について説明する。図9は、本発明になる電子機器の第2の実施の形態のブロック図を示す。同図中、図1と同一構成部分には同一符号を付し、その説明を省略する。図9において、本実施の形態の電子機器20は、モニタを構成しており、映像情報を入力する映像入力部11と、モニタ全体を統括的に制御する制御部21と、各種データを記憶する記憶装置13と、モニタの画面に画像や文字を表示する表示部14と、音声を出力するスピーカ等からなる音声出力部15とにより構成されている。また、記憶装置13に記憶されている言語データ135は、電子機器20がサポートする複数の言語のそれぞれで作成された言語データで、視聴者が確認できるかどうかを確認するための文字列や音声のメッセージを含んでいる。
制御部21は、映像解析部211、言語判定部212、正誤判断・訂正部213、及び表示・音声制御部214から構成されている。図1の制御部12とは異なる本実施の形態の制御部21の特有の動作について以下説明する。
図1に示した電子機器10の制御部12による言語判定結果は、あくまでも推定に過ぎず、確実なものではない。これをより確実にするために、本実施の形態の電子機器20では制御部21内に正誤判断・訂正部213を設け、これにより言語判定結果が正しいかどうか(すなわち、視聴者が表示文字列又は出力音声内容が理解できるか否か)を確認し、言語判定結果が間違っていた場合は、次に使用可能性の高い言語に切り替えるようにしたものである。
言語判定部212は、言語判定部122と同様にして、映像解析部211により抽出されて記憶装置13内に格納された肌の色や目(虹彩)の色の特徴抽出データ131と、予め記憶装置13内に格納されている言語使用可能性データ132とを参照し、本電子機器20がサポートしているそれぞれの言語のうち、視聴者が使用する可能性が最も高い言語の言語判定結果を出力する。
表示・音声制御部214は、言語判定部212による言語判定結果が示す言語の言語データ(文字列データ、音声データ及びメッセージデータ)135を記憶装置13から読み出し、その中からデジタルサイネージモニタ本来の目的の文字列データや音声データを表示部14及び音声出力部15に出力する。続いて、表示・音声制御部214は、言語判定部212による言語判定結果が示す言語の言語データの中から文字列のメッセージデータを表示部14に供給して表示させると共に、音声のメッセージデータを音声出力部15に供給して音声出力させる。ここで、上記のメッセージは、その言語で視聴者が理解できるかどうかを確認するためのメッセージで、モニタに表示したデジタルサイネージモニタ本来の目的の文字列(画像含む)の言語や、音声出力部15から音声出力した言語が理解できるときに、視聴者に対して所定の動き(例えば、右手を上げるなど)を要求するメッセージである。
これにより、電子機器20は、言語判定部212により視聴者の最も使用する可能性が高い言語で、デジタルサイネージモニタ本来の目的の文字列(画像含む)や音声を出力した後、上記の確認用メッセージをモニタの画面に表示したり、音声出力する。
例えば言語判定部212により視聴者の最も使用する可能性が高い言語が日本語であると判定された場合は、電子機器20(モニタ5)は図10に7で示すように、表示部14の画面に日本語で「この言語が理解できるなら右手を上げてください。」との確認用メッセージを視聴者Cに対して表示すると共に、同図に33で示すようにスピーカからなる音声出力部15により上記の確認用メッセージを日本語で音声出力させる。
また、言語判定部212により視聴者の最も使用する可能性が高い言語が英語であると判定された場合は、電子機器20(モニタ5)は図11に8で示すように、表示部14の画面に英語で上記と同様の意味を示す英文の確認用メッセージを視聴者Dに対して表示すると共に、同図に34で示すようにスピーカからなる音声出力部15により上記の確認用メッセージを英語で音声出力させる。
その後、映像解析部211は、視聴者C又はDが右手を上げたかどうかを映像入力部11からの視聴者C又はDの予め設定した所定の時間内の映像情報を解析して判定する。視聴者C又はDが右手を上げたかどうかの判定は、例えば、映像解析部211により、視聴者の顔の上部のやや右の位置(映像入力部11からの入力映像情報内では検出した顔領域の上部のやや左の位置)に手のひらがあるかどうかを判定すればよい。
手のひらの判定は、手のひらも顔と同様に肌色をしているので、顔領域の判定と同様に、例えば特開2000−105819号公報や特開2006−318375号公報に記載の公知の肌の色の判定方法を用いることで実現できる。
正誤判断・訂正部213は、上記の映像解析部211の映像解析結果が、視聴者C又はDが右手を上げたことを示しているときは、視聴者C又はDが画面に表示された確認用メッセージ(または、出力された音声)の言語を理解できていると判断する。一方、上記の映像解析部211の映像解析結果が、視聴者C又はDが右手を上げていないことを示しているときは、視聴者C又はDが画面に表示された確認用メッセージ(または、出力された音声)の言語を理解できていないと判断する。
言語を理解できていないと判断した場合、正誤判断・訂正部213は、言語判定部212が現在表示(又は音声出力)している言語の次に使用する可能性が高いと判定された言語の言語データ(文字列データ、音声データ及びメッセージデータ)135を記憶装置13から読み出して表示・音声制御部214に供給する。表示・音声制御部214は、次に使用する可能性が高いと判定された言語の言語データ(文字列データ、音声データ及びメッセージデータ)135の中からデジタルサイネージモニタ本来の目的の文字列データを表示部14により切り替え表示させると共に、その言語の音声データを音声出力部15から切り替え出力させる。続いて、表示・音声制御部214は、上記の次に使用する可能性が高いと判定された言語の言語データの中から文字列のメッセージデータを表示部14に供給して表示させると共に、音声のメッセージデータを音声出力部15に供給して音声出力させる。
その後、正誤判断・訂正部213は、再び映像解析部211からの視聴者C又はDの動きの解析結果に基づいて視聴者C又はDが画面に表示された確認用メッセージ(または、出力された音声)の言語を理解できているか否かを判断する。以後、視聴者が理解できる言語になるまで(視聴者が右手を上げるまで)、上記処理が繰り返される。視聴者が理解できる言語になった場合は、正誤判断・訂正部213は、そのときの映像解析部211からの映像解析結果に基づいて、現在表示(又は音声出力)している言語を使用する可能性が最も高い言語であるという言語判定結果を言語判定部212から出力させて、表示・音声制御部214によりその言語の言語データを出力させる。
なお、本発明は以上の実施の形態に限定されるものではなく、例えばデジタルサイネージの目的の音声出力は行わなくても構わない。また、確認用メッセージは画面での表示と音声出力のどちらか一方でも差し支えない。更に、本発明はデジタルサイネージシステムに限らず、携帯電話機やパーソナルコンピュータの情報入力装置としても使用可能である。
1、5 モニタ
2 カメラ
14 画面
10、20 電子機器
11 映像入力部
12、21 制御部
13 記憶装置
14 表示部
15 音声出力部
121、211 映像解析部
122、212 言語判定部
123、214 表示・音声制御部
131 特徴抽出データ
132 言語使用可能性データ
133、135 言語データ
213 正誤判断・訂正部

Claims (4)

  1. 画面前方の視聴者の映像情報を入力する映像入力手段と、
    入力される前記映像情報から得られる前記視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析手段と、
    前記映像解析手段により生成された前記特徴抽出データを記憶すると共に、予め設定した複数の言語のそれぞれで表され、かつ、少なくとも前記画面に表示される文字列を含む言語出力情報と、前記特徴抽出データの前記複数の特徴のそれぞれについて前記複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとを予め格納している記憶手段と、
    前記記憶手段に記憶された前記特徴抽出データの前記複数の特徴の値と、前記言語使用可能性データとに基づいて、前記視聴者が最も使用する可能性のある言語を判定する言語判定手段と、
    前記記憶手段に格納されている複数の言語の前記言語出力情報のうち、前記言語判定手段により判定された言語と同じ言語の前記言語出力情報を選択して出力し、少なくとも前記文字列を前記画面に表示させる出力制御手段と
    を有することを特徴とする電子機器。
  2. 前記記憶手段は、前記出力制御手段により選択された言語の前記言語出力情報の出力結果が前記視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを前記複数の言語のそれぞれについて更に記憶しており、
    前記言語判定手段により判定された言語と同じ言語の前記確認メッセージを前記記憶手段から読み出して前記出力制御手段により出力させ、その後に前記映像入力手段から入力される前記映像情報中の前記視聴者の動きが前記所定の動きであるか否かの映像解析結果に基づいて、前記言語出力情報の出力結果が前記視聴者により理解できないと判断したときは、前記出力制御手段により前記視聴者が次に使用する可能性のある言語として前記言語判定手段が判定した言語と同じ言語の前記言語出力情報に切り替え出力させる正誤判定・訂正手段
    を更に有することを特徴とする請求項1記載の電子機器。
  3. 画面前方の視聴者の映像情報を入力する映像入力ステップと、
    入力される前記映像情報から得られる前記視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析ステップと、
    前記映像解析ステップにより生成された前記特徴抽出データを記憶手段に記憶する記憶ステップと、
    前記記憶手段に記憶された前記特徴抽出データの前記複数の特徴の値と、前記記憶手段に予め格納されている前記特徴抽出データの前記複数の特徴のそれぞれについて前記複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとに基づいて、前記視聴者が最も使用する可能性のある言語を判定する言語判定ステップと、
    前記記憶手段に格納されている複数の言語のそれぞれで表され、かつ、少なくとも前記画面に表示される文字列を含む言語出力情報のうち、前記言語判定ステップにより判定された言語と同じ言語の前記言語出力情報を選択して少なくとも前記画面に前記文字列を表示させる出力制御ステップと
    を含むことを特徴とする電子機器の表示言語判定方法。
  4. 前記記憶手段は、前記出力制御ステップにより選択された言語の前記言語出力情報の出力結果が前記視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを前記複数の言語のそれぞれについて更に記憶しており、
    前記言語判定ステップにより判定された言語と同じ言語の前記確認メッセージを前記記憶手段から読み出して出力させ、その後に入力される前記映像情報中の前記視聴者の動きが前記所定の動きであるか否かの映像解析結果に基づいて、前記言語出力情報の出力結果が前記視聴者により理解できるか否かを判断する正誤判断ステップと、
    前記正誤判断ステップにより前記言語出力情報の出力結果が前記視聴者により理解できないと判断したときは、前記視聴者が次に使用する可能性のある言語として前記言語判定ステップで判定した言語と同じ言語の前記言語出力情報を前記記憶手段から読み出して切り替え出力する訂正ステップと
    を更に含むことを特徴とする請求項3記載の電子機器の表示言語判定方法。
JP2010229165A 2010-10-10 2010-10-10 電子機器及びその表示言語判定方法 Pending JP2012083925A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010229165A JP2012083925A (ja) 2010-10-10 2010-10-10 電子機器及びその表示言語判定方法
PCT/JP2011/073002 WO2012050029A1 (ja) 2010-10-10 2011-10-05 電子機器及びその表示言語判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010229165A JP2012083925A (ja) 2010-10-10 2010-10-10 電子機器及びその表示言語判定方法

Publications (1)

Publication Number Publication Date
JP2012083925A true JP2012083925A (ja) 2012-04-26

Family

ID=45938258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010229165A Pending JP2012083925A (ja) 2010-10-10 2010-10-10 電子機器及びその表示言語判定方法

Country Status (2)

Country Link
JP (1) JP2012083925A (ja)
WO (1) WO2012050029A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011676A (ja) * 2012-06-29 2014-01-20 Casio Comput Co Ltd コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
JP2014029396A (ja) * 2012-07-31 2014-02-13 Ricoh Co Ltd 画像表示装置
JP2016155179A (ja) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP2017142789A (ja) * 2015-05-25 2017-08-17 株式会社リコー 画像形成装置、情報処理装置、プログラム、方法、免税販売書類作成システムおよび免税販売書類作成方法
JP2017204134A (ja) * 2016-05-11 2017-11-16 日本電信電話株式会社 属性推定装置、属性推定方法およびプログラム
JP2017204133A (ja) * 2016-05-11 2017-11-16 日本電信電話株式会社 推定装置、推定方法およびプログラム
JP2020104505A (ja) * 2018-12-28 2020-07-09 京セラドキュメントソリューションズ株式会社 画像形成装置
JP2021089554A (ja) * 2019-12-04 2021-06-10 Kddi株式会社 コンテンツの顕著性を考慮してユーザの属性を推定する装置、プログラム及び方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163719A1 (ja) * 2016-03-23 2017-09-28 日本電気株式会社 出力制御装置、出力制御方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP4459842B2 (ja) * 2005-03-04 2010-04-28 株式会社ケイティーエス 表示言語切換装置及びプログラム
JP4885792B2 (ja) * 2007-05-22 2012-02-29 オリンパスイメージング株式会社 ガイド装置及びガイド方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011676A (ja) * 2012-06-29 2014-01-20 Casio Comput Co Ltd コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
JP2014029396A (ja) * 2012-07-31 2014-02-13 Ricoh Co Ltd 画像表示装置
JP2016155179A (ja) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP2017142789A (ja) * 2015-05-25 2017-08-17 株式会社リコー 画像形成装置、情報処理装置、プログラム、方法、免税販売書類作成システムおよび免税販売書類作成方法
JP2017204134A (ja) * 2016-05-11 2017-11-16 日本電信電話株式会社 属性推定装置、属性推定方法およびプログラム
JP2017204133A (ja) * 2016-05-11 2017-11-16 日本電信電話株式会社 推定装置、推定方法およびプログラム
JP2020104505A (ja) * 2018-12-28 2020-07-09 京セラドキュメントソリューションズ株式会社 画像形成装置
JP7151477B2 (ja) 2018-12-28 2022-10-12 京セラドキュメントソリューションズ株式会社 画像形成装置
JP2021089554A (ja) * 2019-12-04 2021-06-10 Kddi株式会社 コンテンツの顕著性を考慮してユーザの属性を推定する装置、プログラム及び方法
JP7150688B2 (ja) 2019-12-04 2022-10-11 Kddi株式会社 コンテンツの顕著性を考慮してユーザの属性を推定する装置、プログラム及び方法

Also Published As

Publication number Publication date
WO2012050029A1 (ja) 2012-04-19

Similar Documents

Publication Publication Date Title
WO2012050029A1 (ja) 電子機器及びその表示言語判定方法
US9507420B2 (en) System and method for providing haptic feedback to assist in capturing images
US9323982B2 (en) Display apparatus for performing user certification and method thereof
EP3125524A1 (en) Mobile terminal and method for controlling the same
CN106341522A (zh) 移动终端及其控制方法
KR20220058857A (ko) 학습 상황 분석 방법 및 장치, 전자 기기 및 기억 매체, 컴퓨터 프로그램
JP2014123818A (ja) 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム
US10409324B2 (en) Glass-type terminal and method of controlling the same
US20070259318A1 (en) System for interacting with developmentally challenged individuals
EP3796317A1 (en) Video processing method, video playing method, devices and storage medium
KR20130088493A (ko) Ui 제공 방법 및 이를 적용한 영상 수신 장치
EP2602737A2 (en) Display apparatus and control method thereof
CN104662889A (zh) 用于在便携式终端中进行拍摄的方法和设备
EP2753094B1 (en) Method and apparatus for controlling contents in electronic device
KR20190006221A (ko) 디스플레이 장치 및 이의 제어 방법
CN111343402A (zh) 一种显示方法和电子设备
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
JP5907231B1 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
US20140225997A1 (en) Low vision device and method for recording and displaying an object on a screen
WO2016192762A1 (en) Augmented reality systems and methods to access optical information
JP2019105751A (ja) 表示制御装置、プログラム、表示システム、表示制御方法及び表示データ
JP2013197827A (ja) 撮影補助装置、方法、並びに該撮影補助装置を搭載した撮影装置及びカメラ付き携帯端末
US20110064311A1 (en) Electronic apparatus and image search method
CN108600797B (zh) 一种信息处理法方法和电子设备
JP2018163413A (ja) 情報処理装置、プログラムおよび情報処理方法