JP2013190463A - 電子機器、およびプログラム - Google Patents
電子機器、およびプログラム Download PDFInfo
- Publication number
- JP2013190463A JP2013190463A JP2012054453A JP2012054453A JP2013190463A JP 2013190463 A JP2013190463 A JP 2013190463A JP 2012054453 A JP2012054453 A JP 2012054453A JP 2012054453 A JP2012054453 A JP 2012054453A JP 2013190463 A JP2013190463 A JP 2013190463A
- Authority
- JP
- Japan
- Prior art keywords
- information
- display
- unit
- display unit
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Liquid Crystal (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
Abstract
【課題】ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる電子機器を提供する。
【解決手段】電子機器は、操作者に対面する側に表示面が配置されている第1表示部と、記第1表示部に対して反対面となる側に表示面が配置されている第2表示部と、第1表示部および第2表示部それぞれの表示を制御する表示制御部と、第2表示部に表示させた情報に関する履歴情報を生成する履歴情報生成部と、を備える。
【選択図】図1
【解決手段】電子機器は、操作者に対面する側に表示面が配置されている第1表示部と、記第1表示部に対して反対面となる側に表示面が配置されている第2表示部と、第1表示部および第2表示部それぞれの表示を制御する表示制御部と、第2表示部に表示させた情報に関する履歴情報を生成する履歴情報生成部と、を備える。
【選択図】図1
Description
本発明は、電子機器、およびプログラムに関する。
店舗や展示会場に設置されて電子広告等の情報を表示する電子機器がある(例えば、特許文献1参照)。
しかしながら、特許文献1に示す電子機器にあっては、その電子機器に設けられた1つの表示面側からのみしか表示された情報を視ることができなかった。
本発明は、このような事情に鑑みてなされたもので、その目的は、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる電子機器、およびプログラムを提供することにある。
この発明は上述した課題を解決するためになされたもので、本発明は、操作者に対面する側に表示面が配置されている第1表示部と、前記第1表示部に対して反対面となる側に表示面が配置されている第2表示部と、前記第1表示部および前記第2表示部それぞれの表示を制御する表示制御部と、前記第2表示部に表示させた情報に関する履歴情報を生成する履歴情報生成部と、を備えることを特徴とする電子機器である。
また、本発明は、操作者に対面する側に表示面が配置されている第1表示部と、前記第1表示部に対して反対面となる側に表示面が配置されている第2表示部と、を備える電子機器が有するコンピュータに、前記第1表示部および前記第2表示部それぞれの表示を制御する表示制御ステップと、前記第2表示部に表示させた情報に関する履歴情報を生成する履歴情報生成ステップと、を実行させるためのプログラムである。
この発明によれば、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる。
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の一実施形態による電子機器100の概略構成を示す模式図である。
図1(a)は、例えば電車の車内において、椅子に座っている視認者Bの前にユーザA(操作者)が立っており、このユーザAによって電子機器100が把持されている様子を示した一例である。
図1(a)は、例えば電車の車内において、椅子に座っている視認者Bの前にユーザA(操作者)が立っており、このユーザAによって電子機器100が把持されている様子を示した一例である。
電子機器100は、両面に表示部を有するタブレット型の電子機器である。電子機器100は、互いに表裏の位置関係にある第1面101(第1筐体面)と第2面102(第2筐体面)とを備えている。この図では、ユーザA(操作者)に対面する側の面が第1面101(ユーザAにとっての表面)であり、第1面101に対して反対面となる面(視認者Bに対面する側の面)が第2面102(ユーザAにとっての裏面)である。
また、図1(b)は、電子機器100の第1面101を示す図であり、図1(c)は、電子機器100の第2面102を示す図である。
図1(b)、(c)に示すように、電子機器100は、第1面101に表示面が配置されている第1表示部21と、第2面102に表示面が配置されている第2表示部22と、を備えている。すなわち、電子機器100は、互いに表裏の位置関係に配置されている第1表示部21および第2表示部22を備えており、両面に情報または画像等を表示可能である。
図1(b)、(c)に示すように、電子機器100は、第1面101に表示面が配置されている第1表示部21と、第2面102に表示面が配置されている第2表示部22と、を備えている。すなわち、電子機器100は、互いに表裏の位置関係に配置されている第1表示部21および第2表示部22を備えており、両面に情報または画像等を表示可能である。
第1表示部21および第2表示部22は、操作入力用として、接触式の操作入力部(タッチパネル式の入力部)を備えている。例えば、この操作入力部は、第1表示部21および第2表示部22のそれぞれの表示面上における接触状態を検出する表示面接触センサとして、第1表示部21の表示面上に配置された第1表示面接触センサ33と、第2表示部22の表示面上に配置された第2表示面接触センサ34と、を備えている。
なお、上記表示面接触センサは、表示面上のみに限らず、第1面101および第2面102のそれぞれの面上における接触状態を検出する構成としてもよい。
なお、上記表示面接触センサは、表示面上のみに限らず、第1面101および第2面102のそれぞれの面上における接触状態を検出する構成としてもよい。
また、電子機器100は、第1撮像部11と第2撮像部12とを備えている。第1撮像部11は、第1面101に配置され、第1表示部21の表示面に対面する方向を撮像する。また、第2撮像部12は、第2面102に配置され、第2表示部22の表示面に対面する方向を撮像する。
ユーザAは、第1面101側の第1表示部21に表示された情報を視認するとともに、第1面101側を主な操作面として、第1表示部21の表面上に配置された第1表示面接触センサ33により操作入力を行う。このとき、電子機器100の第2面102側の第2表示部22は、ユーザAに対面する面(表面)に対して裏面となるため、ユーザAにとって視認されない表示部である。
本実施形態の電子機器100は、このユーザAにとって裏面となる第2表示部22に、裏面側にいる人、例えば図1(a)に示す視認者Bに対して、情報を表示するものである。
なお、両面に表示部を備えている電子機器100のユーザAに対する表面(第1面101)と裏面(第2面102)とは、電子機器100において予め定められていてもよい。すなわち、電子機器100は、ユーザAが主に使用する表示面または操作面(表面)と、ユーザAが主に使用しない表示面または操作面(裏面)と、が予め定められている機器であってもよい。
また、電子機器100は、第1撮像部11または第2撮像部12により撮像された画像に基づいて、ユーザAに対面する面、またはユーザAに対面する面に対して反対面となる面を検出する構成としてもよい。例えば、電子機器100は、第1撮像部11または第2撮像部12により撮像された画像から検出した顔の画像に基づいて、ユーザAに対面する面、またはユーザAに対面する面に対して反対面となる面を検出してもよい。また、電子機器100は、ユーザAにより把持されている把持状態(把持位置)を検出することにより、検出した把持状態(把持位置)に基づいてユーザAに対面する面、またはユーザAに対面する面に対して反対面となる面を検出してもよい。
以下の記述において、ユーザA(操作者)に対面する側の面を第1面101(表面)とし、第1面101(表面)に対して反対面となる面(視認者Bに対面する側の面)を第2面102(裏面)として説明する。
<電子機器の構成>
次に、図2を参照して、電子機器100の構成について説明する。
図2は、この発明の一実施形態による電子機器100の構成を示す概略ブロック図である。なお、図2において図1の各部に対応する部分には同一の符号を付けている。
次に、図2を参照して、電子機器100の構成について説明する。
図2は、この発明の一実施形態による電子機器100の構成を示す概略ブロック図である。なお、図2において図1の各部に対応する部分には同一の符号を付けている。
図2に示す電子機器100は、撮像部10と、表示部20と、操作入力部30と、検出部40と、制御部50と、音出力部4と、記憶部5と、通信部6と、バス9とを備えている。
撮像部10は、第1面101に配置されている第1撮像部11と、第2面102に配置されている第2撮像部12と、を備えている。例えば、第1撮像部11および第2撮像部12のそれぞれは、不図示であるが、光学レンズと、光学レンズを介して入力される被写体光束(光学像)を撮像する撮像素子と、当該撮像素子に撮像された撮像データをデジタル画像データとして出力する撮像信号処理部と、を有している。また、撮像部10は、後述する制御部50が備えている撮像制御部51により制御される。
表示部20は、第1面101に表示面が配置されている第1表示部21と、第2面102に表示面が配置されている第2表示部22と、を備えている。第1表示部21および第2表示部22は、例えば、液晶ディスプレイであって、情報または画像をそれぞれ表示する。また、表示部20は、タッチパネルであって、第1表示部21の表示面上に第1表示面接触センサ33が設けられ(配置され)、第2表示部22の表示面上に第2表示面接触センサ34が設けられ(配置され)ている。なお、第1表示面接触センサ33と第2表示面接触センサ34は、操作入力部30が備えている構成である。
操作入力部30は、第1面101に配置されている第1操作入力部31と、第2面102に配置されている第2操作入力部32とを備えている。例えば、第1操作入力部31は、第1表示部21の表示面上における接触状態を検出する第1表示面接触センサ33を備えている。また、第2操作入力部32は、第2表示部22の表示面上における接触状態を検出する第2表示面接触センサ34を備えている。
ここで、表示面接触センサ(第1表示面接触センサ33および第2表示面接触センサ34)は、タッチパネル方式の操作入力デバイスであって、例えば、静電容量方式の接触センサである。なお、表示面接触センサは、静電容量方式に代えて、電磁誘導方式、赤外線方式、表面弾性波方式、抵抗膜方式、マトリクス・スイッチ方式、等としてもよい。また、表示面接触センサは、例えば、同時に複数個所の接触を検出することができる多点入力可能な、所謂マルチタッチパネル方式としてもよい。
検出部40は、視認者検出部41と、姿勢検出部42と、把持位置検出部43と、を備えている。
視認者検出部41は、第2撮像部12により撮像された第2画像に基づいて、電子機器100の第2面102(裏面)に対面する方向(側)に、第2表示部22の表示面を視認可能な人がいるか否かを検出する。例えば、視認者検出部41は、第2撮像部12により撮像された第2画像から顔および眼の少なくとも一方の画像を検出する。そして、視認者検出部41は、この検出した結果に基づいて、第2表示部22の表示面(第2面102)を視認可能な人がいるか否かを検出する。
なお、視認者検出部41は、撮像された第2画像から顔または眼を検出する場合、例えば、顔または眼の形状や特徴をテンプレートとして予め記憶しておき、撮像された画像に対してテンプレートマッチングすることにより顔または眼を検出する。
図3は、第2撮像部12により撮像された第2画像に基づいて、電子機器100の裏面に対面する方向の人を検出する処理を説明する図である。
図3(a)は、図1(a)に示す図の詳細を説明する図であり、電子機器100の第1面101に対面する方向にいるユーザAが電子機器100を把持している状態を示している。ユーザAは電子機器100の第1面側の表示部や操作入力部を使用する。これに対して、電子機器100の第2面102に対面する方向には、第2表示部22を視認可能な視認者Bがいる。
図3(a)は、図1(a)に示す図の詳細を説明する図であり、電子機器100の第1面101に対面する方向にいるユーザAが電子機器100を把持している状態を示している。ユーザAは電子機器100の第1面側の表示部や操作入力部を使用する。これに対して、電子機器100の第2面102に対面する方向には、第2表示部22を視認可能な視認者Bがいる。
第2撮像部12は、第2表示部22の表示面に対面する方向を撮像する。すなわち、図3(a)において、第2撮像部12は、電子機器100に対して視認者Bがいる方向を撮像する。
この撮像された第2画像の例を図3(b)に示す。図3(b)は、第2撮像部12によって撮像された第2画像の一例であって、画像領域内に視認者Bが撮像されていることを示している。視認者検出部41は、第2画像から視認者Bの顔または眼の画像を検出する。例えば、視認者検出部41は、第2画像から検出した顔または眼の画像の、第2画像の画像領域に対する大きさまたは位置に基づいて、第2表示部22の表示面を視認可能な人がいるか否かを判定する。また、視認者検出部41は、検出結果を制御部50に出力する。
この図3(b)においては、視認者検出部41は、第2画像の画像領域に対する第2画像から検出した顔(顔画像)の大きさまたは位置(符号G1参照)に基づいて、検出された顔の人(視認者B)が第2表示部22の表示面を視認可能な位置にいることを検出する。例えば、視認者検出部41は、第2画像の画像領域に対する第2画像から検出した視認者Bの顔(顔画像)の大きさに基づいて、電子機器100の第2面102に対する視認者Bの距離が第2表示部22の表示面を視認可能な距離であることを検出する。また、視認者検出部41は、第2画像の画像領域に対する第2画像から検出した視認者Bの顔(顔画像)の位置に基づいて、電子機器100の第2面102に対する視認者Bのいる方向が第2表示部22の表示面を視認可能な方向であることを検出する。
一方、図3(c)は、第2表示部22の表示面を視認可能な人がいない場合の第2画像の例を示している。第2画像内に撮像されている人Cが電子機器100の第2面102に対して後ろ向きの姿勢であるため、視認者検出部41は、人Cの画像から顔の画像を検出しない。また、視認者検出部41は、第2画像内に撮像されている人Dの顔の画像を検出する。しかし、視認者検出部41は、第2画像の画像領域に対する第2画像から検出した人Dの顔(顔画像)の大きさ(符号G2参照)に基づいて、検出された人Dが第2表示部22の表示面を視認可能な位置にいない(視認可能な位置よりも遠い距離にいる)ことを検出する。
すなわち、図3(c)においては、視認者検出部41は、第2表示部22の表示面を視認可能な人がいないことを検出(視認可能な人がいないと判定)する。
すなわち、図3(c)においては、視認者検出部41は、第2表示部22の表示面を視認可能な人がいないことを検出(視認可能な人がいないと判定)する。
なお、視認者検出部41は、例えば予め定められた閾値と、検出した顔の画像の大きさまたは位置と、を比較することにより、第2表示部22の表示面を視認可能な人がいるか否かを検出(判定)する。ここで、予め定められた閾値とは、例えば、第2表示部22の表示面を視認可能であるか否かを判定するために予め定められた、第2画像の画像領域に対する顔の画像の大きさの閾値、または第2画像の画像領域に対する顔の画像の位置の閾値である。
なお、視認者検出部41は、検出した顔の大きさまたは位置に代えて、検出した眼の大きさまたは位置に基づいて、第2表示部22の表示面を視認可能な人がいるか否かを検出(判定)してもよい。また、なお、視認者検出部41は、検出した顔の大きさまたは位置と、検出した眼の大きさまたは位置との両方に基づいて、第2表示部22の表示面を視認可能な人がいるか否かを検出(判定)してもよい。
このように、視認者検出部41は、第2撮像部12により撮像された第2画像に基づいて、第2表示部22の表示面(第2面102)に対面する方向に視認可能な人(例えば視認者B)がいるか否かを検出(判定)する。
さらに、視認者検出部41は、撮像された第2画像に基づいて、第2表示部22の表示面に対する視線があるか否かを検出する。例えば、視認者検出部41は、第2画像から検出した顔または眼の画像に基づいて、第2表示部の表示面に対する視線があるか否かを検出(判定)する。
例えば、視認者検出部41は、検出した顔の画像領域のうちの眼の画像の位置に基づいて、第2表示部22の表示面に対する顔の向きを検出する。そして、視認者検出部41は、検出した顔の向きに基づいて、第2表示部22の表示面に対して視線があるか否かを検出(判定)する。
なお、視認者検出部41は、検出した眼の画像領域のうちの眼球の画像の位置に基づいて、第2表示部22の表示面に対する視線方向を検出してもよい。そして、視認者検出部41は、検出した視線方向に基づいて、第2表示部22の表示面に対して視線があるか否かを検出(判定)してもよい。
また、視認者検出部41は、第2画像から検出した顔または眼の画像に基づいて、第2表示部22の表示面を視認している人数を検出してもよい。また、視認者検出部41は、第2画像から検出した顔または眼の画像に基づいて、第2表示部22の表示面を視認可能な人の性別、および推定年齢のうちの何れかを検出してもよい。
図2に戻り、姿勢検出部42は、電子機器100の姿勢を検出する。例えば、姿勢検出部42は、加速度センサ、角速度センサ、傾斜センサ、または、地磁気センサ等を有しており、水平面に平行な面に含まれる互いに直交するX軸,Y軸、および水平面に直交するZ軸により定まる3次元空間における位置や角度により示される電子機器100の姿勢や動きを検出する。また、姿勢検出部42は、検出した電子機器100の姿勢や動きを制御部50に出力する。
把持位置検出部43は、電子機器100がユーザにより把持されている位置を把持位置として検出する。例えば、把持位置検出部43は、第1表示部21の表示面上における接触状態(接触位置)を検出する第1表示面接触センサ33と、第2表示部22の表示面上における接触状態(接触位置)を検出する第2表示面接触センサ34と、によって検出されるそれぞれの表示面上における接触状態(接触位置)に基づいて、把持位置を検出する。これにより、把持位置検出部43は、例えば、電子機器100がユーザAの手により把持されている場合の把持位置を検出する。
なお、把持位置検出部43は、上述の把持位置に基づいて(指の接触位置、接触状態等に基づいて)、電子機器100の第1面101および第2面のうちの何れの面が、ユーザAに対面する面、またはユーザAに対面する面に対して反対面となる面であるかを検出してもよい。
なお、把持位置検出部43は、上述の把持位置に基づいて(指の接触位置、接触状態等に基づいて)、電子機器100の第1面101および第2面のうちの何れの面が、ユーザAに対面する面、またはユーザAに対面する面に対して反対面となる面であるかを検出してもよい。
音出力部4は、例えばスピーカーを有しており、制御部50の制御により、音声、操作音、報知音、または警告音等を出力する。なお、記憶部5に音声ファイルまたは音楽ファイル等が記憶されており、これらのファイルが制御部50の制御により読み出されて再生された音を、音出力部4は出力してもよい。
記憶部5には、表示部20に表示させる情報、音出力部4から出力する音データ等が記憶されている。例えば、記憶部5には、表示部20に表示させる情報として、画像、文字またはアイコン等による情報、メニュー画面等、のデータが記憶されている。この記憶部5に記憶されている情報は、制御部50の制御によって読み出される。
通信部6は、通信網を介して接続された電子機器(外部機器)から情報を取得するとともに、接続された電子機器に対して情報を送信する。通信部6は、例えば、電子機器間で通信可能な通信処理Bluetooth(登録商標)、Wi−Fi(Wireless Fidelity、登録商標)、携帯電話の通信規格、等の規格に対応する。ここで、通信部6が行う通信は、無線通信であってもよいし、有線通信であってもよい。
また、通信部6は、通信網を介して接続された電子機器(外部機器)との間で、予め決められた所定のプロトコルによる通信を確立し、機器情報、ユーザ情報、コマンド、或いはコンテンツ等の送受信等を行う。
また、通信部6は、通信網を介して接続された電子機器(外部機器)との間で、予め決められた所定のプロトコルによる通信を確立し、機器情報、ユーザ情報、コマンド、或いはコンテンツ等の送受信等を行う。
制御部50は、撮像制御部51と、表示制御部52と、音出力制御部53と、操作入力制御部54と、履歴情報生成部55と、表示情報選択部56と、情報判定部57と、収入管理部58と、を備えている。
撮像制御部51は、撮像部10の撮像処理を制御する。例えば、撮像制御部51は、撮像部10が備えている各撮像部に撮像させる撮像タイミング信号を出力する。
撮像制御部51は、撮像部10の撮像処理を制御する。例えば、撮像制御部51は、撮像部10が備えている各撮像部に撮像させる撮像タイミング信号を出力する。
表示制御部52は、表示部20の第1表示部21および第2表示部22それぞれの表示を制御する。例えば、表示制御部52は、表示部20の各表示部において、情報を表示させる表示領域を設定する処理、各表示部の表示のオン(表示状態)とオフ(非表示状態)とを切り替える処理等を制御する。ここで、各表示部に表示させる情報(表示情報)とは、画像、文字またはアイコン等による情報、メニュー画面等、の何れであってもよい。
また、表示制御部52は、視認者検出部41の検出結果に基づいて、第2表示部22の表示を制御する。例えば、表示制御部52は、視認者検出部41により第2表示部22の表示面を視認可能な人がいると検出された場合、第2表示部22に情報を表示させる。また、表示制御部52は、視認者検出部41により第2表示部22の表示面を視認可能な人がいると検出されている期間、第2表示部22に情報を表示させる。
ここで、上述の第2表示部22に表示させる情報は、例えば、宣伝広告を目的とした情報である宣伝広告情報である。なお、第2表示部22に表示させる情報は、緊急事態が発生した際に通知される緊急事態に関する情報(緊急時情報)であってもよい。
また、表示制御部52は、視認者検出部41により第2表示部22の表示面に対する視線があると検出された場合、第2表示部22の表示面に対する視線があることを示す情報をユーザAに対して報知する。例えば、表示制御部52は、視認者検出部41により第2表示部22の表示面に対する視線があると検出された場合、第2表示部22の表示面に対する視線があることを示す情報を第1表示部に表示させる。
これにより、電子機器100は、裏面側の表示部に対する視線があることを検出した場合、視線が裏面側にあることをユーザAに対して通知することができる。よって、電子機器100は、視線が裏面側にあることをユーザAに対して通知することに応じて、裏面側に表示させる情報をユーザAの操作により選択させることも可能である。
音出力制御部53は、音出力部4の出力処理を制御する。例えば、音出力制御部53は、音出力部4に出力させる音声、操作音、報知音、または警告音等を選択して出力させる処理を制御する。
操作入力制御部54は、操作入力部30において入力される操作に対する検出処理を制御する。例えば、操作入力制御部54は、操作入力部が備えている各表示面接触センサの検出領域の変更、検出動作のオン(検出動作状態)とオフ(検出停止状態)との切り替え処理等を制御する。また、操作入力制御部54は、第1操作入力部31および第2操作入力部32の何れから操作入力を検出したかを判定する。
履歴情報生成部55は、第2表示部22に表示させた情報に関する履歴情報を生成する。例えば、履歴情報生成部55は、履歴情報として、第2表示部22に情報を表示させていた表示時間を示す情報、および表示させた表示回数を示す情報の何れかを生成する。例えば、履歴情報生成部55は、表示回数を計数するカウンタ、または表示時間を計時するタイマを有している。
なお、履歴情報生成部55は、履歴情報として、第2表示部22に情報を表示させていた表示時間のうち、視認者検出部41により第2表示部22の表示面に対する視線があると検出されていた時間を示す情報を生成してもよい。また、履歴情報生成部55は、履歴情報として、第2表示部22に表示させた情報を視認している人数を示す情報を生成してもよい。
表示情報選択部56は、複数の情報から第2表示部22に表示させる情報を選択する。例えば、表示情報選択部56は、視認者検出部41が検出した視認可能な人の性別および推定年齢のうちの何れかを示す情報に基づいて、複数の情報から第2表示部22に表示させる情報を選択する。例えば、表示情報選択部56は、複数の情報(例えば、宣伝広告情報)から、検出した視認可能な人の性別または推定年齢を対象とした情報(例えば、視認可能な人の性別または推定年齢に対して、提供するのに適した宣伝広告情報)を、第2表示部22に表示させる情報として選択する。
なお、表示情報選択部56は、表示制御部52が第1表示部21に表示させた情報に基づいて、複数の情報から第2表示部22に表示させる情報を選択してもよい。例えば、表示情報選択部56は、ユーザAの操作により表示制御部52が第1表示部21に表示させた情報に関連する情報(例えば、同一種類または同一分野の宣伝広告情報)、第2表示部22に表示させる情報として選択してもよい。
また、表示情報選択部56は、表示制御部52が第1表示部21に表示させた情報と同じ情報を、第2表示部22に表示させる情報として選択してもよい。例えば、表示情報選択部56は、ユーザAの操作により表示制御部52が第1表示部21に表示させた情報(例えば、宣伝広告情報)を、第2表示部22に表示させる情報として選択してもよい。
なお、表示情報選択部56は、通信網を介して接続される外部機器から予め取得した情報、記憶媒体により提供された情報、または、印刷物や電子媒体等に表示されたバーコードやマトリクス型二次元コード(例えば、QRコード(登録商標))等を読み取ることにより提供された情報を含む複数の情報から、第2表示部22に表示させる情報を選択してもよい。
また、表示情報選択部56は、通信網を介して接続される外部機器が有する複数の情報から通信部6により取得する情報を、第2表示部22に表示させる情報として選択してもよい。また、表示情報選択部56は、第2表示部22に情報を表示することにより得られる収入の金額を示す収入金額情報に基づいて、第2表示部22に表示させる情報を選択してもよい。
情報判定部57は、通信部6を介して取得した情報の種類、すなわち第2表示部22に表示させる情報の種類を判定する。例えば、情報判定部57は、通信網を介して接続される外部機器から通信部6により取得した情報が、緊急時情報であるか否かを判定する。
収入管理部58は、第2表示部22に情報(例えば、宣伝広告情報)を表示することにより得られる収入に関する情報である収入情報を管理する。例えば、収入管理部58は、第2表示部22に情報を表示することにより得られる収入の金額を示す収入金額情報と、履歴情報とに基づいて、第2表示部22に表示させる情報を配信する配信元に請求する金額を示す請求金額情報を生成する。また、収入管理部58は、請求金額情報を配信元に対して送信するとともに、請求金額情報に応じて配信元から入金された金額を示す入金情報を取得する。そして、収入管理部58は、請求金額情報と入金情報とに基づいて収入情報を管理する。
バス9は、撮像部10、表示部20、音出力部4、操作入力部30、音入力部35、検出部40、制御部50、音出力部4、記憶部5、および通信部6、に接続され、各部から出力された画像データ、音データ、検出信号、制御信号等を転送する。
(電子機器における裏面の表示処理の動作の説明)
次に、電子機器100における裏面(第2面102)の表示処理の動作について説明する。
図4は、電子機器100における裏面の表示処理の動作の第1例を示すフローチャートである。この図は、電子機器100が、裏面側の第2表示部22を視認可能な人がいる場合、裏面側の第2表示部22に宣伝広告情報を表示する例を示している。
次に、電子機器100における裏面(第2面102)の表示処理の動作について説明する。
図4は、電子機器100における裏面の表示処理の動作の第1例を示すフローチャートである。この図は、電子機器100が、裏面側の第2表示部22を視認可能な人がいる場合、裏面側の第2表示部22に宣伝広告情報を表示する例を示している。
まず、表示制御部52は、裏面(第2面102)側の第2表示部22の表示をオフ(非表示状態)に制御している(ステップS1)。次に、視認者検出部41は、第2撮像部12により撮像された第2画像から顔の画像を検出することにより、裏面側(第2面102側、第2表示部22の表示面に対面する方向)の顔を検出する(ステップS5)。続いて、視認者検出部41は、第2撮像部12により撮像された第2画像から顔の画像を検出したか否か、すなわち裏面(第2面102)側に顔があるか否かを判定する(ステップS6)。
ステップS6において、裏面(第2面102)側に顔がない(顔が検出されなかった)と判定された場合、視認者検出部41は、ステップS1に処理を戻し、第2表示部22の表示をオフ(非表示状態)に制御したまま、裏面側(第2表示部22の表示面に対面する方向)の顔を検出する処理(ステップS5の処理)を繰り返す。
一方、ステップS6において、裏面(第2面102)側に顔がある(顔を検出した)と判定された場合、視認者検出部41は、第2画像から検出した顔の画像に基づいて、第2表示部22の表示面を視認可能な人(視認者B)がいるか否かを判定する(ステップS8)。
ステップS8において、第2表示部22の表示面を視認可能な人(視認者B)がいないと判定された場合、視認者検出部41は、ステップS1に処理を戻し、第2表示部22の表示をオフ(非表示状態)に制御したまま、裏面側の顔を検出する処理(ステップS5の処理)、裏面側に顔があるか否かの判定処理(ステップS6の処理)、視認可能な人(視認者B)がいるか否かを判定する処理(ステップS8の処理)、を繰り返す。
一方、ステップS8おいて、第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は、裏面(第2面102)側の第2表示部22の表示をオン(表示状態)に制御するとともに、宣伝広告情報を表示する(ステップS10)。
このように、視認者検出部41は、第2撮像部12により撮像された第2画像から検出した顔の画像に基づいて、第2表示部22の表示面を視認可能な人(視認者B)がいるか否かを判定する。また、視認者検出部41により第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は、裏面(第2面102)側の第2表示部22の表示をオン(表示状態)に制御するとともに、宣伝広告情報を表示する。
これにより、電子機器100は、裏面(第2面102)側の第2表示部22の表示面に対面する方向に第2表示部22の表示面を視認可能な人(視認者B)がいる場合、この視認者Bに視認可能なように第2表示部22に情報(例えば、宣伝広告情報)を表示することができる。
図5は、電子機器100の裏面側の第2表示部22の表示例を示す図である。視認者検出部41により裏面側の第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は、表示をオフ(非表示状態)していた第2表示部22の表示をオン(表示状態)に制御するとともに、図5に示すように、視認者Bに対して提供する情報としての宣伝広告情報を表示する。
(履歴情報を生成する処理の例)
次に、図6を参照して、電子機器100が裏面側の第2表示部22に表示させた情報に関する履歴情報を生成する処理の動作について説明する。
図6は、電子機器100が履歴情報を生成する処理の第1例を示すフローチャートである。この図は、電子機器100が、第2表示部22に宣伝広告情報を表示させた回数(表示回数)を履歴情報として生成する処理の一例を示している。なお、図6において、図4の各処理と対応する処理には同一の符号を付け、その説明を省略する。
次に、図6を参照して、電子機器100が裏面側の第2表示部22に表示させた情報に関する履歴情報を生成する処理の動作について説明する。
図6は、電子機器100が履歴情報を生成する処理の第1例を示すフローチャートである。この図は、電子機器100が、第2表示部22に宣伝広告情報を表示させた回数(表示回数)を履歴情報として生成する処理の一例を示している。なお、図6において、図4の各処理と対応する処理には同一の符号を付け、その説明を省略する。
ステップS8おいて、第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は、裏面(第2面102)側の第2表示部22の表示をオン(表示状態)に制御するとともに、宣伝広告情報を表示させる(ステップS10)。
次に、履歴情報生成部55は、表示回数n(表示回数を計数するカウンタの値)を1増加させる(表示回数n=n+1)(ステップS12)。続いて、履歴情報生成部55は、表示回数nにより示される履歴情報を更新する(ステップS16)。
ここで、履歴情報生成部55は、表示回数nをクリア(n=0)する処理を、例えば、表示する情報の内容が変更された場合、ユーザの操作入力が検出された場合、または、配信元へ履歴情報が送信された場合、等をトリガとして実行する。
このように、履歴情報生成部55は、第2表示部22に情報を表示させた回数(表示回数)を、履歴情報として生成する。これにより、電子機器100は、第2表示部22に情報を表示させた回数(表示回数)を、履歴情報として生成することができる(表示回数を履歴として残すことができる)。
なお、図6に示す表示回数を履歴情報として生成する処理は、例えば、表示する情報の種類ごと(例えば、宣伝広告情報の内容ごと、宣伝広告情報の配信元ごと、等)の表示回数を、履歴情報として生成してもよい。
また、図6に示す表示回数を履歴情報として生成する処理は、視認可能な人がいると判定した場合に第2表示部22に表示した回数を表示回数として計数する処理とした。しかし、これに代えて、表示回数を履歴情報として生成する処理は、第2表示部22に表示した回数のうち、第2表示部22の表示面に対する視線があると判定された回数を表示回数として計数する処理としてもよい。
次に、図7を参照して、電子機器100が裏面側の第2表示部22に情報を表示していた表示時間を示す情報を、履歴情報として生成する処理の動作について説明する。
図7は、電子機器100が履歴情報を生成する処理の第2例を示すフローチャートである。この図は、電子機器100が、第2表示部22に宣伝広告情報を表示していた時間(表示時間)を示す情報を、履歴情報として生成する処理の一例を示している。なお、図7において、図6の各処理と対応する処理には同一の符号を付け、その説明を適宜省略する。
図7は、電子機器100が履歴情報を生成する処理の第2例を示すフローチャートである。この図は、電子機器100が、第2表示部22に宣伝広告情報を表示していた時間(表示時間)を示す情報を、履歴情報として生成する処理の一例を示している。なお、図7において、図6の各処理と対応する処理には同一の符号を付け、その説明を適宜省略する。
ステップS2において、履歴情報生成部55は、表示時間t(表示時間を計時するタイマの値)をクリア(t=0)する。次に、視認者検出部41は、裏面(第2面102)側の顔を検出し(ステップS5)、裏面(第2面102)側に顔があるか否かの判定(ステップS6)と、第2表示部22の表示面を視認可能な人(視認者B)がいるか否かの判定(ステップS8)と、を実行する。
ステップS8おいて、第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は、裏面(第2面102)側の第2表示部22の表示をオン(表示状態)に制御するとともに、宣伝広告情報を表示させる(ステップS10)。
次に、履歴情報生成部55は、ステップS10において表示制御部52が宣伝広告情報を表示開始させたことをトリガとして、表示時間t(表示時間を計時するタイマの値)の計時を開始する(表示時間t=++)(ステップS15)。続いて、履歴情報生成部55は、表示時間tにより示される履歴情報を更新する(ステップS16)。
次に、制御部50は、電子機器100において電源オフ操作がされたか否かを判定する(ステップS18)。ステップS18において、電源オフ操作がされていないと判定された場合、制御部50は、ステップS8に処理を戻す。そして、ステップS8において、第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は裏面(第2面102)側への表示を継続し、履歴情報生成部55は表示時間tの計時を継続する。一方、ステップS8において、第2表示部22の表示面を視認可能な人(視認者B)がいないと判定された場合、ステップS1に処理を戻して、表示制御部52は、裏面(第2面102)側の表示をオフ(非表示状態)にする。
また、ステップS18において、電源オフ操作がされたと判定された場合、制御部50は、電子機器100における電源オフ処理を実行して、処理を終了する。
また、ステップS18において、電源オフ操作がされたと判定された場合、制御部50は、電子機器100における電源オフ処理を実行して、処理を終了する。
このように、履歴情報生成部55は、第2表示部22に情報を表示させていた時間(表示時間)を示す情報を、履歴情報として生成する。これにより、電子機器100は、第2表示部22に情報を表示していた時間(表示時間)を示す情報を、履歴情報として生成することができる(表示時間を履歴として残すことができる)。
次に、図8を参照して、電子機器100が裏面側の第2表示部22示面に対する視線があると判定(検出)していた時間を示す情報を、履歴情報として生成する処理の動作について説明する。
図8は、電子機器100が履歴情報を生成する処理の第3例を示すフローチャートである。この図は、電子機器100が、宣伝広告情報を表示させた第2表示部22の表示面に対する視線を検出していた(視線があると判定(検出)していた)時間を示す情報を、履歴情報として生成する処理の一例を示している。この図8に示す処理は、図7に示す処理に対して、ステップS11およびステップS17の処理が異なる。なお、図8において、図7の各処理と対応する処理には同一の符号を付け、その説明を適宜省略する。
図8は、電子機器100が履歴情報を生成する処理の第3例を示すフローチャートである。この図は、電子機器100が、宣伝広告情報を表示させた第2表示部22の表示面に対する視線を検出していた(視線があると判定(検出)していた)時間を示す情報を、履歴情報として生成する処理の一例を示している。この図8に示す処理は、図7に示す処理に対して、ステップS11およびステップS17の処理が異なる。なお、図8において、図7の各処理と対応する処理には同一の符号を付け、その説明を適宜省略する。
ステップS10において、表示制御部52が裏面(第2面102)側の第2表示部22に宣伝広告情報を表示した後、視認者検出部41は、第2表示部22の表示面に対する視線があるか否かを判定する(ステップS11)。
ステップS11において、第2表示部22の表示面に対する視線があると判定された場合、履歴情報生成部55は、表示時間t(表示時間を計時するタイマの値)の計時を開始する(表示時間t=++)(ステップS15)。続いて、履歴情報生成部55は、表示時間tにより示される履歴情報を更新する(ステップS16)。
次に、制御部50は、電子機器100において電源オフ操作がされたか否かを判定する(ステップS18)。ステップS18において、電源オフ操作がされていないと判定された場合、制御部50は、ステップS11に処理を戻す。そして、履歴情報生成部55は、ステップS11において第2表示部22の表示面に対する視線があると判定されている間、表示時間tの計時を継続する。また、ステップS18において、電源オフ操作がされたと判定された場合、制御部50は、電子機器100における電源オフ処理を実行して、処理を終了する。
一方、ステップS11において、第2表示部22の表示面に対する視線がないと判定された場合、視認者検出部41は、表示時間tの計時を停止し(ステップS17)、ステップS8に処理を戻す。そして、表示制御部52は、ステップS8において視認可能な人(視認者B)がいると判定された場合には、裏面(第2面102)側への表示を継続し(ステップS10)、ステップS8において視認可能な人(視認者B)がいないと判定された場合には、裏面(第2面102)側の表示をオフ(非表示状態)にする(ステップS1)。
このように、履歴情報生成部55は、第2表示部22に情報を表示させていた時間(表示時間)のうち、第2表示部22の表示面に対する視線があると検出されていた時間を示す情報を、履歴情報として生成する。これにより、電子機器100は、第2表示部22に表示した情報に対して、視認者Bからの視線が向けられていた時間を示す情報を、履歴情報として生成することができる(表示した情報が見られていた時間を履歴として残すことができる)。
なお、図7または図8に示す表示時間または視線があると検出されていた時間を履歴情報として生成する処理は、例えば、表示する情報の種類ごと(例えば、宣伝広告情報の内容ごと、宣伝広告情報の配信元ごと、等)の表示時間または視線があると検出されていた時間を、履歴情報として生成してもよい。
<各種サーバおよび情報端末を含むネットワークシステムの構成>
次に、電子機器100が、通信網により接続される外部機器(各種サーバ、情報端末、および電子機器)と接続して、裏面(第2面102)側に表示する情報を取得する処理の一例について説明する。
次に、電子機器100が、通信網により接続される外部機器(各種サーバ、情報端末、および電子機器)と接続して、裏面(第2面102)側に表示する情報を取得する処理の一例について説明する。
電子機器100は、通信網を介して接続される外部機器が有する複数の情報(コンテンツ)から選択した情報(コンテンツ)を、第2表示部22に表示する。ここで、この外部機器は、例えば、通信網を介して接続されるサーバ、および移動体に設置された情報端末の何れであってもよい。なお、移動体は、電車、バス(交通機関のバス)、タクシー、航空機、船舶等の何れであってもよい。さらに、外部機器は、街頭(建物の壁面、公園、沿道等)に設置された情報端末であってもよい。
図9は、電子機器100が、外部機器と通信網を介して接続されるシステムの一例を示す図である。この図に示すシステムは、電子機器100と、インターネット(通信網)を介して接続される、車内広告配信サーバ1(電車)151、車内広告配信サーバ2(バス)152、Webサーバ153、および緊急情報配信サーバ154と、電車200内に設置された電車内情報端末156と、電車内情報端末156とインターネットとを接続可能にする基地局157と、電車200内に設置され、電子機器100とインターネットとを接続可能にする基地局158(例えば、Wi−fiスポット)と、を備えている。
車内広告配信サーバ1(電車)151は、電車200内に設置された電車内情報端末156に表示するコンテンツ(例えば宣伝広告情報)を、インターネットを介して配信する。車内広告配信サーバ2(バス)152は、不図示のバス(交通機関のバス)内に設置された情報端末に表示するコンテンツ(例えば宣伝広告情報)を、インターネットを介して配信する。
Webサーバ153は、インターネットを介して接続される各種電子機器に対して、Webコンテンツを配信する。緊急情報配信サーバ154は、緊急事態に関する情報である緊急時情報を、緊急事態が発生した際にインターネットを介して配信(通知)する。ここで、緊急事態とは、例えば自然災害、事故、或いは事件による生じた緊急事態である。また、緊急時情報とは、これらの緊急事態が発生した際に緊急事態に関する情報を通知するニュースや緊急速報等である。
なお、インターネットを介して接続されるサーバは、上述したサーバに限られるものではなく、例えば、携帯電話会社のサーバ、電車およびバス(交通機関のバス)以外の移動体(タクシー、航空機、船舶等)が備えている情報端末にコンテンツを配信するサーバ、FTP(File Transfer Protocol)サーバ、メールサーバ等であってもよい。
また、基地局157または基地局158とインターネットとは、例えばWi−Fi(登録商標)等に対応する無線方式による無線通信で接続されてもよいし、有線通信で接続されてもよい。
また、基地局157または基地局158とインターネットとは、例えばWi−Fi(登録商標)等に対応する無線方式による無線通信で接続されてもよいし、有線通信で接続されてもよい。
電車内情報端末156は、基地局157を介してインターネットに接続される。そして、電車内情報端末156は、車内広告配信サーバ1(電車)151との間で、インターネットを介して通信確立して相互認証した後、端末情報の送信処理やコンテンツ(情報)の受信処理等を行う(図9の(1)に示す通信処理)。
電子機器100は、電車内情報端末156との間で、例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等に対応する無線方式により互いに情報を送受信する(図9の(2)に示す通信処理)。例えば、電子機器100は、電車内情報端末156に対して端末情報を送信することにより通信確立して相互認証する。また、電子機器100は、電車内情報端末156の間で通信確立して相互認証した後、電車内情報端末156が車内広告配信サーバ1(電車)151から受信したコンテンツ(情報)を、電車内情報端末156に対して要求することに応じて電車内情報端末156から取得する。
また、電子機器100は、基地局158を介してインターネットに接続される。そして、電子機器100は、Webサーバ153との間で、インターネットを介して通信確立して相互認証した後、端末情報またはユーザ情報の送信処理やコンテンツの受信処理等を行う(図9の(3)に示す通信処理)。
さらに、電子機器100は、緊急情報配信サーバ154との間で、インターネットを介して通信確立して相互認証した後、緊急情報配信サーバ154から送信(配信)された緊急時情報を受信する(図9の(4)に示す通信処理)。
なお、電子機器100は、各サーバからコンテンツ情報を取得する場合、事前に各サーバを運営するコンテンツ配信元との間で契約処理を実行する。例えば、電子機器100は、各サーバとの通信確立の後、各サーバが提供する契約手順に従って機器情報またはユーザ情報等を送信し、コンテンツ配信元との間で行われるコンテンツ配信に関する契約処理を実行する。電子機器100は、一度、契約処理を済ませることにより、次回の接続時からは機器情報またはユーザ情報を含む接続要求コマンドをサーバに対して送信することにより、契約済であれば認証が行われて、コンテンツを取得可能になる。
(通信網を介して取得したコンテンツを表示する処理)
次に、電子機器100が図9に示す通信網を介して取得したコンテンツを、裏面(第2面102)側の第2表示部22に表示する処理の動作について説明する。
次に、電子機器100が図9に示す通信網を介して取得したコンテンツを、裏面(第2面102)側の第2表示部22に表示する処理の動作について説明する。
図10は、電子機器100が電車内情報端末156を介して、車内広告配信サーバ1(電車)151から取得したコンテンツを表示する処理の動作の一例を示す図である。
図10において、電車内情報端末156と車内広告配信サーバ1(電車)151との通信確立(ステップS201)、および電子機器100と電車内情報端末156との通信確立(ステップS101)の後、電子機器100の制御部50は、通信部6を介して、電車内情報端末156に対して接続要求コマンドを送信する(ステップS102)。電車内情報端末156は、電子機器100から受信した接続要求コマンドを車内広告配信サーバ1(電車)151対して送信する(ステップS202)。
車内広告配信サーバ1(電車)151は、受信した接続要求コマンドに含まれている機器情報またはユーザ情報等に基づいて、電子機器100との間の契約処理が完了しているか否か(契約済であるか否か)を判定する(ステップS203)。
ステップS203において、電子機器100との間の契約処理が完了していない(契約済ではない)と判定された場合、車内広告配信サーバ1(電車)151は、認証エラー処理を実行して(ステップS205)、処理を終了する。例えば、車内広告配信サーバ1(電車)151は、認証エラー処理として電子機器100に対して認証エラーを示す情報を送信して処理を終了する。
一方、ステップS203において、電子機器100との間の契約処理が完了している(契約済である)と判定された場合、車内広告配信サーバ1(電車)151は、認証成功を示す情報を、電車内情報端末156を介して電子機器100に送信する(ステップS204、S104)。
次に、電子機器100の検出部40(視認者検出部41)は、裏面(第2面102)側に第2表示部22の表示面を視認可能な人がいるか否かを検出(判定)する(ステップS105)。ステップS105において、視認可能な人がいないことが検出(視認可能な人がいないと判定)された場合、検出部40は、ステップS105の処理を繰り返して、裏面(第2面102)側に第2表示部22の表示面を視認可能な人がいるか否かを検出(判定)する。
一方、ステップS105において、視認可能な人がいると検出(判定)された場合、電子機器100の制御部50は、第2表示部22に表示するためのコンテンツを要求するコンテンツ要求コマンドを、電車内情報端末156を介して車内広告配信サーバ1(電車)151に送信する(ステップS106、S206)。
車内広告配信サーバ1(電車)151は、受信したコンテンツ要求コマンドに応じて、車内広告配信サーバ1(電車)151内に有するコンテンツ(「コンテンツ1」、「コンテンツ2」、「コンテンツ3」)を、順次、電車内情報端末156を介して電子機器100に送信する。電子機器100の制御部50は、車内広告配信サーバ1(電車)151から送信されたコンテンツ(「コンテンツ1」、「コンテンツ2」、「コンテンツ3」)を、順次、通信部6を介して受信する(ステップS207、S107)、(ステップS208、S108)、(ステップS209、S109)。
次に、電子機器100の制御部50(表示制御部52)は、受信したコンテンツ(「コンテンツ1」、「コンテンツ2」、「コンテンツ3」)を、順次、第2表示部22に表示する(ステップS120)。
このように、視認者検出部41により第2表示部22の表示面を視認可能な人(視認者B)がいると判定された場合、表示制御部52は、電車内情報端末156を介してインターネットに接続された車内広告配信サーバ1(電車)151から受信したコンテンツを、裏面(第2面102)側の第2表示部22に表示する。
これにより、電子機器100は、裏面(第2面102)側の第2表示部22の表示面に対面する方向に第2表示部22の表示面を視認可能な人(視認者B)がいる場合、この視認者Bに視認可能なように、車内広告配信サーバ1(電車)151から受信したコンテンツを第2表示部22に表示することができる。
(視認可能な人の性別および推定年齢に基づいて、取得するコンテンツを選択する例)
次に、図11を参照して、電子機器100が裏面(第2面102)側の第2表示部22に表示するコンテンツを取得する際に、検出した視認可能な人の性別および推定年齢に基づいて、取得するコンテンツを選択する場合の処理の動作について説明する。
次に、図11を参照して、電子機器100が裏面(第2面102)側の第2表示部22に表示するコンテンツを取得する際に、検出した視認可能な人の性別および推定年齢に基づいて、取得するコンテンツを選択する場合の処理の動作について説明する。
図11は、電子機器100が、検出した視認可能な人の性別および推定年齢に基づいて取得したコンテンツを表示する処理の動作の一例を示す図である。
図11に示す処理は、ステップS110において電子機器100がコンテンツ要求コマンドを送信する処理から、ステップS112において電子機器100がコンテンツの取得を完了する処理までが、図10に示す処理に対して異なる。なお、図11において、図10の各処理と対応する処理には同一の符号を付け、その説明を省略する。
図11に示す処理は、ステップS110において電子機器100がコンテンツ要求コマンドを送信する処理から、ステップS112において電子機器100がコンテンツの取得を完了する処理までが、図10に示す処理に対して異なる。なお、図11において、図10の各処理と対応する処理には同一の符号を付け、その説明を省略する。
制御部50の表示情報選択部56は、視認者検出部41が検出した視認可能な人の性別および推定年齢を示す情報に基づいて、複数のコンテンツ(情報)から第2表示部22に表示させるコンテンツ(情報)を選択する。制御部50は、表示情報選択部56により選択されたコンテンツ(情報)を取得するために、性別および推定年齢を示す情報を属性情報として含めたコンテンツ要求コマンドを送信する。
図11に示すように、ステップS105において、視認可能な人がいると検出(判定)された場合、電子機器100の制御部50は、第2表示部22に表示するためのコンテンツを要求するコンテンツ要求コマンドを、電車内情報端末156を介して車内広告配信サーバ1(電車)151に送信する(ステップS110、S210)。ここで、制御部50は、視認者検出部41が検出した第2表示部22の表示面を視認可能な人の性別および推定年齢を示す情報を属性情報としてコンテンツ要求コマンドに含めて送信する。この図11に示す例においては、制御部50は、性別を示す情報を「女性」、年齢を示す情報を「20代」とした属性情報を含めたコンテンツ要求コマンドを、電車内情報端末156を介して車内広告配信サーバ1(電車)151に送信する。
車内広告配信サーバ1(電車)151は、コンテンツと、そのコンテンツに関連する属性情報とを対応付けて登録(管理)している。例えば、車内広告配信サーバ1(電車)151は、コンテンツの属性情報として、コンテンツの種別を示す情報と、コンテンツに適した性別を示す情報と、コンテンツに適した年齢を示す情報とを、各コンテンツと対応付けて管理している。
図11に示す例においては、車内広告配信サーバ1(電車)151は、「コンテンツ1」、「コンテンツ2」、および「コンテンツ3」の属性情報をそれぞれ以下に示す内容として管理している。
・「コンテンツ1」の属性情報
種別を示す情報:「化粧品」、性別を示す情報:「女性」、年齢を示す情報:「ALL(全ての年齢が対象)」。
・「コンテンツ2」の属性情報
種別を示す情報:「ファッション」、性別を示す情報:「男性」、年齢を示す情報:「30代」。
・「コンテンツ3」の属性情報
種別を示す情報:「ファッション」、性別を示す情報:「女性」、年齢を示す情報:「20代」。
・「コンテンツ1」の属性情報
種別を示す情報:「化粧品」、性別を示す情報:「女性」、年齢を示す情報:「ALL(全ての年齢が対象)」。
・「コンテンツ2」の属性情報
種別を示す情報:「ファッション」、性別を示す情報:「男性」、年齢を示す情報:「30代」。
・「コンテンツ3」の属性情報
種別を示す情報:「ファッション」、性別を示す情報:「女性」、年齢を示す情報:「20代」。
車内広告配信サーバ1(電車)151は、受信したコンテンツ要求コマンドに含まれる属性情報に基づいて、その属性情報に対応するコンテンツを、電車内情報端末156を介して電子機器100に送信する。
例えば、図11に示す例においては、車内広告配信サーバ1(電車)151は、性別を示す情報を「女性」、年齢を示す情報を「20代」とした属性情報を含めたコンテンツ要求コマンドを、電子機器100から受信する。そして、車内広告配信サーバ1(電車)151は、受信したコンテンツ要求コマンドに含まれる属性情報に対応するコンテンツとして、コンテンツ1とコンテンツ2とを、順次、電車内情報端末156を介して電子機器100に送信する(ステップS211、S111)、(ステップS212、S112)。
例えば、図11に示す例においては、車内広告配信サーバ1(電車)151は、性別を示す情報を「女性」、年齢を示す情報を「20代」とした属性情報を含めたコンテンツ要求コマンドを、電子機器100から受信する。そして、車内広告配信サーバ1(電車)151は、受信したコンテンツ要求コマンドに含まれる属性情報に対応するコンテンツとして、コンテンツ1とコンテンツ2とを、順次、電車内情報端末156を介して電子機器100に送信する(ステップS211、S111)、(ステップS212、S112)。
次に、電子機器100の制御部50(表示制御部52)は、受信したコンテンツ(「コンテンツ1」、「コンテンツ3」)を、順次、第2表示部22に表示する(ステップS120)。
このように、制御部50は、検出した視認可能な人の性別および推定年齢のうちの何れかを示す情報に基づいて、複数の情報から第2表示部22に表示させる情報を選択する。
これにより、電子機器100は、裏面(第2面102)側の第2表示部22の表示面に対面する方向にいる第2表示部22の表示面を視認可能な人(視認者B)の性別および推定年齢のうちの何れかに応じて適した情報を、第2表示部22に表示することができる。
なお、図10および図11に示す処理は、電子機器100から送信したコンテンツ要求コマンドに応じて、車内広告配信サーバ1(電車)151から電車内情報端末156を介して電子機器100にコンテンツが送信される処理を説明したが、これに限られるものではない。例えば、車内広告配信サーバ1(電車)151から電車内情報端末156に複数のコンテンツが事前に送信されており、電子機器100は、電車内情報端末156に送信したコンテンツ要求コマンドに応じて、電車内情報端末156内の複数の受信済のコンテンツのうちから要求したコンテンツを取得する処理としてもよい。
また、図11に示す処理は、電子機器100が送信したコンテンツ要求コマンドに含まれている属性情報に基づいて、その属性情報に対応するコンテンツが車内広告配信サーバ1(電車)151から電車内情報端末156を介して電子機器100に送信される処理を説明したが、これに限られるものではない。例えば、電子機器100は、車内広告配信サーバ1(電車)151または電車内情報端末156から、属性情報の内容にかかわらず、複数のコンテンツとそのコンテンツに対応付けられた属性情報とを、一旦取得してもよい。そして、電子機器100(表示情報選択部56)は、一旦取得した複数のコンテンツから、視認者検出部41が検出した視認可能な人の性別(例えば「女性」)および推定年齢(例えば「20代」)を示す情報に基づいて第2表示部22に表示させるコンテンツ(情報)を選択してもよい。
(コンテンツ収入の金額情報を取得する処理の例)
次に、電子機器100が裏面(第2面102)側の第2表示部22に表示するコンテンツを取得する際に、コンテンツごとに得られる収入の金額を示す収入金額情報(コンテンツ収入の金額情報)を取得する処理の動作について説明する。このコンテンツごとに得られる収入金額情報とは、取得したコンテンツを表示することによりコンテンツの配信元から得られるコンテンツ収入の金額を示す金額情報である。例えば、コンテンツごとに得られる収入金額情報は、コンテンツを表示していた表示時間に応じて得られる金額を算出するための時間単価、コンテンツを表示した回数に応じて得られる金額を算出するための表示1回当たりの単価、等により示されている。
次に、電子機器100が裏面(第2面102)側の第2表示部22に表示するコンテンツを取得する際に、コンテンツごとに得られる収入の金額を示す収入金額情報(コンテンツ収入の金額情報)を取得する処理の動作について説明する。このコンテンツごとに得られる収入金額情報とは、取得したコンテンツを表示することによりコンテンツの配信元から得られるコンテンツ収入の金額を示す金額情報である。例えば、コンテンツごとに得られる収入金額情報は、コンテンツを表示していた表示時間に応じて得られる金額を算出するための時間単価、コンテンツを表示した回数に応じて得られる金額を算出するための表示1回当たりの単価、等により示されている。
図12は、電子機器100が、コンテンツ収入の金額情報(収入金額情報)に基づいて、表示するコンテンツを選択可能にする処理の動作の一例を示す図である。なお、この図において、コンテンツごとに得られる収入の金額を示す収入金額情報は、時間単価を示す情報としている。
図12に示す処理は、ステップS113において電子機器100がコンテンツ要求コマンドを送信する処理から、ステップS116において電子機器100がコンテンツの取得を完了する処理までと、ステップS118のコンテンツ選択処理とが、図10に示す処理に対して異なる。なお、図12において、図10の各処理と対応する処理には同一の符号を付け、その説明を省略する。
図12に示す処理は、ステップS113において電子機器100がコンテンツ要求コマンドを送信する処理から、ステップS116において電子機器100がコンテンツの取得を完了する処理までと、ステップS118のコンテンツ選択処理とが、図10に示す処理に対して異なる。なお、図12において、図10の各処理と対応する処理には同一の符号を付け、その説明を省略する。
ステップS105において、視認可能な人がいると検出(判定)された場合、電子機器100の制御部50は、第2表示部22に表示するためのコンテンツを要求するコンテンツ要求コマンドを、電車内情報端末156を介して車内広告配信サーバ1(電車)151に送信する。ここで、制御部50は、コンテンツごとの収入金額情報(コンテンツを表示した表示時間に応じて得られる収入の時間単価)を取得するための要求指令をコンテンツ要求コマンドに含めて送信する(ステップS113、S213)。
車内広告配信サーバ1(電車)151は、コンテンツと、そのコンテンツに関連する属性情報とを対応付けて登録(管理)している。例えば、車内広告配信サーバ1(電車)151は、コンテンツの属性情報として、コンテンツの種別を示す情報と、コンテンツの収入金額情報とを、各コンテンツと対応付けて管理している。
図12に示す例においては、車内広告配信サーバ1(電車)151は、「コンテンツ1」、「コンテンツ2」、および「コンテンツ3」の属性情報をそれぞれ以下に示す内容として管理している。
・「コンテンツ1」の属性情報
種別を示す情報:「化粧品」、収入金額情報(時間単価):「10円/分」。
・「コンテンツ2」の属性情報
種別を示す情報:「ファッション」、収入金額情報(時間単価):「5円/分」。
・「コンテンツ3」の属性情報
種別を示す情報:「ファッション」、収入金額情報(時間単価):「5円/分」。
・「コンテンツ1」の属性情報
種別を示す情報:「化粧品」、収入金額情報(時間単価):「10円/分」。
・「コンテンツ2」の属性情報
種別を示す情報:「ファッション」、収入金額情報(時間単価):「5円/分」。
・「コンテンツ3」の属性情報
種別を示す情報:「ファッション」、収入金額情報(時間単価):「5円/分」。
車内広告配信サーバ1(電車)151は、受信したコンテンツ要求コマンドに基づいて、コンテンツとそのコンテンツの収入金額情報とを対応付けて、電車内情報端末156を介して電子機器100に送信する。
例えば、図12に示す例においては、車内広告配信サーバ1(電車)151は、コンテンツ要求コマンドに受信したことに応じて、「コンテンツ1」および「コンテンツ1」の属性情報(種別情報:「化粧品」、収入金額情報(時間単価):「10円/分」)と、「コンテンツ2」および「コンテンツ2」の属性情報(種別情報:「「ファッション」、収入金額情報(時間単価):「5円/分」)と、「コンテンツ3」および「コンテンツ3」の属性情報(種別情報:「「ファッション」、収入金額情報(時間単価):「5円/分」)と、を、順次、電車内情報端末156を介して電子機器100に送信する(ステップS214、S114)、(ステップS215、S115)、(ステップS216、S116)。
例えば、図12に示す例においては、車内広告配信サーバ1(電車)151は、コンテンツ要求コマンドに受信したことに応じて、「コンテンツ1」および「コンテンツ1」の属性情報(種別情報:「化粧品」、収入金額情報(時間単価):「10円/分」)と、「コンテンツ2」および「コンテンツ2」の属性情報(種別情報:「「ファッション」、収入金額情報(時間単価):「5円/分」)と、「コンテンツ3」および「コンテンツ3」の属性情報(種別情報:「「ファッション」、収入金額情報(時間単価):「5円/分」)と、を、順次、電車内情報端末156を介して電子機器100に送信する(ステップS214、S114)、(ステップS215、S115)、(ステップS216、S116)。
次に、電子機器100の制御部50(表示制御部52)は、受信したコンテンツ(「コンテンツ1」、「コンテンツ2」、「コンテンツ3」)と、各コンテンツの属性情報との一覧を第1表示部21に表示するとともに、このコンテンツの一覧の中から第2表示部22に表示するコンテンツをユーザの操作入力により選択可能な選択メニューを第1表示部21に表示する。制御部50は、ユーザの操作入力(第1面(101)側への操作入力)を検出することにより、第2表示部22に表示するコンテンツを選択する(ステップS118)。
例えば、ユーザは、「コンテンツ1」、「コンテンツ2」、および「コンテンツ3」のうち、時間単価が最も高いコンテンツである「コンテンツ1」を選択する操作を行うとする。この場合、制御部50(表示情報選択部56)は、ユーザの操作入力を検出することにより、第2表示部22に表示するコンテンツとして「コンテンツ1」を選択する。
続いて、制御部50(表示制御部52)は、ステップS118において選択されたコンテンツ(例えば「コンテンツ1」)を、第2表示部22に表示する(ステップS120)。
このように、制御部50は、第2表示部22にコンテンツを表示することにより得られる収入の金額を示す収入金額情報を、コンテンツの属性情報として取得する。また、制御部50は、第2表示部22に表示するコンテンツをユーザの操作入力により選択可能な選択メニューとして、コンテンツと収入金額情報(単価情報)とを第1表示部21に表示する。そして、制御部50は、ユーザの操作入力を検出することにより、第2表示部22に表示するコンテンツを選択する。
これにより、電子機器100は、第2表示部22に表示させた場合のコンテンツごとの収入金額情報(単価情報)を取得することができる。よって、電子機器100は、第2表示部22に表示させるコンテンツを、コンテンツごとの収入金額情報(単価情報)に基づいてユーザが選択可能なようにすることができる。
(コンテンツ収入の収入情報を管理する処理の例)
次に、電子機器100が裏面(第2面102)側の第2表示部22に表示したコンテンツに関する履歴情報に基づいて、コンテンツを表示することにより得られる収入情報を管理する処理の動作について説明する。
次に、電子機器100が裏面(第2面102)側の第2表示部22に表示したコンテンツに関する履歴情報に基づいて、コンテンツを表示することにより得られる収入情報を管理する処理の動作について説明する。
図13は、電子機器100が、履歴情報に基づいて収入情報を管理する処理の動作の一例を示す図である。この図13は、図12に示すステップS120の処理の後に行われる処理を示している。
図12を用いて説明したように、制御部50(表示制御部52)は、コンテンツ(例えば「コンテンツ1」)を第2表示部22に表示する(ステップS120)。次に、履歴情報生成部55は、コンテンツ(例えば「コンテンツ1」)を第2表示部22に表示させていた表示時間を履歴情報として生成する(ステップS125)。
続いて、制御部50(収入管理部58)は、収入金額情報(時間単価)と、生成した履歴情報とに基づいて、第2表示部22に表示させる情報を配信する配信元に請求する金額を示す請求金額情報を生成する(ステップS130)。例えば、収入管理部58は、「コンテンツ1」に対応付けられている収入金額情報(時間単価)に対して、「コンテンツ1」を表示させていた表示時間を積算して請求金額を算出することにより、請求金額情報を生成する。
次に、制御部50は、生成した請求金額情報を、電車内情報端末156を介して車内広告配信サーバ1(電車)151に送信する(ステップS131、S231)。例えば、制御部50は、履歴情報を生成(更新)するたび、または月ごとの設定された日(しめ日)にまとめて、生成した請求金額情報を送信する。なお、制御部50は、生成した請求金額情報を、コンテンツ毎にそれぞれのコンテンツを配信する配信元のサーバに送信する。
次に、車内広告配信サーバ1(電車)151は、受信した請求金額情報に基づいて、ユーザに対して支払うコンテンツ料金(電子機器100においてコンテンツが表示されることによりユーザから請求される請求金額)を、ユーザに対して出金する出金処理を実行する(ステップS235)。例えば、車内広告配信サーバ1(電車)151は、出金処理として、予め登録されているユーザの銀行口座等に、受信した請求金額情報に応じたコンテンツ料金の振込み処理を実行する。
そして、車内広告配信サーバ1(電車)151は、出金処理が完了したか否か(出勤処理済か否か)を判定する(ステップS236)。ステップS236において、出金処理済ではないと判定された場合、車内広告配信サーバ1(電車)151は、出金処理が完了するまで(出金処理済と判定されるまで)、ステップS236の処理を繰り返す。一方、ステップS236において、出金処理済であると判定された場合、車内広告配信サーバ1(電車)151は、上述の出金処理により、請求金額情報に応じて配信元からユーザに対して入金された金額を示す入金情報を、電車内情報端末156を介して電子機器100に送信する(ステップS238、S138)。そして、電子機器100の制御部50は、電車内情報端末156を介して車内広告配信サーバ1(電車)151から入金情報を取得(受信)する。
制御部50の収入管理部58は、生成した請求金額情報と取得した入金情報とに基づいて、収入情報を更新する(ステップS140)。例えば、収入管理部58は、生成した請求金額情報と取得した入金情報とを対応付けて、配信元ごとまたはコンテンツごとの収入情報として更新する。また、収入管理部58は、生成した請求金額情報と取得した入金情報とを比較することにより、請求金額に応じたコンテンツ料金が入金されたか否か(支払われたか否か)を判定する。そして、収入管理部58は、判定した結果により請求金額情報と入金情報とに不整合があった場合、この不整合があることを示す情報を、ユーザに報知する(例えば、第1表示部21に表示させる)、または、配信元のサーバに送信する。
このように、制御部50の収入管理部58は、収入金額情報(時間単価)と、生成した履歴情報とに基づいて、第2表示部22に表示させる情報を配信する配信元に請求する請求金額情報を生成する。また、収入管理部58は、生成した請求金額情報を車内広告配信サーバ1(電車)151に送信するとともに、送信した請求金額情報に応じて配信元からユーザに対して入金された入金情報を、車内広告配信サーバ1(電車)151から取得する。
これにより、電子機器100は、収入金額情報(時間単価)と、生成した履歴情報とに基づいて、配信元に請求する請求金額情報を生成して配信元に送信することができる。また、電子機器100は、送信した請求金額情報に応じて配信元からユーザに対して入金された入金情報を、車内広告配信サーバ1(電車)151から取得することができる。よって、電子機器100は、第2表示部22に表示させた履歴情報に基づいて配信元に請求する請求金額情報と、取得した入金情報とに基づいて、第2表示部22にコンテンツを表示することにより得られる収入情報を管理することができる。
(緊急時情報を受信した場合の処理の例)
次に、電子機器100が緊急時情報を受信した場合の処理について説明する。
図14は、電子機器100が緊急時情報を受信した場合の動作の一例を示すフローチャートである。
次に、電子機器100が緊急時情報を受信した場合の処理について説明する。
図14は、電子機器100が緊急時情報を受信した場合の動作の一例を示すフローチャートである。
制御部50は、緊急時情報を取得したか否かを判定する(ステップS21)。例えば、情報判定部57は、通信網を介して接続される外部機器から通信部6により取得した情報が、緊急時情報であるか否かを判定する。ステップS21において、緊急時情報を取得していないと判定された場合、制御部50は、ステップS21の緊急時情報を取得したか否かを判定する処理を繰り返えす。
ステップS21において、緊急時情報を取得したと判定された場合、制御部50は、裏面(第2面102)側の第2表示部22に情報(例えば、宣伝広告情報等のコンテンツ)を表示中であるか否かを判定する(ステップS22)。
ステップS22において、第2表示部22に情報を表示中であると判定された場合、表示制御部52は、第2表示部22に表示されていた情報の表示を中断する(ステップS23)。そして、履歴情報生成部55は、ステップS23において表示を中断するまでに実行された表示処理の履歴情報を更新する(ステップS23)。次に、表示制御部52は、裏面(第2面102)側の第2表示部22に、取得した緊急時情報を表示させる(ステップS25)。
一方、ステップS22において、第2表示部22に情報を表示中でないと判定された場合、制御部50は、ステップS23およびステップS24の処理を実行せずに、上述のステップS25に処理を進める(第2表示部22に緊急時情報を表示させる)。
続いて、制御部50は、取得した緊急時情報が報知音を出力する必要がある情報であるか否かを判定する(ステップS26)。例えば、緊急事態のレベル(緊急度合)に応じて報知音を出力する必要があるか否かを示す情報が緊急時情報に対応付けられており、情報判定部57は、この報知音を出力する必要があるか否かを示す情報に基づいて、取得した緊急時情報が報知音を出力する必要がある情報であるか否かを判定する。ステップS26において、報知音を出力する対象となる情報ではない(報知音なし)と判定された場合、制御部50は、ステップS28に処理を進める。
一方、ステップS26において、報知音を出力する必要がある情報である(報知音あり)と判定された場合、音出力制御部53は、報知音を音出力部4から出力させる(ステップS27)。次に、制御部50は、緊急時情報が終了したか否かを判定する(ステップS28)。ここで、制御部50は、例えば、緊急時情報の出力処理を停止させる操作入力を検出した場合、または緊急時情報の配信が終了した場合、緊急時情報の出力(表示、報知音)を終了させて、緊急時情報が終了したと判定する。
ステップS28において、緊急時情報が終了していないと判定された場合、制御部50は、ステップS25に処理を戻し、緊急時情報の出力(表示、または報知音の出力)を継続する。一方、緊急時情報が終了したと判定された場合、制御部50は、処理を終了する。
このように、表示制御部52は、取得した情報が情報判定部57により緊急時情報であると判定された場合、第2表示部22に表示させていた情報の表示を停止するとともに、この緊急時情報を第2表示部22に表示させる。また、音出力制御部53は、取得した情報が情報判定部57により緊急時情報であると判定された場合、第2表示部22に緊急時情報を表示することを報知する報知音を音出力部に出力させる。
これにより、電子機器100は、緊急時情報を取得した場合、裏面(第2面102)側の第2表示部22の表示面に対面する方向にいる第2表示部22の表示面を視認可能な人(視認者B)に対して視認可能なように、緊急時情報を優先して第2表示部22に表示することができる。また、電子機器100は、報知音を出力することにより緊急時情報を表示していることを、第2表示部22の表示面を視認可能な人(視認者B)、または周囲の人に報知することができる。
なお、図14を用いて説明した処理では、電子機器100が、緊急時情報を取得した場合に、第2表示部22に表示していた情報の表示を停止(中断)して、取得した緊急時情報を表示する処理の動作を説明したが、これに限られるものではない。例えば、電子機器100は、緊急時情報を取得した場合に、第2表示部22に表示している情報に重ねて(オーバーラップさせて)取得した緊急時情報を表示してもよい。
(表示領域の制御)
次に、電子機器100の裏面(第2面102)側の第2表示部22の表示領域の制御について説明する。
表示制御部52は、把持位置検出部43により検出された把持位置に基づいて、第2表示部22における表示面の表示領域のうち、把持されている位置を中心として予め定められた領域を除く表示領域に情報を表示させる。すなわち、表示制御部52は、操作者によって把持されている位置の近傍に対しては、第2表示部22の表示を非表示状態とし、把持されている位置から離れた位置を表示領域として情報を表示させる。ここで、上述の予め定められた領域は、操作者によって把持されている位置を中心として、操作者の手や指により遮られて視認できない可能性がある領域として予め定められた領域である。なお、表示制御部52は、第2表示部22における表示面の表示領域のうち、非表示状態とした表示領域を除く領域に、情報を縮小また移動させて表示させてもよい。
次に、電子機器100の裏面(第2面102)側の第2表示部22の表示領域の制御について説明する。
表示制御部52は、把持位置検出部43により検出された把持位置に基づいて、第2表示部22における表示面の表示領域のうち、把持されている位置を中心として予め定められた領域を除く表示領域に情報を表示させる。すなわち、表示制御部52は、操作者によって把持されている位置の近傍に対しては、第2表示部22の表示を非表示状態とし、把持されている位置から離れた位置を表示領域として情報を表示させる。ここで、上述の予め定められた領域は、操作者によって把持されている位置を中心として、操作者の手や指により遮られて視認できない可能性がある領域として予め定められた領域である。なお、表示制御部52は、第2表示部22における表示面の表示領域のうち、非表示状態とした表示領域を除く領域に、情報を縮小また移動させて表示させてもよい。
図15は、把持状態に基づく表示領域の一例を示す図である。
図15(a)は、ユーザAにより電子機器100が片手(右手)で把持されている状態の一例を示している。
この図において、表示制御部52は、把持位置検出部43により検出された把持されている位置に基づいて、第2表示部22の表示領域のうち領域D1を表示状態に制御し、領域D2を非表示状態に制御する。すなわち、表示制御部52は、第2表示部22の表示領域のうち、領域D1を表示領域とし、領域D2を非表示領域とした表示制御をする。
図15(a)は、ユーザAにより電子機器100が片手(右手)で把持されている状態の一例を示している。
この図において、表示制御部52は、把持位置検出部43により検出された把持されている位置に基づいて、第2表示部22の表示領域のうち領域D1を表示状態に制御し、領域D2を非表示状態に制御する。すなわち、表示制御部52は、第2表示部22の表示領域のうち、領域D1を表示領域とし、領域D2を非表示領域とした表示制御をする。
また、図15(b)は、ユーザAにより電子機器100が両手で把持されている状態の一例を示している。
この図において、表示制御部52は、把持位置検出部43により検出された操作者によって把持されている位置に基づいて、第2表示部22の表示領域のうち領域D3および領域D5を非表示状態に制御し、領域D4を表示状態に制御する。すなわち、表示制御部52は、第2表示部22の表示領域のうち、領域D3および領域D5を非表示領域とし、領域D4を表示領域とした表示制御をする。
この図において、表示制御部52は、把持位置検出部43により検出された操作者によって把持されている位置に基づいて、第2表示部22の表示領域のうち領域D3および領域D5を非表示状態に制御し、領域D4を表示状態に制御する。すなわち、表示制御部52は、第2表示部22の表示領域のうち、領域D3および領域D5を非表示領域とし、領域D4を表示領域とした表示制御をする。
なお、表示制御部52は、第2表示部22に情報を表示させる場合、例えば、図15に表示領域として示す領域D1または領域D4それぞれのうち、一部の領域または全ての領域の何れに情報を表示させてもよい。
これにより、電子機器100は、ユーザAによって把持されている場合、第2表示部22に表示された情報を視認者Bが視認する際に、その表示された情報がユーザAの手や指により遮られてしまうことを防止することができる。
これにより、電子機器100は、ユーザAによって把持されている場合、第2表示部22に表示された情報を視認者Bが視認する際に、その表示された情報がユーザAの手や指により遮られてしまうことを防止することができる。
以上説明してきたように、電子機器100は、裏面側の第2表示部22の表示面を視認可能な人に対して情報を表示することができるとともに、表示した情報に関する履歴情報を生成することができる。ここで、電子機器100は、裏面側の第2表示部22に表示した情報に関する履歴情報を、表面側の第1表示部21に表示した情報関する履歴情報とは別に生成することができる。また、電子機器100は、裏面側の第2表示部22の表示面を視認可能な人に応じて適した情報を第2表示部22に表示することができる。
よって、本実施形態によれば、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる。
よって、本実施形態によれば、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる。
なお、電子機器100が裏面側の第2表示部22に表示する情報は、宣伝広告情報に限られるものではない、例えば、電子機器100は、ニュース、天気情報、観光地の情報、現在位置の周辺情報、交通情報、運行情報、ドラマや映画、またはユーザA(電子機器100のメインユーザ、所有者)に関する情報等を裏面側の第2表示部22に表示してもよい。
なお、上記実施形態において電子機器100が第1撮像部11および第2撮像部12を備えている構成を説明したが、第2撮像部12(ユーザAに対面する表面の反対面となる裏面に対面する方向を撮像する撮像部)のみを備えている構成としてもよい。これにより、電子機器100は、少なくとも、ユーザAが使用する面に対して反対面側のユーザを検出することができる。
なお、上記実施形態において、電子機器100が、第1表示部21の表示面上における接触状態を検出する第1表示面接触センサ33と、第2表示部22の表示面上における接触状態を検出する第2表示面接触センサ34とを備えている例について説明したが、表示面上における接触状態を検出する構成に代えて、それぞれ第1面101(第1筐体面)と、第2面102(第2筐体面)とにおける接触状態をそれぞれ検出する構成としてもよい。
ここでいう第1面101(第1筐体面)および第2面102(第2筐体面)とは、それぞれの面の領域のうち、表示面の領域以外の領域であってもよいし、または、それぞれの面の領域のうち、表示面の領域と表示面の領域以外の領域との両方を含む領域であってもよい。
ここでいう第1面101(第1筐体面)および第2面102(第2筐体面)とは、それぞれの面の領域のうち、表示面の領域以外の領域であってもよいし、または、それぞれの面の領域のうち、表示面の領域と表示面の領域以外の領域との両方を含む領域であってもよい。
なお、電子機器100は、第1操作入力部31および第2操作入力部32のうちの何れか一方を備えた構成であってもよい。また、電子機器100は、タッチパネル方式以外の操作入力部を備えた構成であってもよい。
なお、第1表示部21および第2表示部22は、液晶ディスプレイを有するものに限られものではなく、例えば、有機EL(Electro-Luminescence)ディスプレイ、電子ペーパー方式の表示ディスプレイ、2つの透過型表示ディスプレイとその間に配置されている液晶ディスプレイ(透過と非透過とを切替え可能な液晶パネル)とにより構成される表示パネル、等、その他の表示ディスプレイを有するものであってもよい。
また、上記実施形態の電子機器100は、携帯情報端末、タブレット型コンピュータ、携帯電話、電子辞書、電子書籍リーダ等、様々な電子機器であってもよい。また、電子機器100が備えている各表示部の表示領域は、互いに異なる表示面積であってもよい。例えば、第2表示部22の表示領域は、主操作者であるユーザAに対面する側の第1表示部21の表示領域より小さい表示面積の表示領域であってもよい。
また、上記実施形態における検出部40および制御部50が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
4 音出力部4 通信部、11 第1撮像部、12 第2撮像部(撮像部)、21 第1表示部、22 第2表示部、31 第1操作入力部、32 第2操作入力部、33 第1表示面接触センサ、34 第2表示面接触センサ、40 検出部、41 視認者検出部、43 把持位置検出部、50 制御部、52 表示制御部、53 音出力制御部、54 操作入力制御部、55 履歴情報生成部、56 表示情報選択部、57 情報判定部、収入管理部、100 電子機器
Claims (26)
- 操作者に対面する側に表示面が配置されている第1表示部と、
前記第1表示部に対して反対面となる側に表示面が配置されている第2表示部と、
前記第1表示部および前記第2表示部それぞれの表示を制御する表示制御部と、
前記第2表示部に表示させた情報に関する履歴情報を生成する履歴情報生成部と、
を備えることを特徴とする電子機器。 - 前記第2表示部の表示面を視認可能な人がいるか否かを検出する検出部、
を備え、
前記表示制御部は、
前記検出部の検出結果に基づいて、前記第2表示部の表示を制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記表示制御部は、
前記検出部により前記第2表示部の表示面を視認可能な人がいると検出された場合、前記第2表示部に情報を表示させる
ことを特徴とする請求項2に記載の電子機器。 - 前記表示制御部は、
前記検出部により前記第2表示部の表示面を視認可能な人がいると検出されている期間、前記第2表示部に情報を表示させる
ことを特徴とする請求項3に記載の電子機器。 - 前記履歴情報生成部は、
前記履歴情報として、前記第2表示部に情報を表示させていた表示時間を示す情報、および表示させた表示回数を示す情報の何れかを生成する
ことを特徴とする請求項3または4に記載の電子機器。 - 前記第2表示部に対面する方向を撮像する撮像部、
を備え、
前記検出部は、
前記撮像部により撮像された画像に基づいて、前記第2表示部の表示面を視認可能な人がいるか否かを検出する
ことを特徴とする請求項3から5の何れか一項に記載の電子機器。 - 前記検出部は、
前記画像から顔および眼の少なくとも一方の画像を検出し、当該検出した結果に基づいて、前記第2表示部の表示面を視認可能な人がいるか否かを判定する
ことを特徴とする請求項6に記載の電子機器。 - 前記検出部は、
前記画像に基づいて前記第2表示部の表示面に対する視線があるか否かを検出し、
前記履歴情報生成部は、
前記履歴情報として、前記第2表示部に情報を表示させていた表示時間のうち、前記検出部により前記第2表示部の表示面に対する視線があると検出されていた時間を示す情報を生成する
ことを特徴とする請求項6または7に記載の電子機器。 - 前記表示制御部は、
前記検出部により前記第2表示部の表示面に対する視線があると検出された場合、前記第2表示部の表示面に対する視線があることを示す情報を前記第1表示部に表示させる
ことを特徴とする請求項8に記載の電子機器。 - 前記検出部は、
前記画像から検出した顔または眼の画像に基づいて、前記第2表示部の表示面に対する視線があるか否かを検出する
ことを特徴とする請求項8または9に記載の電子機器。 - 前記検出部は、
前記画像から検出した顔または眼の画像に基づいて、前記第2表示部の表示面を視認している人数を検出し、
前記履歴情報生成部は、
前記履歴情報として、前記第2表示部に表示させた情報を視認している人数を示す情報を生成する
ことを特徴とする請求項6から10の何れか一項に記載の電子機器。 - 前記検出部は、
前記画像から検出した少なくとも顔の画像に基づいて、前記第2表示部の表示面を視認可能な人の性別、および推定年齢のうちの何れかを検出する
ことを特徴とする請求項6から11の何れか一項に記載の電子機器。 - 複数の情報から前記第2表示部に表示させる情報を選択する表示情報選択部
を備え、
前記表示制御部は、
前記表示情報選択部により選択された情報を第2表示部に表示させる
ことを特徴とする請求項3から12の何れか一項に記載の電子機器。 - 前記検出部は、
前記第2表示部の表示面を視認可能な人の性別、および推定年齢のうちの何れかを検出し、
前記表示情報選択部は、
前記検出した視認可能な人の性別および推定年齢のうちの何れかを示す情報に基づいて、複数の情報から前記第2表示部に表示させる情報を選択する
ことを特徴とする請求項13に記載の電子機器。 - 前記表示情報選択部は、
前記表示制御部が前記第1表示部に表示させた情報に基づいて、複数の情報から前記第2表示部に表示させる情報を選択する
ことを特徴とする請求項13または14に記載の電子機器。 - 前記表示情報選択部は、
ユーザの操作入力により選択された情報を、前記第2表示部に表示させる情報として選択する
ことを特徴とする請求項13から15の何れか一項に記載の電子機器。 - 前記表示情報選択部は、
前記第2表示部に情報を表示することにより得られる収入の金額を示す収入金額情報に基づいて、前記第2表示部に表示させる情報を選択する
ことを特徴とする請求項13から16の何れか一項に記載の電子機器。 - 前記第2表示部に情報を表示することにより得られる収入に関する情報である収入情報を管理する収入管理部、
を備え、
前記収入管理部は、
前記収入金額情報と前記履歴情報とに基づいて、前記第2表示部に表示させる情報を配信する配信元に請求する金額を示す請求金額情報を生成する
ことを特徴とする請求項17に記載の電子機器。 - 前記収入管理部は、
前記請求金額情報を前記配信元に対して送信するとともに、前記請求金額情報に応じて前記配信元から入金された金額を示す入金情報を取得することにより、前記請求金額情報と前記入金情報とに基づいて前記収入情報を管理する
ことを特徴とする請求項18に記載の電子機器。 - 通信網を介して情報を取得する通信部、
を備え、
前記表示情報選択部は、
前記通信網を介して接続される外部機器が有する複数の情報から前記通信部により取得する情報を、前記第2表示部に表示させる情報として選択する
ことを特徴とする請求項13から19の何れか一項に記載の電子機器。 - 前記外部機器は、
前記通信網を介して接続されるサーバ、および移動体に設置された情報端末の何れかを含む
ことを特徴とする請求項20に記載の電子機器。 - 前記通信網を介して取得した情報の種類が、緊急事態が発生した際に通知される緊急時情報であるか否かを判定する情報判定部、
を備え、
前記表示制御部は、
前記情報判定部により前記取得した情報が前記緊急時情報であると判定された場合、
前記第2表示部に情報が表示されているか否かにかかわらず、前記緊急時情報を前記第2表示部に表示させる
ことを特徴とする請求項20または21に記載の電子機器。 - 音を出力する音出力部と、
音出力部の出力を制御する音出力制御部と、
を備え、
前記音出力制御部は、
前記情報判定部により前記取得した情報が前記緊急時情報であると判定された場合、前記第2表示部に前記緊急時情報を表示することを報知する報知音を音出力部に出力させる
ことを特徴とする請求項22に記載の電子機器。 - 前記第2表示部に表示させる情報は、宣伝広告を目的とした情報である宣伝広告情報である
ことを特徴とする請求項1から23の何れか一項に記載の電子機器。 - 自機器が操作者により把持されている位置である把持位置を検出する把持位置検出部、
を備え、
前記表示制御部は、
前記把持位置検出部により検出された把持位置に基づいて、前記第2表示部における表示面の表示領域のうち、把持されている位置を中心として予め定められた領域を除く表示領域に情報を表示させる
ことを特徴とする請求項1から24の何れか一項に記載の電子機器。 - 操作者に対面する側に表示面が配置されている第1表示部と、前記第1表示部に対して反対面となる側に表示面が配置されている第2表示部と、を備える電子機器が有するコンピュータに、
前記第1表示部および前記第2表示部それぞれの表示を制御する表示制御ステップと、
前記第2表示部に表示させた情報に関する履歴情報を生成する履歴情報生成ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012054453A JP2013190463A (ja) | 2012-03-12 | 2012-03-12 | 電子機器、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012054453A JP2013190463A (ja) | 2012-03-12 | 2012-03-12 | 電子機器、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013190463A true JP2013190463A (ja) | 2013-09-26 |
Family
ID=49390823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012054453A Pending JP2013190463A (ja) | 2012-03-12 | 2012-03-12 | 電子機器、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013190463A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021107908A (ja) * | 2019-12-27 | 2021-07-29 | 株式会社ビラハウジング | ディスプレイ装置 |
JP2021174139A (ja) * | 2020-04-22 | 2021-11-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
JP7176067B1 (ja) | 2021-08-17 | 2022-11-21 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、及び制御方法 |
-
2012
- 2012-03-12 JP JP2012054453A patent/JP2013190463A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021107908A (ja) * | 2019-12-27 | 2021-07-29 | 株式会社ビラハウジング | ディスプレイ装置 |
JP2021174139A (ja) * | 2020-04-22 | 2021-11-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
JP7484377B2 (ja) | 2020-04-22 | 2024-05-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
JP7176067B1 (ja) | 2021-08-17 | 2022-11-21 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、及び制御方法 |
JP2023027531A (ja) * | 2021-08-17 | 2023-03-02 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、及び制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110209952B (zh) | 信息推荐方法、装置、设备及存储介质 | |
US20180341985A1 (en) | Provision and management of advertising via mobile entity | |
CN105978785A (zh) | 通知数据的预测性转发 | |
KR20170121721A (ko) | Vr 공간을 제공하는 디바이스를 이용한 결제 방법 및 그 디바이스 | |
CN102567617A (zh) | 用于提供增强现实信息的装置和方法 | |
MX2007013610A (es) | Metodos y sistemas para coordinacion de posicion. | |
JP2015005175A (ja) | 情報処理装置、通信システムおよび情報処理方法 | |
JP2007265290A (ja) | 待ち行列情報通知システム | |
CN110852850A (zh) | 共享物品推荐方法、装置、计算机设备及存储介质 | |
CN111080371A (zh) | 向用户的账户发放资源的方法、装置及存储介质 | |
JP2019028767A (ja) | 表示制御装置、表示制御方法及び表示制御プログラム | |
JP2013190463A (ja) | 電子機器、およびプログラム | |
CN111372201A (zh) | 信息通知方法、装置及计算机设备 | |
JP2016038858A (ja) | 携帯端末装置、プログラム、ビーコン管理装置 | |
JP2016048301A (ja) | 電子機器 | |
US20200167831A1 (en) | Advertising system and method using movable advertisement medium | |
US20200098075A1 (en) | Pairing transport service users and drivers using animation | |
KR101147040B1 (ko) | 모바일 단말기를 이용한 대기 정보 서비스 제공 시스템 및 방법 | |
KR101452407B1 (ko) | 광고 노출 정보 제공 시스템 | |
JP2011221748A (ja) | 混雑状況提供装置、混雑状況提供方法および混雑状況提供プログラム | |
JP2001285526A (ja) | 双方向コミュニケーションシステム | |
CN114078582A (zh) | 服务信息的关联方法、装置、终端及存储介质 | |
KR102366773B1 (ko) | 모바일 단말기를 이용한 전자명함 교환 시스템 및 방법 | |
JP2014183526A (ja) | 表示装置及び表示システム | |
CN112529547A (zh) | 信息通知方法、装置、设备及存储介质 |