JP5398970B2 - 移動通信装置、制御方法 - Google Patents

移動通信装置、制御方法 Download PDF

Info

Publication number
JP5398970B2
JP5398970B2 JP2007255015A JP2007255015A JP5398970B2 JP 5398970 B2 JP5398970 B2 JP 5398970B2 JP 2007255015 A JP2007255015 A JP 2007255015A JP 2007255015 A JP2007255015 A JP 2007255015A JP 5398970 B2 JP5398970 B2 JP 5398970B2
Authority
JP
Japan
Prior art keywords
information
subject
camera
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007255015A
Other languages
English (en)
Other versions
JP2009088903A (ja
Inventor
健太 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2007255015A priority Critical patent/JP5398970B2/ja
Publication of JP2009088903A publication Critical patent/JP2009088903A/ja
Application granted granted Critical
Publication of JP5398970B2 publication Critical patent/JP5398970B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)

Description

本発明は、被写体を撮影すると共に被写体に関連する情報を提示する移動通信装置に関する。
現在、GPSや地図情報を利用したナビゲーションシステムが普及している。携帯移動端末においてはGPS内蔵のものが普及しており、GPSを利用した関連サービスが利用されている。位置情報を利用して端末利用者に興味のある情報を通知するサービスや、地図情報からインターネットへアクセスし、詳細な情報を検索するサービス、地図のリンクをクリックすることでメールアプリケーションや電話アプリケーションが連動するなどのサービスもある。
しかし、現実の世界で地図情報のみを直接利用することは困難なため、他のアプリケーション操作と地図情報サービスを連動する提案がなされている。特許文献1では、電子カメラにより撮影した画像データを閲覧する際に、画面上に写っている被写体の関連情報を提示する方法が提案されており、特許文献2や特許文献3では、屋外で移動中の利用者が情報を得たいと思う対象物を撮影すればその対象に対する情報をインターネット経由で入手する等の方法が提案されている。
特開2003−174578号公報 特開2002−108873号公報 特開2002−185953号公報
しかしながら、従来の携帯移動端末では、カメラにより撮影した画像データに、関連情報を合成することで利便性を高めているが、被写体が多く存在する場合には、関連情報を表示しきれないという問題が発生する。図10は、従来の携帯移動端末のカメラ映像画面の例である。被写体が多く存在し、カメラ映像内に被写体の関連情報を表示しようとすると、関連情報が重なって表示されるため非常に見づらくなり、端末を操作できない状態となる。すなわち、従来の携帯移動端末では、ユーザが視認し易く、操作をし易い形のユーザインターフェースをユーザに提供できないという問題が存在する。
本発明は、このような問題点に鑑みてなされたものであり、本発明の目的は、被写体に関連付けて地域情報を表示する際に、ユーザにとって視認し易く、操作をし易い形のユーザインターフェースを提供できる移動通信装置を提供することにある。
上記目的を達成するため、本発明は、撮像手段を有する移動通信装置において、前記撮像手段により得られる被写体を表示する表示手段と、前記移動通信装置の位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得した位置情報に基づいて、情報を取得する情報取得手段と、前記撮像手段の向いている方角を判別する方角判別手段と、前記判別した方角に基づいて、前記取得した情報を前記被写体と合成表示するとともに、各情報の表示ウィンドウの大きさを異ならせることを可能にする制御手段とを備える。
また、本発明は、装置が、撮像手段の向いている方角に基づいて、当該装置の位置情報に基づいて取得した情報を、前記撮像手段により得られる被写体と合成表示するとともに、各情報の表示ウィンドウの大きさを異ならせることを可能にする制御方法である。
本発明は、被写体に関連付けて地域情報を表示する際に、ユーザにとって視認し易く、操作をし易い形のユーザインターフェースを提供できる。
本発明の実施の形態について図面を参照して説明する。図1は、本発明の移動通信装置の一例を示すブロック図である。図1に示す移動通信装置1はカメラ機能を搭載しており、撮像部(撮像手段)2は、撮影範囲内にある被写体を撮影し、画像データを生成する。位置情報取得部(位置情報取得手段)4は、GPS(グローバルポジショニングシステム)等により自装置の位置情報を取得し、データ通信部(詳細情報取得手段)3は、位置情報取得部4により取得した位置情報に基づいて、インターネットや無線等から該位置に基づく地図情報および該地図情報に関連付いた地域情報を取得する。記憶部5には、各種アプリケーションプログラムや後述するUI(ユーザインターフェース)生成ルール等が保存されている。
センサ部6は、撮像部2の向いている方角を判別する3軸ジャイロセンサ等のセンサ(方角判別手段)と、撮像部2により得られる各被写体までの距離を測定する超音波センサ等の距離センサ(測距センサ)を備える。3軸ジャイロセンサは、X,Y,Z軸の3軸を有しており、装置の傾きや向きが検出できる。装置の向きを判定することで撮像部2がどちらの方向を向いているのかが判定できる。
制御部7は、記憶部5に保存されているアプリケーションプログラムやユーザ操作に従って装置を制御し、センサ部6で判別した方角および測定した各被写体までの距離と、データ通信部3で取得した地図情報および該地図情報に関連付いた地域情報とに基づいて、各被写体に関連付けて表示する地域情報を特定するとともに、表示部8の所定の位置を中心に段階的に複数のエリアを特定して、該エリアに応じて各被写体に関連付けられた地域情報を異なる形式で表示部8に表示するように制御する。表示部8は、撮像部2により得られる被写体の画像データや、後述する関連データUI生成処理部72の生成するUIを表示し、操作部9は、キーやタッチパネル等からなり、ユーザの操作入力を受け付ける。
制御部7には、アプリケーション制御部71、関連データUI生成処理部72、画像再生部73、関連データ合成処理部74が含まれる。アプリケーション制御部71は、センサ部6の算出した値によって各種アプリケーションプログラムに関する制御を行う。関連データUI生成処理部72は、UI生成ルールに従ってUIを生成し、画像再生部73は、撮像部が生成した画像データを再生する。関連データ合成処理部74は、画像再生部73が再生した画像の適切な位置に関連データUI生成処理部72が生成したUIを合成する。
図2は、表示部に表示した表示画像のエリアを所定の中心位置からの距離によって段階的にレベル1からレベル3に分割した状態を示している。所定の中心位置は、デフォルトでは表示部8の表示画面の中央であり、操作部9にタッチパネルを用いた場合には、タッチパネルで選択した位置を中心とすることができるものとする。また、撮像部2がAF(オートフォーカス)機能を備えている場合は、AFにより焦点を合わせた位置を中心としても良い。
UIを生成するためのUI生成情報には、エリアのレベルによって、生成するUIが区別されて定義されており、中心に近いレベル1であれば、UIのフォント、表示ウィンドウは大きく、UIの関連情報量は多くなるルールに従う。以上のUI生成ルールに従って関連データUI生成処理部72はUIを生成する。
図3は、UI生成情報に記述されているUI生成ルールを説明する図である。例えば、A店に関するUI生成情報は、被写体までの距離情報と、図2に示すエリアのレベルとによって、使用するUI部品やフォント、UI部品に貼り付けるコメント等が区別されて定義されている。被写体までの深さが浅い(距離が近い)ほど、また、表示画面の所定の中心位置に距離が近いエリアほど、地域情報を大きくかつ詳細に表示し、被写体までの深さが深い(距離が遠い)ほど、また、表示画面の所定の中心位置から距離が遠いエリアほど、地域情報を小さくかつ簡易に表示することがわかる。なお、UI部品自体は装置内で保持しているため、UI生成に関するリソース(画像データ等)をデータ通信部3で取得する必要はない。この仕組みによって事前に広範囲の情報を蓄えておき、動的にUIを生成していくことが可能となる。
図4,5,6,7,8は、制御部の動作を説明するフローチャートである。ここで、図4のメインフローチャートを基準として説明を行う。制御部7は、アプリケーションを起動すると、時間情報tをクリアし、カメラの状態CS(t)をNormalに設定し、アプリケーション状態StateをStartに設定する(ステップ110)。次に、カメラアプリケーションを起動し(ステップ120)。地域関連データ取得処理を行う(ステップ130)。
図5は、地域関連データ取得処理の流れを示すフローチャートである。地域関連データ取得処理(ステップ130)では、GPS等により自装置の位置情報P(t)を取得し(ステップ131)、自装置の位置情報P(t)に変化があったか否かを判定する(ステップ132)。位置情報P(t)に変化があれば(NOの場合)、データ通信部3を介してインターネット等から地図情報M(t)の取得し(ステップ133)、関連するユーザ設定(例えば、ユーザが興味のあるジャンル等)の読み出し(ステップ134)、ユーザ設定に従って地域関連データA(t)を取得する(ステップ135)。このとき取得する地域関連データA(t)にはUI生成情報が含まれている。
次に、図4のメインフローチャートにおいて、自装置の位置情報P(t)に変化があったか否かを判定する(ステップ140)。位置情報P(t)に変化があれば(NOの場合)、次に、カメラの状態CS(t)に変化があったか否かを判定し(ステップ150)、カメラ状態CS(t)に変化があれば(NOの場合)、被写体判定処理を行う(ステップ160)。
図6は、被写体判定処理の流れを示すフローチャートである。被写体判定処理(ステップ160)では、地域関連データ取得処理において取得した自装置の位置情報P(t)の読み出しを行い(ステップ161)、さらに地図情報M(t)の読み出しを行う(ステップ162)。次に、センサ部6の姿勢を判定するセンサを用いて自装置の向きを検出し(ステップ163)、センサ部6の距離センサを用いて各被写体H(i)までの距離を求め(ステップ164)、自装置の向きや被写体までの距離から被写体H(i)と地図情報M(t)との対応付けを行う(ステップ165)。また、被写体に対するエリアレベルや距離を付加情報として対応付けを行い(ステップ166)、被写体の画面合成位置を決定する(ステップ167)。
次に、図4のメインフローチャートにおいてUI生成処理を行う(ステップ170)。図7は、UI生成処理の流れを示すフローチャートである。UI生成処理(ステップ170)では、地域関連データ取得処理において取得した地域関連データA(t)の読み出しを行い(ステップ171)、地域関連データA(t)の中からUI生成個数分のUI生成情報を読み出し(ステップ172)、さらに、被写体とエリアレベルおよび距離との対応付け情報を読み出し(ステップ173)、UIの生成を行う(ステップ174)。このとき、UI生成ルールに従ってUIを生成する。UI生成後、被写体と画面合成位置情報を読み出し(ステップ175)、現在のアプリケーションが表示している画面上に合成処理を行う(ステップ176)。以上の処理をUI生成個数分だけ繰り返し行う。
次に、図4のメインフローチャートにおいてUI操作処理を行う(ステップ180)。図8は、UI操作処理の流れを示すフローチャートである。UI操作処理(ステップ180)では、操作部9によるユーザ入力の有無を判定し(ステップ181)、ユーザ入力があった場合は、終了キーが押されたか否かを判定する(ステップ182)。終了キーが押された場合には、アプリケーション状態Stateを終了にする(ステップ187)。終了キーが押されなかったた場合には、カメラのズーム等の操作が行われたか否かを判定し(ステップ183)、カメラのズーム等の操作が行われた場合にはカメラの状態CS(t)をZoom1等にする(ステップ188)。カメラのズーム等の操作以外の操作が行われた場合には、ユーザ入力によりどのUIが操作されたかをUI識別により判別し(ステップ184)、UIの動作にともなった動作処理を行い(ステップ185)、UI動作処理に対応するアプリケーションを動作させる(ステップ186)。
次に、図4のメインフローチャートにおいて、アプリケーション状態Stateが終了か否かを判定し(ステップ190)、アプリケーション状態Stateが終了になるまで、以上の処理を繰り返し行う(ステップ200)。
以下に実施例を挙げて説明する。図9は、地図画面と地図上の情報とをカメラ映像に貼り付けた状態を示す図である。例えば、地図情報上に薬屋や駅の入り口の地域情報がある場合に、カメラ映像の被写体中に該当するものがあれば、カメラ映像の被写体に地域情報を重ねて表示することができる。図10は、既存のカメラ映像画面の例である。被写体が多く存在し、カメラ映像内に地域情報を表示しようとすると、地域情報が重なって非常に見づらく、装置を操作できる状態ではないことがわかる。図11は、同じような状況で撮影したときの本発明のカメラ映像画面の例である。表示画面の中心に近い被写体に関連付けて表示する地域情報Kが大きく表示され、中心から外れている被写体に関連付けて表示する地域情報A,B,C,G,H,Iが小さく表示されるため、ユーザは地域情報を視認しやすく、操作しやすい画面表示となることがわかる。
図12および図13は、カメラを地図上の左方向に向けている状態のときにカメラをズームさせたときの図である。初めは被写体が、画面中心に近いレベル1の範囲に含まれないため、図12に示すように、小さな地域情報しか表示されないが、カメラをズームさせることにより被写体がレベル1の範囲に入ってくると、図13に示すように、レベル1の範囲に入った被写体の地域情報E,F,N,Oはより大きく詳しく表示されることとなる。
図14および図15は、カメラを地図上の左方向に向けている状態から店Aにカメラの向きを移動させたときの図である。表示画面の中心にある被写体の地域情報がEからAに動的に変化している。
図16および図17は、カメラが被写体Aに近づいているときの図である。被写体までの距離が近づくほど(深さが浅くなるほど)詳しい情報が表示されるように変化していることがわかる。
図18は、同一エリアに複数の地域情報を表示するときの図である。同一エリアに複数の地域情報を表示する場合、所定の時間間隔で所定の順番で表示する。図18では、地域情報をK,J,Dの順番で表示している。複数の地域情報が重なっている場合、時間経過とともに重ね合わせる順番を入れ替ることで、ユーザに視認しやすく操作しやすい情報提示が可能となる。
図19は、ユーザが「居酒屋」の地域情報を取得するためにユーザ設定でジャンルに制限をかけているときの状態を示す図である。図19では、「居酒屋」の地域情報J,Dを所定の時間間隔で交互に表示している。表示画面の中心に複数の情報が重なっている場合には、ユーザが興味のある地域情報を優先して表示することでユーザにとって視認しやすい状態にすることができる。地域情報には、ジャンル情報が含まれており、制御部7は、所定のジャンルに該当する地域情報を有する被写体のみ、地域情報を表示することができる。地域情報とは、店舗の種別、ランドマーク、交通標識、交差点名、バス停名等の情報である。
図20は、地域情報をリスト形式で並べ直して表示した図である。画面中心に近いレベル1の範囲に含まれ被写体の地域情報D,J,Kは大きく表示されるので、リスト形式にした場合もユーザは画面の中心にある被写体の地域情報をはっきりと視認することができる。
上述のように、本発明は、エリアレベルと被写体までの深さ(距離)により地域情報を生成することで、カメラ画像を通して地域情報を利用する際にユーザにとって視認しやすく使いやすい情報提示が可能となる。
本発明の移動通信装置の一例を示すブロック図である。 表示画像のエリアを所定の中心位置からの距離によって段階的にレベル1からレベル3に分割した状態を示す図である。 UI生成情報に記述されているUI生成ルールを説明する図である。 制御部の動作を説明するメインフローチャートである。 地域関連データ取得処理の流れを示すフローチャートである。 被写体判定処理の流れを示すフローチャートである。 UI生成処理の流れを示すフローチャートである。 UI操作処理の流れを示すフローチャートである。 地図画面と地図上の情報とをカメラ映像に貼り付けた状態を示す図である。 既存のカメラ映像画面の例を示す図である。 本発明のカメラ映像画面の例を示す図である。 カメラを地図上の左方向に向けているときの図である。 カメラを地図上の左方向に向けている状態のときにカメラをズームさせたときの図である。 カメラを地図上の左方向に向けているときの図である。 カメラを地図上の左方向に向けている状態から店Aにカメラの向きを移動させたときの図である。 カメラが被写体Aに近づいているときの図である。 カメラが被写体Aに近づいているときの図である。 同一エリアに複数の地域情報を表示するときの図である。 ユーザが「居酒屋」の地域情報を取得するためにユーザ設定でジャンルに制限をかけているときの状態を示す図である。 地域情報をリスト形式で並べ直して表示した図である。
符号の説明
1 移動通信装置
2 撮像部
3 データ通信部
4 位置情報取得部
5 記憶部
6 センサ部
7 制御部
8 表示部
9 操作部
71 アプリケーション制御部
72 関連データUI生成処理部
73 画像生成部
74 関連データ合成処理部

Claims (2)

  1. 撮像手段を有する移動通信装置において、
    前記撮像手段により得られる被写体を表示する表示手段と、
    前記移動通信装置の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段により取得した位置情報に基づいて、情報を取得する情報取得手段と、
    前記撮像手段の向いている方角を判別する方角判別手段と、
    前記判別した方角に基づいて、前記取得した情報を前記被写体と合成表示するとともに、各情報の表示ウィンドウの大きさを異ならせることを可能にする制御手段と、
    を備える移動通信装置。
  2. 装置が、撮像手段の向いている方角に基づいて、当該装置の位置情報に基づいて取得した情報を、前記撮像手段により得られる被写体と合成表示するとともに、各情報の表示ウィンドウの大きさを異ならせることを可能にする制御方法。
JP2007255015A 2007-09-28 2007-09-28 移動通信装置、制御方法 Active JP5398970B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007255015A JP5398970B2 (ja) 2007-09-28 2007-09-28 移動通信装置、制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007255015A JP5398970B2 (ja) 2007-09-28 2007-09-28 移動通信装置、制御方法

Publications (2)

Publication Number Publication Date
JP2009088903A JP2009088903A (ja) 2009-04-23
JP5398970B2 true JP5398970B2 (ja) 2014-01-29

Family

ID=40661750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007255015A Active JP5398970B2 (ja) 2007-09-28 2007-09-28 移動通信装置、制御方法

Country Status (1)

Country Link
JP (1) JP5398970B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5291591B2 (ja) * 2009-10-05 2013-09-18 Kddi株式会社 端末位置、姿勢に連動した広告表示システム、装置及び方法
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US8175617B2 (en) 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
KR100985737B1 (ko) * 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
JP2011166589A (ja) * 2010-02-12 2011-08-25 Aplix Corp 携帯端末および情報提示方法
WO2011116309A1 (en) * 2010-03-19 2011-09-22 Digimarc Corporation Intuitive computing methods and systems
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
KR101429250B1 (ko) * 2010-08-20 2014-09-25 주식회사 팬택 단계별 객체 정보 제공이 가능한 단말 장치 및 방법
JP2013149034A (ja) * 2012-01-18 2013-08-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
US9870642B2 (en) * 2012-08-10 2018-01-16 Here Global B.V. Method and apparatus for layout for augmented reality view
US9412201B2 (en) * 2013-01-22 2016-08-09 Microsoft Technology Licensing, Llc Mixed reality filtering
US9311640B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3434715B2 (ja) * 1998-11-09 2003-08-11 日本電信電話株式会社 移動支援装置及び移動支援方法
JP4158376B2 (ja) * 2001-12-07 2008-10-01 株式会社ニコン 電子カメラおよび画像表示装置および画像表示方法
JP2004343288A (ja) * 2003-05-14 2004-12-02 Hitachi Ltd 携帯端末、情報配信装置、通信システム、及び携帯端末を利用したユーザへの情報提示方法
JP4969053B2 (ja) * 2005-04-14 2012-07-04 ソニーモバイルコミュニケーションズ, エービー 携帯端末装置及び表示方法
JP2007243551A (ja) * 2006-03-08 2007-09-20 Seiko Epson Corp 画像処理装置および撮像装置

Also Published As

Publication number Publication date
JP2009088903A (ja) 2009-04-23

Similar Documents

Publication Publication Date Title
JP5398970B2 (ja) 移動通信装置、制御方法
KR102653793B1 (ko) 비디오 클립 객체 추적
US20220132036A1 (en) Display Control Apparatus, Display Control Method, And Program
KR102618495B1 (ko) 영상 처리 장치 및 방법
JP7192923B2 (ja) 装置、方法、プログラム、システム
CN102216959B (zh) 用于操纵全景的技术
JP5611412B2 (ja) 情報表示装置
US8564710B2 (en) Photographing apparatus and photographing method for displaying information related to a subject
CN104350736B (zh) 附近位置信息的增强现实布置
US20180286098A1 (en) Annotation Transfer for Panoramic Image
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
JP5449894B2 (ja) 関心地点表示システム、装置及び方法
TW201110056A (en) Electronic apparatus, display controlling method and program
KR20130137064A (ko) 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
JP2013161416A (ja) サーバ、クライアント端末、システム、およびプログラム
WO2010029671A1 (ja) 視界情報に仮想情報を付加して表示できるシステム
JP2009176262A (ja) 写真マッピング方法及びシステム、並びにプログラム及び記憶媒体
KR20160065673A (ko) 디바이스를 제어하는 방법, 시스템 및 그 디바이스
CN110830704B (zh) 旋转图像生成方法及其装置
WO2018220856A1 (ja) ストリートビューワーシステム
JP6145563B2 (ja) 情報表示装置
KR20230010759A (ko) 전자 디바이스의 현재 위치를 보고 리파인하기 위한 사용자 인터페이스들
EP3113523B1 (en) A video region indicator that indicates that video content is available
US20130076622A1 (en) Method and apparatus for determining input
KR101646141B1 (ko) 콘텐츠 제어 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131023

R150 Certificate of patent or registration of utility model

Ref document number: 5398970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150