JP2015045583A - 携帯通信端末、情報表示プログラムおよび情報表示方法 - Google Patents

携帯通信端末、情報表示プログラムおよび情報表示方法 Download PDF

Info

Publication number
JP2015045583A
JP2015045583A JP2013177157A JP2013177157A JP2015045583A JP 2015045583 A JP2015045583 A JP 2015045583A JP 2013177157 A JP2013177157 A JP 2013177157A JP 2013177157 A JP2013177157 A JP 2013177157A JP 2015045583 A JP2015045583 A JP 2015045583A
Authority
JP
Japan
Prior art keywords
function
screen
facility information
map
communication terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013177157A
Other languages
English (en)
Other versions
JP6301613B2 (ja
Inventor
朋樹 岩泉
Tomoki Iwaizumi
朋樹 岩泉
恵祐 長田
Shigesuke Osada
恵祐 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013177157A priority Critical patent/JP6301613B2/ja
Priority to PCT/JP2014/072552 priority patent/WO2015030104A1/ja
Publication of JP2015045583A publication Critical patent/JP2015045583A/ja
Priority to US15/053,961 priority patent/US9874448B2/en
Application granted granted Critical
Publication of JP6301613B2 publication Critical patent/JP6301613B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons

Abstract

【構成】携帯電話機10はタッチパネル16が設けられたディスプレイ14などを備える。ホーム画面を表示する操作がされると、地図機能およびAR機能などを実行するための地図タイルおよびARタイルなどがディスプレイ14に表示される。このとき、地図機能がバックグラウンドで実行されるよう設定されている場合、GPS衛星(200)からのGPS信号を利用して現在位置が測位され、その現在位置に基づいて周辺の施設情報がデータサーバ(102)のデータベースからダウンロードされる。そして、地図タイルの中にダウンロードした施設情報が表示される。【効果】ユーザは周辺の施設を適切に把握することが出来る。【選択図】図1

Description

この発明は、携帯通信端末、情報表示プログラムおよび情報表示方法に関し、特に現在位置を測位する、携帯通信端末、情報表示プログラムおよび情報表示方法に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1の携帯電話機では、自機の位置情報が取得され、その位置情報に基づいて地図情報保持サーバから周辺の地図情報が取得される。そして、取得された地図情報に基づいて、表示部に地図が表示される。
また、特許文献2のカメラ付携帯電話機では、カメラの向きが検出され、検出されたカメラの向きに基づいて撮影画像上での進むべき方向が算出される。そして、カメラの撮影画像に進むべき方向を示す指標が付与され、その結果が表示部に表示される。
特開2006-287553号公報[H04Q 7/34, G01C 21/00, G08G 1/005, H04M 1/725, H04M 3/42] 特開2006-194665号公報[G01C 21/00, G08G 1/005, G09B 29/00, G09B 29/10]
ところが、特許文献1および特許文献2の携帯電話機のように、表示部に地図や進むべき方向を示す指標が表示されたとしても、ユーザは周辺に点在する施設を把握することは困難である。特に、ユーザが目的地に移動している場合、目的地周辺では目的地の具体的な位置を特定するのは困難であり、地図だけでは周辺の状況を把握しにくい。そこで、特許文献2のように撮影画像を利用することが考えられる。2つの機能を使い分ける場合、ユーザは、携帯電話機に対して複数の操作を行う必要があるが、ユーザが複数の操作を煩わしく感じることが考えられる。
それゆえに、この発明の主たる目的は、新規な、携帯通信端末、情報表示プログラムおよび情報表示方法を提供することである。
この発明の他の目的は、ユーザが周辺の施設を適切に把握することが出来る、携帯通信端末、情報表示プログラムおよび情報表示方法を提供することである。
上記の課題を解決するために携帯通信端末は、現在位置を測位する測位部を有する、携帯通信端末であって、ナビゲーション機能を実行するためのタイル状のオブジェクトを表示する表示装置、測位部によって測位された現在位置に基づいて、周辺の施設情報をデータベースから取得する取得部、および取得部によって取得された施設情報を、タイル状のオブジェクトの中に表示する表示処理部を備える。
上記の課題を解決するための情報表示プログラムは、現在位置を測位する測位部およびナビゲーション機能を実行するためのタイル状のオブジェクトを表示する表示装置を有する、携帯通信端末のプロセッサを、測位部によって測位された現在位置に基づいて、周辺の施設情報をデータベースから取得する取得部、および取得部によって取得された施設情報を、タイル状のオブジェクトの中に表示する表示処理部として機能させる。
上記の課題を解決するための情報表示方法は、現在位置を測位する測位部およびナビゲーション機能を実行するためのタイル状のオブジェクトを表示する表示装置を有する、携帯通信端末における情報表示方法であって、携帯通信端末のプロセッサが、測位部によって測位された現在位置に基づいて、周辺の施設情報をデータベースから取得する取得ステップ、および取得ステップによって取得された施設情報を、タイル状のオブジェクトの中に表示する表示処理ステップを実行する。
この発明によれば、ユーザは周辺の施設を適切に把握することが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機の外観を示す外観図であり、図1(A)は携帯電話機の主面を示し、図1(B)は携帯電話機の他面を示す。 図2は図1に示す携帯電話機の電気的な構成を示す図解図である。 図3は図1に示す携帯電話機の姿勢の一例を示す図解図であり、図3(A)は携帯電話機の姿勢が地面に対して水平状態の一例を示し、図3(B)は携帯電話機の姿勢が地面に対して傾いている状態の一例を示し、図3(C)は携帯電話機の姿勢が地面に対して垂直状態の一例を示す。 図4は図1に示すディスプレイにホーム画面が表示されている状態の一例を示す図解図である。 図5は図4に示すホーム画面をスクロールする操作の一例を示す図解図であり、図5(A)はホーム画面に対するスライド操作の一例を示し、図5(B)はスライド操作に応じてスクロールしたホーム画面の一例を示す。 図6は図1に示すディスプレイに第1ナビゲーション機能の画面の一例が表示されている状態を示す。 図7は図1に示すディスプレイに第1ナビゲーション機能の画面の他の一例が表示されている状態を示す。 図8は図5(A)に示す第1ナビゲーションタイルの中に施設情報が表示されている状態の一例を示し、図8(A)は或る位置で取得された施設情報が第1ナビゲーションタイルの中に表示されている状態の一例を示し、図8(B)は他の位置で取得された施設情報が第1ナビゲーションタイルの中に表示されている状態の一例を示す。 図9は図1に示すディスプレイに第2ナビゲーション機能の画面の一例が表示されている状態を示す。 図10は図5(B)に示す第2ナビゲーションタイルの中に施設情報が表示されている状態の一例を示す。 図11はバックグラウンドで実行されているナビゲーション機能の画面を表示する操作の一例を示し、図11(A)は第1ナビゲーションタイルに対してタッチ操作がされている状態の一例を示し、図11(B)は図11(A)に示すタッチ操作がされたときに表示される第1ナビゲーション機能の画面の一例を示し、図11(C)は切り替え操作がされたときに表示される第2ナビゲーション機能の画面の一例を示す。 図12はバックグラウンドで実行されているナビゲーション機能の画面を表示する操作の他の一例を示し、図12(A)は施設情報に対してタッチ操作がされている状態の一例を示し、図12(B)は図12(A)に示すタッチ操作がされたときに表示される第1ナビゲーション機能の画面の一例を示し、図12(C)は切り替え操作がされたときに表示される第2ナビゲーション機能の画面の他の一例を示す。 図13は図12(C)に示す第2ナビゲーション機能の画面においてガイドアイコンが表示されている状態の一例を示す図解図である。 図14は図1に示すディスプレイにホーム画面が表示されている状態の他の一例を示す図解図であり、図14(A)は第1ナビゲーションタイルおよび第2ナビゲーションタイルが同時に表示されている状態の一例を示し、図14(B)は図14(A)に示す第1ナビゲーションタイルの中に施設情報が表示されている状態の一例を示す。 図15は図2に示すRAMのメモリマップの一例を示す図解図である。 図16は図2に示すプロセッサの施設情報表示制御処理の一例を示すフロー図である。 図17は図2に示すプロセッサのナビゲーション制御処理の一部の一例を示すフロー図である。 図18は図2に示すプロセッサのナビゲーション制御処理の他の一部の一例であって、図17に後続するフロー図である。 図19は図2に示すプロセッサのナビゲーション制御処理のその他の一部の一例であって、図17および図18に後続するフロー図である。 図20は図2に示すプロセッサの設定処理の一例を示すフロー図である。
図1(A)、図1(B)を参照して、この発明の一実施例の携帯電話機10は、一例としてスマートフォン(smartphone)であり、縦長の扁平矩形のハウジング12を含む。ただし、この発明は、タッチパネルを有する、タブレット端末、タブレットPC、ノートPCおよびPDAなど任意の携帯通信端末に適用可能であることを予め指摘しておく。
ハウジング12の一方主面(表面)には、表示装置とも呼ばれる、たとえば液晶や有機ELなどのディスプレイ14が設けられる。ディスプレイ14の上には、タッチパネル16が設けられる。
ハウジング12の縦方向一端の主面側にスピーカ18が内蔵され、縦方向他端の主面側にマイク20が内蔵される。
ハウジング12の一方主面には、タッチパネル16と共に入力操作手段を構成するハードキーとして、この実施例では、通話キー22a、終話キー22bおよびメニューキー22cが設けられる。
また、ハウジング12の他面(裏面)には、カメラモジュール58(図2参照)に通じるレンズ開口24が設けられる。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルパッドに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22aを操作して音声通話を開始することができる。終話キー22bを操作すれば、音声通話を終了することができる。なお、ユーザは終話キー22bを長押しすることによって、携帯電話機10の電源をオン/オフすることができる。
また、メニューキー22cが操作されると、ディスプレイ14にホーム画面が表示される。ユーザは、その状態でディスプレイ14に表示されているオブジェクトなどに対して、タッチパネル16によるタッチ操作を行うことによってオブジェクトを選択し、その選択を確定させることができる。
また、カメラ機能が実行されると、ディスプレイ14に被写界と対応するプレビュー画像(スルー画像)が表示される。そして、ユーザは、レンズ開口24が設けられている他面を任意の被写体に向けて撮影操作を行うことで、撮影することが出来る。
なお、携帯電話機10は、電話機能およびカメラ機能以外に、メール機能およびブラウザ機能などを有している。また、以下の説明では、ディスプレイ14に表示されるキーなどのGUIおよびアイコンなどは、まとめてオブジェクトと言うことがある。
図2を参照して、図1に示す実施例の携帯電話機10は、コンピュータまたはCPUと呼ばれるプロセッサ30などを含む。プロセッサ30には、無線通信回路32、A/D変換器36、D/A変換器38、入力装置40、表示ドライバ42、フラッシュメモリ44、RAM46、タッチパネル制御回路48、姿勢センサ50、GPS回路52、方位センサ56およびカメラモジュール58などが接続される。
プロセッサ30は、携帯電話機10の全体制御を司る。RAM46には、フラッシュメモリ44に予め設定されているプログラムの全部または一部が使用に際して展開され、プロセッサ30はこのRAM46上のプログラムに従って動作する。また、RAM46はさらに、プロセッサ30のワーキング領域ないしバッファ領域として用いられる。
入力装置40は、図1に示すハードキー22を含むものである。そのため、ハードキー22に対するユーザからのキー操作を受け付ける操作受付部を構成する。ユーザが操作したハードキーの情報(キーデータ)はプロセッサ30に入力される。
無線通信回路32は、アンテナ34を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路32は、CDMA方式での無線通信を行うための回路である。たとえば、ユーザがタッチパネル16を操作して発呼(音声発信)を指示すると、無線通信回路32は、プロセッサ30の指示の下、音声発信処理を実行し、アンテナ34を介して音声発信信号を出力する。音声発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において音声着信処理が行われると、通信可能状態が確立され、プロセッサ30は通話処理を実行する。
また、無線通信回路32はアンテナ34を介して、ネットワーク(通信網、電話網)100と無線接続される。データサーバ102は、有線または無線で、ネットワーク100と接続される。したがって、携帯電話機10は、ネットワーク100を介してデータサーバ102からデータをダウンロード(取得)することが出来る。
A/D変換器36には図1に示すマイク20が接続され、上述のようにマイク20からの音声信号はこのA/D変換器36でディジタルの音声データに変換され、プロセッサ30に入力される。一方、D/A変換器38にはスピーカ18が接続される。D/A変換器38は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データに基づく音声がスピーカ18から出力される。そして、通話処理が実行されている状態では、マイク20によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ18から出力される。
なお、プロセッサ30は、たとえばユーザによるボリューム調整操作に応答して、D/A変換器38に接続されるアンプの増幅率を制御することによって、スピーカ18から出力される音声の音量を調整することが出来る。
表示ドライバ42には図1に示すディスプレイ14が接続され、したがって、ディスプレイ14はプロセッサ30から出力される映像または画像データに従って映像または画像を表示する。表示ドライバ42は表示する画像データを一時的に記憶するビデオメモリを含んでおり、プロセッサ30から出力されたデータはこのビデオメモリに記憶される。そして、表示ドライバ42は、ビデオメモリの内容に従って、ディスプレイ14に画像を表示する。つまり、表示ドライバ42は、プロセッサ30の指示の下、当該表示ドライバ42に接続されたディスプレイ14の表示を制御する。なお、ディスプレイ14には、バックライトが設けられており、表示ドライバ42はプロセッサ30の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路48には、図1に示すタッチパネル16が接続される。タッチパネル制御回路48は、タッチパネル16に必要な電圧などを付与するとともに、タッチパネル16に対するユーザによるタッチの開始を示すタッチ開始信号、ユーザによるタッチの終了を示す終了信号、およびユーザがタッチしたタッチ位置を示す座標データをプロセッサ30に入力する。したがって、プロセッサ30はこの座標データに基づいて、ユーザがどのオブジェクトに対してタッチしたかを判断することが出来る。
実施例では、タッチパネル16は、その表面と指などの物体との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。そのため、タッチパネル16はポインティングデバイスとも呼ばれる。タッチパネル制御回路48は、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データをプロセッサ30に出力する。つまり、ユーザは、タッチパネル16の表面に対してタッチ操作を行うことによって、操作位置や、操作方向などを携帯電話機10に入力する。
本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。
タップ操作は、タッチパネル16の表面に指を接触(タッチ)させた後、短時間のうちにタッチパネル16の表面から指を離す(リリースする)操作である。ロングタップ操作は、所定時間以上、指をタッチパネル16の表面に接触させ続けた後、指をタッチパネル16の表面から離す操作である。フリック操作は、タッチパネル16の表面に指を接触させ、任意の方向へ所定速度以上で指を弾く操作である。スライド操作は、タッチパネル16の表面に指を接触させたまま任意の方向へ移動させた後、タッチパネル16の表面から指を離す操作である。
また、上記のスライド操作には、ディスプレイ14の表面に表示された表示オブジェクトに指を触れ、表示オブジェクトを移動させるスライド操作、いわゆるドラッグ操作も含まれる。また、ドラッグ操作の後、タッチパネル16の表面から指を離す操作をドロップ操作と呼ぶ。
なお、以下の説明では、タップ操作、ロングタップ操作、フリック操作、スライド操作、ドラッグ操作およびドロップ操作は、それぞれ「操作」を省略して記述されることがある。また、タッチ操作はユーザの指だけに限らず、スタイラスペンなどによって行われてもよい。
姿勢センサ50は検出部として機能し、携帯電話機10の姿勢や動きを検出する。たとえば、姿勢センサ50は、携帯電話機10における3軸(X,Y,Z)の回転(角速度)を検出するジャイロセンサと、携帯電話機10における3軸(X,Y,Z)方向の加速度を検出する加速度センサとが、MEMS(Micro Electro Mechanical Systems)技術によって一体に形成される。そのため、姿勢センサ50は、6軸のモーションセンサと呼ばれることもある。そして、プロセッサ30は、姿勢センサ50が出力する3軸の角速度および3軸方向の加速度に基づいて、携帯電話機10の姿勢(傾き)や、動きを検出する。なお、他の実施例では、姿勢センサ50に代えて、加速度センサおよびジャイロセンサをそれぞれ設けるようにしてもよい。
GPS回路52は現在位置を測位するときに起動される。GPS回路52は、GPS衛星200が送信するGPS信号をGPSアンテナ54によって受信する。GPS回路52はGPS信号が入力されると、そのGPS信号に基づいて測位処理を実行する。その結果、GPS情報(位置情報)として、緯度、経度および標高(高度)が算出される。また、図2では簡単のために1つのGPS衛星200しか描画していないが、現在位置を三次元測位するためには、4つ以上のGPS衛星200からGPS信号を受信する必要がある。ただし、4つ以上のGPS衛星からGPS信号を受信できなくても、3つのGPS衛星200からGPS信号を受信できていれば、二次元測位によって経度および緯度を算出することは可能である。なお、GPS回路52およびGPSアンテナ54は測位部と呼ばれることもある。
ここで、データサーバ102には、地図データのデータベースおよび施設情報のデータベースが記憶されている。携帯電話機10は、GPS回路52によって算出されたGPS情報(位置情報)に基づいて、データサーバ102のデータベースから地図データおよび施設情報をダウンロード(取得)することが出来る。この場合、ディスプレイ14には、ダウンロードされた地図データおよび施設情報に基づいて、周辺の施設情報を含む地図が表示される。
方位センサ56は、電子コンパスまたは方向出力部とも呼ばれ、3つの地磁気センサおよび制御回路を含む。制御回路は、3つの地磁気センサによって検出された磁気データから地磁気データを抽出して、プロセッサ30に出力する。プロセッサ30は、制御回路から出力された地磁気データに基づいて、方位角(方位または方向)を算出し、端末方向としてRAM46のバッファに記憶させる。算出された方位角は、カメラモジュール58おける、イメージセンサおよびレンズが並ぶ光軸と対応する。なお、各地磁気センサは、ホール素子が用いられているが、MR(Magnet-Resistive)素子やMI(Magnet-Impedance)素子が用いられてもよい。また、方位センサ56は、携帯電話機10の動きを検出することが可能であるため、検出部と呼ばれることもある。
カメラモジュール58は制御回路、レンズおよびイメージセンサなどを含む。プロセッサ30は、カメラ機能を実行する操作がされると、制御回路およびイメージセンサを起動する。そして、イメージセンサから出力された信号に基づく画像データがプロセッサ30に入力されると、被写界に対応するプレビュー画像がディスプレイ14に表示される。この状態で本撮影処理が実行されると、撮影操作が行われたときの日時が取得され、画像データに対応するメタデータが作成される。このメタデータには、データ名および撮影日時などの情報が含まれる。そして、プロセッサ30は、撮影によって得られた画像データにメタデータを対応付けて、1つの画像ファイルとしてフラッシュメモリ44に保存する。このとき、プロセサ30は、スピーカ18から、本撮影処理が実行されていること通知する音を出力させる。なお、カメラモジュール58が撮影画像を出力している状態はアクティブ状態と言い、撮影画像を出力せずに、消費電力が抑えられる状態をスタンバイ状態と言う。
図3(A)−図3(C)は、携帯電話機10の姿勢の一例を示す図解図である。携帯電話機10を回転させた場合、姿勢センサ50の出力に対する携帯電話機10の姿勢は以下のようになる。図3(A)は姿勢センサ50の出力が0度であり、ディスプレイ14の表示面は地面に対して水平な状態である。図3(B)は姿勢センサ50の出力が45度であり、ディスプレイ14の表示面は地面に対して傾いた状態である。図3(C)は姿勢センサ50の出力が90度であり、ディスプレイ14の表示面は地面に対して垂直な状態である。ここで、本実施例では、図3(A)の状態を水平状態と言い、図3(C)の状態を垂直状態と言う。ただし、姿勢センサ50の出力が315度−359度および0度−45度までの範囲または135度−225度までの範囲では、携帯電話機10の姿勢は水平状態と検出される。一方、姿勢センサ50の出力が46度−134度までの範囲または226度−314度までの範囲では、携帯電話機10の姿勢は垂直状態と検出される。
図4はディスプレイ14に表示されるホーム画面の一例を示す図解図である。ディスプレイ14の表示範囲は状態表示領域60および機能表示領域62を含む。状態表示領域60には、アンテナ34による電波受信状態を示すピクト、二次電池の残電池容量を示すピクトおよび時刻が表示される。機能表示領域62には、機能を実行するためのタイル状のオブジェクト(以下、単にタイルと言う。)を含むホーム画面が表示されている。
タイルは機能のショートカットであり、ユーザはタイルにタップすることで、タイルと対応する機能を実行することが出来る。また、タイルの表示状態、つまり表示位置および表示サイズなどは任意に変更可能である。さらに、ユーザは、任意の機能のタイルをホーム画面に追加することも出来る。なお、本実施例の機能には、携帯電話機10にインストールされているアプリケーションが含まれると共に、携帯電話機10の設定を変更する機能なども含まれる。
図4のホーム画面では、メール機能と対応するメールタイル、電話機能と対応する電話タイル、地図機能と対応する地図タイル、ブラウザ機能と対応するブラウザタイルおよびアラーム機能と対応するアラームタイルなどが表示されている。
また、タイルに対してロングタップ操作がされると、タイルを編集可能な状態になる。この状態では、タイルの表示サイズおよび表示位置が変更可能になると共に、タイルを削除することも出来る。ただし、タイルが削除されたとしても、機能(アプリケーション)がアンインストールされるわけではない。
なお、機能がバックグラウンドで動作している場合、その機能に対応するタイル表示範囲の中で、ライブ情報が表示される。たとえば、メールタイルであれば、件数アイコンと共に、新着メールの題名が、ライブ情報としてメールタイルの中に表示される。
図5(A)、図5(B)を参照して、ホーム画面で行われるスライド操作について説明する。ユーザは、ホーム画面では上下方向にスクロールすることで、他のタイルをホーム画面に表示させることが出来る。たとえば、上方向のスライド操作Tsが行われると、ホーム画面が上方向にスクロールする。ホーム画面が上方向にスクロールすると、メールタイル、電話タイルおよび地図タイルが表示されなくなり、カメラモジュール58を利用するAR(Augmented Reality)機能と対応するARタイル、スケジュール機能と対応するスケジュールタイルおよびカメラ機能と対応するカメラタイルが表示されるようになる。
なお、本実施例では、地図機能およびAR機能は、第1ナビゲーション機能および第2ナビゲーション機能と言うことがあり、2つの機能をまとめてナビゲーション機能と言うこともある。また、地図タイルおよびARタイルは第1ナビゲーションタイル(第1オブジェクト)および第2ナビゲーションタイル(第2オブジェクト)と言うこともある。
図6は地図機能の画面が表示された状態を示す。ユーザが地図タイルに対してタップ操作を行うと、地図機能が実行される。地図機能が実行されると現在位置が測位され、測位された現在位置に基づいて現在位置を示す地図データがデータサーバ102のデータベースから取得される。そして、携帯電話機10のディスプレイ14には、取得した地図データに基づいて地図が表示されると共に、現在位置を示す現在位置アイコンが表示される。たとえば、地図上でスライド操作が行われると、表示されている地図がスライド操作に追従して変化する。また、2ヶ所に同時にタッチした後に2点の距離を離すスライド操作(以下、ピンチアウト操作と言う。)がされると、地図が拡大される。一方、2ヶ所に同時にタッチした後に2点の距離を近づけるスライド操作(以下、ピンチイン操作と言う。)がされると、地図が縮小される。
また、地図機能の画面の左上には地図の方位を示す地図アイコンが表示され、地図機能の画面の右側には検索キーおよび機能キーが表示される。
検索キーは周辺の施設情報を検索するためのキーであり、検索キーに対してタップ操作がされると検索メニューが表示される。ユーザは検索メニューを利用して任意のカテゴリを指定することで、任意の施設情報を表示させることが出来る。図7を参照して、検索キーにタップ操作がされ、検索メニューで施設情報のカテゴリとして「食堂、スーパー、喫茶店」が指定された場合、指定されたカテゴリに含まれる周辺の施設情報がデータサーバ102のデータベースから取得される。施設情報には、施設の名称、カテゴリ、位置および評価などの情報が含まれている。そして、地図機能では、取得した施設情報に含まれる位置情報に基づいて、表示されている地図に対してカテゴリを示す施設情報が付加される。このように、ユーザは、地図機能を利用することで現在位置を確認すると共に、ユーザの周辺に存在する施設の位置を把握することができる。
機能キーは地図機能の設定を変更するためのキーであり、機能キーに対してタップ操作がされると機能メニューが表示される。この機能メニューでは、たとえば地図機能をバックグランドで実行させる設定を行うことが出来る。
図8(A)、図8(B)を参照して、たとえば地図機能がバックグランドで実行されている状態では、地図機能は現在位置および周辺の施設情報を取得する。そして、ホーム画面で地図タイルが表示されると、その地図タイルの中に現在位置から近い施設の施設情報Fがライブ情報として表示される。たとえば、本実施例では、現在位置との距離が最も近い施設と次に近い施設との施設情報Fが表示される。また、施設情報Fには、施設の名称と現在位置からの距離とが含まれている。そのため、図8(A)に示す地図タイルの中には、ユーザから最も近い位置にある「XXスーパー 10m」の施設情報Faおよび次にユーザに近い「YY食堂 15m」の施設情報Fbが表示される。
また、施設情報が表示されている状態では、現在位置の測位が所定時間(たとえば、1秒)毎に行われ、地図タイルの中に表示される施設情報Fも所定時間毎に更新される。つまり、携帯電話機10を所持するユーザが移動して、携帯電話機10と周辺の施設との距離が変化すれば、その変化が機能タイルの中に表示される施設情報Fに反映される。そのため、図8(B)に示すように、ユーザが移動すると、施設情報Faには「BB食堂 5m」が表示され、施設情報Fbには「CC食堂 10m」が表示される。
図9はAR機能の画面が表示された状態を示す。ユーザがARタイルに対してタップ操作を行うと、AR機能が実行される。AR機能が実行されるとカメラモジュール58はアクティブ状態となり撮影画像を出力する。また、現在位置が測位され、周辺の施設情報がデータサーバ102のデータベースから取得される。そして、取得された施設情報の中からカメラモジュール58のレンズが向いている方向の施設情報が抽出され、抽出された施設情報が重ね合わせられたプレビュー画像がディスプレイ14に表示される。AR機能の画面では、施設情報は施設の名称、カテゴリおよび評価を示す。また、ユーザが携帯電話機10の向き、つまりカメラモジュール58のレンズの向きが変化すると、変化した後のレンズの向きに合わせて施設情報が再度抽出され、再抽出された施設情報が重ね合わせられたプレビュー画像が表示される。これにより、ユーザは、周辺の施設の具体的な位置を把握することが出来る。
また、AR機能の画面の右側には、地図機能と同様、検索キーおよび機能キーが表示される。検索キーに対してタップ操作がされると、検索メニューが表示され、表示する施設情報のカテゴリを指定することができるようになる。また、設定キーに対してタップ操作がされると機能メニューが表示される。ユーザは、機能メニューを利用してAR機能がバックグランドで実行されるように設定することが出来る。
図10を参照して、AR機能がバックグラウンドで実行されるよう設定された状態で、ホーム画面にARタイルが表示されている場合、地図タイルと同様、周辺の施設情報Fc,FdがARタイルの中に表示される。そして、ARタイルの施設情報Fも、地図タイルの施設情報と同様、所定時間毎に更新される。
このように、本実施例では、ユーザはホーム画面であっても周辺の施設を適切に把握することが出来る。特に、施設情報Fは所定時間毎に更新されるため、ユーザが任意に移動しても、ユーザは周辺に存在する施設を適切に把握することが出来る。
ここで、本実施例では、ナビゲーション機能がバックグラウンドで実行されている状態で、そのナビゲーション機能の機能タイルに対してタップ操作がされると、ナビゲーション機能の画面がディスプレイ14に表示される。このようにしてナビゲーション機能が実行された状態では、ユーザは地図機能とAR機能とを任意に切り替えることが出来る。
図11(A)−(C)を参照して、地図機能がバックグラウンドで実行されている状態で、タップ操作によって地図タイルが選択されると、地図機能の画面がディスプレイ14に表示される。地図機能の画面が表示されると、現在位置アイコンと、現在位置から所定距離(たとえば、100m)を示す円と、その円の中に含まれる施設情報とが表示される。なお、地図タイルに対してタップ操作がされたときに、AR機能がバックグラウンドで実行されていない場合は、カメラモジュール58がスタンバイ状態にされる。
地図機能の画面が表示されている状態で携帯電話機10が動かされ、携帯電話機10の姿勢が垂直状態になると、AR機能の画面がディスプレイ14に表示される。このとき、プレビュー画像には、ユーザから所定距離以内にある施設の施設情報から、カメラモジュール58のレンズが向けられている方向の施設情報が抽出され、抽出された施設情報が重ね合わせられたプレビュー画像がディスプレイ14に表示される。なお、携帯電話機10の姿勢が垂直状態となったときにAR機能がバックグラウンドで実行されていない状態であれば、AR機能が実行される。
また、AR機能の画面が表示されている状態で携帯電話機10が動かされ、携帯電話機10の姿勢が水平状態になると、地図機能の画面が表示される。つまり、ユーザは携帯電話機10傾けるという切り替え操作を行うことで、地図機能とAR機能との画面を任意に切り替えることが出来る。これにより、ユーザは、目的の施設を検索するときに、周辺の状況を確認したければ地図機能の画面を表示させ、施設の具体的な位置を確認したければAR機能の画面を表示させることが出来る。そして、携帯電話機10の姿勢を変化させるだけで2つの機能の画面を容易に切り替えることが出来るため、ユーザは目的の施設を容易に発見できるようになる。
図12(A)−図12(C)を参照して、ナビゲーション機能の機能タイルの中に表示される施設情報Fがタップ操作によって選択されると、ナビゲーション機能の画面が表示されると共に、選択された施設情報が強調表示される。たとえば、地図タイルの中に表示される「XXスーパー」の施設情報Faに対してタップ操作がされると、地図機能の画面が表示されると共に、地図において「XXスーパー」の施設情報に対してポップアップが付与される。
選択された施設情報が強調表示されている状態でAR機能の画面に切り替えられ、選択された施設情報が表示可能であれば、地図機能の画面と同様、その施設情報が強調表示される。なお、地図機能とAR機能との画面の切り替えについては、先の説明と同じであるため、詳細な説明は省略する。
このように、本実施例では、ユーザはバックグラウンドでナビゲーション機能を実行している場合、目的の施設を決めずに周辺の状況を確認するか、目的の施設を決めてから施設状況を確認するかを容易に選択することが出来る。
また、図13を参照して、AR機能の画面が表示されたときに、選択された施設情報が表示可能でなければ、AR機能の画面には選択された施設情報が存在する位置を示すガイドアイコンYが表示される。たとえば、図13に示すガイドアイコンYは左方向を示しているため、ユーザは携帯電話機10を左方向に動かすことで、選択した施設情報をAR機能の画面に表示させることが可能となる。
ここで、図14(A)、図14(B)を参照して、他の実施例では、地図タイルおよびARタイルは並べて表示されてもよい。また、バックグラウンドで実行する設定は、地図機能およびAR機能のどちらか一方だけであってもよい。たとえば、ユーザは主に利用する2つのナビゲーション機能のうち、主に利用する機能だけがバックグラウンドで実行されるように設定することが出来る。これにより、同じ施設情報がそれぞれの機能タイルに表示されないようにすることが出来る。また、施設情報を表示する機能タイルを1つにすることで、携帯電話機10の消費電力を抑えることが出来る。特に、ユーザは、各ナビゲーション機能において、バックグラウンドで実行するか否かを任意に設定することが可能である。そのため、ユーザは、携帯電話機10の電池残量などに基づいて、ナビゲーション機能をバックグラウンドで実行させるかを判断することが出来る。
また、バックグラウンドで実行されていないナビゲーション機能の機能タイルに対してタップ操作がされた場合、他方のナビゲーション機能とは関係なく、一方のナビゲーション機能が実行される。たとえば、図14(B)に示すように、地図機能がバックグラウンドで実行されている状態でAR機能が実行された場合、地図機能によって示されている施設情報Fとは関係なく、AR機能は施設情報をデータサーバ102から取得し、取得された施設情報がAR機能の画面に表示される。
なお、地図タイルに表示される施設情報は、特定のカテゴリの施設情報Fが表示されるように、ユーザによって設定されてもよい。また、その他の実施例では、地図機能とAR機能とで、機能タイルに表示される施設情報Fのジャンルが異なるように設定されていてもよい。
また、図11(A)および図12(A)では、地図タイルに対するタッチ操作がされた後に、地図機能の画面とAR機能の画面とが切り替えられることを説明したが、ARタイルに対してタッチ操作がされた後でも、AR機能の画面と地図機能の画面とは切り替えられる。
上述では本実施例の特徴を概説した。以下では、図15に示すメモリマップおよび図16−図20に示すフロー図を用いて詳細に説明する。
図15を参照して、RAM46には、プログラム記憶領域302とデータ記憶領域304とが形成される。プログラム記憶領域302は、先に説明したように、フラッシュメモリ44(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域302には、機能タイルの中に表示される施設情報を制御するための施設情報表示制御プログラム310、2つのナビゲーション機能の切り替えを制御するためのナビゲーション制御プログラム312およびナビゲーション機能がバックグラウンドで実行するように設定するための設定プログラム314などが記憶される。
なお、プログラム記憶領域302には、メール機能、ブラウザ機能などの機能を実行するためのプログラムも記憶される。
RAM46のデータ記憶領域304には、タッチバッファ330、姿勢バッファ332、現在位置バッファ334、方位バッファ336、通信バッファ338、撮影画像バッファ340およびタイルバッファ342などが設けられると共に、タッチ座標マップ344などが記憶される。また、データ記憶領域304には、タッチフラグ346、第1バックグラウンドフラグ348、第2バックグラウンドフラグ350および測位カウンタ352などが設けられる。
タッチバッファ330には、タッチパネル制御回路48が出力するタッチ座標のデータが記憶される。姿勢バッファ332には、姿勢センサ50から出力される加速度および角速度のデータが一時的に記憶される。現在位置バッファ334には、GPS回路52によって測位された現在位置のデータが一時的に記憶される。方位バッファ336には、方位センサ56から出力される方位角のデータが一時的に記憶される。通信バッファ338には、データサーバ102などとのデータ通信によって取得(ダウンロード)されたデータが一時的に記憶される。撮影画像バッファ340には、カメラモジュール58から出力された撮影画像が一時的に記憶される。そして、プレビュー画像は、撮影画像バッファ340に記憶されている撮影画像に基づいて表示される。タイルバッファ342は、ホーム画面に表示されるタイルの画像やライブ情報(施設情報F)などを一時的に記憶しておくためのバッファである。
タッチ座標マップ344は、タッチ操作におけるタッチ座標とディスプレイ14の表示座標とを対応付けるためのデータである。つまり、タッチパネル16に対して行われたタッチ操作の結果が、タッチ座標マップ344に基づいてディスプレイ14の表示に反映される。
タッチフラグ346は、タッチパネル16に対してタッチされているか否かを判断するためのフラグである。たとえば、タッチフラグ346は、1ビットのレジスタで構成される。タッチフラグ346がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ346がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。また、タッチフラグ346は、タッチパネル制御回路48の出力に基づいてオン/オフが切り換えられる。
第1バックグラウンドフラグ348は、第1ナビゲーション機能、つまり地図機能がバックグラウンドで実行されるよう設定されているかを示すフラグである。また、第2バックグラウンドフラグ350は、第2ナビゲーション機能、つまりAR機能がバックグラウンドで実行されるよう設定されているかを示すフラグである。
測位カウンタ352は、所定時間毎に現在位置を測位するためのカウンタである。この測位カウンタ352が初期化されると、カウントを開始し、所定時間が経過すると満了する。そして、測位カウンタ352は、測位タイマと呼ばれることもある。
なお、データ記憶領域304には、受信したメールが記憶されたり、プログラムの実行に必要な、他のフラグやタイマ(カウンタ)が設けられたりする。
プロセッサ30は、Windows(登録商標)ベースのOSや、Android(登録商標)およびiOS(登録商標)などのLinux(登録商標)ベースのOSなどその他のOSの制御下で、図16に示す施設情報制御処理、図17−図19に示すナビゲーション制御処理および図20に示す設定処理などを含む、複数のタスクを並列的に処理する。
図16は施設情報表示制御処理のフロー図である。施設情報表示制御処理は、たとえばホーム画面が表示されると開始される。ステップS1でプロセッサ30は、バックグラウンド実行が有効か否かを判断する。つまり、第1バックグラウンドフラグ348および第2バックグラウンドフラグ350の少なくとも一方がオンであるかが判断される。ステップS1で“NO”であれば、つまり2つのフラグがオフであれば、プロセッサ30は施設情報表示処理を終了する。
また、ステップS1で“YES”であれば、たとえば地図機能のバックグラウンド実行が有効にされ、第1バックグラウンドフラグ348がオンであれば、ステップS3でプロセッサ30は、現在位置を測位する。つまり、プロセッサ30は現在位置を測位するように、GPS回路52に対して命令を発行する。なお、測位された結果は、現在位置バッファ334に記憶される。続いて、ステップS5でプロセッサ30は、測位タイマを実行する。つまり、所定時間毎に現在位置を測位するために、測位カウンタ352が初期化される。続いて、ステップS7でプロセッサ30は、現在位置に基づいて周辺の施設情報を取得する。つまり、現在位置バッファ334に記憶されている現在位置をデータサーバ102に送信し、その現在位置の周辺に存在する施設情報をデータサーバ102のデータベースから取得する。続いて、ステップS9でプロセッサ30は、施設情報を含むナビゲーションタイルを作成する。つまり、取得した施設情報から現在位置から最も近い施設情報と次に近い施設情報とを抽出し、2つの施設情報Fが中に表示されるナビゲーションタイルを作成する。このとき、第1バックグラウンドフラグ348がオンであれば施設情報Fが中に表示される地図タイルが作成され、第2バックグランドフラグ350がオンであれば施設情報Fが中に表示されるARタイルが作成される。つまり、バックグラウンドで実行されているナビゲーションタイルが作成される。なお、作成されたタイルはタイルバッファ342に記憶される。
続いて、ステップS11でプロセッサ30は、ナビゲーションタイルが表示可能か否かを判断する。たとえば、地図タイルが作成された場合に、地図タイルが表示されるように、ホーム画面がスクロールされているかが判断される。ステップS11で“NO”であれば、たとえば図5(B)に示すように、地図タイルが表示可能な状態でなければ、プロセッサ30はステップS15の処理に進む。一方、ステップS11で“YES”であれば、たとえば図5(A)に示すように地図タイルが表示可能な状態であれば、ステップS13でプロセッサ30は、ナビゲーションタイルを表示する。たとえば、作成された地図タイルがタイルバッファ342に記憶されている場合、地図タイルがホーム画面に表示される。なお、ステップS13の処理を実行するプロセッサ30は表示処理部として機能する。
続いて、ステップS15でプロセッサ30は、測位タイマが満了したか否かを判断する。つまり、現在位置が測位されてから所定時間が経過したかが判断される。ステップS15で“YES”であれば、つまり現在位置が測位されてから所定時間が経過して測位タイマが満了していれば、プロセッサ30はステップS3の処理に戻る。一方、ステップS15で“NO”であれば、つまり現在位置が測位されてから所定時間が経過してなければ、ステップS17でプロセッサ30は、画面が遷移したか否かを判断する。たとえば、ホーム画面から他の画面に遷移したかが判断される。ステップS17で“NO”であれば、つまりホーム画面が表示されたままの状態であれば、プロセッサ30はステップS15の処理に戻る。一方、ステップS17で“YES”であれば、たとえば任意の機能が実行され、ディスプレイ14の表示がホーム画面からその機能の画面に遷移した場合、プロセッサ30は施設情報表示制御処理を終了する。なお、ディスプレイ14の電源がオフにされた場合も、ステップS17では“YES”と判断される。
図17−図20はナビゲーション制御処理のフロー図である。ナビゲーション制御処理は、施設情報表示制御処理と同様、たとえばホーム画面が表示されると開始される。ステップS41でプロセッサ30は、第2ナビゲーション機能のバックグラウンド実行が有効か否かを判断する。つまり、AR機能がバックグラウンドで実行されるよう設定され、第2バックグラウンドフラグ350がオンであるかが判断される。ステップS41で“NO”であれば、つまり第2ナビゲーション機能(AR機能)がバックグラウンドで実行されるように設定されていなければ、プロセッサ30はステップS45の処理に進む。一方、ステップS41で“YES”であれば、つまり第2ナビゲーション機能がバックグラウンドで実行されるように設定されていれば、ステップS43でプロセッサ30は、カメラモジュール58をスタンバイ状態に設定する。つまり、ARタイルに対してタップ操作がされたときに、プレビュー画像が表示されるまでの時間を短縮するために、カメラモジュール58がスタンバイ状態にされる。
続いて、ステップS45でプロセッサ30は、ナビゲーションタイルにタップされたか否かを判断する。つまり、地図タイルまたはARタイルのいずれかにタップ操作がされたかが判断される。ステップS45で“NO”であれば、つまり地図タイルまたはARタイルのどちらにもタップ操作がされなければ、ステップS47でプロセッサ30は、ステップS17と同様、画面が遷移したか否かを判断する。ステップS47で“YES”であれば、ステップS47で“YES”であれば、たとえばディスプレイ14の表示が他の機能の画面に切り替わると、ステップS49でプロセッサ30は、カメラモジュール58がスタンバイ状態であるか否かを判断する。ステップS49で“NO”であれば、つまりカメラモジュール58がスタンバイ状態で無ければ、プロセッサ30はナビゲーション制御処理を終了する。一方、ステップS49で“YES”であれば、つまりAR機能(第2ナビゲーション機能)がバックグラウンドで実行されるように設定されており、カメラモジュール58がスタンバイ状態であれば、ステップS51でプロセッサ30は、カメラモジュール58を停止する。画面が遷移して第2ナビゲーション機能をバックグラウンドで実行する必要が無くなったため、カメラモジュール58が停止される。そして、ステップS51の処理が終了すると、プロセッサ30はナビゲーション制御処理を終了する。また、ステップS47で“NO”であれば、つまりホーム画面が表示されたままの状態であれば、プロセッサ30はステップS45の処理に戻る。
ステップS45で“YES”であれば、つまり地図タイルまたはARタイルのいずれかにタップ操作がされると、ステップS53でプロセッサ30は、ナビゲーション機能はバックグラウンドで実行されているか否かを判断する。つまり、タップ操作がされたナビゲーションタイルと対応するナビゲーション機能がバックグランドで実行されているかが判断される。また、具体的には、タップ操作がされたナビゲーションタイルと対応するナビゲーション機能のバックグラウンドフラグがオンであるかが判断される。ステップS53で“NO”であれば、たとえばAR機能がバックグラウンドで実行するように設定されておらず、ARタイルに対してタップ操作がされた場合、ステップS55でプロセッサ30は、ナビゲーション機能を実行する。たとえば、AR機能が実行される。続いて、ステップS57でプロセッサ30は、ホーム画面に戻る操作がされたか否かを判断する。たとえば、ホーム画面を表示するためのメニューキー22cが操作されたかが判断される。ステップS57で“NO”であれば、つまりホーム画面に戻る操作がされていなければ、プロセッサ30はステップS57の処理を繰り返す。一方、ステップS57で“YES”であれば、たとえばメニューキー22cが操作されると、プロセッサ30はステップS41の処理に戻る。つまり、実行されたナビゲーション機能がバックグラウンドで実行されるように設定が変更されている場合もあるため、プロセッサ30がステップS41の処理を再び実行するようにされている。
ステップS53で“YES”であれば、つまりバックグラウンドで実行されているナビゲーション機能のナビゲーションタイルに対してタップ操作がされた場合、ステップS59でプロセッサ30は、第1ナビゲーション機能か否かを判断する。つまり、第1ナビゲーション機能である地図機能の地図タイルに対してタップ操作がされたかが判断される。
ステップS59で“NO”であれば、つまりタップ操作がされたナビゲーションタイルが、第2ナビゲーション機能であるAR機能のARタイルであれば、プロセッサ30はステップS81の処理に進む。
一方、ステップS59で“YES”であれば、つまり地図タイルに対してタップ操作がされると、ステップS61でプロセッサ30は、第2ナビゲーション機能はバックグラウンドで実行されているか否かを判断する。つまり、第2バックグランドフラグ350がオンであるかが判断される。ステップS61で“YES”であれば、つまり第2ナビゲーション機能であるAR機能がバックグラウンドで実行されている状態であれば、プロセッサ30はステップS65の処理に進む。また、ステップS61で“NO”であれば、つまりAR機能がバックグラウンドで実行されていなければ、ステップS63でプロセッサ30は、ステップS43と同様、カメラモジュール58をスタンバイ状態に設定する。そして、ステップS63の処理が終了すれば、プロセッサ30はステップS65の処理に進む。
図18に示すステップS65でプロセッサ30は周辺の施設情報を取得し、ステップS67でプロセッサ30は地図データを取得する。つまり、プロセッサ30は、現在位置バッファ334に記憶されている現在位置をデータサーバ102に送信することで、現在位置から所定距離以内に存在する施設の施設情報および現在位置を示す地図データを、データサーバ102のデータベースから取得する。続いて、ステップS69でプロセッサ30は、施設情報を含む地図を表示する。たとえば、図11(B)に示すように、施設情報を含む地図がディスプレイ14に表示される。
続いて、ステップS71でプロセッサ30は、施設情報Fが指定されたか否かを判断する。つまり、地図タイルの中に表示される施設情報Fに対してタップ操作がされたかが判断される。ステップS71で“NO”であれば、たとえば図11(A)に示すように、地図タイルの中、かつ施設情報Fの外側にタップ操作がされた場合、プロセッサ30はステップS75の処理に進む。一方、ステップS71で“YES”であれば、つまり地図タイルの中に表示される施設情報Fに対してタップ操作がされた場合、ステップS73でプロセッサ30は、施設情報を強調表示する。たとえば、図12(A)に示すように「XXスーパー」の施設情報Faに対してタップ操作がされた場合、図12(B)に示すように「XXスーパー」の施設情報に対してポップアップが付与され、施設情報を囲う線の太さが変更される。
続いて、ステップS75でプロセッサ30は、加速度が所定値よりも大きいか否かを判断する。つまり、加速度のデータに基づいて、携帯電話機10の姿勢を変化させるような動きがあったかが判断される。また、具体的には、姿勢バッファ332から加速度のデータが読み出され、その加速度のデータが所定値よりも大きいかが判断される。ステップS75で“NO”であれば、つまり携帯電話機10の姿勢を変化させるような動作が無ければ、ステップS77でプロセッサ30は、画面が遷移したか否かを判断する。たとえば、ホーム画面を表示するためのメニューキー22cが操作されたかが判断される。ステップS77で“YES”であれば、たとえば地図機能の画面からホーム画面に遷移すれば、プロセッサ30はステップ49の処理に戻る。また、ステップS77で“NO”であれば、つまり地図機能の画面が表示された状態であれば、プロセッサ30はステップS75の処理に戻る。ステップS75で“YES”であれば、つまり携帯電話機10の姿勢を変化させるような動作があれば、ステップS79でプロセッサ30は、姿勢が垂直状態か否かを判断する。つまり、携帯電話機10の姿勢が垂直状態であるかが、姿勢バッファ332に記憶される角速度のデータに基づいて判断される。ステップS79で“NO”であれば、つまり携帯電話機10の姿勢が垂直状態でなければ、プロセッサ30はステップS77の処理に戻る。また、ステップS79で“YES”であれば、つまり携帯電話機10の姿勢が垂直状態であれば、ステップS81の処理に進む。
AR機能がバックグラウンドで実行されている状態で、ARタイルに対してタップ操作がされるか、携帯電話機10の姿勢が垂直状態にされると、図19のステップS81でプロセッサ30は、カメラモジュール58をアクティブ状態に設定する。つまり、AR機能の画面でプレビュー画像を表示するために、カメラモジュール58がアクティブ状態にされる。続いて、ステップS83でプロセッサ30は、撮影画像を取得する。つまり、撮影画像バッファ340から撮影画像が取得される。続いて、ステップS85でプロセッサ30は、ステップS65と同様、周辺の施設情報を取得する。続いて、ステップS87でプロセッサ30は、施設情報を重ね合わせたプレビュー画像を表示する。たとえば、図11(C)に示すように、施設情報が重ね合わせられたプレビュー画像がディスプレイ14に表示される。
続いて、ステップS89でプロセッサ30は、ステップS71と同様、施設情報が指定されたかが判断される。ステップS89で“NO”であれば、たとえば図11(A)に示すように施設情報が指定されていなければ、プロセッサ30はステップS97の処理に進む。また、ステップS89で“YES”であれば、施設情報が指定されていれば、ステップS91でプロセッサ30は、指定された施設情報が表示されているか否かを判断する。つまり指定された施設情報と対応する施設に対してカメラモジュール58のレンズが向けられているかが判断される。なお、地図機能の画面において施設情報が強調表示されていた場合も、ステップS89では“YES”と判断される。ステップS91で“NO”であれば、つまり指定された施設情報が表示されていなければ、ステップS93でプロセッサ30は、ガイドアイコンYを表示し、ステップS91の処理に戻る。たとえば、図13に示すように、レンズを向ける方向の変更を促すガイドアイコンYがAR機能の画面に表示される。また、ステップS91で“YES”であれば、つまり指定された施設情報がAR機能の画面に表示されていれば、ステップS95でプロセッサ30は、施設情報を強調表示する。たとえば、図12(C)に示すように、施設情報に対してポップアップが付与されると共に、施設情報を囲う線の太さが変更される。
続いて、ステップS97でプロセッサ30は、ステップS75と同様、加速度が所定値より大きいか否かを判断する。ステップS97で“NO”であれば、つまり携帯電話機10の姿勢を変更するような動作が無ければ、ステップS99でプロセッサ30は、ステップS77と同様、画面が遷移したか否かを判断する。ステップS99で“YES”であれば、たとえばAR機能の画面がホーム画面に遷移すれば、プロセッサ30はステップS49の処理に戻る。一方、ステップS99で“NO”であれば、つまりAR機能の画面が表示されたままであれば、プロセッサ30はステップS97の処理に戻る。ステップS97で“YES”であれば、つまり携帯電話機10の姿勢を変更する動作がされると、ステップS101でプロセッサ30は、姿勢が水平状態か否かを判断する。つまり、携帯電話機10の姿勢が水平状態であるかが判断される。ステップS101で“NO”であれば、つまり、携帯電話機10の姿勢が水平状態にされていなければ、プロセッサ30はステップS99の処理に戻る。一方、ステップS101で“YES”であれば、つまり携帯電話機10の姿勢が水平状態にされていれば、ステップS103でプロセッサ30は、カメラモジュール58をスタンバイ状態に設定する。つまり、AR機能の画面から地図機能の画面に切り替えられた場合、プレビュー画像を表示する必要が無くなるため、省電力のためにカメラモジュール58がスタンバイ状態に設定される。そして、ステップS103の処理が終了すれば、地図機能の画面を表示するために、プロセッサ30はステップS65の処理に戻る。
なお、ステップS7,S65,S85の処理を実行するプロセッサ30は取得部として機能する。また、ステップS67の処理を実行するプロセッサ30は地図取得部として機能する。また、ステップS83の処理を実行するプロセッサ30は画像取得部として機能する。また、ステップS69またはステップS87の処理を実行するプロセッサ30は第1画面表示処理部として機能する。また、ステップS69,S73またはステップS87,S95の処理を実行するプロセッサ30は第2画面表示処理部として機能する。特に、ステップS69の処理を実行するプロセッサ30は第1地図表示処理部として機能し、ステップS69,S73の処理を実行するプロセッサ30は第2地図表示処理部として機能する。また、ステップS87の処理を実行するプロセッサ30は第1画像表示処理部として機能し、ステップS87,S95の処理を実行するプロセッサ30は第2画像表示処理部として機能する。
図20は設定処理のフロー図である。たとえば、ナビゲーション機能の画面が表示されているときに設定キーが操作されメニューが表示されると設定処理は開始される。ステップS121でプロセッサ30は、バックグランド実行が有効にされたか否かを判断する。つまり設定メニューでナビゲーション機能のバックグラウンド実行を有効にする操作がされたかが判断される。ステップS121で“YES”であれば、つまりナビゲーション機能のバックグラウンド実行を有効にする操作がされると、ステップS123でプロセッサ30は、バックグラウンドフラグをオンにする。たとえば、地図機能の機能メニューでバックグラウンド実行を有効にする操作がされた場合は、第1バックグラウンドフラグ348がオンにされる。一方、AR機能の機能メニューでバックグラウンド実行を有効にする操作がされた場合は、第2バックグラウンドフラグ350がオンにされる。そして、ステップS123の処理が終了すれば、プロセッサ30はステップS129の処理に進む。なお、ステップS123の処理を実行するプロセッサ30は設定部として機能する。
またステップS121で“NO”であれば、つまりナビゲーション機能のバックグラウンド実行を有効にする操作がされていない場合は、ステップS125でプロセッサ30は、バックグラウンド実行が無効にされたか否かが判断される。つまり、ナビゲーション機能のバックグラウンド実行を無効にする操作がされたかが判断される。ステップS125で“YES”であれば、つまりナビゲーション機能のバックグラウンド実行を無効にする操作がされると、ステップS127でプロセッサ30は、バックグラウンドフラグをオフにする。たとえば、地図機能の機能メニューでバックグラウンド実行を無効にする操作がされると第1バックグラウンドフラグ348がオフにされ、AR機能の機能メニューでバックグラウンド実行を無効にする操作がされると第2バックグランドフラグ350がオフにされる。そして、ステップS127の処理が終了すれば、プロセッサ30はステップS129の処理に進む。
また、ステップS125で“NO”であれば、つまりバックグラウンド実行を無効にする操作がされなければ、プロセッサ30はステップS129で終了か否かを判断する。つまり、機能メニューを終了する操作がされたかが判断される。ステップS129で“NO”であれば、つまり機能メニューを終了する操作がされていなければ、プロセッサ30はステップS121の処理に戻る。一方、ステップS129で“YES”であれば、つまり機能メニューを終了する操作がされると、プロセッサ30は設定処理を終了する。
なお、他の実施例では、データサーバ102のデータベースから施設情報を取得する場合、広い範囲の施設情報を予め取得ておくことで、データサーバ102との通信回数を減らしてもよい。この場合、施設情報を表示するのにかかる時間を短縮することができ、また携帯電話機10の消費電力を抑えることが出来る。
また、その他の実施例では、地図機能の画面とAR機能の画面とは、メニューキー22cが2度押しされたときに切り替えられてもよいし、携帯電話機10の姿勢が縦向きの状態から横向きの状態に変化したときに切り替えられてもよい。
また、さらにその他の実施例では、現在位置は、無線LANのAPや基地局との通信を利用して測位されてもよい。
また、本実施例では、地図データおよび施設情報のデータベースは、データサーバ102に記憶されていたが、これらのデータベースは携帯電話機10のフラッシュメモリ44に記憶されていてもよい。
また、上述の実施例では、所定値に対して「より大きい」の言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blue-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 … 携帯電話機
14 … ディスプレイ
16 … タッチパネル
22c … メニューキー
24 … レンズ開口
30 … プロセッサ
44 … フラッシュメモリ
46 … RAM
48 … タッチパネル制御回路
50 … 姿勢センサ
52 … GPS回路
54 … GPSアンテナ
56 … 方位センサ
58 … カメラモジュール
100 … ネットワーク
102 … データサーバ
200 … GPS衛星

Claims (12)

  1. 現在位置を測位する測位部を有する、携帯通信端末であって、
    ナビゲーション機能を実行するためのタイル状のオブジェクトを表示する表示装置、
    前記測位部によって測位された現在位置に基づいて、周辺の施設情報をデータベースから取得する取得部、および
    前記取得部によって取得された施設情報を、前記タイル状のオブジェクトの中に表示する表示処理部を備える、携帯通信端末。
  2. 前記測位部は所定時間毎に現在位置を測位し、
    前記取得部は、所定時間毎に取得される現在位置に基づいて施設情報をデータベースから取得し、
    前記表示処理部は、前記タイル状のオブジェクトの中に表示する施設情報を所定時間毎に更新する、請求項1記載の携帯通信端末。
  3. 前記タイル状のオブジェクトが選択されたとき、前記取得部によって取得された施設情報を含む、前記ナビゲーション機能の画面を表示する第1画面表示処理部、および
    前記タイル状のオブジェクトに含まれる施設情報が選択されたとき、選択された施設情報が強調されている、前記ナビゲーション機能の画面を表示する第2画面表示処理部をさらに備える、請求項1または2記載の携帯通信端末。
  4. 前記タイル状のオブジェクトは、地図機能を実行するための第1オブジェクトおよびAR機能を実行するための第2オブジェクトを含み、
    前記表示処理部は、前記第1オブジェクトの中および前記第2オブジェクトの中の少なくとも一方に、前記取得部によって取得された施設情報を表示する、請求項1ないし3のいずれかに記載の携帯通信端末。
  5. 前記地図機能と前記AR機能とを切り替える切り替え操作を検出する検出部をさらに備え、
    前記第1画面表示処理部は、前記地図機能または前記AR機能の画面が表示されている状態で切り替え操作が検出されたとき、他方の機能の画面に切り替え、
    前記第2画面表示処理部は、前記地図機能または前記AR機能の画面が表示されている状態で切り替え操作が検出されたとき、他方の機能の画面に切り替える、請求項4記載の携帯通信端末。
  6. 前記検出部は、前記携帯通信端末の姿勢を検出する姿勢センサを含み、
    前記第1画面表示処理部は、前記地図機能または前記AR機能の画面が表示されている状態で、前記姿勢センサによって前記携帯通信端末の姿勢の変化が検出されたとき、他方の機能の画面に切り替え、
    前記第2画面表示処理部は、前記地図機能または前記AR機能の画面が表示されている状態で、前記姿勢センサによって前記携帯通信端末の姿勢の変化が検出されたとき、他方の機能の画面に切り替える、請求項5記載の携帯通信端末。
  7. 前記姿勢センサは、前記携帯通信端末が地面に対して水平な状態および垂直な状態をそれぞれ検出し、
    前記第1画面表示処理部は、前記地図機能が表示されている状態で前記携帯通信端末の姿勢が前記水平な状態から前記垂直な状態に変化したとき前記AR機能の画面に切り替え、前記AR機能が表示されている状態で前記携帯通信端末の姿勢が前記垂直な状態から前記水平な状態に変化したとき前記地図機能の画面に切り替え、
    前記第2画面表示処理部は、前記地図機能が表示されている状態で前記携帯通信端末の姿勢が前記水平な状態から前記垂直な状態に変化したとき前記AR機能の画面に切り替え、前記AR機能が表示されている状態で前記携帯通信端末の姿勢が前記垂直な状態から前記水平な状態に変化したとき前記地図機能の画面に切り替える、請求項6記載の携帯通信端末。
  8. 前記取得部は、前記第1オブジェクトが選択されたとき、前記測位部によって測位された現在位置に基づいて周辺の施設情報を取得し、
    前記第1オブジェクトが選択されたとき、前記測位部によって測位された現在位置を示す地図を取得する地図取得部をさらに備え、
    前記第1画面表示処理部は、取得された施設情報を含む地図を表示する第1地図表示処理部を含み、
    前記第2画面表示処理部は、強調された施設情報を含む地図を表示する第2地図表示処理部を含む、請求項4ないし7のいずれかに記載の携帯通信端末。
  9. 前記取得部は、前記第2オブジェクトが選択されたとき、前記測位部によって測位された現在位置に基づいて、周辺の施設情報を取得し、
    カメラモジュール、および
    前記第2オブジェクトが選択されたとき、前記カメラモジュールによって撮影された撮影画像を取得する画像取得部をさらに備え、
    前記第1画面表示処理部は、施設情報が重ね合わせられた撮影画像を表示する第1画像表示処理部をさらに含み、
    前記第2画面表示処理部は、強調された施設情報が重ね合わせられた撮影画像を表示する第2画像表示処理部をさらに含む、請求項4ないし8のいずれかに記載の携帯通信端末。
  10. 前記ナビゲーション機能をバックグランドで実行するよう設定する設定部をさらに備え、
    前記測位部は、前記ナビゲーション機能がバックグランドで実行されるように設定されているとき、現在位置を測位する、請求項1ないし9のいずれかに記載の携帯通信端末。
  11. 現在位置を測位する測位部およびナビゲーション機能を実行するためのタイル状のオブジェクトを表示する表示装置を有する、携帯通信端末のプロセッサを、
    前記測位部によって測位された現在位置に基づいて、周辺の施設情報をデータベースから取得する取得部、および
    前記取得部によって取得された施設情報を、前記タイル状のオブジェクトの中に表示する表示処理部として機能させる、情報表示プログラム。
  12. 現在位置を測位する測位部およびナビゲーション機能を実行するためのタイル状のオブジェクトを表示する表示装置を有する、携帯通信端末における情報表示方法であって、前記携帯通信端末のプロセッサが、
    前記測位部によって測位された現在位置に基づいて、周辺の施設情報をデータベースから取得する取得ステップ、および
    前記取得ステップによって取得された施設情報を、前記タイル状のオブジェクトの中に表示する表示処理ステップを実行する、情報表示方法。
JP2013177157A 2013-08-28 2013-08-28 携帯通信端末、情報表示プログラムおよび情報表示方法 Active JP6301613B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013177157A JP6301613B2 (ja) 2013-08-28 2013-08-28 携帯通信端末、情報表示プログラムおよび情報表示方法
PCT/JP2014/072552 WO2015030104A1 (ja) 2013-08-28 2014-08-28 携帯通信端末、情報表示プログラムおよび情報表示方法
US15/053,961 US9874448B2 (en) 2013-08-28 2016-02-25 Electric device and information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013177157A JP6301613B2 (ja) 2013-08-28 2013-08-28 携帯通信端末、情報表示プログラムおよび情報表示方法

Publications (2)

Publication Number Publication Date
JP2015045583A true JP2015045583A (ja) 2015-03-12
JP6301613B2 JP6301613B2 (ja) 2018-03-28

Family

ID=52586652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013177157A Active JP6301613B2 (ja) 2013-08-28 2013-08-28 携帯通信端末、情報表示プログラムおよび情報表示方法

Country Status (3)

Country Link
US (1) US9874448B2 (ja)
JP (1) JP6301613B2 (ja)
WO (1) WO2015030104A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068689A (ja) * 2015-09-30 2017-04-06 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
JP2017191005A (ja) * 2016-04-13 2017-10-19 凸版印刷株式会社 携帯通信端末、携帯通信端末を制御するためのプログラム、情報処理方法、および、コンピュータに情報処理方法を実現させるためのプログラム
JP2019002747A (ja) * 2017-06-13 2019-01-10 株式会社ソーシャル・キャピタル・デザイン 目的地特定システム
JP2019532379A (ja) * 2016-07-29 2019-11-07 シグニファイ ホールディング ビー ヴィ ロケーションベースのサービスのためのデバイス
JP2020515957A (ja) * 2016-12-13 2020-05-28 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 拡張現実に基づく仮想オブジェクトの割り振り
CN112216154A (zh) * 2020-09-03 2021-01-12 国网山东省电力公司建设公司 一种基于智能眼镜的培训教学系统和方法
JP2022122879A (ja) * 2018-05-25 2022-08-23 理想科学工業株式会社 システム、ウェアラブル端末及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN107066472A (zh) * 2016-11-30 2017-08-18 阿里巴巴集团控股有限公司 地图显示方法及系统、终端及地图服务器
CN111654473B (zh) * 2016-12-13 2022-07-19 创新先进技术有限公司 基于增强现实的虚拟对象分配方法及装置
WO2019164514A1 (en) * 2018-02-23 2019-08-29 Google Llc Transitioning between map view and augmented reality view
TWI715166B (zh) * 2019-08-27 2021-01-01 宏正自動科技股份有限公司 多螢幕控制系統
USD959489S1 (en) * 2020-08-13 2022-08-02 Pnc Financial Services Group, Inc. Display screen portion with icon

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118193A (ja) * 1999-10-18 2001-04-27 Mitsubishi Electric Corp 通信型ナビゲーションシステム
JP2010008162A (ja) * 2008-06-25 2010-01-14 Denso It Laboratory Inc 周辺情報表示装置および周辺情報表示方法
JP2010101785A (ja) * 2008-10-24 2010-05-06 Ntt Docomo Inc 測位制御装置及び測位制御方法
JP2011070582A (ja) * 2009-09-28 2011-04-07 Ntt Docomo Inc 情報処理方法、情報処理装置及びプログラム
JP2012108096A (ja) * 2011-08-03 2012-06-07 Pioneer Electronic Corp 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
JP2012242202A (ja) * 2011-05-18 2012-12-10 Alpine Electronics Inc 車載システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4632793B2 (ja) 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
JP4959951B2 (ja) 2005-03-31 2012-06-27 京セラ株式会社 携帯電話機
KR101039312B1 (ko) * 2008-07-11 2011-06-08 삼성전자주식회사 휴대 단말기를 이용한 네비게이션 시스템 및 서비스 제공방법
JP5521521B2 (ja) 2009-12-04 2014-06-18 株式会社リコー 現像装置、現像方法、画像形成装置及び画像形成方法
US9961249B2 (en) * 2012-09-17 2018-05-01 Gregory Thomas Joao Apparatus and method for providing a wireless, portable, and/or handheld, device with safety features

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118193A (ja) * 1999-10-18 2001-04-27 Mitsubishi Electric Corp 通信型ナビゲーションシステム
JP2010008162A (ja) * 2008-06-25 2010-01-14 Denso It Laboratory Inc 周辺情報表示装置および周辺情報表示方法
JP2010101785A (ja) * 2008-10-24 2010-05-06 Ntt Docomo Inc 測位制御装置及び測位制御方法
JP2011070582A (ja) * 2009-09-28 2011-04-07 Ntt Docomo Inc 情報処理方法、情報処理装置及びプログラム
JP2012242202A (ja) * 2011-05-18 2012-12-10 Alpine Electronics Inc 車載システム
JP2012108096A (ja) * 2011-08-03 2012-06-07 Pioneer Electronic Corp 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ドコモ地図ナビウィジェット, JPN6016046636, 20 October 2011 (2011-10-20), JP *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068689A (ja) * 2015-09-30 2017-04-06 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
JP2017191005A (ja) * 2016-04-13 2017-10-19 凸版印刷株式会社 携帯通信端末、携帯通信端末を制御するためのプログラム、情報処理方法、および、コンピュータに情報処理方法を実現させるためのプログラム
JP2019532379A (ja) * 2016-07-29 2019-11-07 シグニファイ ホールディング ビー ヴィ ロケーションベースのサービスのためのデバイス
JP2020515957A (ja) * 2016-12-13 2020-05-28 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 拡張現実に基づく仮想オブジェクトの割り振り
US10692297B2 (en) 2016-12-13 2020-06-23 Alibaba Group Holding Limited Allocating virtual objects based on augmented reality
US10896551B2 (en) 2016-12-13 2021-01-19 Advanced New Technologies Co., Ltd. Allocating virtual objects based on augmented reality
JP2019002747A (ja) * 2017-06-13 2019-01-10 株式会社ソーシャル・キャピタル・デザイン 目的地特定システム
JP2022122879A (ja) * 2018-05-25 2022-08-23 理想科学工業株式会社 システム、ウェアラブル端末及びプログラム
CN112216154A (zh) * 2020-09-03 2021-01-12 国网山东省电力公司建设公司 一种基于智能眼镜的培训教学系统和方法

Also Published As

Publication number Publication date
WO2015030104A1 (ja) 2015-03-05
US20160178380A1 (en) 2016-06-23
US9874448B2 (en) 2018-01-23
JP6301613B2 (ja) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6301613B2 (ja) 携帯通信端末、情報表示プログラムおよび情報表示方法
KR102481878B1 (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
AU2014201585B9 (en) Electronic device and method for controlling screen display using temperature and humidity
US9262867B2 (en) Mobile terminal and method of operation
US20120075182A1 (en) Mobile terminal and displaying method thereof
KR20150026109A (ko) 다중 디스플레이 방법, 저장 매체 및 전자 장치
US20150160834A1 (en) Portable apparatus and method for displaying a screen thereof
KR20160073861A (ko) 휴대 장치 및 휴대 장치의 위치 정보 제어방법
AU2014201410A1 (en) Method and apparatus for electronic payment in electronic device
JP2014533446A (ja) モバイル装置のためのジェスチャに基づく入力モード選択
CN109656442B (zh) 用户界面显示方法及其设备
US9542019B2 (en) Device, method, and storage medium storing program for displaying overlapped screens while performing multitasking function
KR20160144197A (ko) 휴대 장치 및 휴대 장치의 화면 변경방법
US20140281962A1 (en) Mobile device of executing action in display unchecking mode and method of controlling the same
KR20110002709A (ko) 복수의 가상 스크린을 갖는 이동 단말기 및 그 제어 방법
CN111385525B (zh) 视频监控方法、装置、终端及系统
KR102022050B1 (ko) 패럴랙스 스크롤 기능을 가지는 모바일 장치 및 그 제어 방법
KR20160026135A (ko) 전자 장치 및 메시지 전송 방법
CN111158575B (zh) 终端执行处理的方法、装置、设备以及存储介质
US9565290B2 (en) Method for performing function in call mode and portable electronic device for implementing the method
CN110119233B (zh) 内容推送方法及装置、终端、存储介质
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR102157621B1 (ko) 휴대장치 및 그 컨텐츠 공유 방법
CN109725820B (zh) 获取列表条目的方法和装置
KR20140124540A (ko) 잠금 화면을 표시하는 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180301

R150 Certificate of patent or registration of utility model

Ref document number: 6301613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150