WO2014207914A1 - 電子機器およびプログラム - Google Patents

電子機器およびプログラム Download PDF

Info

Publication number
WO2014207914A1
WO2014207914A1 PCT/JP2013/067870 JP2013067870W WO2014207914A1 WO 2014207914 A1 WO2014207914 A1 WO 2014207914A1 JP 2013067870 W JP2013067870 W JP 2013067870W WO 2014207914 A1 WO2014207914 A1 WO 2014207914A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
detection
electronic device
recording
navigation
Prior art date
Application number
PCT/JP2013/067870
Other languages
English (en)
French (fr)
Inventor
伸介 矢頭
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2013/067870 priority Critical patent/WO2014207914A1/ja
Priority to JP2015523793A priority patent/JP5992620B2/ja
Publication of WO2014207914A1 publication Critical patent/WO2014207914A1/ja
Priority to US14/823,814 priority patent/US20150345953A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/14Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by recording the course traversed by the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial

Definitions

  • Embodiments described herein relate generally to a portable electronic device.
  • a mechanism of a navigation function that guides the user to the place where the vehicle is parked in cooperation with the navigation device attached to the vehicle has been proposed, but without such cooperation, that is, alone to the place where the vehicle is parked There was no proposal for a mechanism of a navigation function for guiding users.
  • the mechanism of the navigation function that guides the user to the place where the vehicle is parked in cooperation with the navigation device attached to the vehicle, for example, when a rental car is used in a travel destination, the navigation device attached to the vehicle cooperates. If it does not have a function, the mechanism for guiding the user to the place where the vehicle is parked does not function.
  • the electronic device includes position detection means, acceleration detection means, estimation means, recording means, and navigation means.
  • the estimation means estimates the movement means based on the detection value of the position detection means and the detection value of the acceleration detection means.
  • the recording means records information on a point where the moving means estimated by the estimating means has changed.
  • the navigation means executes a guidance process to a point indicated by information recorded in the recording means.
  • FIG. 1 is a perspective view illustrating an appearance of the electronic apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating a system configuration related to the navigation function of the electronic device according to the first embodiment.
  • FIG. 3 is a diagram for explaining an operation principle in which the moving unit change position information storage unit 105 included in the electronic apparatus according to the first embodiment stores information.
  • FIG. 4 is a first flowchart showing a flow of operations of the navigation function of the electronic device according to the first embodiment.
  • FIG. 5 is a second flowchart showing the flow of operation of the navigation function of the electronic device of the first embodiment.
  • FIG. 6 is a diagram illustrating a system configuration related to the navigation function of the electronic device according to the second embodiment.
  • the electronic device of the present embodiment can be realized as a portable electronic device that can be touch-inputted with a finger, such as a tablet terminal or a smartphone.
  • FIG. 1 is a perspective view illustrating an appearance of an electronic apparatus according to the present embodiment. As shown in FIG. 1, it is assumed here that the electronic apparatus is realized as a tablet terminal 10.
  • the tablet terminal 10 includes a main body 11 and a touch screen display 12.
  • the touch screen display 12 is attached to be superposed on the upper surface of the main body 11.
  • the main body 11 has a thin box-shaped housing.
  • the touch screen display 12 incorporates a flat panel display and a sensor configured to detect the ground contact position of the finger on the screen of the flat panel display.
  • the flat panel display is, for example, a liquid crystal display (LCD).
  • the sensor is, for example, a capacitive touch panel.
  • the touch panel is provided so as to cover the screen of the flat panel display.
  • FIG. 2 is a diagram showing a system configuration related to the navigation function of the tablet terminal 10.
  • the tablet terminal 10 includes a position detection unit 101, an acceleration detection unit 102, a storage unit 103, a moving unit estimation unit 104, a moving unit change position information storage unit 105, a current position calculation unit 106, a guidance route calculation.
  • Unit 107 map display unit 108, user interface unit 109, display unit 110, and input unit 111.
  • the position detection unit 101 is a GPS (global positioning system), for example, and detects a position based on a signal received from an artificial satellite.
  • the acceleration detection unit 102 is, for example, an acceleration sensor, and detects a speed change (per unit time) of the tablet terminal 10.
  • the storage unit 103 is a memory device that stores various programs and various data.
  • the movement means estimation unit 104 estimates a movement means (for example, a vehicle, a walk or a stop) based on the detection value of the position detection unit 101 and the detection value of the acceleration detection unit 102. More specifically, the moving means is estimated from the change state (movement speed, shaking, etc.) of these two detection values.
  • the moving speed moving unit estimation unit 104 outputs information indicating the estimation result to the moving unit change position information storage unit 105. For example, once estimating that the user is moving with the vehicle, the moving means estimation unit 104 maintains the estimation result until a stop is detected thereafter.
  • the moving means change position information storage unit 105 stores information (for example, the detection value and time of the position detection unit 101) regarding the point where the moving means indicated by the information input from the moving means estimation unit 104 has changed.
  • FIG. 3 is a diagram for explaining an operating principle in which the moving unit change position information storage unit 105 stores information.
  • the moving means A for example, an automobile
  • the moving means estimating unit 104 (a1 in FIG. 3).
  • a stop is detected by the moving means estimation unit 104 (a2 in FIG. 3).
  • the moving means estimation unit 104 estimates the moving means, but it is assumed that the moving means A is estimated next (a3 in FIG. 3).
  • the movement means estimation unit 104 estimates the movement means.
  • the stop (a4 in FIG. 3) ⁇ the movement means B (for example, walking: a5 in FIG. 3).
  • Stop a6 in FIG. 3
  • Movement means B a7 in FIG. 3 is assumed to be detected and estimated in this order.
  • the moving means change position information storage unit 105 stores information related to the point where the stop indicated by the symbol a4 is detected.
  • the moving unit change position information storage unit 105 is a point where a stop is detected by the moving unit estimation unit 104, and the moving unit estimated by the moving unit estimation unit 104 before the detection and the moving unit estimation unit after the detection. Information on a point different from the moving means estimated by 104 is recorded. Accordingly, since the moving means estimated before and after the point where the stop indicated by reference signs a2 and a6 is detected is the same, the moving means changing position information saving unit 105 does not save the information.
  • the method of detecting the change position of the moving means by comparison between before and after the detection of the stop is merely an example, and is not limited to this, and as a method of detecting the change position of the moving means, Other approaches can be applied.
  • the current position calculation unit 106 calculates the current position of the user who carries the tablet terminal 10 and moves based on the detection value of the position detection unit 101 and the detection value of the acceleration detection unit 102.
  • the guide route calculation unit 107 calculates a route from the current position calculated by the current position calculation unit 106 to a point indicated by, for example, the information stored most recently by the moving means change position information storage unit 105.
  • the map display unit 108 displays an image (typically a map) related to the route calculated by the guide route calculation unit 107.
  • the moving means estimating section 104, moving means changed position information storing section 105, current position calculating section 106, guide route calculating section 107, and map display section 108 are executed by the main CPU (stored in the storage section 103). It can be realized as a program or peripheral circuit firmware.
  • the user interface unit 109 executes an information output process via the display unit 110 for the user regarding the navigation function and an information input process via the input unit 111 from the user regarding the navigation function.
  • the display unit 110 is a flat panel display incorporated in the touch screen display 12 shown in FIG. 1, and the input unit 111 is a touch panel incorporated in the touch screen display 12.
  • the navigation function of the tablet terminal 10 may be automatically activated when the tablet terminal 10 is turned on, or may be activated in response to an instruction from the user through the user interface unit 109.
  • processing such as the above-described estimation of the movement means by the movement means estimation unit 104 and storage of information by the movement unit change position information storage unit 105 are started.
  • the guidance route calculation unit 107 stores a predetermined number of information stored by the moving means change position information storage unit 105 in the order of the most recent storage (for example, 2) only get.
  • the guide route calculation unit 107 requests the map display unit 108 to display a map in which the point indicated by these pieces of information is marked as a candidate site, and the map display unit 108 displays the requested map image as a user interface unit.
  • the information is displayed on the display unit 110 via 109. By listing several candidate locations, for example, errors in estimation by the moving means estimation unit 104 can be covered.
  • the user selects one of the candidate locations indicated by the map displayed on the touch screen display 12 as the destination. This selection is performed by a touch operation on the touch screen display 12.
  • the user interface unit 109 receives this selection instruction, guidance processing to the parking position of the vehicle by the cooperation of the current position calculation unit 106, the guide route calculation unit 107, and the map display unit 108 is started.
  • the current position calculation unit 106 calculates the current position of the user carrying the tablet terminal 10 and moves
  • the guide route calculation unit 107 calculates the route from the current position to the destination
  • the map display unit 108 calculates the route from the current position to the destination
  • various processes such as displaying an image related to the route are started. These processes are repeated until the current position and the destination substantially match.
  • the guidance process is quickly performed with the location indicated by the most recently saved information as the destination. You may make it start. Further, after the guidance to the destination, when the guidance request to the parking position of the vehicle is made again, the guidance processing may be further started with the position indicated by the information stored immediately before the destination as the destination. Good.
  • FIG. 4 is a first flowchart showing a flow of operations of the navigation function of the tablet terminal 10.
  • the tablet terminal 10 first estimates the moving means (block A1). After estimating the moving means, the tablet terminal 10 subsequently monitors whether it is in a stopped state (block A2). If it detects that it has stopped (YES in block A2), the tablet terminal 10 again estimates the moving means (block A3).
  • the tablet terminal 10 next checks whether the moving means has changed between before the stop state is detected and after the stop state is detected (block A4). When the moving means has changed (YES in block A4), the tablet terminal 10 acquires the current position (block A5), and calculates the time when the moving means has changed (stop state detection time) and the acquired current position. Record (block A6). The tablet terminal 10 repeats the processing from the block A2 while the navigation function is operating (NO in block A7).
  • the tablet terminal 10 independently and automatically records information on the point where the moving means has changed.
  • FIG. 5 is a second flowchart showing a flow of operations of the navigation function of the tablet terminal 10.
  • the tablet terminal 10 searches for the previous movement means change position (B position), for example (block B1), and searches the current position (A position) (block B2). ). When these positions are searched, the tablet terminal 10 searches for a route from the A position to the B position (block B3), and displays an image related to the route (block B4). While the A position and the B position are different (NO in block B5), the tablet terminal 10 repeats the processing from the block B2.
  • the tablet terminal 10 realizes a navigation function mechanism that guides the user to the place where the vehicle is parked, for example, without cooperation with a navigation device associated with the vehicle.
  • the electronic device according to the present embodiment is realized as the tablet terminal 10 including the touch screen display 12, the user can display the route-related image to the place where the vehicle is parked.
  • the user may be guided to the place where the vehicle is parked by outputting a sound related to the route. That is, even in an electronic device that does not have a display unit, it is possible to guide the user to the place where the vehicle is parked by voice. Further, both display of an image related to the route and output of sound related to the route may be performed.
  • FIG. 6 is a diagram showing a system configuration related to the navigation function of the electronic apparatus (tablet terminal 10) according to the present embodiment.
  • the tablet terminal 10 further includes a height detection unit 112.
  • the height detection unit 112 is, for example, an atmospheric pressure sensor.
  • the detection value of the height detection unit 112 is included as information stored by the moving means change position information storage unit 105.
  • the guide route calculation unit 107 also performs route calculation in consideration of the detection value of the height detection unit 112.
  • the computer program Since various processes of the embodiment can be realized by a computer program, the computer program is installed in a normal computer and executed through a computer-readable storage medium storing the computer program, and similar to the embodiment. The effect of can be easily realized.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)

Abstract

 実施形態によれば、電子機器は、位置検出手段、加速度検出手段、推定手段、記録手段およびナビゲーション手段を具備する。前記推定手段は、前記位置検出手段の検出値と前記加速度検出手段の検出値とに基づき、移動手段を推定する。前記記録手段は、前記推定手段により推定される移動手段が変化した地点に関する情報を記録する。前記ナビゲーション手段は、前記記録手段に記録される情報で示される地点までの誘導処理を実行する。

Description

電子機器およびプログラム
 本発明の実施形態は、携帯型の電子機器に関する。
 近年、タブレット端末やスマートフォンといったバッテリ駆動可能で携行容易な電子機器が広く普及している。また、最近では、ウェアラブルデバイス等と称される、腕時計や眼鏡のように人体に装着するタイプの電子機器も登場している。
 この種の携帯型の電子機器の中には、ユーザを目的地まで誘導するナビゲーション機能を備えるものも多い。そして、このナビゲーション機能に関しては、これまでも種々の提案が成されている。
特開2006-275520号公報
 ナビゲーション装置では、まず、目的地の入力をユーザから受け付けることが一般的である。しかしながら、例えば広い駐車場や地理的に不案内な場所に車両(自動車、自動二輪車、自転車、等)を駐車して、徒歩で移動した後、例えばタブレット端末のナビゲーション機能を利用して車両を駐車した場所まで戻ろうと考えた場合、目的地の入力を的確に行うことは難しい。
 例えば車両に付随するナビゲーション装置との連携で、車両を駐車した場所までユーザを誘導するナビゲーション機能の仕組みは提案されているが、このような連携無しに、つまり単独で、車両を駐車した場所までユーザを誘導するナビゲーション機能の仕組みについての提案は皆無であった。
 また、車両に付随するナビゲーション装置との連携で、車両を駐車した場所までユーザを誘導するナビゲーション機能の仕組みも、例えば旅先でレンタカーを利用する場合であって、その車両に付随するナビゲーション装置が連携機能を有しない場合、車両を駐車した場所までユーザを誘導する仕組みは機能しない。
 実施形態によれば、電子機器は、位置検出手段、加速度検出手段、推定手段、記録手段およびナビゲーション手段を具備する。前記推定手段は、前記位置検出手段の検出値と前記加速度検出手段の検出値とに基づき、移動手段を推定する。前記記録手段は、前記推定手段により推定される移動手段が変化した地点に関する情報を記録する。前記ナビゲーション手段は、前記記録手段に記録される情報で示される地点までの誘導処理を実行する。
図1は、第1実施形態の電子機器の外観を示す斜視図である。 図2は、第1実施形態の電子機器のナビゲーション機能に関するシステム構成を示す図である。 図3は、第1実施形態の電子機器が備える移動手段変化位置情報保存部105が情報を保存する動作原理を説明するための図である。 図4は、第1実施形態の電子機器のナビゲーション機能の動作の流れを示す第1のフローチャートである。 図5は、第1実施形態の電子機器のナビゲーション機能の動作の流れを示す第2のフローチャートである。 図6は、第2実施形態の電子機器のナビゲーション機能に関するシステム構成を示す図である。
 以下、実施の形態について図面を参照して説明する。
 (第1実施形態)
 まず、第1実施形態について説明する。
 本実施形態の電子機器は、例えば、タブレット端末やスマートフォン等、指によってタッチ入力可能な携帯型電子機器として実現され得る。図1は、本実施形態に係る電子機器の外観を示す斜視図である。図1に示すように、ここでは、本電子機器が、タブレット端末10として実現されている場合を想定する。タブレット端末10は、本体11とタッチスクリーンディスプレイ12とを備える。タッチスクリーンディスプレイ12は、本体11の上面に重ね合わせるように取り付けられている。
 本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ12には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上への指の接地位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば液晶表示装置(LCD:Liquid crystal display)である。センサは、例えば静電容量方式のタッチパネルである。タッチパネルは、フラットパネルディスプレイの画面を覆うように設けられる。
 図2は、本タブレット端末10のナビゲーション機能に関するシステム構成を示す図である。
 図2に示すように、タブレット端末10は、位置検出部101、加速度検出部102、記憶部103、移動手段推定部104、移動手段変化位置情報保存部105、現在位置計算部106、案内経路計算部107、地図表示部108、ユーザインタフェース部109、表示部110および入力部111を備える。
 位置検出部101は、例えばGPS(global positioning system)であり、人工衛星から受信した信号に基づき、位置を検出する。加速度検出部102は、例えば加速度センサであり、タブレット端末10の(単位時間当たりの)速度変化を検出する。記憶部103は、各種プログラムや各種データを格納するメモリデバイスである。
 移動手段推定部104は、位置検出部101の検出値と加速度検出部102の検出値とに基づき、移動手段(例えば車両、徒歩または停止)を推定する。より具体的には、これら2つの検出値の変化状況(移動速度や揺れ等)から移動手段を推定する。移動速度移動手段推定部104は、推定結果を示す情報を移動手段変化位置情報保存部105に出力する。なお、移動手段推定部104は、例えばユーザが車両で移動しているものと一旦推定すると、その後に停止が検知されるまで、その推定結果を維持する。
 移動手段変化位置情報保存部105は、移動手段推定部104から入力した情報で示される移動手段が変化した地点に関する情報(例えば位置検出部101の検出値と時刻)を保存する。図3は、移動手段変化位置情報保存部105が情報を保存する動作原理を説明するための図である。
 まず、移動手段推定部104によって移動手段A(例えば自動車)が推定されたものと想定する(図3のa1)。また、その後、移動手段推定部104によって停止が検知されたものとする(図3のa2)。停止が検知されると、移動手段推定部104による移動手段の推定が行われるが、次も移動手段Aが推定されたものと想定する(図3のa3)。
 以降、同様に、停止が検知される毎に、移動手段推定部104による移動手段の推定が行われるが、ここでは、停止(図3のa4)→移動手段B(例えば徒歩:図3のa5)→停止(図3のa6)→移動手段B(図3のa7)の順に、検知・推定が行われたものと想定する。
 この時、移動手段変化位置情報保存部105は、符号a4で示す停止が検知された地点に関する情報を保存する。つまり、移動手段変化位置情報保存部105は、移動手段推定部104によって停止が検知された地点であって、その検知前に移動手段推定部104によって推定された移動手段と検知後に移動手段推定部104によって推定された移動手段とが異なる地点に関する情報を記録する。従って、符号a2,a6で示す停止が検知された地点については、その前後で推定される移動手段が同じであるので、移動手段変化位置情報保存部105による情報の保存は行われない。なお、停止の検知前と検知後との比較によって移動手段の変化位置を検出する手法は単なる一例であって、これに限定されるものではなく、移動手段の変化位置を検出する手法としては、他の手法を適用し得る。
 現在位置計算部106は、位置検出部101の検出値と加速度検出部102の検出値とに基づき、本タブレット端末10を携行して移動するユーザの現在位置を計算する。案内経路計算部107は、現在位置計算部106によって計算された現在位置から移動手段変化位置情報保存部105によって例えば最も最近に保存された情報で示される地点に至る経路を計算する。そして、地図表示部108は、案内経路計算部107によって計算された経路に関する画像(典型的には地図)を表示する。
 なお、上記移動手段推定部104、移動手段変化位置情報保存部105、現在位置計算部106、案内経路計算部107および地図表示部108は、(記憶部103に格納されて)メインCPUによって実行されるプログラムや、周辺回路のファームウェア等として実現し得る。
 ユーザインタフェース部109は、ナビゲーション機能に関するユーザに対する表示部110を介した情報出力処理と、ナビゲーション機能に関するユーザからの入力部111を介した情報入力処理とを実行する。表示部110は、図1に示すタッチスクリーンディスプレイ12に組み込まれたフラットパネルディスプレイであり、入力部111は、タッチスクリーンディスプレイ12に組み込まれたタッチパネルである。
 本タブレット端末10のナビゲーション機能は、本タブレット端末10が電源オン状態になった時に自動的に作動してもよいし、ユーザインタフェース部109によりユーザからの指示を受けて作動してもよい。当該ナビゲーション機能が作動すると、前述した移動手段推定部104による移動手段の推定、移動手段変化位置情報保存部105による情報の保存、等の処理が開始される。
 車両の駐車位置への案内要求をユーザインタフェース部109が受けると、案内経路計算部107は、移動手段変化位置情報保存部105によって保存された情報を、最も最近に保存された順に所定数(例えば2つ)だけ取得する。案内経路計算部107は、これらの情報で示される地点が候補地としてマーキングされた地図の表示を地図表示部108に要求し、地図表示部108は、当該要求された地図の画像をユーザインタフェース部109を介して表示部110に表示する。いくつかの候補地を挙げることで、例えば移動手段推定部104による推定の誤り等をカバーすることができる。また、例えば、自動車→自転車→徒歩、といった移動手段の変化の場合、ユーザは、自転車の駐車位置に戻ることに加えて、自動車の駐車位置に直接戻ることもできることになる。なお、車両の駐車位置への案内要求を受けた際、移動手段推定部104および移動手段変化位置情報保存部105の処理を停止するようにしてもよい。
 ユーザは、タッチスクリーンディスプレイ12上に表示された地図で示される候補地の中からいずれかの候補地を目的地として選択する。この選択は、タッチスクリーンディスプレイ12上でのタッチ操作によって行われる。この選択指示をユーザインタフェース部109が受けると、現在位置計算部106、案内経路計算部107および地図表示部108の協働による車両の駐車位置への誘導処理が開始される。
 即ち、現在位置計算部106が、本タブレット端末10を携行して移動するユーザの現在位置を計算し、案内経路計算部107が、現在位置から目的地までの経路を計算し、地図表示部108が、経路に関する画像を表示する、といった各種処理が開始される。これらの処理は、現在位置と目的地とがほぼ一致するまで繰り返される。
 なお、以上では、車両の駐車位置への案内要求がなされた際、複数の候補地を提示する例を説明したが、最も最近に保存された情報で示される位置を目的地として誘導処理を速やかに開始するようにしてもよい。また、目的地への誘導後、再度、車両の駐車位置への案内要求がなされたら、その1つ前に保存された情報で示される位置を目的地としてさらに誘導処理を開始するようにしてもよい。
 図4は、本タブレット端末10のナビゲーション機能の動作の流れを示す第1のフローチャートである。
 タブレット端末10は、まず、移動手段を推定する(ブロックA1)。移動手段を推定したら、タブレット端末10は、続いて、停止状態になっていないかを監視する(ブロックA2)。停止状態になったことを検知すると(ブロックA2のYES)、タブレット端末10は、再度、移動手段を推定する(ブロックA3)。
 移動手段を推定したら、タブレット端末10は、今度は、停止状態の検知前と停止状態の検知後とで移動手段が変化していないかを調べる(ブロックA4)。移動手段が変化している場合(ブロックA4のYES)、タブレット端末10は、現在位置を取得し(ブロックA5)、移動手段が変化した時間(停止状態の検知時間)と取得した現在位置とを記録する(ブロックA6)。タブレット端末10は、ナビゲーション機能が作動している間(ブロックA7のNO)、ブロックA2からの処理を繰り返す。
 このように、本タブレット端末10は、移動手段が変化した地点に関する情報を、単独かつ自動的に記録していく。
 図5は、本タブレット端末10のナビゲーション機能の動作の流れを示す第2のフローチャートである。
 車両の駐車位置への案内要求がなされると、タブレット端末10は、例えば前回の移動手段変化位置(B位置)を検索すると共に(ブロックB1)、現在位置(A位置)を検索する(ブロックB2)。これらの位置が検索されたら、タブレット端末10は、A位置からB位置までの経路を探索し(ブロックB3)、その経路に関する画像を表示する(ブロックB4)。タブレット端末10は、A位置とB位置とが異なっている間(ブロックB5のNO)、ブロックB2からの処理を繰り返す。
 以上のように、本タブレット端末10は、例えば車両に付随するナビゲーション装置との連携無しに、つまり単独で、車両を駐車した場所までユーザを誘導するナビゲーション機能の仕組みを実現する。
 なお、ここでは、本実施形態の電子機器が、タッチスクリーンディスプレイ12を備えるタブレット端末10として実現されている場合を想定したことから、経路に関する画像を表示することにより、車両を駐車した場所までユーザを誘導する例を説明したが、経路に関する音声を出力することにより、車両を駐車した場所までユーザを誘導するようにしてもよい。つまり、表示部を有しない電子機器においても、音声により、車両を駐車した場所までユーザを誘導することは可能である。また、経路に関する画像の表示と経路に関する音声の出力との両方を行うようにしてもよい。
 (第2実施形態)
 次に、第2実施形態について説明する。
 図6は、本実施形態に係る電子機器(タブレット端末10)のナビゲーション機能に関するシステム構成を示す図である。
 図6に示すように、本タブレット端末10は、高さ検出部112をさらに備える。高さ検出部112は、例えば気圧センサである。本実施形態では、移動手段変化位置情報保存部105が保存する情報として、この高さ検出部112の検出値が含まれる。また、案内経路計算部107も、この高さ検出部112の検出値を考慮した経路計算を行う。
 これにより、例えばビルのような立体構造の駐車場に車両を停車した場合に、その階層までユーザを誘導することが可能となる。
 実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (11)

  1.  位置検出手段と、
     加速度検出手段と、
     前記位置検出手段の検出値と前記加速度検出手段の検出値とに基づき、移動手段を推定する推定手段と、
     前記推定手段により推定される移動手段が変化した地点に関する情報を記録する記録手段と、
     前記記録手段により記録される情報で示される地点までの誘導処理を実行するナビゲーション手段と、
     を具備する電子機器。
  2.  表示手段と、
     入力手段と、
     を具備し、
     前記ナビゲーション手段は、前記記録手段により記録される2以上の情報で各々示される2以上の地点を目的地の候補として前記表示手段を介して提示し、前記2以上の地点の中からいずれか1つの地点を選択する指示を前記入力手段を介して受け付ける
     請求項1に記載の電子機器。
  3.  前記推定手段は、前記位置検出手段の検出値と前記加速度検出手段の検出値とのうちの少なくとも1つに基づき、停止状態を検知し、
     前記記録手段は、前記推定手段により停止状態が検知された地点であって、その検知前に推定された移動手段と検知後に推定された移動手段とが異なる地点に関する情報を記録する
     請求項1または2に記載の電子機器。
  4.  高度検出手段を具備し、
     前記記録手段により記録される情報には、前記高度検出手段の検出値が含まれ、
     前記ナビゲーション手段は、前記記録手段により記録される情報に含まれる前記高度検出手段の検出値で示される高度に基づく誘導処理を実行する
     請求項1に記載の電子機器。
  5.  前記ナビゲーション手段は、経路に関する画像を前記表示手段を介して提示する請求項2に記載の電子機器。
  6.  表示手段を具備し、
     前記ナビゲーション手段は、経路に関する画像を前記表示手段を介して提示する
     請求項1に記載の電子機器。
  7.  音声出力手段を具備し、
     前記ナビゲーション手段は、経路に関する音声を前記音声出力手段を介して出力する
     請求項1、5または6に記載の電子機器。
  8.  前記位置検出手段は、GPS(global positioning system)である請求項1に記載の電子機器。
  9.  前記加速度検出手段は、加速度センサである請求項1に記載の電子機器。
  10.  移動手段の変化地点を検出する検出する検出手段と、
     前記検出手段により検出された地点までの誘導処理を実行するナビゲーション手段と、
     を具備する電子機器。
  11.  コンピュータを、
     位置検出手段の検出値と加速度検出手段の検出値とに基づき、移動手段を推定する推定手段、
     前記推定手段により推定される移動手段が変化した地点に関する情報を記録する記録手段、
     前記記録手段により記録される情報で示される地点までの誘導処理を実行するナビゲーション手段、
     として機能させるためのプログラム。
PCT/JP2013/067870 2013-06-28 2013-06-28 電子機器およびプログラム WO2014207914A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/067870 WO2014207914A1 (ja) 2013-06-28 2013-06-28 電子機器およびプログラム
JP2015523793A JP5992620B2 (ja) 2013-06-28 2013-06-28 電子機器およびプログラム
US14/823,814 US20150345953A1 (en) 2013-06-28 2015-08-11 Electronic device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/067870 WO2014207914A1 (ja) 2013-06-28 2013-06-28 電子機器およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/823,814 Continuation US20150345953A1 (en) 2013-06-28 2015-08-11 Electronic device and storage medium

Publications (1)

Publication Number Publication Date
WO2014207914A1 true WO2014207914A1 (ja) 2014-12-31

Family

ID=52141305

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/067870 WO2014207914A1 (ja) 2013-06-28 2013-06-28 電子機器およびプログラム

Country Status (3)

Country Link
US (1) US20150345953A1 (ja)
JP (1) JP5992620B2 (ja)
WO (1) WO2014207914A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023027271A (ja) * 2016-08-30 2023-03-01 オールステイト インシュアランス カンパニー 車両モード検出システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10072939B2 (en) * 2016-03-24 2018-09-11 Motorola Mobility Llc Methods and systems for providing contextual navigation information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080116A (ja) * 2007-09-26 2009-04-16 Ricoh Co Ltd 乗物の位置発見器
JP2012026844A (ja) * 2010-07-22 2012-02-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100256620B1 (ko) * 1995-10-30 2000-05-15 모리 하루오 네비게이션장치
US6208934B1 (en) * 1999-01-19 2001-03-27 Navigation Technologies Corp. Method and system for providing walking instructions with route guidance in a navigation program
US6266615B1 (en) * 1999-09-27 2001-07-24 Televigation, Inc. Method and system for an interactive and real-time distributed navigation system
US6654683B2 (en) * 1999-09-27 2003-11-25 Jin Haiping Method and system for real-time navigation using mobile telephones
US7068163B2 (en) * 2001-07-17 2006-06-27 Sari Philip D Method and apparatus for identifying waypoints using a handheld locator device
JP2003121183A (ja) * 2001-10-17 2003-04-23 Pioneer Electronic Corp ナビゲーション装置及びナビゲーション方法、ナビゲーション用プログラム、情報記録媒体
EP1593938A1 (en) * 2004-05-04 2005-11-09 Harman Becker Automotive Systems GmbH Method for indicating a route to a destination and navigation system therefor
US20060111835A1 (en) * 2004-11-23 2006-05-25 Texas Instruments Incorporated Location system for locating a parked vehicle, a method for providing a location of a parked vehicle and a personal wireless device incorporating the system or method
NL1030943C2 (nl) * 2006-01-18 2007-07-19 Tomtom Int Bv Werkwijze voor het opslaan van de positie van een geparkeerd voertuig en navigatieapparaat dat daarvoor is ingericht.
BRPI0621394A2 (pt) * 2006-05-16 2011-12-06 Tomtom Int Bv dispositivo de navegação com aumento automático de precisão de gps
US9222798B2 (en) * 2009-12-22 2015-12-29 Modena Enterprises, Llc Systems and methods for identifying an activity of a user based on a chronological order of detected movements of a computing device
US9068844B2 (en) * 2010-01-08 2015-06-30 Dp Technologies, Inc. Method and apparatus for an integrated personal navigation system
JP2012168868A (ja) * 2011-02-16 2012-09-06 Nec Casio Mobile Communications Ltd センシングシステム、情報サーバ、移動通信装置及び軌跡情報生成方法
US9298575B2 (en) * 2011-10-12 2016-03-29 Lytx, Inc. Drive event capturing based on geolocation
US20150177013A1 (en) * 2011-10-18 2015-06-25 Google Inc. System and method for determining a mode of travel
US9188445B2 (en) * 2013-05-21 2015-11-17 Honda Motor Co., Ltd. System and method for storing and recalling location data
US9488487B2 (en) * 2013-11-01 2016-11-08 Yahoo! Inc. Route detection in a trip-oriented message data communications system
US9267812B1 (en) * 2014-08-15 2016-02-23 Telecommunication Systems, Inc. Parking option
US9671238B2 (en) * 2015-03-30 2017-06-06 Telenav, Inc. Navigation system with a combined navigation mechanism and method of operation thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080116A (ja) * 2007-09-26 2009-04-16 Ricoh Co Ltd 乗物の位置発見器
JP2012026844A (ja) * 2010-07-22 2012-02-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023027271A (ja) * 2016-08-30 2023-03-01 オールステイト インシュアランス カンパニー 車両モード検出システム
US11915535B2 (en) 2016-08-30 2024-02-27 Allstate Insurance Company Vehicle mode detection systems
JP7490742B2 (ja) 2016-08-30 2024-05-27 オールステイト インシュアランス カンパニー 車両モード検出システム

Also Published As

Publication number Publication date
US20150345953A1 (en) 2015-12-03
JPWO2014207914A1 (ja) 2017-02-23
JP5992620B2 (ja) 2016-09-14

Similar Documents

Publication Publication Date Title
US9268474B2 (en) Information processing apparatus, method, and non-transitory computer-readable medium to control display of a map
US20150066360A1 (en) Dashboard display navigation
US9128170B2 (en) Locating mobile devices
KR20140043948A (ko) 내비게이션 장치 및 화면 표시 방법
JP2011232270A (ja) ナビゲーション装置およびそのヘルプ提示方法
US11035691B2 (en) Navigation method and navigation system
CN104111069A (zh) 自动定位系统及方法
US20210157480A1 (en) Information control device and display change method
JP5992620B2 (ja) 電子機器およびプログラム
US8606505B2 (en) Travel guidance system, travel guidance device, travel guidance method, and computer program
KR20170062770A (ko) 자전거의 경로 안내를 제공하기 위한 장치 및 이를 위한 방법
KR20120029707A (ko) 교통예측정보 표시방법 및 교통예측정보를 표시하는 내비게이션 장치
TWI471527B (zh) 導航方法
KR101768135B1 (ko) 경로 안내 방법, 내비게이션 단말, 및 이를 포함하는 차량
JP2013114352A (ja) 地図画像表示システムおよび地図画像表示方法並びにプログラム
JP2006292616A (ja) バーチャル・ナビゲーション・システムおよび携帯端末機
JP6062258B2 (ja) ナビゲーション装置及びコンピュータプログラム
JP2015148468A (ja) ナビゲーションシステム、ルームミラーモニター、ナビゲーション方法、およびプログラム
JP6475413B2 (ja) ナビゲーションシステム
JP2013002899A (ja) ナビゲーション装置および地図表示方法
JP6496997B2 (ja) ナビゲーションシステム、ナビゲーションプログラム、ナビゲーション方法
JP6616355B2 (ja) 情報処理システム、情報処理装置及びプログラム
JP6435931B2 (ja) 情報表示装置
JP6432312B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
JP6430105B2 (ja) ナビゲーション装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13887863

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015523793

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13887863

Country of ref document: EP

Kind code of ref document: A1