JP2012189467A - Positioning device, pace per step data correction method and program - Google Patents

Positioning device, pace per step data correction method and program Download PDF

Info

Publication number
JP2012189467A
JP2012189467A JP2011053763A JP2011053763A JP2012189467A JP 2012189467 A JP2012189467 A JP 2012189467A JP 2011053763 A JP2011053763 A JP 2011053763A JP 2011053763 A JP2011053763 A JP 2011053763A JP 2012189467 A JP2012189467 A JP 2012189467A
Authority
JP
Japan
Prior art keywords
distance
shooting
points
photographing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011053763A
Other languages
Japanese (ja)
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011053763A priority Critical patent/JP2012189467A/en
Publication of JP2012189467A publication Critical patent/JP2012189467A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a positioning device, and a pace per step data correction method and a program for the positioning device, that can obtain a pace per step of a user without using a GPS upon measuring a travel amount.SOLUTION: A positioning device includes: an imaging means to image a subject; an acceleration sensor for detecting acceleration; a direction sensor for measuring a direction; a pace per step data storing means to store pace per step data; a distance calculation means to calculate a distance between a plurality of points (X1, X2) on a linear travel path on the basis of information of imaging performed at the respective points (X1, X2); and a pace per step correction means to correct the pace per step data on the basis of paces counted during a travel of this distance.

Description

この発明は、歩行体の測位を行う測位装置、ならびに、その歩幅データ補正方法およびプログラムに関する。   The present invention relates to a positioning device for positioning a walking body, and a stride data correction method and program thereof.

以前より、加速度センサによりユーザが歩行する際の上下動を検出して歩数を計数するとともに、この歩数に予め設定されている歩幅データを乗算することでユーザの移動量を算出するようにした移動量測定装置、ならびに、このような移動量の算出を利用して移動地点の測位を行う測位装置がある。   Previously, the acceleration sensor detected the vertical movement when walking, and the number of steps was counted, and the movement amount of the user was calculated by multiplying the number of steps by preset step length data. There are a quantity measuring device and a positioning device that performs positioning of a moving point by using such calculation of the moving amount.

このような装置においては、歩幅データの誤差が移動量の算出結果の誤差として積算されていくため、歩幅データの誤差は小さくする必要がある。   In such an apparatus, since the error of the stride data is integrated as the error of the calculation result of the movement amount, the error of the stride data needs to be reduced.

従来の移動量測定装置の中には、例えば、ユーザに身長を入力させ、身長から歩幅を推定して歩幅データを自動的に設定するものがあった。   Some conventional movement amount measuring devices, for example, allow a user to input height, estimate the stride from the height, and automatically set stride data.

また、本願発明に関連する従来技術として、特許文献1には、平坦路を直進歩行する際に始端地点と終端地点とをGPS(全地球測位システム)により測位するとともに、この間の歩数を計数し、始端地点から終端地点までの距離を、計数された歩数で除算することで、歩幅データを求めるようにした技術が開示されている。   In addition, as a prior art related to the present invention, Patent Document 1 discloses that the start point and the end point are measured by GPS (Global Positioning System) and the number of steps is counted during the straight road. A technique is disclosed in which stride data is obtained by dividing the distance from the start point to the end point by the counted number of steps.

特開平11−194033号公報Japanese Patent Laid-Open No. 11-194033

GPSを利用して正確な歩幅データを求めるには、GPSの測位誤差(例えば10m以上)の影響を少なくするため、相当に長い距離を直進して歩幅データを求めなければならないという課題が生じる。   In order to obtain accurate stride data using GPS, there is a problem that stride data must be obtained by traveling straight a considerably long distance in order to reduce the influence of GPS positioning error (for example, 10 m or more).

また、GPS衛星の信号受信には比較的に大きな消費電力を要し、また、ビルの谷間などでGPS衛星の信号受信を行えないところも多々あることから、GPSを利用せずに比較的に正確な歩幅データを求める技術が要求されることもある。   Also, GPS satellite signal reception requires relatively large power consumption, and there are many places where GPS satellite signal reception is not possible in the valleys of buildings. A technique for obtaining accurate stride data may be required.

この発明は、移動量の計測にGPSを利用せずに比較的に正確なユーザの歩幅を求めて歩幅データを補正することのできる測位装置、その歩幅データ補正方法およびプログラムを提供することにある。   It is an object of the present invention to provide a positioning device capable of correcting a stride data by obtaining a relatively accurate step length of a user without using a GPS for measuring a movement amount, a stride data correction method, and a program thereof. .

本発明は、上記目的を達成するため、
被写体の撮影を行う撮影手段と、
加速度を検出する加速度センサと、
方位を計測する方位センサと、
予め設定された歩幅データを記憶する歩幅データ記憶手段と、
前記加速度センサの検出に基づき計数される歩数と前記歩幅データとから移動量を算出するとともに前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行う測位手段と、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出手段と、
前記距離算出手段により算出された前記複数の地点間の距離と前記複数の地点間の移動で計数された歩数とに基づいて前記歩幅データを補正する歩幅補正手段と、
を備えたことを特徴とする測位装置である。
In order to achieve the above object, the present invention
Photographing means for photographing a subject;
An acceleration sensor for detecting acceleration;
An orientation sensor for measuring the orientation,
Stride data storage means for storing preset stride data;
Positioning means for calculating a moving amount from the number of steps counted based on the detection of the acceleration sensor and the stride data and calculating a moving direction based on the measurement of the azimuth sensor and positioning the moving point;
Distance calculating means for calculating distances between the plurality of points based on shooting information representing shooting conditions of the shooting means respectively performed at a plurality of points on a linear movement path;
Stride correction means for correcting the stride data based on the distance between the plurality of points calculated by the distance calculation means and the number of steps counted by movement between the plurality of points;
A positioning device characterized by comprising:

本発明によれば、撮影の状況を表わす撮影情報に基づいて撮影地点から被写体までの比較的に正確な距離を算出することができるという見地に基づき、複数の地点で行われた撮影の撮影情報から、これら複数の地点間の距離を算出し、この算出された距離と歩数とから比較的に正確なユーザの歩幅を求めて、歩幅データを補正することができる。従って、移動量の計測にGPSを利用せずに比較的正確に歩幅データを補正できるという効果が得られる。   According to the present invention, based on the viewpoint that a relatively accurate distance from the shooting point to the subject can be calculated based on the shooting information indicating the shooting situation, the shooting information of the shooting performed at a plurality of points. Thus, the distance between the plurality of points can be calculated, and the step length data can be corrected by obtaining a relatively accurate step length of the user from the calculated distance and the number of steps. Therefore, it is possible to obtain an effect that the stride data can be corrected relatively accurately without using the GPS for measuring the movement amount.

本発明の実施形態の測位機能付きのデジタルカメラの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the digital camera with a positioning function of embodiment of this invention. CPUにより実行されるデジタルカメラのメイン制御処理の制御手順を示すフローチャートである。It is a flowchart which shows the control procedure of the main control process of the digital camera performed by CPU. 図2のステップS14の歩幅アジャスト処理の詳細な制御手順を示すフローチャートである。It is a flowchart which shows the detailed control procedure of the stride adjustment process of step S14 of FIG. 歩幅アジャスト処理の流れを説明するもので、(a)〜(c)はその第1段階〜第3段階を示す説明図である。The flow of the stride adjustment process will be described, and (a) to (c) are explanatory diagrams showing the first to third stages. 歩幅アジャスト処理の流れを説明するもので、(a)〜(c)はその第4段階〜第6段階を示す説明図である。The flow of the stride adjustment process will be described, and (a) to (c) are explanatory diagrams showing the fourth to sixth stages. 歩幅アジャスト処理における2回の撮影時点のフォーカス調整位置の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the focus adjustment position at the time of 2 imaging | photography in a step adjustment process. 撮影地点と信号機との相対的な位置関係を説明する図を示す。The figure explaining the relative positional relationship of an imaging | photography point and a traffic light is shown. 図7の状態を上方から眺めた平面図である。It is the top view which looked at the state of Drawing 7 from the upper part. 図7の状態を進行方向に対して直角な横方向から眺めた図である。It is the figure which looked at the state of FIG. 7 from the horizontal direction orthogonal to the advancing direction.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態の測位機能付きデジタルカメラ1の全体構成を示すブロック図である。   FIG. 1 is a block diagram showing the overall configuration of a digital camera 1 with a positioning function according to an embodiment of the present invention.

この実施形態のデジタルカメラ1は、GPS(全地球測位システム)とモーションセンサを利用した自律航法とにより測位を行う測位装置として機能するものであり、図1に示すように、装置の全体的な制御を行うCPU(中央演算処理装置)10と、CPU10に作業用のメモリ空間を提供するRAM(Random Access Memory)11と、CPU10が実行する制御プログラムや制御データを記憶したROM(Read Only Memory)12と、GPS衛星の信号を受信するGPS受信アンテナ13と、受信信号に基づき現在位置の測位演算を行うGPS受信部14と、モーションセンサである3軸地磁気センサ15および3軸加速度センサ16と、自律航法の測位のために移動距離の演算処理を行う移動距離演算処理部17と、自律航法の測位のために移動方向の演算処理を行う移動方向演算処理部18と、ユーザの歩幅を表わす予め設定された歩幅データを記憶する歩幅データ記憶部19と、液晶ディスプレーなど画像の表示を行う表示部20と、ユーザからの操作指令を入力する操作部21と、画像データ等を記憶するデータメモリ24と、撮影を行うカメラ部(撮影手段)25等を備えている。   The digital camera 1 of this embodiment functions as a positioning device that performs positioning by means of GPS (Global Positioning System) and autonomous navigation using a motion sensor, and as shown in FIG. A CPU (Central Processing Unit) 10 that performs control, a RAM (Random Access Memory) 11 that provides a working memory space to the CPU 10, and a ROM (Read Only Memory) that stores control programs and control data executed by the CPU 10 12, a GPS receiving antenna 13 that receives a GPS satellite signal, a GPS receiver 14 that performs a positioning calculation of the current position based on the received signal, a triaxial geomagnetic sensor 15 and a triaxial acceleration sensor 16 that are motion sensors, A movement distance calculation processing unit 17 for calculating a movement distance for autonomous navigation positioning, and a movement method for autonomous navigation positioning. The moving direction calculation processing unit 18 for performing the calculation processing, the stride data storage unit 19 for storing preset stride data representing the user stride, the display unit 20 for displaying an image such as a liquid crystal display, and the like from the user An operation unit 21 for inputting an operation command, a data memory 24 for storing image data and the like, a camera unit (imaging unit) 25 for performing imaging, and the like are provided.

3軸地磁気センサ15は、互いに直交する3軸方向の地磁気の大きさを検出するセンサであり、3軸加速度センサ16は、互いに直交する3軸方向の加速度の大きさを検出するセンサである。これらのセンサ出力は、所定の周波数でサンプリングされてCPU10に取り込まれ、CPU10から移動距離演算処理部17や移動方向演算処理部18に送られる。   The triaxial geomagnetic sensor 15 is a sensor that detects the magnitude of geomagnetism in the triaxial direction orthogonal to each other, and the triaxial acceleration sensor 16 is a sensor that detects the magnitude of acceleration in the triaxial direction orthogonal to each other. These sensor outputs are sampled at a predetermined frequency, fetched into the CPU 10, and sent from the CPU 10 to the movement distance calculation processing unit 17 and the movement direction calculation processing unit 18.

カメラ部25には、投射された撮影映像を電気信号に変換するとともにデータ化して撮影画像データを生成する撮像部26と、フォーカスレンズを移動させて撮像部26に投影される撮影映像のフォーカスを自動調整するオートフォーカス部27と、ズームレンズを移動させて画角を変化させることで撮影映像を拡大縮小するズーム部28等が設けられている。   The camera unit 25 converts the projected captured video into an electrical signal and converts it into data to generate captured image data, and moves the focus lens to focus the captured video projected on the imaging unit 26. An autofocus unit 27 for automatic adjustment, a zoom unit 28 for enlarging / reducing a captured image by moving the zoom lens and changing the angle of view, and the like are provided.

移動距離演算処理部17と移動方向演算処理部18とは、CPU10を補助する演算装置であり、CPU10を介して入力される3軸加速度センサ16と3軸地磁気センサ15の計測データを解析して、ユーザの歩行による移動量と移動方向を算出する。   The movement distance calculation processing unit 17 and the movement direction calculation processing unit 18 are calculation devices that assist the CPU 10, and analyze measurement data of the triaxial acceleration sensor 16 and the triaxial geomagnetic sensor 15 input via the CPU 10. The amount of movement and the direction of movement by walking the user are calculated.

具体的には、移動距離演算処理部17は、3軸加速度センサ16の計測データを平均化することで重力方向を検出するとともに、計測データから重力方向の大きな加速度変化を抽出することで、歩みの動作を識別して歩数を計数する。そして、歩幅データ記憶部19に記憶されている歩幅データと歩数とを乗算することで移動量を算出する。   Specifically, the movement distance calculation processing unit 17 detects the direction of gravity by averaging the measurement data of the triaxial acceleration sensor 16, and extracts a large acceleration change in the direction of gravity from the measurement data. The number of steps is counted by identifying the movement of. Then, the amount of movement is calculated by multiplying the stride data stored in the stride data storage unit 19 by the number of steps.

移動方向演算処理部18は、歩行時に3軸加速度センサ16の計測データに現れる前方への大きな加速度変化と、左右の小さな加速度変化とを抽出することで、移動方向が3軸加速度センサ16の何れの向きであるかを算出する。さらに、3軸地磁気センサ15による北の方位検出と、3軸加速度センサ16の重力方向の検出とから、これらセンサ15,16の3軸方向が地球上の何れの方向を向いているのかを算出し、これらの結果を合わせて移動方向を方位により算出する。   The movement direction calculation processing unit 18 extracts a large forward acceleration change and small left and right acceleration changes that appear in the measurement data of the triaxial acceleration sensor 16 during walking, so that the movement direction is any of the triaxial acceleration sensors 16. Is calculated. Further, based on detection of the north direction by the triaxial geomagnetic sensor 15 and detection of the direction of gravity by the triaxial acceleration sensor 16, it is calculated which direction on the earth the triaxial directions of the sensors 15 and 16 are directed. These directions are combined to calculate the moving direction based on the direction.

CPU10は、移動距離演算処理部17と移動方向演算処理部18とに上記の演算処理を連続的に実行させるとともに、例えばGPS受信部14により算出された絶対位置データに、上記演算処理によって求められた移動距離および移動方向からなる移動ベクトルを積算させていくことで、現在の移動地点の位置データを算出していく。このCPU10の演算処理機能と、移動距離演算処理部17および移動方向演算処理部18により自律航法による測位手段が構成される。   The CPU 10 causes the movement distance calculation processing unit 17 and the movement direction calculation processing unit 18 to continuously execute the calculation process, and obtains the absolute position data calculated by, for example, the GPS reception unit 14 by the calculation process. The position data of the current movement point is calculated by integrating the movement vector consisting of the movement distance and the movement direction. The arithmetic processing function of the CPU 10, the movement distance calculation processing unit 17 and the movement direction calculation processing unit 18 constitute positioning means based on autonomous navigation.

操作部21には、カメラ部25に撮影処理を実行させるシャッターボタンと、撮影映像を拡大縮小するためのズームレバーと、デジタルカメラ1の動作モードの変更や各種の設定入力を行うための操作ボタン等が設けられている。   The operation unit 21 includes a shutter button for causing the camera unit 25 to execute a shooting process, a zoom lever for enlarging and reducing the captured image, and operation buttons for changing the operation mode of the digital camera 1 and inputting various settings. Etc. are provided.

ROM12には、測位を行いながらユーザの操作に応じて撮影、撮影画像の再生および各種の設定処理を行うメイン制御処理のプログラムと、ユーザの実際の歩幅を計測して歩幅データを補正する歩幅アジャスト処理のプログラム等が格納されている。これらのプログラムは、ROM12に格納するほか、例えば、データ読取装置を介してCPU10が読み取り可能な、例えば、光ディスク等の可搬型記憶媒体、フラッシュメモリ等の不揮発性メモリに格納しておくことが可能である。また、このようなプログラムを、キャリアウェーブ(搬送波)を媒体として通信回線を介してデジタルカメラ1にダウンロードされる形態を適用することもできる。   The ROM 12 stores a program for main control processing that performs shooting, reproduction of captured images, and various setting processes according to a user's operation while positioning, and a stride adjustment that corrects stride data by measuring a user's actual stride. A processing program and the like are stored. In addition to being stored in the ROM 12, these programs can be stored in a non-volatile memory such as a portable storage medium such as an optical disk or a flash memory that can be read by the CPU 10 via a data reader, for example. It is. In addition, a form in which such a program is downloaded to the digital camera 1 via a communication line using a carrier wave as a medium can be applied.

次に、上記構成のデジタルカメラ1の動作について説明する。   Next, the operation of the digital camera 1 having the above configuration will be described.

[メイン制御処理]
図2には、CPU10により実行されるメイン制御処理のフローチャートを示す。
[Main control processing]
FIG. 2 shows a flowchart of the main control process executed by the CPU 10.

CPU10は、メイン制御処理において、現在位置の測定を行いながら、ユーザにより選択された動作モードの処理を実行していく。メイン制御処理が開始されると、先ず、CPU10は、GPS受信部14に信号の受信と測位演算とを行わせて現在地点の絶対位置データを取得する(ステップS1)。その後、CPU10は、自律航法による測位の処理(ステップS2〜S5)と、選択中の動作モードの処理(ステップS6〜S14)とを、判別処理(ステップS5)で電源オフと判別されるまで繰り返し実行する。   In the main control process, the CPU 10 executes the process of the operation mode selected by the user while measuring the current position. When the main control process is started, first, the CPU 10 causes the GPS reception unit 14 to perform signal reception and positioning calculation to acquire absolute position data of the current location (step S1). Thereafter, the CPU 10 repeats the positioning process by autonomous navigation (steps S2 to S5) and the process of the selected operation mode (steps S6 to S14) until it is determined that the power is turned off by the determination process (step S5). Execute.

自律航法の測位処理(ステップS2〜S5)へ移行すると、先ず、CPU10は、3軸加速度センサ16と3軸地磁気センサ15との計測データを入力して移動距離演算処理部17と移動方向演算処理部18に送り(ステップS2)、移動距離演算処理部17に移動距離を算出させ(ステップS3)、移動方向演算処理部18に移動方向を算出させる(ステップS4)。そして、これらの算出結果から移動ベクトルを生成し直前の移動地点を表わす絶対位置データに積算して現在の移動地点を表わす絶対位置データを求める(ステップS5)。これらの処理が繰り返し実行されることで、移動経路に沿った各地点の位置データが求められていく。   When shifting to the autonomous navigation positioning process (steps S2 to S5), first, the CPU 10 inputs measurement data of the triaxial acceleration sensor 16 and the triaxial geomagnetic sensor 15 to input the movement distance calculation processing unit 17 and the movement direction calculation process. The movement distance calculation processing unit 17 calculates the movement distance (step S3), and the movement direction calculation processing unit 18 calculates the movement direction (step S4). Then, a movement vector is generated from these calculation results and added to absolute position data representing the immediately preceding movement point to obtain absolute position data representing the current movement point (step S5). By repeatedly executing these processes, the position data of each point along the movement route is obtained.

続いて、CPU10は、選択されている動作モードに応じた分岐処理(ステップS6)を行う。ここで、再生モードが選択されていれば、データメモリ24に記憶されている撮影画像データをユーザの操作に応じて表示部20に表示させる撮影画像表示処理(ステップS7)を実行する。この撮影画像表示処理は、操作部21からの操作信号の入力処理や再生処理など1段階の処理を行って、次のステップへ移行する。そして、ステップS2〜S7,S15の処理ループによりこの撮影画像表示処理が繰り返し実行されることで、再生モードの一連の処理が実現されるようになっている。   Subsequently, the CPU 10 performs a branch process (step S6) according to the selected operation mode. Here, if the reproduction mode is selected, a captured image display process (step S7) for displaying the captured image data stored in the data memory 24 on the display unit 20 in accordance with a user operation is executed. In this captured image display processing, one-step processing such as input processing of an operation signal from the operation unit 21 and reproduction processing is performed, and the process proceeds to the next step. The captured image display process is repeatedly executed by the processing loop of steps S2 to S7 and S15, thereby realizing a series of processes in the reproduction mode.

一方、撮影モードが選択されていれば、ステップS6の分岐処理でステップS8へ移行して、先ず、撮像部26にこの時点で取り込まれている映像を表示部20へ出力する撮影前スルー表示処理を実行する(ステップS8)。このスルー表示処理では、ユーザのズームレバー操作が行われた場合にズーム部28を駆動して画角を変更したり、シャッターボタンの半押しの操作によりオートフォーカス部27を駆動してフォーカス調整したりする処理が併せて実行される。   On the other hand, if the shooting mode is selected, the process proceeds to step S8 in the branching process of step S6, and first, the pre-shooting through display process of outputting the video captured at this time to the imaging unit 26 to the display unit 20 is performed. Is executed (step S8). In this through display process, when the user operates the zoom lever, the zoom unit 28 is driven to change the angle of view, or the autofocus unit 27 is driven by half-pressing the shutter button to adjust the focus. Processing is also executed.

次いで、操作部21のシャッターボタンの押下(全押し)がなされたか判別し(ステップS9)、押下がなければ、そのままステップS15に移行する。一方、押下があれば撮像部26から撮影画像データを取り込み(ステップS10)、この時点の移動地点の位置データおよび撮影方向データを撮影画像データに付加し(ステップS11,S12)、この撮影画像データをデータメモリ24へ記憶させる(ステップS13)。そして、ステップS15へ移行する。このような撮影モードの処理が、ステップS2〜S6,S8〜S13の処理ループで繰り返し実行されることで、ユーザはスルー表示を見ながら撮影画像の構図や範囲を調整して撮影を行うことができる。   Next, it is determined whether or not the shutter button of the operation unit 21 has been pressed (fully pressed) (step S9). If there is no press, the process proceeds to step S15. On the other hand, if pressed, the captured image data is captured from the imaging unit 26 (step S10), and the position data and the imaging direction data of the moving point at this time are added to the captured image data (steps S11 and S12). Is stored in the data memory 24 (step S13). Then, the process proceeds to step S15. Such shooting mode processing is repeatedly executed in the processing loop of steps S2 to S6 and S8 to S13, so that the user can adjust the composition and range of the shot image while viewing the through display. it can.

一方、ステップS6の分岐処理で、歩幅アジャストモードが選択されていれば、歩幅データの補正を行う歩幅アジャスト処理を実行する(ステップS14)。歩幅アジャスト処理については、次に説明する。そして、歩幅アジャスト処理を完了したら、歩幅アジャストモードの選択が解除されてステップS15に移行する。   On the other hand, if the step adjustment mode is selected in the branch process of step S6, a step adjustment process for correcting the step data is executed (step S14). The stride adjustment process will be described next. When the stride adjustment process is completed, the selection of the stride adjustment mode is canceled and the process proceeds to step S15.

上述の自律航法による測位処理(ステップS2〜S5)と、選択モードに応じた処理(ステップS6以降)との処理ループの途中で、電源オフの操作が行われると、ステップS15の判別処理で“YES”側に進んでメイン制御処理が終了となる。   If a power-off operation is performed during the processing loop of the positioning process (steps S2 to S5) based on the above-described autonomous navigation and the process corresponding to the selection mode (after step S6), the determination process in step S15 is “ The process proceeds to “YES” and the main control process is terminated.

[歩幅アジャスト処理]
図3には、図2のステップS14で実行される歩幅アジャスト処理のフローチャートを示す。図4と図5には、歩幅アジャスト処理の流れを示す説明図を示す。図4(a)〜(c)はその第1段階〜第3段階を、図5(a)〜(c)はその第4段階〜第6段階を示す。
[Step adjustment processing]
FIG. 3 shows a flowchart of the stride adjustment process executed in step S14 of FIG. 4 and 5 are explanatory diagrams showing the flow of the stride adjustment process. 4A to 4C show the first to third stages, and FIGS. 5A to 5C show the fourth to sixth stages.

歩幅アジャスト処理は、ユーザに直進移動をさせながら2つの地点で同一の信号機を撮影させることで、先ず、各撮影地点から信号機までの距離を算出し、この算出結果から2つの撮影地点間の移動距離を算出して、それによりユーザの歩幅を求めて歩幅データを補正するものである。   The stride adjustment process allows the user to photograph the same traffic light at two points while moving straight ahead. First, the distance from each shooting point to the traffic light is calculated, and the movement between the two shooting points is calculated from the calculation result. The distance is calculated, thereby obtaining the user's stride and correcting the stride data.

撮影地点から信号機までの距離は、二種類の方法を用いて算出する。第1の方法は、信号機の青、黄、赤のカラーパネルの直径(所定部位の長さ)が、東京地区では25cm、その他の地区では30cmと一定である点を利用したもので、撮影画像中における信号機のカラーパネルの大きさと撮影の画角とから、撮影地点から信号機までの距離を求めるものである。画角はズームレンズのレンズ位置から決定することができる。   The distance from the shooting point to the traffic light is calculated using two methods. The first method uses a point where the diameter (the length of the predetermined part) of the blue, yellow and red color panels of the traffic light is constant at 25 cm in the Tokyo area and 30 cm in the other areas. The distance from the shooting point to the traffic light is obtained from the size of the color panel of the traffic light and the angle of view of the shooting. The angle of view can be determined from the lens position of the zoom lens.

信号機までの距離の第2の算出方法は、フォーカスの調整状態からピントの合った被写体までの距離を特定することができる点を利用したもので、信号機に焦点を合わせて撮影を行い、その時点におけるフォーカスレンズの位置を抽出して、このデータから撮影地点から信号機までの距離を求めるものである。   The second method for calculating the distance to the traffic light is based on the fact that the distance from the focus adjustment state to the in-focus subject can be specified. The position of the focus lens is extracted and the distance from the shooting point to the traffic light is obtained from this data.

歩幅アジャスト処理に移行すると、先ず、CPU10は、現在位置の測位結果から、この時点におけるユーザの存在地区を判別し(ステップS21:地域判別手段)、東京地区であれば信号機のパネル長データに25cmを設定し(ステップS22)、それ以外の地区であれば信号機のパネル長データに30cmを設定する(ステップS23)。   When the process proceeds to the stride adjustment process, the CPU 10 first discriminates the user's present district at this time from the positioning result of the current position (step S21: area discriminating means). Is set (step S22), and if the area is other than that, 30 cm is set in the panel length data of the traffic light (step S23).

次いで、CPU10は、図4(a)に示すように、歩幅アジャスト処理中であることの通知とユーザに信号機の撮影を促すためのメッセージ表示を表示部20に行う(ステップS24)。そして、撮影操作が行われるのを待機して(ステップS25)、撮影操作がなされたら撮影処理を行う(ステップS26)。撮影処理では、図4(b)に示すように、ユーザは近くの信号機を画面中央に合わせてオートフォーカス部27により信号機にフォーカスが合わされた状態で撮影が行われる。   Next, as shown in FIG. 4A, the CPU 10 displays on the display unit 20 a notification that the stride adjustment process is in progress and a message display for prompting the user to shoot the traffic light (step S24). Then, it waits for a shooting operation to be performed (step S25), and when a shooting operation is performed, a shooting process is performed (step S26). In the shooting process, as shown in FIG. 4B, the user performs shooting in a state in which a nearby traffic signal is set to the center of the screen and the traffic signal is focused by the autofocus unit 27.

撮影処理が行われたら、CPU10は、後に距離を算出するために撮影画像データをRAM11に保存し(ステップS27)、さらに、1回目の撮影条件データを取得してRAM11に保存する(ステップS28)。ここで取得する撮影条件データには、3軸地磁気センサ15と3軸加速度センサ16の計測データからCPU10が算出した撮影方向の方位および仰角のデータ、オートフォーカス部27のフォーカスレンズの位置を表わすフォーカスレンズアドレス、ズーム部28のズームレンズの位置を表わすズームレンズアドレスが含まれる。   When the photographing process is performed, the CPU 10 stores the photographed image data in the RAM 11 in order to calculate the distance later (step S27), and further acquires the first photographing condition data and stores it in the RAM 11 (step S28). . The shooting condition data acquired here includes shooting direction azimuth and elevation angle data calculated by the CPU 10 from the measurement data of the triaxial geomagnetic sensor 15 and the triaxial acceleration sensor 16, and a focus representing the position of the focus lens of the autofocus unit 27. A lens address and a zoom lens address representing the position of the zoom lens of the zoom unit 28 are included.

図4(c)に示すように、上記の撮影画像データにおいて、撮影画像の左端から右端までの画角θはズームレンズアドレスにより決定され、信号機のカラーパネルPの実際の直径は25cm又は30cmと既知の長さである。画角が一定であれば、カラーパネルPの撮影画像上での長さL1は、信号機までの距離に応じて変化する。従って、CPU10が、ズームレンズアドレスから画角θを求め、画像認識処理によりカラーパネルPの撮影画像上での長さL1を計測することで、これら画角θとカラーパネルPの長さL1とを所定の演算式に代入して、撮影地点から信号機までの距離を算出することができる。   As shown in FIG. 4C, in the captured image data, the angle of view θ from the left end to the right end of the captured image is determined by the zoom lens address, and the actual diameter of the color panel P of the traffic light is 25 cm or 30 cm. It is a known length. If the angle of view is constant, the length L1 on the captured image of the color panel P changes according to the distance to the traffic light. Therefore, the CPU 10 obtains the angle of view θ from the zoom lens address, and measures the length L1 of the color panel P on the captured image by image recognition processing, whereby the angle of view θ and the length L1 of the color panel P are obtained. Can be substituted into a predetermined arithmetic expression to calculate the distance from the shooting point to the traffic light.

図6には、歩幅アジャスト処理の第1回目(a)と第2回目(b)の撮影時点におけるフォーカス調整位置の概要をそれぞれ表わした説明図を示す。この図において、Mは撮像部26の撮像素子、Z1はズーム部28のズームレンズ、Z2はオートフォーカス部27のフォーカスレンズである。   FIG. 6 is an explanatory diagram showing the outline of the focus adjustment position at the time of shooting of the first time (a) and the second time (b) of the stride adjustment process. In this figure, M is an image sensor of the imaging unit 26, Z1 is a zoom lens of the zoom unit 28, and Z2 is a focus lens of the autofocus unit 27.

図6に示すように、ピントの合った被写体までの距離は撮像素子Mに対するフォーカスレンズZ2の位置により決定される。例えば、図6に示すように、フォーカスレンズZ2の位置を表わすレンズアドレスと、ピントの合った被写体までの距離とは一対一の関係であり、フォーカスレンズZ2のレンズアドレスに基づき撮影地点から信号機までの距離を算出することができる。なお、パンフォーカスの状態など被写界深度が非常に長い場合には、フォーカスレンズZ2の位置から距離を算出することは困難になる。   As shown in FIG. 6, the distance to the in-focus subject is determined by the position of the focus lens Z2 with respect to the image sensor M. For example, as shown in FIG. 6, there is a one-to-one relationship between the lens address indicating the position of the focus lens Z2 and the distance to the in-focus subject. From the shooting point to the traffic light based on the lens address of the focus lens Z2. Can be calculated. When the depth of field is very long, such as in a pan focus state, it is difficult to calculate the distance from the position of the focus lens Z2.

図3のステップS26〜S28で1回目の信号機の撮影を行ってデータの保存を行ったら、次に、CPU10は、図5(a)に示すように、ユーザに信号機に近づいて2回目の撮影を行うよう促すメッセージ表示を表示部20に行う(ステップS29)。   After the first traffic light is shot and the data is saved in steps S26 to S28 in FIG. 3, the CPU 10 then approaches the user to the traffic light as shown in FIG. A message is displayed on the display unit 20 to prompt the user to perform the operation (step S29).

ここで、ユーザは歩行を始めるので、図5(b)に示すように、3軸加速度センサ16の計測データから重力方向の加速度変化を抽出して歩数をカウントし(ステップS30)、また、3軸加速度センサ16と3軸地磁気センサ15の計測データを移動方向演算処理部18に送って移動方向を算出させる(ステップS31)。   Here, since the user starts walking, as shown in FIG. 5B, the acceleration change in the gravity direction is extracted from the measurement data of the triaxial acceleration sensor 16 and the number of steps is counted (step S30). The measurement data of the axial acceleration sensor 16 and the triaxial geomagnetic sensor 15 are sent to the movement direction calculation processing unit 18 to calculate the movement direction (step S31).

続いて、CPU10は移動方向の算出結果からユーザが直進しているか確認し(ステップS32)、直進が確認されれば加速度変化からユーザが停止したか判別する(ステップS33)。ここで、ユーザが直進していないと判別されたら、歩幅データの補正を不成功として歩幅アジャスト処理を終了する。また、直進していて停止していないと判別されれば、ステップS30に戻って歩数と移動方向の算出を繰り返し実行する。   Subsequently, the CPU 10 confirms whether the user is going straight from the calculation result of the moving direction (step S32), and if straight running is confirmed, it determines whether the user has stopped from the acceleration change (step S33). Here, if it is determined that the user is not going straight, the stride data correction is unsuccessful, and the stride adjustment process is terminated. If it is determined that the vehicle is traveling straight and not stopped, the process returns to step S30 to repeatedly calculate the number of steps and the moving direction.

そして、ユーザが数歩直進した後に停止すると、ステップS33でそれが判別されて、“YES”側へ進む。すると、CPU10は2回目の撮影操作がなされるのを待機して(ステップS34)、撮影操作がなされたら撮影処理を行う(ステップS35)。撮影処理においては、ユーザは、図5(c)に示すように、同一の信号機を画面中央に合わせてオートフォーカス部27により信号機にフォーカスが合わされた状態で撮影を行う。   Then, when the user stops after a few straight steps, it is determined in step S33, and the process proceeds to the “YES” side. Then, the CPU 10 waits for the second shooting operation (step S34), and performs the shooting process when the shooting operation is performed (step S35). In the photographing process, as shown in FIG. 5C, the user performs photographing in a state where the same traffic light is aligned with the center of the screen and the traffic light is focused by the autofocus unit 27.

撮影処理が行われたら、CPU10は、後に距離を算出するためにこの撮影画像データをRAM11に保存し(ステップS36)、さらに、2回目の撮影条件データを取得してRAM11に保存する(ステップS37)。撮影条件データには、1回目の撮影のときと同様に、3軸地磁気センサ15と3軸加速度センサ16の計測データからCPU10が算出した撮影方向の方位と仰角のデータ、オートフォーカス部27のフォーカスレンズの位置を表わすフォーカスレンズアドレス、ズーム部28のズームレンズの位置を表わすズームレンズアドレスが含まれる。さらに、移動方向のデータもRAM11に保存される。   When the photographing process is performed, the CPU 10 saves the photographed image data in the RAM 11 in order to calculate the distance later (step S36), and obtains the second photographing condition data and stores it in the RAM 11 (step S37). ). The shooting condition data includes shooting direction azimuth and elevation angle data calculated by the CPU 10 from the measurement data of the triaxial geomagnetic sensor 15 and the triaxial acceleration sensor 16, and the focus of the autofocus unit 27, as in the first shooting. A focus lens address representing the position of the lens and a zoom lens address representing the position of the zoom lens of the zoom unit 28 are included. Further, data on the moving direction is also stored in the RAM 11.

上記の2回目の撮影においても、1回目の撮影のときと同様に、撮影画像データとズームレンズアドレスに基づき画角θとカラーパネルの撮影画像上の長さL2が求められて、これらのパラメータから信号機までの距離を算出することができる。図4(c)→図5(c)に示すように、信号機に近づいていることで、2回目の撮影のときの方がカラーパネルの撮影画像上の長さL2が大きくなっている。   In the second shooting, as in the first shooting, the angle of view θ and the length L2 of the color panel on the shot image are obtained based on the shot image data and the zoom lens address, and these parameters are obtained. The distance from the traffic light to the traffic light can be calculated. As shown in FIG. 4 (c) → FIG. 5 (c), the length L2 on the captured image of the color panel is larger at the time of the second photographing because of approaching the traffic light.

また、この2回目の撮影においても、1回目の撮影のときと同様に、フォーカスレンズアドレスからピントの合った信号機までの距離を算出することができる。図6(a)→(b)に示すように、信号機に近づいただけその距離に応じてフォーカスレンズZ2の位置も移動している。   In the second shooting, the distance from the focus lens address to the in-focus traffic signal can be calculated as in the first shooting. As shown in FIGS. 6A to 6B, the position of the focus lens Z2 is also moved according to the distance from the traffic light.

次に、CPU10は、上記のようにRAM11に保存した1回目と2回目の撮影画像データおよび撮影条件データに基づいて、1回目の撮影地点から2回目の撮影地点までの移動距離を算出する(ステップS38:距離算出手段)。次に、移動距離の算出方法について説明する。   Next, the CPU 10 calculates the moving distance from the first shooting point to the second shooting point based on the first and second shot image data and shooting condition data stored in the RAM 11 as described above ( Step S38: Distance calculation means). Next, a method for calculating the movement distance will be described.

図7には、撮影地点と信号機との相対的な位置関係を説明する図を示す。図8は、図7の状態を上方から眺めた平面図、図9は、図7の状態を進行方向に対して直角な横方向から眺めた図である。   In FIG. 7, the figure explaining the relative positional relationship of an imaging | photography point and a traffic light is shown. FIG. 8 is a plan view of the state of FIG. 7 viewed from above, and FIG. 9 is a view of the state of FIG. 7 viewed from the lateral direction perpendicular to the traveling direction.

図7に示すように、1回目の撮影においては、撮影方向の仰角と方位、撮影地点から信号機までの距離が既知のパラメータである。また、2回目の撮影においても同様のパラメータが既知になっている。ここで、1回目と2回目の撮影における、信号機までの距離をR1,R2、撮影方向の仰角をφ1,φ2(図9参照)、進行方向を基準とした撮影方向の方位までの角度をψ1,ψ2(図8参照)と表わす。信号機までの距離R1,R2は、上述したように2つの方式によりそれぞれ求められるため、誤差の少ないほうを採用したり、誤差が同程度であれば平均した値を採用したりする。   As shown in FIG. 7, in the first shooting, the elevation angle and direction in the shooting direction and the distance from the shooting point to the traffic light are known parameters. Similar parameters are known in the second shooting. Here, in the first and second imaging, the distance to the traffic light is R1, R2, the elevation angle in the imaging direction is φ1, φ2 (see FIG. 9), and the angle to the azimuth in the imaging direction based on the traveling direction is ψ1. , Ψ2 (see FIG. 8). As described above, the distances R1 and R2 to the traffic lights are obtained by the two methods, respectively, so that the one with the smaller error is adopted, or the average value is adopted if the errors are approximately the same.

ここで、図7〜図9に示すように撮影地点から信号機までの線分“X1−K”、“X2−K”をXY平面上へ写像した線分“X1−N”、“X2−N”の長さR1a,R2a(図8参照)は、次式(1)、(2)のように求められる。
R1a = R1×cosφ1 ・・・ (1)
R2a = R2×cosφ2 ・・・ (2)
Here, as shown in FIGS. 7 to 9, line segments “X1-N” and “X2-N” are obtained by mapping the line segments “X1-K” and “X2-K” from the photographing point to the traffic light on the XY plane. The lengths R1a and R2a (see FIG. 8) are obtained as in the following equations (1) and (2).
R1a = R1 × cos φ1 (1)
R2a = R2 × cos φ2 (2)

そして、図8に示すように、1回目と2回目の撮影地点X1,X2の距離Wは、次式(3)のように求められる。
W = R1a×cosψ1 − R2a×cosψ2 ・・・ (3)
Then, as shown in FIG. 8, the distance W between the first and second imaging points X1 and X2 is obtained by the following equation (3).
W = R1a × cos ψ1−R2a × cos ψ2 (3)

ステップS38では、このような演算を行って、1回目の撮影地点から2回目の撮影地点までの移動距離を算出する。移動距離を算出したら、次いで、CPU10は、ステップS30で計数していた歩数で移動距離を除算して歩幅を算出し(ステップS39)、歩幅データ記憶部19の歩幅データをこの値に補正する(ステップS40:歩幅補正手段)。   In step S38, such a calculation is performed to calculate the movement distance from the first shooting point to the second shooting point. After calculating the travel distance, the CPU 10 then calculates the stride by dividing the travel distance by the number of steps counted in step S30 (step S39), and corrects the stride data in the stride data storage unit 19 to this value ( Step S40: stride correction means).

以上のように、この実施形態の測位機能付きデジタルカメラ1によれば、ユーザに複数地点で撮影を行わせて、これら撮影の状況を表わす撮影情報(撮影画像データと撮影条件データ)に基づき複数の地点間の移動距離を算出してユーザの歩幅を求めるようにしているので、GPSが利用できない環境でも歩幅データの補正を行うことが可能となる。また、GPSを利用する場合と比較して短い距離を直進移動するだけで正確な歩幅を求めることができる。   As described above, according to the digital camera 1 with a positioning function of this embodiment, a user is allowed to shoot at a plurality of points, and a plurality of images are obtained based on the shooting information (captured image data and shooting condition data) representing the shooting conditions. Since the user's stride is calculated by calculating the movement distance between the points, the stride data can be corrected even in an environment where GPS is not available. In addition, an accurate stride can be obtained only by moving straight a short distance compared to the case of using GPS.

また、この実施形態の測位機能付きデジタルカメラ1では、同一の被写体を複数の撮影地点で撮影することで、撮影情報からこの間の移動距離を算出するようにしているので、撮影情報だけから比較的に正確な移動距離を算出することができる。   Further, in the digital camera 1 with a positioning function of this embodiment, since the same subject is photographed at a plurality of photographing points, the movement distance between them is calculated from the photographing information, so that it is relatively based only on the photographing information. It is possible to calculate an accurate movement distance.

なお、同一の被写体を撮影するのではなく、互いの距離が既知である2つの被写体(例えば1個目の信号と2個目の信号)を撮影して、ユーザに2つの被写体の距離を入力させることで、これらの情報をあわせてユーザの移動距離を算出して歩幅データの補正を行うことも可能である。   Instead of photographing the same subject, two subjects whose distances are known (for example, the first signal and the second signal) are photographed, and the distance between the two subjects is input to the user. Thus, it is possible to correct the stride data by calculating the movement distance of the user by combining these pieces of information.

また、この実施形態の測位機能付きデジタルカメラ1では、撮影条件データとして、フォーカスレンズアドレス、撮影方向の仰角と方位の情報を記憶しておき、また、移動方向の情報も記憶しておき、これらの情報から移動距離を算出するように構成されているので、斜め上方の被写体を撮影するような場合でも、正確にユーザの移動距離を算出することができる。   Further, in the digital camera 1 with a positioning function of this embodiment, the focus lens address, the elevation angle and the direction information of the shooting direction are stored as shooting condition data, and the information of the moving direction is also stored. Therefore, the moving distance of the user can be accurately calculated even when shooting a subject obliquely above.

また、この実施形態の測位機能付きデジタルカメラ1では、カラーパネルの大きさが既知である信号機を撮影し、撮影画像上の信号機の大きさと、撮影時の画角を表わすズームレンズアドレスとを記憶しておき、これらの情報から撮影地点から信号機までの距離を算出する処理も行っている。従って、パンフォーカスの状態などフォーカスレンズの位置から距離を求めることが困難な場合でも、被写体までの距離を算出することができる。また、信号機のカラーパネルはカラーコントラストが強く画像認識もしやすいため、被写体までの距離を間違いなく算出することができる。   In the digital camera 1 with a positioning function of this embodiment, a traffic light having a known color panel size is photographed, and the size of the traffic light on the photographed image and the zoom lens address representing the angle of view at the time of photographing are stored. In addition, a process for calculating the distance from the shooting point to the traffic light from these pieces of information is also performed. Therefore, even when it is difficult to obtain the distance from the position of the focus lens, such as a pan focus state, the distance to the subject can be calculated. Further, since the color panel of the traffic light has a strong color contrast and is easy to recognize an image, the distance to the subject can be definitely calculated.

また、この実施形態の測位機能付きデジタルカメラ1では、東京地区とそれ以外の地区との判別を行い、この判別結果に応じて信号機のカラーパネルの長さデータを切り換えて、信号機までの距離の算出に使用しているので、地区ごとのカラーパネルの長さの違いも考慮して、被写体までの距離を正しく算出することができる。   The digital camera 1 with a positioning function of this embodiment discriminates between the Tokyo district and other districts, switches the color data of the color panel of the traffic light according to the discrimination result, and determines the distance to the traffic signal. Since it is used for calculation, the distance to the subject can be calculated correctly in consideration of the difference in the length of the color panel for each district.

なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。例えば、上記実施形態では、移動距離を算出するために信号機を被写体として撮影する例を示したが、例えば、目立つ看板などを被写体として適用したり、停止した人を被写体として適用したりすることもできる。また、ユーザの進行方向にデジタルカメラと水平な位置にある物体を被写体として適用する場合には、撮影方向の方位および仰角、移動方向の情報は移動距離を算出するための情報として省くことができる。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, in the above embodiment, an example in which a traffic light is photographed as a subject in order to calculate the movement distance has been shown. However, for example, a noticeable signboard or the like may be applied as a subject, or a stopped person may be applied as a subject. it can. In addition, when an object that is in a horizontal position with the digital camera in the direction of travel of the user is applied as a subject, the information on the azimuth and elevation angle of the photographing direction and the moving direction can be omitted as information for calculating the moving distance. .

また、上記実施の形態では、2つの地点で撮影を行って2つの地点間の距離を算出するようにしているが、3つ以上の地点で撮影を行って、各地点間の距離を算出するとともに、平均化処理など誤差を除去する処理を行って、ユーザの歩幅をより高い精度で算出するようにしても良い。   In the above embodiment, shooting is performed at two points and the distance between the two points is calculated, but shooting is performed at three or more points and the distance between the points is calculated. At the same time, processing for removing errors such as averaging processing may be performed to calculate the user's stride with higher accuracy.

また、上記実施形態では、東京地区とそれ以外の地区との判別を、位置測定の結果から自動的に判別するようにしているが、例えば、ユーザに地区データを設定入力させて、この設定データに基づいて地区の判別を行うようにしても良い。また、方位センサとして、3軸地磁気センサを例示したが、GPSにより移動方向の方位を計測しジャイロスコープにより移動方向の変化量を計測することで方位の測定を行う構成を適用することもできる。その他、実施の形態で示した細部等は発明の趣旨を逸脱しない範囲で適宜変更可能である。   Further, in the above embodiment, the discrimination between the Tokyo district and the other districts is automatically discriminated from the result of the position measurement. For example, the user can set and input the district data, and the setting data The district may be determined based on the above. Moreover, although the triaxial geomagnetic sensor was illustrated as an azimuth | direction sensor, the structure which measures an azimuth | direction by measuring the azimuth | direction of a moving direction with GPS and measuring the variation | change_quantity of a moving direction with a gyroscope is also applicable. In addition, the details shown in the embodiments can be appropriately changed without departing from the spirit of the invention.

また、上記実施形態では、単に画角θとカラーパネルPの撮影画像上の長さから、信号機までの距離を算出するとしたが、実際には、カラーパネルPは、信号機のカラーパネルPに対する撮影方向によって歪んで楕円形状となる。よって、カラーパネルPの撮影画像上の長さを歪んだ楕円形状の長径として、ユーザの歩幅をより高い精度で算出するようにしても良い。   In the above embodiment, the distance to the traffic light is simply calculated from the angle of view θ and the length of the color panel P on the captured image. However, in reality, the color panel P captures the color panel P of the traffic light. It becomes distorted and elliptical depending on the direction. Therefore, the user's stride may be calculated with higher accuracy by using the distorted elliptical major axis as the length on the captured image of the color panel P.

また、上記実施例では、単に2つの地点で撮影を行っていたが、2回目の撮影時に1回目の撮影の半透明画像をスルー表示させて被写体を特定させるようにしても良い。   Further, in the above-described embodiment, the image is simply taken at two points. However, the subject may be specified by displaying through the semi-transparent image of the first image at the time of the second image.

また、上記実施形態では、2つの地点で1つの被写体の撮影を行って2つの地点間の距離を算出するようにしているが、2つの地点で、複数の被写体の撮影を行って、2つの地点間の距離を算出するとともに、平均化処理など誤差を除去する処理を行って、ユーザの歩幅をより高い精度で算出するようにしても良い。   In the above embodiment, one subject is photographed at two points and the distance between the two points is calculated. However, a plurality of subjects are photographed at two points, While calculating the distance between points, the process of removing errors, such as an averaging process, may be performed to calculate the user's stride with higher accuracy.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。   Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof. The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

[付記]
<請求項1>
被写体の撮影を行う撮影手段と、
加速度を検出する加速度センサと、
方位を計測する方位センサと、
予め設定された歩幅データを記憶する歩幅データ記憶手段と、
前記加速度センサの検出に基づき計数される歩数と前記歩幅データとから移動量を算出するとともに前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行う測位手段と、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出手段と、
前記距離算出手段により算出された前記複数の地点間の距離と前記複数の地点間の移動で計数された歩数とに基づいて前記歩幅データを補正する歩幅補正手段と、
を備えたことを特徴とする測位装置。
<請求項2>
前記距離算出手段は、
前記撮影手段により前記複数の地点で同一の被写体に対してそれぞれ行われた撮影の状況を表わす前記撮影情報から前記複数の地点間の距離を算出する
ことを特徴とする請求項1記載の測位装置。
<請求項3>
前記撮影情報には、
前記撮影手段のフォーカス調整位置に基づき算出される被写体までの距離の情報と、撮影方向を表わす方位と仰角の情報と、前記移動経路の方向の情報とが含まれることを特徴とする請求項1又は2に記載の測位装置。
<請求項4>
前記同一の被写体は、信号機であり、
前記撮影情報には、撮影画像上での前記信号機の所定部位の長さの情報と、撮影時の画角の情報とが含まれることを特徴とする請求項2に記載の測位装置。
<請求項5>
前記撮影画像上での前記信号機の所定部位の長さの情報は、信号機のカラーパネルの撮影画面上の長径としたことを特徴とする請求項4記載の測位装置。
<請求項6>
前記信号機の前記所定部位の長さが第1長さと定められている第1地域と第2長さと定められている第2地域とを判別する地域判別手段を備え、
前記距離算出手段は、
前記地域判別手段により判別された地域に応じて前記信号機の前記所定部位の長さの情報を前記第1長さと前記第2長さとに切り換えて前記複数の地点間の距離を算出することを特徴とする請求項4記載の測位装置。
<請求項7>
前記撮影手段により取得された画像を表示する表示手段を備え、
前記撮影手段により前記複数の地点で同一の被写体に対してそれぞれ撮影を行う場合に、2回目の以降の撮影時に、1回目の撮影画像を前記表示手段に表示することを特徴とする請求項2〜6の何れか一項に記載の測位装置。
<請求項8>
加速度を検出する加速度センサと、方位を計測する方位センサとを備え、前記加速度センサの検出に基づき計数される歩数と予め設定された歩幅データとから移動量を算出し、前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行うとともに、被写体の撮影を行う撮影手段を有する測位装置で、前記歩幅データを補正する歩幅データ補正方法であって、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出ステップと、
前記距離算出ステップにより算出された前記複数の地点間の距離に基づいて前記歩幅データを補正する歩幅補正ステップと、
を含んでいることを特徴とする歩幅データ補正方法。
<請求項9>
加速度を検出する加速度センサと、方位を計測する方位センサと、前記加速度センサの検出に基づき計数される歩数と予め設定された歩幅データとから移動量を算出し、前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行う測位手段と、被写体の撮影を行う撮影手段とを制御するコンピュータに、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出機能と、
前記距離算出機能により算出された前記複数の地点間の距離に基づいて前記歩幅データを補正する歩幅補正機能と、
を実現させるプログラム。
[Appendix]
<Claim 1>
Photographing means for photographing a subject;
An acceleration sensor for detecting acceleration;
An orientation sensor for measuring the orientation,
Stride data storage means for storing preset stride data;
Positioning means for calculating a moving amount from the number of steps counted based on the detection of the acceleration sensor and the stride data and calculating a moving direction based on the measurement of the azimuth sensor and positioning the moving point;
Distance calculating means for calculating distances between the plurality of points based on shooting information representing shooting conditions of the shooting means respectively performed at a plurality of points on a linear movement path;
Stride correction means for correcting the stride data based on the distance between the plurality of points calculated by the distance calculation means and the number of steps counted by movement between the plurality of points;
A positioning device comprising:
<Claim 2>
The distance calculating means includes
The positioning device according to claim 1, wherein the distance between the plurality of points is calculated from the shooting information representing a situation of shooting performed on the same subject at the plurality of points by the shooting unit. .
<Claim 3>
The shooting information includes
2. The information on the distance to the subject calculated based on the focus adjustment position of the photographing unit, information on the azimuth and elevation representing the photographing direction, and information on the direction of the moving path are included. Or the positioning apparatus of 2.
<Claim 4>
The same subject is a traffic light,
The positioning apparatus according to claim 2, wherein the photographing information includes information on a length of a predetermined portion of the traffic light on a photographed image and information on a field angle at the time of photographing.
<Claim 5>
5. The positioning device according to claim 4, wherein the information on the length of the predetermined portion of the traffic light on the captured image is a long diameter on the photographing screen of the color panel of the traffic light.
<Claim 6>
An area discriminating means for discriminating between a first area where the length of the predetermined part of the traffic light is defined as a first length and a second area where the length is defined as a second length;
The distance calculating means includes
The distance between the plurality of points is calculated by switching the length information of the predetermined part of the traffic light between the first length and the second length according to the area determined by the area determining means. The positioning device according to claim 4.
<Claim 7>
Comprising display means for displaying an image acquired by the photographing means;
3. The first captured image is displayed on the display unit during the second and subsequent shootings when the same subject is shot at the plurality of points by the shooting unit. The positioning apparatus as described in any one of -6.
<Claim 8>
An acceleration sensor that detects acceleration and an orientation sensor that measures an azimuth, and calculates the amount of movement from the number of steps counted based on the detection of the acceleration sensor and preset stride data, and is used for the measurement of the azimuth sensor A step data correction method for correcting the stride data with a positioning device having a photographing means for photographing a subject while calculating a moving direction based on the moving direction,
A distance calculating step for calculating a distance between the plurality of points based on shooting information representing a shooting situation of the shooting unit performed at each of a plurality of points on a linear movement path;
A step correction step of correcting the step data based on the distance between the plurality of points calculated by the distance calculation step;
A method for correcting stride length data, comprising:
<Claim 9>
An amount of movement is calculated from an acceleration sensor that detects acceleration, an orientation sensor that measures an orientation, and the number of steps counted based on the detection of the acceleration sensor and preset stride data, and moves based on the measurement of the orientation sensor A computer that controls the positioning means for calculating the direction and positioning the moving point and the photographing means for photographing the subject,
A distance calculation function for calculating a distance between the plurality of points based on shooting information representing a shooting situation of the shooting unit performed at each of a plurality of points on a linear movement path;
A stride correction function for correcting the stride data based on the distance between the plurality of points calculated by the distance calculation function;
A program that realizes

1 デジタルカメラ
10 CPU(プログラムを実行するコンピュータ)
11 RAM
12 ROM
13 GPS受信アンテナ
14 GPS受信部
15 3軸地磁気センサ(方位センサ)
16 3軸加速度センサ(加速度センサ)
17 移動距離演算処理部
18 移動方向演算処理部
19 歩幅データ記憶部(歩幅データ記憶手段)
20 表示部
21 操作部
25 カメラ部
26 撮像部
27 オートフォーカス部
28 ズーム部
P 信号機のカラーパネル
M 撮像素子
Z1 ズームレンズ
Z2 フォーカスレンズ
1 Digital camera 10 CPU (computer that executes a program)
11 RAM
12 ROM
13 GPS receiving antenna 14 GPS receiving unit 15 3-axis geomagnetic sensor (orientation sensor)
16 3-axis acceleration sensor (acceleration sensor)
17 Movement distance calculation processing unit 18 Movement direction calculation processing unit 19 Step data storage unit (step data storage unit)
DESCRIPTION OF SYMBOLS 20 Display part 21 Operation part 25 Camera part 26 Imaging part 27 Autofocus part 28 Zoom part P Color panel of traffic light M Imaging element Z1 Zoom lens Z2 Focus lens

Claims (9)

被写体の撮影を行う撮影手段と、
加速度を検出する加速度センサと、
方位を計測する方位センサと、
予め設定された歩幅データを記憶する歩幅データ記憶手段と、
前記加速度センサの検出に基づき計数される歩数と前記歩幅データとから移動量を算出するとともに前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行う測位手段と、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出手段と、
前記距離算出手段により算出された前記複数の地点間の距離と前記複数の地点間の移動で計数された歩数とに基づいて前記歩幅データを補正する歩幅補正手段と、
を備えたことを特徴とする測位装置。
Photographing means for photographing a subject;
An acceleration sensor for detecting acceleration;
An orientation sensor for measuring the orientation,
Stride data storage means for storing preset stride data;
Positioning means for calculating a moving amount from the number of steps counted based on the detection of the acceleration sensor and the stride data and calculating a moving direction based on the measurement of the azimuth sensor and positioning the moving point;
Distance calculating means for calculating distances between the plurality of points based on shooting information representing shooting conditions of the shooting means respectively performed at a plurality of points on a linear movement path;
Stride correction means for correcting the stride data based on the distance between the plurality of points calculated by the distance calculation means and the number of steps counted by movement between the plurality of points;
A positioning device comprising:
前記距離算出手段は、
前記撮影手段により前記複数の地点で同一の被写体に対してそれぞれ行われた撮影の状況を表わす前記撮影情報から前記複数の地点間の距離を算出する
ことを特徴とする請求項1記載の測位装置。
The distance calculating means includes
The positioning device according to claim 1, wherein the distance between the plurality of points is calculated from the shooting information representing a situation of shooting performed on the same subject at the plurality of points by the shooting unit. .
前記撮影情報には、
前記撮影手段のフォーカス調整位置に基づき算出される被写体までの距離の情報と、撮影方向を表わす方位と仰角の情報と、前記移動経路の方向の情報とが含まれることを特徴とする請求項1又は2に記載の測位装置。
The shooting information includes
2. The information on the distance to the subject calculated based on the focus adjustment position of the photographing unit, information on the azimuth and elevation representing the photographing direction, and information on the direction of the moving path are included. Or the positioning apparatus of 2.
前記同一の被写体は、信号機であり、
前記撮影情報には、撮影画像上での前記信号機の所定部位の長さの情報と、撮影時の画角の情報とが含まれることを特徴とする請求項2に記載の測位装置。
The same subject is a traffic light,
The positioning apparatus according to claim 2, wherein the photographing information includes information on a length of a predetermined portion of the traffic light on a photographed image and information on a field angle at the time of photographing.
前記撮影画像上での前記信号機の所定部位の長さの情報は、信号機のカラーパネルの撮影画面上の長径としたことを特徴とする請求項4記載の測位装置。   5. The positioning device according to claim 4, wherein the information on the length of the predetermined portion of the traffic light on the captured image is a long diameter on the photographing screen of the color panel of the traffic light. 前記信号機の前記所定部位の長さが第1長さと定められている第1地域と第2長さと定められている第2地域とを判別する地域判別手段を備え、
前記距離算出手段は、
前記地域判別手段により判別された地域に応じて前記信号機の前記所定部位の長さの情報を前記第1長さと前記第2長さとに切り換えて前記複数の地点間の距離を算出することを特徴とする請求項4記載の測位装置。
An area discriminating means for discriminating between a first area where the length of the predetermined part of the traffic light is defined as a first length and a second area where the length is defined as a second length;
The distance calculating means includes
The distance between the plurality of points is calculated by switching the length information of the predetermined part of the traffic light between the first length and the second length according to the area determined by the area determining means. The positioning device according to claim 4.
前記撮影手段により取得された画像を表示する表示手段を備え、
前記撮影手段により前記複数の地点で同一の被写体に対してそれぞれ撮影を行う場合に、2回目の以降の撮影時に、1回目の撮影画像を前記表示手段に表示することを特徴とする請求項2〜6の何れか一項に記載の測位装置。
Comprising display means for displaying an image acquired by the photographing means;
3. The first captured image is displayed on the display unit during the second and subsequent shootings when the same subject is shot at the plurality of points by the shooting unit. The positioning apparatus as described in any one of -6.
加速度を検出する加速度センサと、方位を計測する方位センサとを備え、前記加速度センサの検出に基づき計数される歩数と予め設定された歩幅データとから移動量を算出し、前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行うとともに、被写体の撮影を行う撮影手段を有する測位装置で、前記歩幅データを補正する歩幅データ補正方法であって、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出ステップと、
前記距離算出ステップにより算出された前記複数の地点間の距離に基づいて前記歩幅データを補正する歩幅補正ステップと、
を含んでいることを特徴とする歩幅データ補正方法。
An acceleration sensor that detects acceleration and an orientation sensor that measures an azimuth, and calculates the amount of movement from the number of steps counted based on the detection of the acceleration sensor and preset stride data, and is used for the measurement of the azimuth sensor A step data correction method for correcting the stride data with a positioning device having a photographing means for photographing a subject while calculating a moving direction based on the moving direction,
A distance calculating step for calculating a distance between the plurality of points based on shooting information representing a shooting situation of the shooting unit performed at each of a plurality of points on a linear movement path;
A step correction step of correcting the step data based on the distance between the plurality of points calculated by the distance calculation step;
A method for correcting stride length data, comprising:
加速度を検出する加速度センサと、方位を計測する方位センサと、前記加速度センサの検出に基づき計数される歩数と予め設定された歩幅データとから移動量を算出し、前記方位センサの計測に基づき移動方向を算出して移動地点の測位を行う測位手段と、被写体の撮影を行う撮影手段とを制御するコンピュータに、
直線状の移動経路上の複数の地点でそれぞれ行われた前記撮影手段の撮影の状況を表わす撮影情報に基づいて前記複数の地点間の距離を算出する距離算出機能と、
前記距離算出機能により算出された前記複数の地点間の距離に基づいて前記歩幅データを補正する歩幅補正機能と、
を実現させるプログラム。

An amount of movement is calculated from an acceleration sensor that detects acceleration, an orientation sensor that measures an orientation, and the number of steps counted based on the detection of the acceleration sensor and preset stride data, and moves based on the measurement of the orientation sensor A computer that controls the positioning means for calculating the direction and positioning the moving point and the photographing means for photographing the subject,
A distance calculation function for calculating a distance between the plurality of points based on shooting information representing a shooting situation of the shooting unit performed at each of a plurality of points on a linear movement path;
A stride correction function for correcting the stride data based on the distance between the plurality of points calculated by the distance calculation function;
A program that realizes

JP2011053763A 2011-03-11 2011-03-11 Positioning device, pace per step data correction method and program Withdrawn JP2012189467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011053763A JP2012189467A (en) 2011-03-11 2011-03-11 Positioning device, pace per step data correction method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011053763A JP2012189467A (en) 2011-03-11 2011-03-11 Positioning device, pace per step data correction method and program

Publications (1)

Publication Number Publication Date
JP2012189467A true JP2012189467A (en) 2012-10-04

Family

ID=47082801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011053763A Withdrawn JP2012189467A (en) 2011-03-11 2011-03-11 Positioning device, pace per step data correction method and program

Country Status (1)

Country Link
JP (1) JP2012189467A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109979A1 (en) * 2015-12-25 2017-06-29 パイオニア株式会社 Distance estimation device, distance estimation method, and program
WO2017109976A1 (en) * 2015-12-25 2017-06-29 パイオニア株式会社 Distance estimation device, distance estimation method, and program
WO2018163750A1 (en) * 2017-03-06 2018-09-13 パイオニア株式会社 Distance estimation device, distance estimation method, and program
CN114076597A (en) * 2020-08-11 2022-02-22 丰田自动车株式会社 Walking estimation system, walking estimation method, and computer-readable medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109979A1 (en) * 2015-12-25 2017-06-29 パイオニア株式会社 Distance estimation device, distance estimation method, and program
WO2017109976A1 (en) * 2015-12-25 2017-06-29 パイオニア株式会社 Distance estimation device, distance estimation method, and program
WO2018163750A1 (en) * 2017-03-06 2018-09-13 パイオニア株式会社 Distance estimation device, distance estimation method, and program
CN114076597A (en) * 2020-08-11 2022-02-22 丰田自动车株式会社 Walking estimation system, walking estimation method, and computer-readable medium

Similar Documents

Publication Publication Date Title
JP4380550B2 (en) In-vehicle imaging device
US9215375B2 (en) Photographing apparatus, image display apparatus, and display control method of image display apparatus
JP6025433B2 (en) Portable navigation device
US8844148B2 (en) Direction determining method and apparatus using a triaxial electronic compass
US8976267B2 (en) Image pickup device with photography positioning guidance
KR101256543B1 (en) Image capturing apparatus, image capturing method, and storage medium
CN103907340A (en) Image generation device and image generation method
US8928584B2 (en) Display apparatus, display method, and storage medium
CN103907341A (en) Image generation device, and image generation method
KR101259598B1 (en) Apparatus and Method for Providing Road View
US20170064201A1 (en) Image pickup apparatus
EP2984448B1 (en) Distance estimation using multi-camera device
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
US8537247B2 (en) Photographing device which measures azimuth during photographing
JP2018146524A (en) Survey system
JP2012189467A (en) Positioning device, pace per step data correction method and program
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
KR20100060472A (en) Apparatus and method for recongnizing position using camera
JP6764693B2 (en) Satellite signal processing method and satellite signal processing equipment
KR20170014545A (en) Apparatus and method of displaying point of interest
JP5967400B2 (en) Imaging apparatus, imaging method, and program
JP6828934B1 (en) Navigation devices, navigation systems, navigation methods, navigation programs
JP2003296329A (en) Information providing device, information providing method and information processing program
JP6826215B2 (en) Mobile device
JP6402640B2 (en) Shooting system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513