JP4218103B2 - OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM - Google Patents

OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM Download PDF

Info

Publication number
JP4218103B2
JP4218103B2 JP36289798A JP36289798A JP4218103B2 JP 4218103 B2 JP4218103 B2 JP 4218103B2 JP 36289798 A JP36289798 A JP 36289798A JP 36289798 A JP36289798 A JP 36289798A JP 4218103 B2 JP4218103 B2 JP 4218103B2
Authority
JP
Japan
Prior art keywords
recorded
recording medium
time
data
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP36289798A
Other languages
Japanese (ja)
Other versions
JP2000187687A (en
Inventor
佳孝 須賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP36289798A priority Critical patent/JP4218103B2/en
Publication of JP2000187687A publication Critical patent/JP2000187687A/en
Application granted granted Critical
Publication of JP4218103B2 publication Critical patent/JP4218103B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オブジェクトの記録された位置を特定するためのオブジェクト出力装置、オブジェクト出力方法及びオブジェクト出力制御プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
事件や事故等を取材して記録したときの画像や音声は、その取材場所を明確にして保存する必要がある。今日では、パーソナルコンピュータにより、CD−ROMから読み出した電子地図を参照しながら、ビデオカメラ等で撮影した画像をそれに関連させて整理することが行われている。
【0003】
通常、ビデオカメラで撮影された画像や音声には撮影された位置を示す位置情報が記録されず、ユーザは画像等と電子地図上の位置を関連付ける操作を行わなければならない。
【0004】
これに対して、GPS(Global Positioning System)等の現在位置を測定する装置を組み込んだビデオカメラが提案されている。このようなビデオカメラにより、撮影をしながら位置情報を記録することができ、ユーザが電子地図との関連付けを行う手間がなくなる。
【0005】
【発明が解決しようとする課題】
しかしながら、ビデオカメラにGPS等の測位装置を組み込んだときの携帯性を考えた場合には、ユーザの利便性よりも、重量の増加等によるユーザの負担の方が大きくなることがある。
【0006】
また、ビデオカメラによっては、画像信号や音声信号が記録される記録媒体や装置自体の構造上の観点から、GPS等の測位装置を備えることが困難なものもある。
【0007】
したがって、ビデオカメラと測位装置を別個独立にして画像等と位置情報とをそれぞれ記録することができるようにしたいとの要望もあるが、この場合、画像等と位置情報とを関連させることができなくなる。
【0008】
本発明は、このような実情に鑑みて提案されたものであり、画像/音声等のオブジェクトとユーザの位置情報とを別々に記録した場合であっても、これらを関連づけさせてオブジェクトを出力することができるオブジェクト出力装置、オブジェクト出力方法及びオブジェクト出力制御プログラムを記録した記録媒体を提供することを目的とする。
【0009】
【課題を解決するための手段】
上述の課題を解決するために、本発明に係るオブジェクト出力装置は、時刻とその時刻に対応する位置情報との組が複数からなる軌跡データが記録された第1の記録媒体と、オブジェクトと当該オブジェクトが記録された時刻を示す時刻情報とが記録された第2の記録媒体と、上記第2の記録媒体に記録された時刻情報が示す時刻における位置を、上記第1の記録媒体に記録された軌跡データに基づいて算出する算出手段と、上記算出手段によって算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力する出力手段とを備える。
【0010】
また、本発明は、時刻とその時刻に対応する位置情報との組が複数からなる軌跡データが記録された第1の記録媒体と、オブジェクトと当該オブジェクトが記録された時刻を示す時刻情報とが記録された第2の記録媒体とから、上記第1の記録媒体に記録されている軌跡データに基づいて、上記第2の記録媒体に記録されているオブジェクトを読み出して出力するオブジェクト出力方法であって、上記第2の記録媒体からオブジェクトが記録された時刻における位置を算出する際に、算出手段により、上記第1の記録媒体に記録されている軌跡データを読み出し、読み出した軌跡データに基づいて、上記第2の記録媒体に記録されている時刻情報が示すオブジェクトと当該オブジェクトが記録された時刻における位置を算出する算出工程と、上記算出工程により算出された位置を出力手段により表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力するオブジェクト出力工程とを備える。
【0011】
さらに、本発明は、時刻とその時刻に対応する位置情報との組が複数からなる軌跡データが記録された第1の記録媒体と、オブジェクトと当該オブジェクトが記録された時刻を示す時刻情報とが記録された第2の記録媒体とから、上記第1の記録媒体に記録されている軌跡データに基づいて、上記第2の記録媒体に記録されているオブジェクトを読み出して出力するためのオブジェクト出力制御プログラムがコンピュータにより読み取り実行可能に記録された記録媒体であって、上記第2の記録媒体からオブジェクトが記録された時刻における位置を算出する際に、上記第1の記録媒体に記録されている軌跡データを読み出し、読み出した軌跡データに基づいて、上記第2の記録媒体に記録されている時刻情報が示すオブジェクトと当該オブジェクトが記録された時刻における位置を算出する算出工程の処理と、上記算出工程により算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力するオブジェクト出力工程の処理とを上記コンピュータに実行させることを特徴とするオブジェクト出力制御プログラムを記録してなる。
【0012】
【発明の実施の形態】
以下、本発明の好適な実施の形態について、図面を参照しながら詳細に説明する。本発明は、軌跡記録装置により記録された軌跡データと、画像/音声記録装置により記録された画像等及び時刻データとを用いて、画像等の記録位置を明示しながら当該画像等を出力するものである。
【0013】
最初に、GPS(Global Positioning System)を利用した軌跡記録装置1を図1に示す。
上記軌跡記録装置1は、アンテナ2を介してGPS衛星6からの電波を受信するするGPS測位部3と、時刻データを生成する時刻生成部4と、図示しない第1の記録媒体を有する第1の記録部5とを備える。
【0014】
GPS測位部3は、受信した電波から現在位置である緯度及び経度を計算し、緯度及び経度を示す緯度/経度データを出力して、時刻生成部4及び第1の記録部5に供給する。このとき、GPS測位部3は、所定時間毎に、例えば30秒毎に緯度/経度データを出力している。
【0015】
時刻生成部4は、GPS測位部3から緯度/経度データが供給されると、その供給された時刻を示す時刻データを記録部5に供給する。
【0016】
記録部5は、着脱可能な第1の記録媒体を有し、GPS測位部3からの緯度/経度データを第1の記録媒体に記録すると共に、時刻生成部4から緯度/経度データが測位された時刻である時刻データも上記第1の記録媒体に記録する。
【0017】
このような構成の軌跡記録装置1により第1の記録媒体に記録された、緯度/経度データと時刻情報とからなる軌跡データの一例を図2に示す。
【0018】
例えば、時刻「07時15分00秒」のときは、緯度「N(北緯):34度33分24秒」経度「E(東経):139度10分13秒」である。同様にして、時刻「07時15分30秒」,「07時16分00秒」,・・・,と30秒毎に、その時刻における緯度及び経度を示す緯度/経度データがある。
【0019】
ここで、時刻「07時15分00秒」における位置をA地点、時刻「07時15分30秒」における位置をB地点とし、以下、30秒毎の位置をC地点,D地点,E地点・・・とすると、軌跡データは、例えば図3に示すように、実際にユーザが移動した軌跡をプロットしたものになる。
【0020】
図4に、画像/音声記録装置10を示す。
【0021】
上記画像音声記録装置10は、被写体を撮影するカメラ部11と、外部の音声が入力されるマイク部12と、時刻情報を生成する時刻生成部13と、第2の記録部14とを備える。
【0022】
カメラ部11は、ユーザのシャッタ操作に同期して被写体の画像データを生成し、この画像データを第2の記録部14に供給する。マイク部12は、ユーザの音声入力操作により音声を音声データに変換して、第2の記録部14に供給する。時刻生成部13は、例えば水晶発振器からなり、現在時刻を示す時刻データを第2の記録部14に供給する。
【0023】
第2の記録部14は、着脱可能な第2の記録媒体を有し、カメラ部11からの画像データやマイク部12からの音声データを上記第2の記録媒体に記録する。また、第2の記録部14は、画像データ又は音声データを記録すると共に、そのとき時刻生成部13からの時刻データをタイムスタンプ(記録時の時刻データ)として上記第2の記録媒体に記録する。
【0024】
このような構成の画像/音声記録装置10により第2の記録媒体に記録されたオブジェクト記録時刻表を図5に示す。
例えば、写真1は時刻「07時16分00秒」、写真2は時刻「07時16分15秒」に撮影され、音声1は時刻「07時17分10秒」に録音され、さらに、写真3は「07時17分50秒」に撮影されている。
【0025】
図6に、本発明を適用した画像/音声出力装置20を示す。
【0026】
上記画像/音声出力装置20は、いわゆるパーソナルコンピュータに適用可能なものである。画像/音声出力装置20は、第1の記録媒体に記録された軌跡データと、第2の記録媒体に記録された画像及び/又は音声と、その時刻データ等とを用いて、画像及び/又は音声と地図上の位置とを対応づけを行う。
【0027】
具体的には、上記画像/音声出力装置20は、制御プログラムが記録されているROM21と、上記制御プログラムに従って各回路を制御するCPU22と、データを一時記憶しておくRAM23と、地図等を表示するモニタ24と、音声を出力するスピーカ25と、軌跡データが記録されている第3の記録媒体26と、画像データ及び/又は音声データとその時刻データとが記録されている第4の記録媒体27と、地図を表示するためのCD−ROMから地図データを読み出すCD−ROMドライブ28と、外部とデータの送受信を行う通信回路29とを備える。
【0028】
第3の記録媒体26には、軌跡記録装置1において用いられた第1の記録媒体と同様の軌跡データが記録されている。すなわち、第3の記録媒体26は、軌跡記録装置1において用いられた第1の記録媒体と同様のものであってもよい。また、第3の記録媒体26は、軌跡記録装置1からインターネット等の通信回線や通信回路29を介して、上記軌跡データが記録されていてもよい。
【0029】
第4の記録媒体27は、画像/音声記録装置10において用いられた第2の記録媒体と同様の画像データ及び/又は音声データとその時刻データとが記録されている。すなわち、4の記録媒体27は、画像/音声記録装置10において用いられた第2の記録媒体と同様のものであってもよい。また、第4の記録媒体27は、軌跡記録装置1からインターネット等の通信回線や通信回路29を介して、上記軌跡データが記録されていてもよい。
【0030】
上記画像/音声出力装置20において、CPU22は、第3の記録媒体26に記録されている軌跡データに基づいて、図7に示すように、ユーザが移動した軌跡をA−B−C−D−E−・・・と折れ線で近似することができる。
【0031】
このとき、CPU22は、第4の記録媒体27に記録されている写真1について、画像データを記録した時間を示す時刻データを読み出す。写真1についての時刻データは「07時16分00秒」である。この時刻はC地点の時刻と同じである。したがって、CPU22は、CD−ROMドライブ28から読み出される地図データから地図をモニタ24に表示すると共に、写真1についての画像をC地点と関連付けて上記モニタ24に表示する。
【0032】
これにより、写真1についての画像が地図上の位置と関連付けられて表示されるので、ユーザは、撮影した画像とその位置とを容易に認識することができる。
【0033】
つぎに、CPU22は、写真2について、第4の記録媒体27からその画像データ及び時刻データを読み出す。
写真2についての時刻データは「07時16分15秒」である。この時刻は、C地点における時刻「07時16分00秒」とD地点における「07時16分30秒」の中間にある。
【0034】
CPU22は、このようにC地点とD地点の位置と時刻から、ユーザがその間一定速度で移動していたとみなして、C地点とD地点を直線で補完し、CD間の中点を算出して、この点を写真2を撮影した位置とする。これにより、CPU22は、例えば図7に示すように、CD間の中間点を写真2を撮影した位置として、写真2の画像データとCD間の中間点を関連付けて、例えばモニタ24に表示する。
【0035】
CPU22は、音声1については、その時刻が「07時17分10秒」であることから、図7に示すように、その時間の前後にあるEF間を補間し、1:2に内分して重み付けを行うことによって、音声1を録音した位置を算出する。これにより、CPU22は、モニタ24上に音声1を録音した位置を地図上に明示すると共に、スピーカ25からその音声を出力する。
【0036】
以上のように、本発明を適用した画像/音声出力装置20によれば、画像/音声記録装置10において記録された軌跡データと、画像/音声出力装置20において記録された画像及び/又は音声と時刻データとについて、互いに関連付けて画像及び/又は音声を出力することができる。
【0037】
また、上記画像/音声出力装置20では、位置測定機構を持たない多くの画像/音声記録装置10で記録された画像や音声のオブジェクトに対して、タイムスタンプを照合するだけでそれを記録したときの位置を特定することができるので、これを利用することができる機器と対象物の幅を大きく広げることができる。
【0038】
そして、記録位置が特定されたオブジェクトは、多くの場合、パーソナルコンピュータ等で表示される地図上に関連付けられるので、ユーザに新たな情報提示場面を提供することができる。このとき、画像/音声出力装置20では、画像/音声記録装置10で撮影された多数の画像を、モニタ24における地図に直ちに配置することができる。
【0039】
さらに、画像/音声記録装置10におけるカメラ部11によって動画像が撮影された場合には、画像/音声出力装置20では画像再生時に再生場面に対応した地図上の位置を刻々と移動させて表示することもできる。
【0040】
なお、以上説明したような画像/音声出力装置20における処理については、所定の制御プログラムが記録された記録媒体から、当該制御プログラムをパーソナルコンピュータ等の情報処理装置にインストールすることによって行ってもよい。
【0041】
本発明は、上述した実施の形態に限定されるものではなく、例えば以下に示すような、設計の変更を行うことも可能である。
【0042】
例えば本実施の形態では、測位システムにGPSを利用した場合について説明したが、本発明はこれに限定されず、他の手法によって緯度及び経度を測定してもよい。
【0043】
また、30秒毎の各地点について緯度及び経度を計測していたが、例えばある一地点について緯度及び経度を計測した後、他の地点については上記一地点に対する緯度及び経度の差分のみを測定してもよいし、併せて高度を記録してもよい。
【0044】
上述した軌跡記録装置1においては、緯度及び経度の記録時間の間隔を短くすれば第1の記録媒体としては大容量のものが必要となる。一方、その記録時間の間隔を長くすれば、第1の記録媒体としては大容量のものであることを要しないが、大まかな軌跡しか得ることができない。そこで、速度と方向とからなるベクトルも併用して記録すれば、移動速度や方向に大きな変化がない場合においては、情報量の圧縮を効率よく行うことができる。
【0045】
また、本実施の形態では、オブジェクトとして画像や音声を用いた場合を例に挙げて説明したが、本発明は、これに限定されるものではない。すなわち、オブジェクトとしては、キーボードから入力されたテキストデータ、タッチパネル上で手書きされた文字や絵、放送や通信を介して入手した所定の制御プログラム、連続的に又はポイントで記録された各種の観測データ等でもよく、位置情報と関連付けられるものであれば特に限定されるものではない。
【0046】
【発明の効果】
以上詳細に説明したように、本発明に係るオブジェクト出力装置、オブジェクト出力方法及びオブジェクト出力制御プログラムを記録した記録媒体によれば、第2の記録媒体に記録された時刻情報が示す時刻における位置を、第1の記録媒体に記録された軌跡データに基づいて算出し、算出された位置を表示し、算出された位置に対応づけて第2の記録媒体に記録されたオブジェクトを出力することにより、軌跡データとオブジェクトとが別々に記録された場合においても、これらを容易に関連づけすることができる。
【0047】
すなわち、位置測定機構を備えていない多くの記録装置で記録されたオブジェクトに対して、タイムスタンプを照合することだけで、後から位置を確定させることができ、これを利用することができる機器と対象の幅を大きく広げることができる。
【図面の簡単な説明】
【図1】軌跡記録装置の構成を示すブロック図である。
【図2】上記軌跡記録装置によって第1の記録媒体に記録された軌跡データの一例を示す図である。
【図3】実際にユーザがたどった軌跡と軌跡データが示す軌跡とを比較して説明するための図である。
【図4】画像/音声記録装置の構成を示すブロック図である。
【図5】上記画像/音声記録装置によって第2の記録媒体に記録された画像及び/又は音声と時刻との一例を示す図である。
【図6】本発明を適用した画像/音声出力装置の構成を示すブロック図である。
【図7】上記画像/音声出力装置によってユーザの軌跡を算出して、画像及び/又は音声と関連付けたときの状態を説明する図である。
【符号の説明】
20 画像/音声出力装置、22 CPU、24 モニタ、26 第3の記録媒体、27 第4の記録媒体
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object output device for specifying a position where an object is recorded, an object output method, and a recording medium on which an object output control program is recorded.
[0002]
[Prior art]
It is necessary to store the image and sound when the incident or accident is recorded and recorded, with the location of the interview clearly defined. Nowadays, images taken by a video camera or the like are arranged in association with a personal computer while referring to an electronic map read from a CD-ROM.
[0003]
Normally, position information indicating the position where the image was taken is not recorded in the image or sound taken by the video camera, and the user must perform an operation for associating the image or the like with the position on the electronic map.
[0004]
On the other hand, a video camera incorporating a device for measuring a current position such as GPS (Global Positioning System) has been proposed. With such a video camera, position information can be recorded while shooting, and the user is not required to associate with the electronic map.
[0005]
[Problems to be solved by the invention]
However, considering portability when a positioning device such as GPS is incorporated in the video camera, the burden on the user due to an increase in weight or the like may be greater than the convenience for the user.
[0006]
Some video cameras have difficulty in providing a positioning device such as a GPS from the viewpoint of the structure of a recording medium on which image signals and audio signals are recorded and the device itself.
[0007]
Therefore, there is a demand for recording the image and the position information separately from the video camera and the positioning device, but in this case, the image and the position information can be associated with each other. Disappear.
[0008]
The present invention has been proposed in view of such circumstances, and even when an object such as an image / sound and a user's position information are recorded separately, the object is output in association with each other. An object output device, an object output method, and a recording medium on which an object output control program is recorded.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, an object output device according to the present invention includes a first recording medium on which trajectory data including a plurality of sets of time and position information corresponding to the time is recorded, the object, and the object The second recording medium on which the time information indicating the time at which the object was recorded is recorded, and the position at the time indicated by the time information recorded on the second recording medium is recorded on the first recording medium. Calculation means for calculating based on the trajectory data, output means for displaying the position calculated by the calculation means, and outputting the object recorded on the second recording medium in association with the calculated position; Is provided.
[0010]
The present invention also includes a first recording medium on which trajectory data including a plurality of sets of time and position information corresponding to the time is recorded, and time information indicating the time at which the object and the object were recorded. An object output method for reading an object recorded on the second recording medium from the recorded second recording medium based on the trajectory data recorded on the first recording medium and outputting the object. Then, when calculating the position at the time when the object is recorded from the second recording medium , the calculation unit reads the locus data recorded on the first recording medium, and based on the read locus data. a calculation step of calculating a position in time at which the second recording medium object and the object that indicates the time information recorded within is recorded, Displayed by the output means the position calculated by the serial calculation step, and an object output step of outputting the object recorded in the second recording medium in association with the calculated position.
[0011]
Further, according to the present invention, there is provided a first recording medium on which trajectory data including a plurality of sets of time and position information corresponding to the time is recorded, and time information indicating the time at which the object is recorded. Object output control for reading out and outputting an object recorded on the second recording medium from the recorded second recording medium based on the trajectory data recorded on the first recording medium A recording medium on which a program is recorded so as to be readable and executable by a computer, and a locus recorded on the first recording medium when calculating the position at the time when the object is recorded from the second recording medium reads data, read on the basis of the locus data, the object and the of the second time information recorded on the recording medium is shown And processing calculation step-object is to calculate the position in the recorded time, and displays the position calculated by the calculating step, the objects recorded in the second recording medium in association with the calculated position An object output control program is recorded which causes the computer to execute processing of an object output process to be output.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings. The present invention outputs the image or the like while clearly indicating the recording position of the image or the like using the locus data recorded by the locus recording device, the image or the like recorded by the image / sound recording device, and the time data. It is.
[0013]
First, FIG. 1 shows a trajectory recording apparatus 1 using GPS (Global Positioning System).
The locus recording apparatus 1 includes a GPS positioning unit 3 that receives radio waves from a GPS satellite 6 via an antenna 2, a time generation unit 4 that generates time data, and a first recording medium (not shown). The recording unit 5 is provided.
[0014]
The GPS positioning unit 3 calculates the latitude and longitude of the current position from the received radio wave, outputs latitude / longitude data indicating the latitude and longitude, and supplies the latitude / longitude data to the time generation unit 4 and the first recording unit 5. At this time, the GPS positioning unit 3 outputs latitude / longitude data every predetermined time, for example, every 30 seconds.
[0015]
When the latitude / longitude data is supplied from the GPS positioning unit 3, the time generation unit 4 supplies time data indicating the supplied time to the recording unit 5.
[0016]
The recording unit 5 has a detachable first recording medium, records the latitude / longitude data from the GPS positioning unit 3 on the first recording medium, and the latitude / longitude data is measured from the time generation unit 4. The time data which is the new time is also recorded on the first recording medium.
[0017]
An example of trajectory data composed of latitude / longitude data and time information recorded on the first recording medium by the trajectory recording apparatus 1 having such a configuration is shown in FIG.
[0018]
For example, at time “07:15:00”, latitude “N (north latitude): 34 degrees 33 minutes 24 seconds” longitude “E (east longitude): 139 degrees 10 minutes 13 seconds”. Similarly, there is latitude / longitude data indicating the latitude and longitude at the time “07:15:30”, “07:16:00”,..., Every 30 seconds.
[0019]
Here, the position at time “07:15:00” is point A, the position at time “07:15:30” is point B, and the positions every 30 seconds are point C, point D, and point E. In this case, the trajectory data is a plot of the trajectory actually moved by the user as shown in FIG.
[0020]
FIG. 4 shows the image / sound recording apparatus 10.
[0021]
The image / audio recording apparatus 10 includes a camera unit 11 that captures a subject, a microphone unit 12 to which external audio is input, a time generation unit 13 that generates time information, and a second recording unit 14.
[0022]
The camera unit 11 generates image data of the subject in synchronization with the user's shutter operation, and supplies the image data to the second recording unit 14. The microphone unit 12 converts voice into voice data by a user's voice input operation and supplies the voice data to the second recording unit 14. The time generation unit 13 includes a crystal oscillator, for example, and supplies time data indicating the current time to the second recording unit 14.
[0023]
The second recording unit 14 has a detachable second recording medium, and records the image data from the camera unit 11 and the audio data from the microphone unit 12 on the second recording medium. The second recording unit 14 records image data or audio data, and records the time data from the time generation unit 13 as a time stamp (time data at the time of recording) on the second recording medium. .
[0024]
FIG. 5 shows an object recording time table recorded on the second recording medium by the image / sound recording apparatus 10 having such a configuration.
For example, Photo 1 was recorded at time “07:16:00”, Photo 2 was recorded at time “07:16:15”, Audio 1 was recorded at time “07:17:10”, and 3 was taken at “07:17:50”.
[0025]
FIG. 6 shows an image / audio output device 20 to which the present invention is applied.
[0026]
The image / audio output device 20 can be applied to a so-called personal computer. The image / sound output device 20 uses the trajectory data recorded on the first recording medium, the image and / or sound recorded on the second recording medium, the time data, etc. Correlate the voice with the position on the map.
[0027]
Specifically, the image / audio output device 20 displays a ROM 21 in which a control program is recorded, a CPU 22 that controls each circuit in accordance with the control program, a RAM 23 that temporarily stores data, a map, and the like. Monitor 24, a speaker 25 for outputting sound, a third recording medium 26 on which locus data is recorded, and a fourth recording medium on which image data and / or sound data and time data thereof are recorded. 27, a CD-ROM drive 28 that reads map data from a CD-ROM for displaying a map, and a communication circuit 29 that transmits and receives data to and from the outside.
[0028]
On the third recording medium 26, locus data similar to that of the first recording medium used in the locus recording apparatus 1 is recorded. That is, the third recording medium 26 may be the same as the first recording medium used in the trajectory recording apparatus 1. Further, the trajectory data may be recorded on the third recording medium 26 from the trajectory recording device 1 via a communication line such as the Internet or a communication circuit 29.
[0029]
The fourth recording medium 27 stores the same image data and / or audio data and time data as the second recording medium used in the image / audio recording apparatus 10. That is, the four recording media 27 may be the same as the second recording medium used in the image / audio recording apparatus 10. The fourth recording medium 27 may record the locus data from the locus recording device 1 via a communication line such as the Internet or a communication circuit 29.
[0030]
In the image / sound output device 20, as shown in FIG. 7, the CPU 22, based on the trajectory data recorded on the third recording medium 26, indicates the trajectory that the user has moved to A-B-C-D- It can be approximated by a broken line with E-.
[0031]
At this time, the CPU 22 reads time data indicating the time when the image data is recorded for the photograph 1 recorded on the fourth recording medium 27. The time data for Photo 1 is “07:16:00”. This time is the same as the time at point C. Therefore, the CPU 22 displays a map from the map data read from the CD-ROM drive 28 on the monitor 24 and displays an image of the photograph 1 on the monitor 24 in association with the point C.
[0032]
Thereby, since the image about the photograph 1 is displayed in association with the position on the map, the user can easily recognize the captured image and its position.
[0033]
Next, the CPU 22 reads out the image data and time data of the photograph 2 from the fourth recording medium 27.
The time data for Photo 2 is “07:16:15”. This time is intermediate between the time “07:16:00” at point C and “07:16:30” at point D.
[0034]
In this way, the CPU 22 considers that the user was moving at a constant speed during that time from the positions and times of the points C and D, complements the points C and D with a straight line, and calculates the midpoint between the CDs. This point is the position where the photograph 2 was taken. Thereby, as shown in FIG. 7, for example, the CPU 22 displays the image data of the photograph 2 and the intermediate point between the CDs on the monitor 24, for example, with the intermediate point between the CDs as the position where the photograph 2 is taken.
[0035]
The CPU 22 interpolates between the EFs before and after the time as shown in FIG. 7 for the voice 1 because the time is “07:17:10”, and divides it into 1: 2. The position where the voice 1 is recorded is calculated by performing weighting. Thereby, the CPU 22 clearly indicates the position where the sound 1 is recorded on the monitor 24 on the map and outputs the sound from the speaker 25.
[0036]
As described above, according to the image / audio output device 20 to which the present invention is applied, the trajectory data recorded in the image / audio recording device 10, the image and / or audio recorded in the image / audio output device 20, and With respect to time data, images and / or sounds can be output in association with each other.
[0037]
In the image / sound output device 20, when images and sound objects recorded by many image / sound recording devices 10 that do not have a position measuring mechanism are recorded only by comparing time stamps. Since the position of the object can be specified, the width of the device and the object that can utilize this can be greatly increased.
[0038]
Since the object whose recording position is specified is often associated with a map displayed on a personal computer or the like, a new information presentation scene can be provided to the user. At this time, the image / sound output device 20 can immediately place a large number of images taken by the image / sound recording device 10 on a map on the monitor 24.
[0039]
Furthermore, when a moving image is captured by the camera unit 11 in the image / sound recording apparatus 10, the image / sound output apparatus 20 displays the position on the map corresponding to the playback scene while moving the image during playback. You can also.
[0040]
Note that the processing in the image / audio output device 20 as described above may be performed by installing the control program in an information processing apparatus such as a personal computer from a recording medium on which a predetermined control program is recorded. .
[0041]
The present invention is not limited to the above-described embodiment, and for example, it is possible to make a design change as shown below.
[0042]
For example, in the present embodiment, the case where GPS is used for the positioning system has been described. However, the present invention is not limited to this, and the latitude and longitude may be measured by other methods.
[0043]
In addition, the latitude and longitude were measured for each point every 30 seconds. For example, after measuring the latitude and longitude for one point, for other points, only the difference between the latitude and longitude for the one point was measured. Alternatively, altitude may be recorded together.
[0044]
In the trajectory recording apparatus 1 described above, a large-capacity recording medium is required as the first recording medium if the interval between the recording times of latitude and longitude is shortened. On the other hand, if the recording time interval is increased, the first recording medium does not need to have a large capacity, but only a rough trajectory can be obtained. Therefore, if a vector composed of a speed and a direction is also used for recording, the amount of information can be efficiently compressed when there is no significant change in the moving speed or direction.
[0045]
In the present embodiment, the case where an image or sound is used as an object has been described as an example, but the present invention is not limited to this. That is, as objects, text data input from the keyboard, characters and pictures handwritten on the touch panel, predetermined control programs obtained through broadcasting and communication, various observation data recorded continuously or at points It is not particularly limited as long as it is associated with the position information.
[0046]
【The invention's effect】
As described above in detail, according to the recording medium on which the object output device, the object output method, and the object output control program according to the present invention are recorded, the position at the time indicated by the time information recorded on the second recording medium is determined. By calculating based on the trajectory data recorded on the first recording medium, displaying the calculated position, and outputting the object recorded on the second recording medium in association with the calculated position, Even when the trajectory data and the object are recorded separately, they can be easily associated with each other.
[0047]
In other words, a device that can determine the position later by simply checking the time stamp of an object recorded by many recording devices that do not have a position measurement mechanism, and can use this. The width of the object can be greatly expanded.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a trajectory recording apparatus.
FIG. 2 is a diagram showing an example of trajectory data recorded on a first recording medium by the trajectory recording apparatus.
FIG. 3 is a diagram for explaining a comparison between a trajectory actually followed by a user and a trajectory indicated by trajectory data;
FIG. 4 is a block diagram illustrating a configuration of an image / audio recording apparatus.
FIG. 5 is a diagram illustrating an example of an image and / or sound and time recorded on a second recording medium by the image / sound recording apparatus.
FIG. 6 is a block diagram showing a configuration of an image / audio output device to which the present invention is applied.
FIG. 7 is a diagram illustrating a state when a user's trajectory is calculated by the image / sound output device and associated with an image and / or sound.
[Explanation of symbols]
20 image / sound output device, 22 CPU, 24 monitor, 26 third recording medium, 27 fourth recording medium

Claims (9)

時刻とその時刻に対応する位置情報との組が複数からなる軌跡データが記録された第1の記録媒体と、
オブジェクトと当該オブジェクトが記録された時刻を示す時刻情報とが記録された第2の記録媒体と、
上記第2の記録媒体に記録された時刻情報が示す時刻における位置を、上記第1の記録媒体に記録された軌跡データに基づいて算出する算出手段と、
上記算出手段によって算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力する出力手段と
を備えるオブジェクト出力装置。
A first recording medium on which trajectory data including a plurality of sets of time and position information corresponding to the time is recorded;
A second recording medium on which the object and time information indicating the time at which the object is recorded are recorded;
Calculating means for calculating the position at the time indicated by the time information recorded on the second recording medium based on the trajectory data recorded on the first recording medium;
An object output device comprising: an output means for displaying the position calculated by the calculation means and outputting the object recorded on the second recording medium in association with the calculated position.
地図を表示するための地図データを記憶する記憶手段を備え、
上記出力手段は、上記記憶手段に記憶されている地図データに基づく地図を出力し、当該地図上に上記算出手段によって算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力すること
を特徴とする請求項1記載のオブジェクト出力装置。
Storage means for storing map data for displaying a map;
The output means outputs a map based on the map data stored in the storage means, displays the position calculated by the calculation means on the map, and associates the second position with the calculated position. The object output device according to claim 1, wherein the object recorded on the recording medium is output.
上記算出手段は、上記第2の記録媒体に記録された時刻情報が示す時刻における位置を、当該時刻情報が示す時刻に前後する時刻の軌跡データから補間して算出する
ことを特徴とする請求項1記載のオブジェクト出力装置。
The calculation means may calculate the position at the time indicated by the time information recorded on the second recording medium by interpolating from the locus data of the time before and after the time indicated by the time information. The object output device according to 1.
時刻とその時刻に対応する位置情報との組が複数からなる軌跡データが記録された第1の記録媒体と、オブジェクトと当該オブジェクトが記録された時刻を示す時刻情報とが記録された第2の記録媒体とから、上記第1の記録媒体に記録されている軌跡データに基づいて、上記第2の記録媒体に記録されているオブジェクトを読み出して出力するオブジェクト出力方法であって、
上記第2の記録媒体からオブジェクトが記録された時刻における位置を算出する際に、算出手段により、上記第1の記録媒体に記録されている軌跡データを読み出し、読み出した軌跡データに基づいて、上記第2の記録媒体に記録されている時刻情報が示すオブジェクトと当該オブジェクトが記録された時刻における位置を算出する算出工程と、
上記算出工程により算出された位置を出力手段により表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力するオブジェクト出力工程と
を備えるオブジェクト出力方法。
A first recording medium on which trajectory data composed of a plurality of sets of time and position information corresponding to the time is recorded, and a second information on which an object and time information indicating the time at which the object is recorded are recorded. An object output method for reading out and outputting an object recorded on the second recording medium from a recording medium based on trajectory data recorded on the first recording medium,
When calculating the position at the time when the object is recorded from the second recording medium , the calculation unit reads the locus data recorded on the first recording medium, and based on the read locus data, A calculation step of calculating an object indicated by time information recorded on the second recording medium and a position at the time when the object is recorded ;
An object output method comprising: an object output step of displaying the position calculated by the calculation step by an output unit, and outputting an object recorded on the second recording medium in association with the calculated position.
上記オブジェクト出力工程では、上記出力手段により、地図を表示するための地図データを記憶する記憶手段に記憶されている地図データに基づく地図を出力し、当該地図上に上記算出工程によって算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力する
ことを特徴とする請求項4記載のオブジェクト出力方法。
In the object output step, the output unit outputs a map based on the map data stored in the storage unit that stores the map data for displaying the map, and the position calculated by the calculation step on the map 5. The object output method according to claim 4, wherein the object recorded on the second recording medium is output in association with the calculated position .
上記算出工程では、上記算出手段により、上記第2の記録媒体に記録された時刻情報が示す時刻における位置を、当該時刻情報が示す時刻に前後する時刻の軌跡データから補間して算出する
ことを特徴とする請求項4記載のオブジェクト出力方法。
In the calculation step , the calculation means calculates the position at the time indicated by the time information recorded on the second recording medium by interpolating from the locus data of the time before and after the time indicated by the time information. The object output method according to claim 4, wherein:
時刻とその時刻に対応する位置情報との組が複数からなる軌跡データが記録された第1の記録媒体と、オブジェクトと当該オブジェクトが記録された時刻を示す時刻情報とが記録された第2の記録媒体とから、上記第1の記録媒体に記録されている軌跡データに基づいて、上記第2の記録媒体に記録されているオブジェクトを読み出して出力するためのオブジェクト出力制御プログラムがコンピュータにより読み取り実行可能に記録された記録 媒体であって、
上記第2の記録媒体からオブジェクトが記録された時刻における位置を算出する際に、上記第1の記録媒体に記録されている軌跡データを読み出し、読み出した軌跡データに基づいて、上記第2の記録媒体に記録されている時刻情報が示すオブジェクトと当該オブジェクトが記録された時刻における位置を算出する算出工程の処理と、上記算出工程により算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力するオブジェクト出力工程の処理とを上記コンピュータに実行させる
ことを特徴とするオブジェクト出力制御プログラムを記録した記録媒体。
A first recording medium on which trajectory data composed of a plurality of sets of time and position information corresponding to the time is recorded, and a second information on which an object and time information indicating the time at which the object is recorded are recorded. An object output control program for reading out and outputting an object recorded on the second recording medium from a recording medium based on the trajectory data recorded on the first recording medium is read and executed by a computer A recording medium recorded possible ,
When calculating the position at the time when the object is recorded from the second recording medium, the trajectory data recorded on the first recording medium is read, and the second recording is performed based on the read trajectory data. Displays the object indicated by the time information recorded on the medium, the process of the calculation step for calculating the position at the time when the object was recorded, and the position calculated by the calculation step, and associates it with the calculated position. A recording medium on which an object output control program is recorded, causing the computer to execute an object output process of outputting an object recorded on the second recording medium.
上記オブジェクト出力工程では、地図を表示するための地図データを記憶する記憶手段に記憶されている地図データに基づく地図を出力し、当該地図上に上記算出工程によって算出された位置を表示し、上記算出された位置に対応づけて上記第2の記録媒体に記録されたオブジェクトを出力する処理を上記コンピュータに実行させる
ことを特徴とする請求項7記載のオブジェクト出力制御プログラムを記録した記録媒体。
In the object output step, a map based on the map data stored in the storage means for storing the map data for displaying the map is output, the position calculated by the calculation step is displayed on the map , 8. The recording medium recorded with the object output control program according to claim 7, wherein the computer is caused to execute a process of outputting the object recorded on the second recording medium in association with the calculated position .
上記算出工程では、上記第2の記録媒体に記録された時刻情報が示す時刻における位置を、当該時刻情報が示す時刻に前後する時刻の軌跡データから補間して算出する処理を上記コンピュータに実行させる
ことを特徴とする請求項7記載のオブジェクト出力制御プログラムを記録した記録媒体。
In the calculating step, the computer is caused to execute a process of calculating the position at the time indicated by the time information recorded on the second recording medium by interpolating from the locus data of the time before and after the time indicated by the time information . 8. A recording medium on which an object output control program according to claim 7 is recorded.
JP36289798A 1998-12-21 1998-12-21 OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM Expired - Lifetime JP4218103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36289798A JP4218103B2 (en) 1998-12-21 1998-12-21 OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36289798A JP4218103B2 (en) 1998-12-21 1998-12-21 OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2000187687A JP2000187687A (en) 2000-07-04
JP4218103B2 true JP4218103B2 (en) 2009-02-04

Family

ID=18478011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36289798A Expired - Lifetime JP4218103B2 (en) 1998-12-21 1998-12-21 OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP4218103B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5176440B2 (en) * 2007-09-04 2013-04-03 ソニー株式会社 Movement information display device, movement information display method, and program
JP4407738B2 (en) 2007-10-05 2010-02-03 ソニー株式会社 Information processing apparatus, information processing method, and computer program

Also Published As

Publication number Publication date
JP2000187687A (en) 2000-07-04

Similar Documents

Publication Publication Date Title
US9565364B2 (en) Image capture device having tilt and/or perspective correction
JP4915343B2 (en) Electronic device apparatus and navigation method
EP2161617B1 (en) Image pickup apparatus, image processing apparatus, image processing method, program and recording medium
US20080030580A1 (en) Command system, imaging device, command device, imaging method, command processing method, and program
US20070291114A1 (en) Imaging Device, Product Package, and Semiconductor Integrated Circuit
JP2006279266A (en) Electronic album preparation device, electronic album preparing system, and electronic album preparation program
JP2008039628A (en) Route retrieval device
JP2011029852A (en) Image recording apparatus
JP4218103B2 (en) OBJECT OUTPUT DEVICE, OBJECT OUTPUT METHOD, AND RECORDING MEDIUM CONTAINING OBJECT OUTPUT CONTROL PROGRAM
JP5349488B2 (en) Imaging device, output device, program, and imaging method of imaging device
JP2004120223A (en) Photographing system
JP2005266061A (en) Reproduction apparatus
JP4409116B2 (en) Video / position information recording device
JPH0927937A (en) Recorder for name of image pickup point
JP4645443B2 (en) Image data recording apparatus, setting state display method, and program
JP2008098916A (en) Moving image display device and moving image display method
JPH08154228A (en) Camcorder
JP4924346B2 (en) Image reproduction control device, image reproduction control program, and image reproduction control method
JP2006229585A (en) Electronic camera
JPH1169280A (en) Still camera recording azimuth information and reproduction method
JPH0926489A (en) Automatic time difference correction device for clock internal component
JP2007208596A (en) Data reproducing apparatus, and data reproducing method and program
JP2005331659A (en) Imaging unit, method for measuring moving velocity of object, and program
JPH1188820A (en) Image recorder capable of recording azimuth information
JPH07231419A (en) Image pickup video recording device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081103

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term