JP2012105174A - Image voice recording/playback system - Google Patents

Image voice recording/playback system Download PDF

Info

Publication number
JP2012105174A
JP2012105174A JP2010253536A JP2010253536A JP2012105174A JP 2012105174 A JP2012105174 A JP 2012105174A JP 2010253536 A JP2010253536 A JP 2010253536A JP 2010253536 A JP2010253536 A JP 2010253536A JP 2012105174 A JP2012105174 A JP 2012105174A
Authority
JP
Japan
Prior art keywords
recording
information
data
unit
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010253536A
Other languages
Japanese (ja)
Other versions
JP5478462B2 (en
Inventor
Eiji Nishimura
英士 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOFTWARE FACTORY KK
Software Factory Co Ltd
Original Assignee
SOFTWARE FACTORY KK
Software Factory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOFTWARE FACTORY KK, Software Factory Co Ltd filed Critical SOFTWARE FACTORY KK
Priority to JP2010253536A priority Critical patent/JP5478462B2/en
Publication of JP2012105174A publication Critical patent/JP2012105174A/en
Application granted granted Critical
Publication of JP5478462B2 publication Critical patent/JP5478462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image voice recording/playback system for allowing a user to recall travelling memories easily with a feature similar to a time capsule.SOLUTION: An image voice recording/playback system installed in a vehicle for detecting the vehicle location, and guiding a travelling route to a destination based on the detected location information, includes: a navigation unit 2 for recording and transmitting an in-vehicle video data and/or a voice data; and a recording/playback unit 3 for recording and playing back the video data and/or the voice data received from the navigation unit. The navigation unit transmits a video data and/or a voice data together with at least one unit of information selected from the information on passengers, dates, destination, and travelling route to the destination. The recording/playback unit can record and play back the video data and/or the voice data received from the navigation unit based on the at least one unit of information described above.

Description

本発明は、自動車等の車両内の画像/音声を記録再生する装置であって、タイムカプセルのように機能させることのできる画像音声記録再生装置に関する。   The present invention relates to an image / audio recording / reproducing apparatus which records / reproduces an image / sound in a vehicle such as an automobile and can function as a time capsule.

カーナビゲーションシステムは、例えば特許文献1に記載のように、セットした目的地までの走行経路をディスプレイに表示したり、自動車が走行した経路を保存し、その経路をディスプレイに表示することができる。   For example, as described in Patent Document 1, the car navigation system can display the travel route to the set destination on the display, store the route traveled by the automobile, and display the route on the display.

また、特許文献2には、カーナビゲーションシステムとデジタルカメラを利用し、画像合成表示手段により、ハードディスクに記録させた旅行期間中に乗車していた車両の画像データを読み出し、経路データにおける現在地を示す車両シンボルに対して合成することで、ユーザが容易に旅行当時の思い出を想起することができるように、旅行中に乗車していた車両や、一緒に旅行したメンバーの情報を表示するナビゲーションアルバムシステムが開示されている。   Further, Patent Document 2 uses a car navigation system and a digital camera, reads out image data of a vehicle that has been on board during a travel period recorded on a hard disk by an image composition display means, and indicates a current location in route data. A navigation album system that displays information about the vehicles that were on board during the trip and members who traveled together so that the user can easily recall the memories of the trip by synthesizing the vehicle symbols. Is disclosed.

特開2002−81955号公報JP 2002-81955 A 特開2006−38514号公報JP 2006-38514 A

上記特許文献2に記載のナビゲーションアルバムシステムによれば、ユーザが容易に旅行当時の思い出を想起することができるが、経路データにおける現在地を示す車両シンボルに対して合成する画像データは、乗車者等が自ら撮影するため手間が掛かるなどの問題があった。   According to the navigation album system described in Patent Document 2, a user can easily recall memories at the time of travel. However, image data to be combined with a vehicle symbol indicating the current location in route data is used for a passenger or the like. However, there was a problem that it took time to shoot by himself.

そこで、本発明は、ユーザがさらに容易に旅行当時の思い出を想起することができるとともに、タイムカプセルのように機能させることのできる画像音声記録再生装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an audio / video recording / playback apparatus that allows a user to more easily recall memories at the time of travel and to function like a time capsule.

上記目的を達成するため、本発明は、画像音声記録再生装置であって、車両内に設置され、車両の位置を検出し、検出された位置情報に基づいて目的地までの走行経路を案内するとともに、車両内の映像データ又は/及び音声データを記録して送信するナビゲーション装置と、該ナビゲーション装置から受信した映像データ又は/及び音声データを記録再生する記録再生装置とで構成されることを特徴とする。   In order to achieve the above object, the present invention is an image / audio recording / reproducing apparatus, which is installed in a vehicle, detects the position of the vehicle, and guides a travel route to the destination based on the detected position information. And a navigation device that records and transmits video data or / and audio data in the vehicle, and a recording / reproducing device that records and reproduces video data and / or audio data received from the navigation device. And

そして、本発明によれば、ナビゲーション装置で車両内の映像データ又は/及び音声データを記録するため、乗車者等が自ら撮影する必要がなく手間が省けるとともに、記録再生装置によってナビゲーション装置から受信した映像データ又は/及び音声データを容易に再生することができる。   According to the present invention, since the video data or / and the audio data in the vehicle is recorded by the navigation device, it is not necessary for the rider or the like to take a picture by himself / herself, and it is saved from the navigation device by the recording / reproducing device. Video data and / or audio data can be easily reproduced.

上記画像音声記録再生装置において、前記ナビゲーション装置は、乗車者に関する情報、日時に関する情報、目的地に関する情報、該目的地に至る経路に関する情報から選択される少なくとも一つを前記映像データ又は/及び音声データとともに送信し、前記記録再生装置は、前記ナビゲーション装置から受信した映像データ又は/及び音声データを、乗車者に関する情報、日時に関する情報、目的地に関する情報、該目的地に至る経路に関する情報から選択される少なくとも一つに基づいて記録再生することができ、所望の映像又は/及び音声をより容易に再生することができる。   In the video / audio recording / reproducing apparatus, the navigation device selects at least one selected from the information about the passenger, the information about the date, the information about the destination, and the information about the route to the destination as the video data and / or the audio. The recording / reproducing apparatus transmits the video data and / or audio data received from the navigation apparatus from information on the passenger, information on date and time, information on the destination, and information on the route to the destination. Recording / reproduction can be performed based on at least one of them, and desired video and / or audio can be reproduced more easily.

上記画像音声記録再生装置において、話者を特定する話者識別処理により、前記記録した音声データに含まれる発声から前記車両に乗車した人物を特定することができる。   In the video / audio recording / reproducing apparatus, the person who gets on the vehicle can be specified from the utterance included in the recorded audio data by the speaker identification process for specifying the speaker.

また、前記記録再生装置は、前記映像データ又は/及び音声データを、前記乗車者のうちの所定の人物の個人的な情報に基づいて記録再生することができ、乗車者のうちの所定の人物の個人的な情報に応じたきめ細かな再生を行うことができ、タイムカプセルのように機能させることもできる。   In addition, the recording / reproducing apparatus can record and reproduce the video data or / and audio data based on personal information of a predetermined person among the passengers. It is possible to perform detailed reproduction according to personal information and to function as a time capsule.

以上のように、本発明によれば、ユーザがさらに容易に旅行当時の思い出を想起することができるとともに、タイムカプセルのように機能させることのできる画像音声記録再生装置を提供することが可能となる。   As described above, according to the present invention, it is possible to provide an image / audio recording / reproducing apparatus that allows a user to more easily recall memories at the time of travel and to function like a time capsule. Become.

本発明にかかる画像音声記録再生装置の一実施の形態を示すブロック図である。1 is a block diagram showing an embodiment of an image / audio recording / reproducing apparatus according to the present invention. FIG. 図1の画像音声記録再生装置のナビゲーション装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the navigation apparatus of the image audio | voice recording / reproducing apparatus of FIG. 図1の画像音声記録再生装置の記録再生装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the recording / reproducing apparatus of the image audio recording / reproducing apparatus of FIG. 図2のナビゲーション装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the navigation apparatus of FIG. 図3の記録再生装置における記録処理の流れを示すフローチャートである。4 is a flowchart showing a flow of recording processing in the recording / reproducing apparatus of FIG. 3. 図3の記録再生装置における再生処理の流れを示すフローチャートである。4 is a flowchart showing a flow of reproduction processing in the recording / reproducing apparatus of FIG. 3.

次に、発明を実施するための形態について、図面を参照しながら詳細に説明する。ここでは、本発明にかかる画像音声記録再生装置を自動車等の車両に適用した場合を例にとって説明する。   Next, modes for carrying out the invention will be described in detail with reference to the drawings. Here, a case where the audio / video recording / reproducing apparatus according to the present invention is applied to a vehicle such as an automobile will be described as an example.

図1は、本発明にかかる画像音声記録再生装置の一実施の形態を示し、この画像音声記録再生装置1は、インターネット等のネットワーク4を介して接続されるナビゲーション装置2と、記録再生装置3とで構成される。   FIG. 1 shows an embodiment of an image / audio recording / reproducing apparatus according to the present invention. The image / audio recording / reproducing apparatus 1 includes a navigation apparatus 2 connected via a network 4 such as the Internet, and a recording / reproducing apparatus 3. It consists of.

ナビゲーション装置2は、例えば自動車の車内に設置され、車両の位置を検出し、検出された位置情報に基づき、ユーザによって指定された目的地までの走行経路を案内する。また、ナビゲーション装置2は、車内の映像データ及び音声データを取得するとともに、映像データ及び音声データを取得した際の日時や目的地、走行経路、乗車者等に関する情報を取得する。そして、取得した映像データ及び音声データと各種情報とを関連付け、ネットワーク4を介して所定のタイミングで記録再生装置3に転送する。   The navigation device 2 is installed in, for example, an automobile, detects the position of the vehicle, and guides the travel route to the destination designated by the user based on the detected position information. In addition, the navigation device 2 acquires video data and audio data in the vehicle, and acquires information on the date and time, the destination, the travel route, the passenger, and the like when the video data and audio data are acquired. Then, the acquired video data and audio data are associated with various types of information, and transferred to the recording / reproducing apparatus 3 via the network 4 at a predetermined timing.

記録再生装置3は、例えばユーザの自宅や会社などに設置されたPC(Personal Computer)やサーバであり、受信した映像データ及び音声データを、関連付けられた情報に基づき分類して記録する。   The recording / reproducing apparatus 3 is, for example, a PC (Personal Computer) or a server installed in a user's home or company, and classifies and records received video data and audio data based on associated information.

図2は、図1に示すナビゲーション装置2の構成の一例を示す。図2に示すように、ナビゲーション装置2は、大別して、撮像部11と、音声入力部12と、記録部13と、通信部14と、表示部15と、操作部16と、GPS(Global Positioning System)アンテナ17と、GPS受信部18と、時計19と、制御部20とで構成される。   FIG. 2 shows an example of the configuration of the navigation device 2 shown in FIG. As shown in FIG. 2, the navigation device 2 is roughly divided into an imaging unit 11, a voice input unit 12, a recording unit 13, a communication unit 14, a display unit 15, an operation unit 16, and GPS (Global Positioning). System) It includes an antenna 17, a GPS receiver 18, a clock 19, and a controller 20.

撮像部11は、例えばビデオカメラであり、CCD(Charge Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の撮像素子に受光された光を撮像信号に変換する。そして、この撮像信号に対してガンマ補正やホワイトバランス調整といった所定の信号処理を施し、映像データを生成して出力する。尚、撮像部11からは撮像信号を出力し、後述の制御部20で撮像信号に対して所定の信号処理を行うようにしてもよい。   The imaging unit 11 is a video camera, for example, and converts light received by an imaging element such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor into an imaging signal. The imaging signal is subjected to predetermined signal processing such as gamma correction and white balance adjustment, and video data is generated and output. Note that an imaging signal may be output from the imaging unit 11 and predetermined signal processing may be performed on the imaging signal by the control unit 20 described later.

音声入力部12は、例えばマイクロフォンであり、周囲の音声を収音し、音声データとして出力する。   The voice input unit 12 is, for example, a microphone, collects ambient voice, and outputs it as voice data.

記録部13は、例えばHDD(Hard Disc Drive)やフラッシュメモリであり、地図データを記録するとともに、撮像部11から出力された映像データ及び音声入力部12から出力された音声データが記録される。尚、以下では、映像データ及び音声データを総称して、AV(Audio/Video)データと略称する。また、記録部13には、後述の音声データの解析に必要な、人物の発声の特徴を示す情報が予め記録されている。   The recording unit 13 is, for example, an HDD (Hard Disc Drive) or a flash memory, which records map data and also records video data output from the imaging unit 11 and audio data output from the audio input unit 12. In the following, video data and audio data are collectively referred to as AV (Audio / Video) data. The recording unit 13 records in advance information indicating the characteristics of the person's utterance necessary for analysis of audio data, which will be described later.

通信部14は、所定のプロトコルに従って記録再生装置3との無線通信を行い、後述の制御部20による制御に基づき、記録部13に記録されたAVデータをネットワーク4を介して記録再生装置3に送信する。   The communication unit 14 performs wireless communication with the recording / reproducing apparatus 3 according to a predetermined protocol, and the AV data recorded in the recording unit 13 is transmitted to the recording / reproducing apparatus 3 via the network 4 based on control by the control unit 20 described later. Send.

表示部15は、例えばLCD(Liquid Crystal Display)からなり、地図画面やメニュー画面等を表示する。表示部15としては、例えば、LCD上にタッチセンサを有するタッチパネルが積層されたタッチパネルディスプレイを用いることができる。   The display unit 15 includes, for example, an LCD (Liquid Crystal Display), and displays a map screen, a menu screen, and the like. As the display unit 15, for example, a touch panel display in which a touch panel having a touch sensor is stacked on an LCD can be used.

操作部16は、このナビゲーション装置2をユーザが操作するための操作子が所定に設けられ、操作子に対する操作に応じた制御信号を出力する。操作子としては、例えば、ナビゲーション装置2の電源をON/OFFするための電源キーや、現在地から目的地までの案内を設定するためのキー等が設けられる。これらの各種キーは、例えば、ナビゲーション装置2の筐体にハードウェアキーとして設けるようにしてもよいし、表示部15がタッチパネルディスプレイの場合には、各種キーがソフトウェアキーとして表示部15に表示されるようにしてもよい。   The operation unit 16 is provided with a predetermined operator for operating the navigation device 2 by a user, and outputs a control signal corresponding to an operation on the operator. For example, a power key for turning on / off the power of the navigation device 2 and a key for setting guidance from the current location to the destination are provided as the operation elements. For example, these various keys may be provided as hardware keys on the casing of the navigation device 2. When the display unit 15 is a touch panel display, the various keys are displayed on the display unit 15 as software keys. You may make it do.

GPS受信部18は、GPS衛星からのGPS信号をGPSアンテナ17を介して受信する。時計19は、例えば、水晶振動子の発振周波数に基づき、ナビゲーション装置2の現在の時刻情報を生成することができる。時計19は、図示されないバッテリーにより常時駆動されている。   The GPS receiver 18 receives a GPS signal from a GPS satellite via the GPS antenna 17. The timepiece 19 can generate the current time information of the navigation device 2 based on, for example, the oscillation frequency of the crystal resonator. The timepiece 19 is always driven by a battery (not shown).

制御部20は、このナビゲーション装置2の全体を制御し、入力制御部21と、表示制御部22と、ナビゲーション処理部23と、撮像・収音制御部24と、記録制御部25と、情報取得部26と、通信制御部27とを有する。   The control unit 20 controls the entire navigation device 2, and includes an input control unit 21, a display control unit 22, a navigation processing unit 23, an imaging / sound collection control unit 24, a recording control unit 25, and information acquisition. Unit 26 and communication control unit 27.

入力制御部21は、操作部16から供給されるユーザの操作に応じた制御信号に基づき入力内容や選択内容を判別し、操作信号を出力する。表示制御部22は、表示部15への画像表示を制御する。例えば、表示制御部22は、記録部13から地図データを読み出して地図画像を生成したり、操作部16に対するユーザ操作に応じて表示部15の表示画面を切り替える処理等を行う。   The input control unit 21 determines input contents and selection contents based on a control signal corresponding to a user operation supplied from the operation unit 16 and outputs an operation signal. The display control unit 22 controls image display on the display unit 15. For example, the display control unit 22 reads out map data from the recording unit 13 to generate a map image, or performs a process of switching the display screen of the display unit 15 according to a user operation on the operation unit 16.

ナビゲーション処理部23は、GPS受信部18で受信したGPS信号に基づき、車両の位置(緯度、経度)を示す位置情報を取得し、位置情報が示す現在位置に対応する地図データを記録部13から読み出して表示部15に対して表示させるとともに、表示された地図データ上に車両の位置を表示させる処理を行う。また、ユーザが操作部16を操作することによって目的地が設定された場合には、現在地から目的地までの走行経路を地図データから抽出し、表示部15に表示された地図データ上に表示させる処理を行う。   The navigation processing unit 23 acquires position information indicating the position (latitude, longitude) of the vehicle based on the GPS signal received by the GPS receiving unit 18, and stores map data corresponding to the current position indicated by the position information from the recording unit 13. A process of reading and displaying on the display unit 15 and displaying the position of the vehicle on the displayed map data is performed. Further, when the destination is set by the user operating the operation unit 16, the travel route from the current location to the destination is extracted from the map data and displayed on the map data displayed on the display unit 15. Process.

撮像・収音制御部24は、撮像部11及び音声入力部12による撮像及び収音の開始/終了を制御する。撮像・収音制御部24は、例えば、ナビゲーション装置2の電源ONや、車両のエンジンのスタートを検出した場合等に撮像及び収音を開始し、ナビゲーション装置2の電源OFFや、車両のエンジンのストップを検出した場合等に撮像及び収音を終了する。   The imaging / sound collection control unit 24 controls the start / end of imaging and sound collection by the imaging unit 11 and the sound input unit 12. The imaging / sound collection control unit 24 starts imaging and sound collection when, for example, the navigation apparatus 2 is turned on or the start of the vehicle engine is detected, and the navigation apparatus 2 is turned off or the vehicle engine is turned on. When a stop is detected, the imaging and sound collection are terminated.

記録制御部25は、撮像及び収音により得られたAVデータの記録部13に対する記録を制御する。情報取得部26は、AVデータを撮像及び収音した際の状況が判断できる情報を取得し、この情報をAVデータに関連付ける処理を行う。通信制御部27は、記録部13に記録されたAVデータを通信部14に供給し、通信部14における通信制御を行う。   The recording control unit 25 controls recording of AV data obtained by imaging and sound collection on the recording unit 13. The information acquisition unit 26 acquires information that can determine the situation when the AV data is captured and collected, and performs processing for associating this information with the AV data. The communication control unit 27 supplies AV data recorded in the recording unit 13 to the communication unit 14 and performs communication control in the communication unit 14.

ここで、AVデータに関連付けられる情報について説明する。AVデータに関連付けられる情報は、撮像及び収音した際の状況が判断できる情報であり、具体的には、例えば、日時情報、目的地情報、経路情報及び乗車者情報である。   Here, information associated with AV data will be described. The information associated with the AV data is information with which the situation at the time of imaging and sound collection can be determined, and specifically, for example, date / time information, destination information, route information, and passenger information.

日時情報は、AVデータを撮像及び収音した日時を示す情報であり、時計19から出力された時刻情報により取得することができる。目的地情報は、目的地を示す情報であり、ユーザにより設定された目的地に基づき取得することができる。経路情報は、現在地から目的地まで車両が走行した経路を示す情報であり、ユーザにより設定された目的地までの走行経路に基づき取得することができる。乗車者情報は、その車両に乗車した人、すなわち運転者と同乗者に関する情報であり、例えば収音された音声データを解析することにより取得することができる。具体的には、例えば音声データに含まれる発声から話者を特定する話者識別処理を行い、車両に乗車した人物を特定する。   The date / time information is information indicating the date / time when the AV data is imaged and collected, and can be obtained from the time information output from the clock 19. The destination information is information indicating the destination, and can be acquired based on the destination set by the user. The route information is information indicating a route on which the vehicle has traveled from the current location to the destination, and can be acquired based on the travel route to the destination set by the user. The rider information is information related to the person who rides the vehicle, that is, the driver and the passenger, and can be acquired by analyzing collected voice data, for example. Specifically, for example, speaker identification processing for specifying a speaker from utterances included in voice data is performed, and a person who gets on the vehicle is specified.

図3は、図1に示す記録再生装置3の構成の一例を示す。図3に示すように、記録再生装置3は、大別して、通信部31と、記録部32と、操作部33と、時計34と、制御部35とで構成される。   FIG. 3 shows an example of the configuration of the recording / reproducing apparatus 3 shown in FIG. As shown in FIG. 3, the recording / reproducing apparatus 3 is roughly composed of a communication unit 31, a recording unit 32, an operation unit 33, a clock 34, and a control unit 35.

通信部31は、所定のプロトコルに従ってナビゲーション装置2との無線通信を行い、ネットワーク4を介してナビゲーション装置2からAVデータを受信する。   The communication unit 31 performs wireless communication with the navigation device 2 according to a predetermined protocol, and receives AV data from the navigation device 2 via the network 4.

記録部32は、例えばHDDやフラッシュメモリであり、後述の制御部35によりAVデータが所定に分類されて記録される。例えば、記録部32は、分類に応じてフォルダが作成され、分類されたAVデータが分類結果に応じて対応するフォルダに格納される。また、記録部32には、例えば年齢や生年月日など、所定の人物の個人的な情報を示す人物情報が予め記録されている。   The recording unit 32 is, for example, an HDD or a flash memory, and AV data is classified and recorded by the control unit 35 described later. For example, the recording unit 32 creates a folder according to the classification, and stores the classified AV data in the corresponding folder according to the classification result. In addition, personal information indicating personal information of a predetermined person, such as age and date of birth, is recorded in the recording unit 32 in advance.

操作部33は、この記録再生装置3をユーザが操作するための操作子が所定に設けられ、操作子に対する操作に応じた制御信号を出力する。操作子としては、例えば、AVデータの再生や停止を行うためのキー等が筐体にハードウェアキーとして設けられる。また、操作部33として、赤外線通信や無線通信を利用したリモートコントローラや、マウス、キーボード等を用いることもできる。   The operation unit 33 is provided with a predetermined operator for operating the recording / reproducing apparatus 3 by a user, and outputs a control signal corresponding to an operation on the operator. As the operator, for example, a key for reproducing or stopping AV data is provided as a hardware key on the housing. As the operation unit 33, a remote controller using infrared communication or wireless communication, a mouse, a keyboard, or the like can be used.

時計34は、例えば、水晶振動子の発振周波数に基づき、記録再生装置3の現在の時刻情報を生成することができる。時計34は、バッテリー(不図示)により常時駆動されている。   The clock 34 can generate the current time information of the recording / reproducing apparatus 3 based on, for example, the oscillation frequency of the crystal resonator. The timepiece 34 is always driven by a battery (not shown).

制御部35は、この記録再生装置3の全体を制御し、通信制御部41と、データ分類処理部42と、記録制御部43と、再生制御部44とを有する。通信制御部41は、通信部31における通信制御を行い、通信部31で受信したAVデータを受け取る。データ分類処理部42は、ナビゲーション装置2から受信したAVデータに関連付けられた情報(日時情報、目的地情報、経路情報、乗車者情報)に基づきAVデータを分類する。   The control unit 35 controls the entire recording / reproducing apparatus 3 and includes a communication control unit 41, a data classification processing unit 42, a recording control unit 43, and a reproduction control unit 44. The communication control unit 41 performs communication control in the communication unit 31 and receives AV data received by the communication unit 31. The data classification processing unit 42 classifies AV data based on information (date information, destination information, route information, passenger information) associated with the AV data received from the navigation device 2.

記録制御部43は、通信部31で受信したAVデータの記録部32への記録を制御する。AVデータを記録部32に記録する場合、記録制御部43は、分類結果に基づき対応する記録部32のフォルダに記録する。   The recording control unit 43 controls recording of AV data received by the communication unit 31 to the recording unit 32. When AV data is recorded in the recording unit 32, the recording control unit 43 records the AV data in a folder of the corresponding recording unit 32 based on the classification result.

再生制御部44は、記録部32に記録されたAVデータの再生を制御する。再生制御部44は、記録部32からAVデータを読み出し、外部に出力する。外部には、テレビジョン受像機やモニタ装置などの表示装置が接続され、映像の表示や音声の出力が行われる。尚、これに限られず、例えば記録再生装置3に表示部を設けてもよい。   The playback control unit 44 controls playback of AV data recorded in the recording unit 32. The reproduction control unit 44 reads AV data from the recording unit 32 and outputs it to the outside. A display device such as a television receiver or a monitor device is connected to the outside, and video display and audio output are performed. For example, the recording / reproducing apparatus 3 may be provided with a display unit.

次に、上記構成を有する画像音声記録再生装置1の動作について説明する。   Next, the operation of the audio / video recording / reproducing apparatus 1 having the above configuration will be described.

ここでは、まず、ナビゲーション装置2の動作について、図4を参照しながら説明する。図4は、本発明にかかるナビゲーション装置2による処理の流れを示すフローチャートである。尚、特別な記載がない限り、以下の処理は、制御部20の制御の下で行われるものとする。   Here, first, the operation of the navigation device 2 will be described with reference to FIG. FIG. 4 is a flowchart showing a flow of processing by the navigation device 2 according to the present invention. Unless otherwise specified, the following processing is assumed to be performed under the control of the control unit 20.

ステップS1において、ナビゲーション装置2の電源ON、又はこのナビゲーション装置2が搭載された車両のエンジンのスタートを検出したか否かが判断される。ナビゲーション装置2の電源ON、又はエンジンのスタートが検出された場合には、処理がステップS2に移行する。一方、ナビゲーション装置2の電源ON、又はエンジンのスタートが検出されなかった場合には、処理がステップS1に戻る。   In step S1, it is determined whether or not the navigation apparatus 2 is turned on or the start of the engine of the vehicle on which the navigation apparatus 2 is mounted is detected. If it is detected that the navigation device 2 is powered on or the engine is started, the process proceeds to step S2. On the other hand, when the power of the navigation device 2 is turned on or the start of the engine is not detected, the process returns to step S1.

ステップS2では、記録部13にAVデータが記録されているか否かが判断される。記録部13にAVデータが記録されていない場合には、撮像部11及び音声入力部12による撮像及び収音が開始される(ステップS4)。一方、記録部13にAVデータが記録されている場合には、通信部14を介してAVデータが記録再生装置3に転送され(ステップS3)、処理がステップS4に移行する。   In step S2, it is determined whether AV data is recorded in the recording unit 13 or not. When AV data is not recorded in the recording unit 13, imaging and sound collection by the imaging unit 11 and the audio input unit 12 are started (step S4). On the other hand, if AV data is recorded in the recording unit 13, the AV data is transferred to the recording / reproducing apparatus 3 via the communication unit 14 (step S3), and the process proceeds to step S4.

撮像及び収音が開始されると、制御部20は、時計19からの時刻情報に基づき、撮像及び収音を開始した日時を示す日時情報を取得する(ステップS5)。   When imaging and sound collection are started, the control unit 20 acquires date and time information indicating the date and time when imaging and sound collection are started based on the time information from the clock 19 (step S5).

次に、ユーザがナビゲーション装置2の操作部16を操作することにより目的地が設定されると、制御部20は、GPS受信部18からのGPS信号に基づき位置情報を取得し、現在地から目的地までの走行経路を設定する。そして、記録部13から地図データが読み出され、対応する地図データとともに設定された走行経路が表示部15に表示される(ステップS6)。   Next, when the destination is set by the user operating the operation unit 16 of the navigation device 2, the control unit 20 acquires position information based on the GPS signal from the GPS receiving unit 18, and obtains the destination from the current location. Set the travel route to. Then, the map data is read from the recording unit 13, and the travel route set together with the corresponding map data is displayed on the display unit 15 (step S6).

このとき、制御部20は、設定された目的地及び走行経路に基づき、目的地情報及び経路情報を取得する(ステップS7)。また、制御部20は、収音されて得られる音声データを解析することにより車両に乗車している人物を特定し、車両に乗車する人物を示す乗車者情報を取得する(ステップS8)。尚、音声データの解析及び乗車者情報の取得は、撮像及び収音している間、例えば所定時間毎に得られる音声データに対して継続的に行われる。   At this time, the control unit 20 acquires destination information and route information based on the set destination and travel route (step S7). In addition, the control unit 20 analyzes the audio data obtained by collecting the sound, identifies the person who is on the vehicle, and acquires the passenger information indicating the person who is on the vehicle (step S8). Note that the analysis of the sound data and the acquisition of the passenger information are continuously performed on the sound data obtained, for example, every predetermined time while the image pickup and sound collection are performed.

ここで、音声データの解析方法について概略的に説明する。音声データの解析には、例えば、音声データに含まれる発声から話者を特定する話者識別処理を適用することができる。話者識別処理では、まず、特定の話者の発声が含まれた音声データからその話者の特徴を予め抽出しておき、テンプレートとして記録部13に記録させておく。そして、音声入力部12により収音された音声データを解析することによって特徴を抽出し、抽出された特徴と記録部13に記録されているテンプレートに含まれる特徴とを比較することにより、話者を特定することができる。   Here, a method for analyzing audio data will be schematically described. For the analysis of the voice data, for example, a speaker identification process for specifying a speaker from a utterance included in the voice data can be applied. In the speaker identification process, first, a feature of the speaker is extracted in advance from the voice data including the utterance of the specific speaker, and is recorded in the recording unit 13 as a template. Then, a feature is extracted by analyzing the voice data collected by the voice input unit 12, and the extracted feature is compared with the feature included in the template recorded in the recording unit 13. Can be specified.

ステップS9では、ナビゲーション装置2の電源OFF、又はエンジンのストップが検出されたか否かを判断する。ナビゲーション装置2の電源OFF、又はエンジンのストップが検出された場合には、処理がステップS10に移行し、撮像部11及び音声入力部12による撮像及び収音が終了する。一方、ナビゲーション装置2の電源OFF、又はエンジンのストップが検出されなかった場合には、処理がステップS9に戻る。   In step S9, it is determined whether the navigation apparatus 2 is turned off or an engine stop is detected. When it is detected that the navigation apparatus 2 is turned off or the engine is stopped, the process proceeds to step S10, and imaging and sound collection by the imaging unit 11 and the voice input unit 12 are completed. On the other hand, when the power of the navigation device 2 is turned off or the engine stop is not detected, the process returns to step S9.

撮像及び収音が終了すると、得られたAVデータに対して各種情報(日時情報、目的地情報、経路情報、乗車者情報)が関連付けられ(ステップS11)、記録部13に記録される(ステップS12)。そして、処理がステップS1に戻り、ステップS1からステップS12までの処理が巡回的に繰り返し行われる。   When imaging and sound collection are completed, various types of information (date and time information, destination information, route information, passenger information) are associated with the obtained AV data (step S11) and recorded in the recording unit 13 (step S11). S12). Then, the process returns to step S1, and the processes from step S1 to step S12 are repeated cyclically.

尚、上述の例では、ステップS8における音声データの解析及び乗車者情報の取得処理を、収音中に継続的に行うように説明したが、これはこの例に限られない。例えば、ステップS10における撮像及び収音を終了した後に、音声データの解析及び乗車者情報の取得処理を行ってもよい。   In the above-described example, the audio data analysis and the passenger information acquisition process in step S8 are described as being continuously performed during sound collection. However, this is not limited to this example. For example, audio data analysis and passenger information acquisition processing may be performed after completing the imaging and sound collection in step S10.

次に、記録再生装置3の動作について、図5及び図6を参照しながら説明する。   Next, the operation of the recording / reproducing apparatus 3 will be described with reference to FIGS.

まず、記録再生装置3によるAVデータの記録処理について、図5を参照しながら説明する。図5は、本発明にかかる記録再生装置3による記録処理の流れを示すフローチャートである。尚、特別な記載がない限り、以下の処理は、制御部35の制御の下で行われるものとする。   First, AV data recording processing by the recording / reproducing apparatus 3 will be described with reference to FIG. FIG. 5 is a flowchart showing a flow of recording processing by the recording / reproducing apparatus 3 according to the present invention. Unless otherwise specified, the following processing is assumed to be performed under the control of the control unit 35.

ネットワーク4を介してナビゲーション装置2からAVデータを受信すると(ステップS21)、制御部35は、受信したAVデータから、関連付けられた各種情報(日時情報、目的地情報、経路情報、乗車者情報)を抽出し(ステップS22)、抽出された情報に基づきAVデータを分類する(ステップS23)。   When AV data is received from the navigation device 2 via the network 4 (step S21), the control unit 35, from the received AV data, various associated information (date and time information, destination information, route information, passenger information) Are extracted (step S22), and AV data is classified based on the extracted information (step S23).

ここで、図5に示すステップS23によるAVデータの分類方法について説明する。   Here, the AV data classification method in step S23 shown in FIG. 5 will be described.

AVデータの分類は、操作部33に対するユーザ操作により任意に設定され、日時による分類、旅行やドライブなどのイベントによる分類、乗車している人物による分類など、様々な分類が考えられる。このような場合、制御部35は、ユーザ設定に基づき、AVデータに関連付けられた各種情報から分類に適した情報を参照して、AVデータを分類する。例えば、AVデータに関連付けられた情報が日時情報、目的地情報、経路情報及び乗車者情報である場合において、AVデータを日時毎に分類する場合には、日時情報を参照し、イベント毎に分類する場合には、目的地情報及び/又は経路情報を参照する。また、例えば、AVデータを人物毎に分類する場合には、乗車者情報を参照する。   The classification of the AV data is arbitrarily set by a user operation on the operation unit 33, and various classifications such as a classification by date and time, a classification by an event such as a trip or a drive, and a classification by a person on board can be considered. In such a case, the control unit 35 classifies the AV data with reference to information suitable for classification from various information associated with the AV data based on the user setting. For example, when the information associated with the AV data is date / time information, destination information, route information, and passenger information, when the AV data is classified by date / time, the date / time information is referred to and classified by event. If so, the destination information and / or route information is referred to. Further, for example, when the AV data is classified for each person, the passenger information is referred to.

尚、AVデータを分類する際には、これらの複数の分類のうち一つの分類を選択してもよいし、複数の分類方法を組み合わせてもよい。例えば、日時情報及び乗車者情報を参照し、AVデータを日時及び人物で分類するようにしても良い。   When classifying AV data, one of the plurality of classifications may be selected, or a plurality of classification methods may be combined. For example, AV data may be classified by date and person by referring to date and time information and passenger information.

図5に戻り、ステップS23でAVデータが分類されると、制御部35は、分類結果に基づきAVデータを記録部32に記録する(ステップS24)。記録部32には、ユーザにより設定された分類に対応するフォルダが作成され、AVデータが記録される。例えば、ユーザにより日時毎に分類するように設定された場合には、記録部32に日付を名称として付したフォルダが作成される、イベント毎に分類するように設定された場合には、イベントや目的地を名称として付したフォルダが作成される。また、例えば、ユーザにより人物別に分類するように設定された場合には、人物名を名称として付したフォルダが作成される。そして、各々の名称に対応するAVデータが各フォルダに記録される。   Returning to FIG. 5, when the AV data is classified in step S23, the control unit 35 records the AV data in the recording unit 32 based on the classification result (step S24). In the recording unit 32, a folder corresponding to the classification set by the user is created, and AV data is recorded. For example, when the user sets to classify by date and time, a folder with the date as the name is created in the recording unit 32. When the user sets to classify by event, the event or A folder with the destination as the name is created. Also, for example, when the user is set to classify by person, a folder with a person name as a name is created. Then, AV data corresponding to each name is recorded in each folder.

ところで、ナビゲーション装置2を搭載した車内には、複数の人物が存在することが考えられる。そのため、AVデータを解析することにより、1つのAVデータから複数の人物が特定されることになる。すなわち、AVデータを人物別に分類した場合には、1つのAVデータが複数の人物に対応付けられる。   By the way, it is conceivable that there are a plurality of persons in the vehicle equipped with the navigation device 2. Therefore, by analyzing the AV data, a plurality of persons are specified from one AV data. That is, when AV data is classified by person, one AV data is associated with a plurality of persons.

そこで、このような場合には、特定された複数の人物に対応する各々のフォルダに対して、このAVデータを格納する。例えば、AVデータを人物別に分類する場合において、AVデータから人物A、人物B及び人物Cの3人が特定されたときには、人物A、人物B及び人物Cの各々のフォルダにAVデータが格納される。   Therefore, in such a case, this AV data is stored in each folder corresponding to a plurality of specified persons. For example, in the case of classifying AV data by person, if three persons, person A, person B, and person C, are specified from the AV data, the AV data is stored in each folder of person A, person B, and person C. The

次に、記録再生装置3によるAVデータの再生処理について、図6を参照しながら説明する。本発明にかかる記録再生装置3では、ユーザが操作部33を操作することにより、再生する映像及び/又は音声の条件が指定された場合に、指定された条件に対応するAVデータを記録部32から読み出して再生する。   Next, AV data playback processing by the recording / playback apparatus 3 will be described with reference to FIG. In the recording / reproducing apparatus 3 according to the present invention, when video and / or audio conditions to be reproduced are designated by the user operating the operation unit 33, AV data corresponding to the designated conditions is recorded in the recording unit 32. Read from and play.

図6は、本発明にかかる記録再生装置3による再生処理の流れを示すフローチャートである。尚、特別な記載がない限り、以下の処理は、制御部35の制御の下で行われるものとする。ユーザにより条件が指定されると(ステップS31)、制御部35は、記録部32に記録されたAVデータの中から、条件に対応するAVデータを検索する(ステップS32)。   FIG. 6 is a flowchart showing the flow of reproduction processing by the recording / reproducing apparatus 3 according to the present invention. Unless otherwise specified, the following processing is assumed to be performed under the control of the control unit 35. When the condition is designated by the user (step S31), the control unit 35 searches the AV data recorded in the recording unit 32 for AV data corresponding to the condition (step S32).

このとき、ユーザによって指定される条件は、例えば、記録の際の分類に基づき行われる。例えば、AVデータが日時によって分類されている場合には、条件として日時が指定され、イベントによる分類がなされている場合には、条件としてイベントや目的地が指定される。また、例えば、人物による分類がなされている場合には、条件として人物名が指定される。   At this time, the conditions specified by the user are performed based on the classification at the time of recording, for example. For example, when the AV data is classified by date and time, the date and time is specified as a condition, and when the AV data is classified by event, the event and the destination are specified as conditions. Further, for example, when classification by person is performed, a person name is designated as a condition.

制御部35は、指定された条件に基づき、記録部32のフォルダを参照し、条件に応じたフォルダに格納されたAVデータを読み出す(ステップS33)。例えば、制御部35は、撮像及び収音された日時や、イベント、特定の人物名などがユーザによって指定されると、指定された条件に基づき、記録部32内の対応するフォルダに格納されたAVデータを読み出す。そして、制御部35は、読み出されたAVデータを外部の再生装置に対して出力し(ステップS34)、一連の処理を終了する。尚、再生方法としては、上述した再生方法に限らず、例えば、ユーザがAVデータを直接的に指定することによって再生を行うようにしてもよい。   Based on the specified condition, the control unit 35 refers to the folder in the recording unit 32 and reads AV data stored in the folder according to the condition (step S33). For example, when the date and time when an image is captured and collected, an event, a specific person name, or the like is specified by the user, the control unit 35 stores the image in a corresponding folder in the recording unit 32 based on the specified condition. Read AV data. Then, the control unit 35 outputs the read AV data to an external playback device (step S34), and ends a series of processing. Note that the playback method is not limited to the above-described playback method, and for example, playback may be performed by the user directly specifying AV data.

また、記録再生装置3では、人物の個人情報に基づき映像及び/又は音声を再生することもできる。例えば、AVデータを人物毎に分類した場合には、各々の人物の誕生日や年齢などの個人情報を予め登録しておき、AVデータを記録部32に記録する際に、この個人情報とAVデータとを関連付ける。   The recording / reproducing apparatus 3 can also reproduce video and / or audio based on the personal information of the person. For example, when the AV data is classified for each person, personal information such as the birthday and age of each person is registered in advance, and when the AV data is recorded in the recording unit 32, the personal information and the AV data are recorded. Associate with data.

そして、この個人情報を利用し、例えば、所定の人物の誕生日以降に初めて再生処理を行った場合には、その誕生日に対応する過去のAVデータを読み出して出力する。これにより、例えば、AVデータを再生する際には、「お誕生日おめでとう!」や「○○さんの5歳の映像/音声です。」といった表示とともに、映像及び/又は音声を再生することもできる。   For example, when the reproduction process is performed for the first time after the birthday of a predetermined person using the personal information, the past AV data corresponding to the birthday is read and output. Thus, for example, when AV data is played back, the video and / or voice may be played back with a display such as “Happy Birthday!” Or “Video / sound of Mr. XX ’s 5 years old”. it can.

また、例えば、子供が小学校6年生の時の車での家族温泉旅行や、子供が小学校3年生の時の車での家族スキー旅行等の時に、自動的に録音録画された車内の様子や音声とともに、今まで忘れていた細かいことも思い出してリアルなその時を想起することができる。   In addition, for example, when the child is a family hot spring trip by car when the child is in the sixth grade of elementary school, or when the child is a family ski trip by car when the child is the third grade of elementary school, the state and sound in the car automatically recorded and recorded At the same time, I can recall the details that I have forgotten so far and recall a real time.

尚、ここでは、記録再生装置3による記録及び再生動作について説明したが、記録再生装置3による動作としては、これ以外に、記録されたAVデータを削除したり、AVデータの編集等を行うことも可能である。   Here, the recording and reproducing operation by the recording / reproducing apparatus 3 has been described. However, as the operation by the recording / reproducing apparatus 3, the recorded AV data is deleted or the AV data is edited. Is also possible.

また、上述の例では、乗車者情報の取得をナビゲーション装置2によって行うように説明したが、これに限らず、例えば記録再生装置3側で行ってもよい。具体的には、例えば、記録再生装置3は、人物の発声の特徴を示す情報を記録部32に予め登録しておき、この情報に基づいて、受信したAVデータに含まれる音声データの解析を行い、乗車者情報を取得する。これにより、ナビゲーション装置2側での処理にかかる負荷を軽減することができる。   In the above-described example, the passenger information is acquired by the navigation device 2. However, the present invention is not limited to this. For example, the passenger information may be acquired on the recording / reproducing device 3 side. Specifically, for example, the recording / reproducing apparatus 3 registers in advance information indicating the characteristics of a person's utterance in the recording unit 32, and analyzes audio data included in the received AV data based on this information. To obtain passenger information. Thereby, the load concerning the process by the side of the navigation apparatus 2 can be reduced.

1 画像音声記録再生装置
2 ナビゲーション装置
3 記録再生装置
4 ネットワーク
11 撮像部
12 音声入力部
13 記録部
14 通信部
15 表示部
16 操作部
17 GPSアンテナ
18 GPS受信部
19 時計
20 制御部
21 入力制御部
22 表示制御部
23 ナビゲーション処理部
24 撮像・収音制御部
25 記録制御部
26 情報取得部
27 通信制御部
31 通信部
32 記録部
33 操作部
34 時計
35 制御部
41 通信制御部
42 データ分類処理部
43 記録制御部
44 再生制御部
DESCRIPTION OF SYMBOLS 1 Image audio recording / reproducing apparatus 2 Navigation apparatus 3 Recording / reproducing apparatus 4 Network 11 Image pick-up part 12 Audio | voice input part 13 Recording part 14 Communication part 15 Display part 16 Operation part 17 GPS antenna 18 GPS receiving part 19 Clock 20 Control part 21 Input control part 22 Display control unit 23 Navigation processing unit 24 Imaging / sound collection control unit 25 Recording control unit 26 Information acquisition unit 27 Communication control unit 31 Communication unit 32 Recording unit 33 Operation unit 34 Clock 35 Control unit 41 Communication control unit 42 Data classification processing unit 43 Recording control unit 44 Playback control unit

Claims (4)

車両内に設置され、車両の位置を検出し、検出された位置情報に基づいて目的地までの走行経路を案内するとともに、車両内の映像データ又は/及び音声データを記録して送信するナビゲーション装置と、
該ナビゲーション装置から受信した映像データ又は/及び音声データを記録再生する記録再生装置とで構成されることを特徴とする画像音声記録再生装置。
A navigation device that is installed in a vehicle, detects the position of the vehicle, guides a travel route to the destination based on the detected position information, and records and transmits video data or / and audio data in the vehicle When,
An image / audio recording / reproducing apparatus comprising: a recording / reproducing apparatus for recording / reproducing video data and / or audio data received from the navigation apparatus.
前記ナビゲーション装置は、乗車者に関する情報、日時に関する情報、目的地に関する情報、該目的地に至る経路に関する情報から選択される少なくとも一つを前記映像データ又は/及び音声データとともに送信し、
前記記録再生装置は、前記ナビゲーション装置から受信した映像データ又は/及び音声データを、乗車者に関する情報、日時に関する情報、目的地に関する情報、該目的地に至る経路に関する情報から選択される少なくとも一つに基づいて記録再生することを特徴とする請求項1に記載の画像音声記録再生装置。
The navigation device transmits at least one selected from information on a passenger, information on date and time, information on a destination, information on a route to the destination, together with the video data and / or audio data,
The recording / reproducing device selects at least one of video data and / or audio data received from the navigation device from information on a passenger, information on date and time, information on a destination, and information on a route to the destination. The video / audio recording / reproducing apparatus according to claim 1, wherein the video / audio recording / reproducing apparatus performs recording / reproduction based on the information.
話者を特定する話者識別処理により、前記記録した音声データに含まれる発声から前記車両に乗車した人物を特定することを特徴とする請求項1又は2に記載の画像音声記録再生装置。   3. The image / audio recording / reproducing apparatus according to claim 1, wherein a person who gets on the vehicle is specified from a utterance included in the recorded audio data by speaker identification processing for specifying a speaker. 4. 前記記録再生装置は、前記映像データ又は/及び音声データを、前記乗車者のうちの所定の人物の個人的な情報に基づいて記録再生することを特徴とする請求項1、2又は3に記載の画像音声記録再生装置。   The said recording / reproducing apparatus records and reproduces | regenerates the said video data or / and audio | voice data based on the personal information of the predetermined | prescribed person of the said passengers. Video and audio recording and playback device.
JP2010253536A 2010-11-12 2010-11-12 Image / audio recording and playback device Active JP5478462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010253536A JP5478462B2 (en) 2010-11-12 2010-11-12 Image / audio recording and playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010253536A JP5478462B2 (en) 2010-11-12 2010-11-12 Image / audio recording and playback device

Publications (2)

Publication Number Publication Date
JP2012105174A true JP2012105174A (en) 2012-05-31
JP5478462B2 JP5478462B2 (en) 2014-04-23

Family

ID=46395043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010253536A Active JP5478462B2 (en) 2010-11-12 2010-11-12 Image / audio recording and playback device

Country Status (1)

Country Link
JP (1) JP5478462B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039431A (en) * 2019-08-30 2021-03-11 株式会社Subaru Vehicle information system
WO2022053862A1 (en) * 2020-09-10 2022-03-17 日産自動車株式会社 Information output device and information output method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274320A (en) * 2002-03-15 2003-09-26 Konica Corp Imaging device and device and method for image information processing
JP2007179368A (en) * 2005-12-28 2007-07-12 Mekiki Creates Co Ltd Image editing support system, apparatus, method and program
WO2008072305A1 (en) * 2006-12-11 2008-06-19 Pioneer Corporation Information processing apparatus, information recording apparatus, method of information processing, method of information recording, information processing program, information recording program and computer-readable recording medium
JP2008290584A (en) * 2007-05-24 2008-12-04 Toyota Motor Corp In-vehicle camera system
JP2010217318A (en) * 2009-03-13 2010-09-30 Equos Research Co Ltd Passenger search device and passenger search program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274320A (en) * 2002-03-15 2003-09-26 Konica Corp Imaging device and device and method for image information processing
JP2007179368A (en) * 2005-12-28 2007-07-12 Mekiki Creates Co Ltd Image editing support system, apparatus, method and program
WO2008072305A1 (en) * 2006-12-11 2008-06-19 Pioneer Corporation Information processing apparatus, information recording apparatus, method of information processing, method of information recording, information processing program, information recording program and computer-readable recording medium
JP2008290584A (en) * 2007-05-24 2008-12-04 Toyota Motor Corp In-vehicle camera system
JP2010217318A (en) * 2009-03-13 2010-09-30 Equos Research Co Ltd Passenger search device and passenger search program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039431A (en) * 2019-08-30 2021-03-11 株式会社Subaru Vehicle information system
JP7291037B2 (en) 2019-08-30 2023-06-14 株式会社Subaru vehicle information system
WO2022053862A1 (en) * 2020-09-10 2022-03-17 日産自動車株式会社 Information output device and information output method
CN116325715A (en) * 2020-09-10 2023-06-23 日产自动车株式会社 Information output apparatus and information output method
US11841980B2 (en) 2020-09-10 2023-12-12 Nissan Motor Co., Ltd. Information output device and method of controlling information output based on vehicle occupancy
JP7450045B2 (en) 2020-09-10 2024-03-14 日産自動車株式会社 Information output device and information output method

Also Published As

Publication number Publication date
JP5478462B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
JP4516111B2 (en) Image editing apparatus, image editing method, image editing program, and computer-readable recording medium
US20130100329A1 (en) Image pickup apparatus
JP2008039628A (en) Route retrieval device
JP2006338553A (en) Content reproducing device
JP7028608B2 (en) Information processing equipment, information processing methods, and programs
JP2005293339A (en) Information processor and information processing method
JP2008039573A (en) Memory information presentation system
JP5478462B2 (en) Image / audio recording and playback device
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP2011128664A (en) Apparatus and method for processing information, and program
JP2003032590A (en) Video recording system utilizing navigation device and navigation device
JP2011227616A (en) Drive recorder for bus
JP2007089075A (en) Image pickup device, navigation device, and positional information storage system
JP5387115B2 (en) Image display device and image display program
JP2003125346A (en) Recording and regenerating equipment and method, recording medium and program
JP2013239988A (en) Portable terminal, recording device, and life recorder including them
JP6861562B2 (en) Image sharing system, image sharing server and image sharing method
JP4363318B2 (en) Navigation album system
JP6925175B2 (en) Vehicle equipment and information processing method
JP2006190206A (en) Processor, and its method, its program and its program recording medium
KR20060095315A (en) Digital photographing apparatus with gps function and method for storing information of photographing place thereof
JP2023095046A (en) Information processing system
JP2006126954A (en) Image processing system and image processing method
KR20100022247A (en) System recording image of travel for car
JP2023125031A (en) video creation program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5478462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250