JP7137287B2 - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
JP7137287B2
JP7137287B2 JP2020192260A JP2020192260A JP7137287B2 JP 7137287 B2 JP7137287 B2 JP 7137287B2 JP 2020192260 A JP2020192260 A JP 2020192260A JP 2020192260 A JP2020192260 A JP 2020192260A JP 7137287 B2 JP7137287 B2 JP 7137287B2
Authority
JP
Japan
Prior art keywords
image
data
navigation
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020192260A
Other languages
Japanese (ja)
Other versions
JP2021036723A (en
Inventor
靖雄 無津呂
圭介 稲田
博樹 溝添
明仁 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2020192260A priority Critical patent/JP7137287B2/en
Publication of JP2021036723A publication Critical patent/JP2021036723A/en
Priority to JP2022139416A priority patent/JP7420886B2/en
Application granted granted Critical
Publication of JP7137287B2 publication Critical patent/JP7137287B2/en
Priority to JP2024002445A priority patent/JP2024038333A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、位置情報を示す画像とユーザの撮影画像を1つの動画像として記録・再生するシステム及び方法に関するものである。 The present invention relates to a system and method for recording and reproducing an image indicating position information and a captured image of a user as one moving image.

近年、スチルカメラやビデオカメラのデジタル化が進み、ユーザが非常に手軽に撮影・記録をすることが可能になり、たくさんの映像情報を記録できるようになった。このため、例えば、長行程の旅行などに出かけた場合、旅行が終わった後で撮影した映像を見たとき、どの映像をどこで撮影したのかが分からなくなった場合などが生じることが考えられる。このとき、ひとつの映像データに地図情報と撮影した映像が一緒になっていると、後から見たり整理したりする場合に非常に便利である。また、複数箇所に設置している監視用途ビデオカメラで撮影したデータでも、ひとつの映像データに位置情報を示す画像と撮影した映像が一緒になっていると、非常に便利である。 In recent years, the digitalization of still cameras and video cameras has progressed, making it possible for users to shoot and record very easily, and to record a large amount of video information. For this reason, for example, when a person goes on a long trip or the like, when he or she looks at the captured images after the trip, it is conceivable that the user may lose track of which images were captured where. At this time, if the map information and the captured image are included in one piece of image data, it is very convenient for later viewing and sorting. In addition, it is very convenient if the image indicating the location information and the captured image are included in one piece of image data, even for the data captured by surveillance video cameras installed in multiple locations.

これに近い技術として、近年タクシーなどに搭載され始めている、ドライビングレコーダの技術がある。ドライビングレコーダは自動的に撮影タイミングを決定して、位置情報を含めた状況データと撮影データを記録するものである。自動的に撮影タイミングを決定するため、場合によっては必要のないデータを多量に記録するため、それを防ぐ技術が発明されている。例えば、特許文献1では、記録データの取捨選択に学習機能を用いており、撮影した際に、ユーザが後から要/不要情報を入力することで撮影の要否を学習する。 As a technology similar to this, there is a technology of a driving recorder, which has started to be installed in taxis and the like in recent years. The driving recorder automatically determines the timing of photographing and records situation data including position information and photographing data. Techniques have been invented to prevent the recording of a large amount of unnecessary data due to the automatic determination of the photographing timing. For example, in Patent Document 1, a learning function is used to select recording data, and the user learns whether or not photography is necessary by inputting necessary/unnecessary information after photographing.

特開2007-11907号公報Japanese Unexamined Patent Application Publication No. 2007-11907

しかしながら、自動的に撮影するため、完全にユーザの要否に合わせられるかというと、合わない可能性もあり、ユーザが好みの映像を地図情報とともに自由に撮影することにはそぐわない。 However, since shooting is performed automatically, there is a possibility that it will not be completely matched to the needs of the user, and it is not suitable for the user to freely shoot a desired image together with the map information.

本発明は、上記のような課題を鑑みてなされたものであり、複雑な処理を行うことなく、位置情報を示す画像とユーザの撮影画像を1つの動画像として記録・再生するシステム及び方法を提供する。 SUMMARY OF THE INVENTION The present invention has been made in view of the problems described above, and provides a system and method for recording and reproducing an image indicating position information and an image captured by the user as a single moving image without performing complicated processing. offer.

ビデオカメラに、通常の撮影画像を入力する手段のほかに、別の映像入力源から画像を入力する手段を設け、さらに、これら2つの入力手段からの映像データを調停して取り込み、メモリに格納する画像入力調停部を設ける。これにより、上記別の映像入力源を、カーナビゲーションの映像出力端子とすることで、カーナビゲーションの画面(地図情報)と、ユーザが撮影した画像を合わせてメモリ内に取り込める。また、監視用途ビデオカメラなどにおいては、地図画像データをあらかじめ保存している媒体、例えばUSBフラッシュメモリやSDカードなどと該媒体から地図画像データを読み出す読み出し手段を別の映像入力源とすることで、同様にメモリ内に取り込める。このメモリ内のデータを動画像として圧縮・符号化処理することで、位置情報を示す画像とユーザの撮影画像を1つの動画像として処理できる。 The video camera is provided with a means for inputting an image from another video input source in addition to a means for inputting an ordinary photographed image, and the video data from these two input means are arbitrated and fetched and stored in a memory. An image input arbitration unit is provided. As a result, by using the video output terminal of the car navigation system as the other video input source, the screen of the car navigation system (map information) and the image captured by the user can be captured in the memory together. In a video camera for surveillance use, a medium in which map image data is stored in advance, such as a USB flash memory or an SD card, and a reading means for reading out the map image data from the medium can be used as separate video input sources. , can also be captured in memory. By compressing and encoding the data in this memory as a moving image, the image indicating the position information and the captured image of the user can be processed as one moving image.

本発明によれば、複雑な処理を行うことなく、位置情報を示す画像とユーザの撮影画像を1つの動画像として記録・再生できる。 According to the present invention, it is possible to record/reproduce an image indicating position information and a photographed image of the user as one moving image without performing complicated processing.

実施例1の画像記録・再生システムの構成図Schematic diagram of the image recording/reproducing system of the first embodiment 実施例1の画像記録・再生システムのフロー図Flow chart of the image recording/playback system of the first embodiment 実施例1の画像記録・再生システムで生成したストリームデータ模式図Schematic diagram of stream data generated by the image recording/playback system of Example 1 実施例2の画像記録・再生システムの構成図Schematic diagram of image recording/playback system of embodiment 2 実施例2の画像記録・再生システムのフロー図Flow chart of image recording/playback system of embodiment 2 実施例2の画像記録・再生システムで生成したストリームデータ模式図Schematic diagram of stream data generated by the image recording/playback system of Example 2 実施例3の画像記録・再生システムの構成図Configuration diagram of the image recording/reproducing system of the third embodiment ホットスポットでストリームデータを転送するシステムの概略図Schematic diagram of a system for transferring stream data over hotspots サムネール表示例Thumbnail display example

本発明を実施するための最良の形態を説明する。 The best mode for carrying out the present invention will be described.

以下、本発明の画像記録・再生システム及び方法の実施例について、図面を用いて説明する。 Hereinafter, embodiments of the image recording/reproducing system and method of the present invention will be described with reference to the drawings.

実施例1を説明する。本実施例において、ユーザが撮影指示を出してから撮影が行われるまでの動作を図1乃至3を用いて説明する。図1は本発明の第1の実施例での画像記録・再生システムを図示したものであり、ビデオカメラ1はユーザが撮影指示を始めとする各種指示を直接入力する、例えばボタンやタッチパネルなどのような操作入力部11、撮影に関する各部の制御を行う制御部12、ユーザが撮影を行う対象画像を入力し、デジタル化を行って撮影画像データを出力する撮影画像入力部13、後述のナビゲーションシステム2からの映像を入力する外部映像入力部14、撮影画像入力部13から入力される該撮影画像データおよび外部画像入力部14から入力されるナビゲーション画像データの順番を調停し、出力する画像入力調停部15、画像入力調停部15から出力されるデータを一時保持する画像メモリ部16、画像メモリ部16から画像データを読み出し、MPEG2やH.264などの方式で画像圧縮・符号化を行い、符号化画像データを出力する画像エンコード部17、ユーザが撮影を行う対象の音声を入力し、デジタル化を行って音声データを出力する音声入力部18、音声入力部18が出力する音声データを、AC3やDolbyDigitalなどの方式で音声圧縮を行い、符号化音声データを出力する音声エンコード部19、該符号化画像データ、および該符号化音声データを多重化してストリームデータを出力するデータ生成部1A、該ストリームデータを後述の記録媒体に記録するデータ記録部1B、及びDVDやBlu-ray(登録商標)、ハードディスク、半導体メモリなどの記録媒体1Cを有する。ビデオカメラ1は、AVケーブル3を介してナビゲーション2と接続される。ナビゲーション2は、ナビゲーション本体部21、ナビゲーション表示部22を有し、ナビゲーション本体部21はナビゲーション映像を出力するナビゲーション画像出力部211を有する。ナビゲーション211は、ナビゲーション表示部22に映像信号を常時出力しているのと同様に、外部映像端子(図示せず)などに接続したAVケーブル3へも信号を出力する。 Example 1 will be described. In this embodiment, the operation from when the user issues a photographing instruction to when photographing is performed will be described with reference to FIGS. 1 to 3. FIG. FIG. 1 shows an image recording/reproducing system according to a first embodiment of the present invention. A video camera 1 allows a user to directly input various instructions including a photographing instruction, such as a button or touch panel. a control unit 12 for controlling each unit related to photographing; a photographed image input unit 13 for inputting a target image to be photographed by a user, digitizing it and outputting photographed image data; and a navigation system to be described later. Image input arbitration for arbitrating the order of the external video input unit 14 that inputs the video from 2, the captured image data input from the captured image input unit 13, and the navigation image data input from the external image input unit 14, and outputting. section 15, an image memory section 16 for temporarily holding data output from the image input arbitration section 15, image data is read out from the image memory section 16, and MPEG2 or H.264 is processed. An image encoding unit 17 that performs image compression/encoding by a method such as H.264 and outputs encoded image data, and an audio input unit that inputs audio of an object to be photographed by the user, digitizes it, and outputs audio data. 18. Audio data output from the audio input unit 18 is audio-compressed by a method such as AC3 or Dolby Digital, and an audio encoding unit 19 for outputting encoded audio data; A data generation unit 1A that multiplexes and outputs stream data, a data recording unit 1B that records the stream data on a recording medium described later, and a recording medium 1C such as a DVD, Blu-ray (registered trademark), hard disk, semiconductor memory, etc. have. A video camera 1 is connected to a navigation system 2 via an AV cable 3. The navigation unit 2 has a navigation main unit 21 and a navigation display unit 22, and the navigation main unit 21 has a navigation image output unit 211 for outputting navigation images. The navigation 211 outputs a signal to the AV cable 3 connected to an external video terminal (not shown) or the like in the same way as it always outputs the video signal to the navigation display section 22 .

図2は実施例1での各部の動作フローを示している。 FIG. 2 shows the operation flow of each part in the first embodiment.

実施例1の画像記録・再生システムにおける撮影手順について説明する。ユーザは、ビデオカメラ1のボタンやスイッチなどにより操作入力部11に撮影指示を出す。操作入力部11は制御部12へ撮影開始指示を出す。制御部12は撮影画像入力部13、音声入力部18、および外部画像入力部14に起動指示を出す。外部画像入力部14は、ナビゲーション2の外部映像端子などから常時出力されている映像信号を、該起動指示によりAVケーブル3を介して取り込み、ナビゲーション画像データを生成して画像入力調停部15へ出力する。撮影画像入力部13はユーザが撮影を行う対象の画像を入力し、デジタル化を行って撮影画像データを生成し、画像入力調停部15へ出力する。音声入力部18はユーザが撮影を行う対象の音声を入力し、デジタル化を行って音声データを生成し、音声エンコード部19へ出力する。画像入力調停部15に入力された該ナビゲーション画像データおよび該撮影画像データは、この順番で符号化されるように定められた、画像メモリ16の領域に一時保持する。つまり、後段の画像エンコード部17が1枚目の画像データを処理する際に読み出す画像メモリ部16のある領域に該ナビゲーション画像データを、2枚目以降の画像データを処理する際に読み出す画像メモリ部16の別の領域に該撮影画像データを一時保持する。画像メモリ部16に一時保持した該ナビゲーション画像データおよび該撮影画像データはこの順番で画像エンコード部17に画像データとして読み出される。画像エンコード部17は該画像データの画像圧縮、符号化を行う。ここで、画像エンコード部17は最初の画像であるナビゲーション画像データを1画面内のデータのみで圧縮・符号化を行う例えばH.264のIピクチャとして圧縮・符号化を行う。該ナビゲーション画像データに続く該撮影画像データを、該撮影画像データの最初の1画面分の画像データを同様にIピクチャとして圧縮・符号化を行い。それ以降の画像は、例えば前方向や後方向の画像から予測して圧縮・符号化を行う例えばPピクチャやBピクチャ、または1画面内のデータのみで圧縮・符号化を行う例えばIピクチャ、またはそれらの混在データとして圧縮・符号化を行い、符号化画像データを生成し、データ生成部1Aに出力する。また、画像エンコード部17は圧縮・符号化処理をリアルタイム動作に近づけるために、例えば符号量を少なくして処理を軽くするために量子化を粗くして処理したり、一時的にクロック周波数を上げるなどして、処理速度を変える。一方、音声エンコード部19に入力された該音声データは、音声エンコード部19により圧縮・符号化を行い、符号化音声データを生成し、データ生成部1Aに出力する。データ生成部1Aは該符号化画像データおよび該符号化音声データを多重化して動画像のストリームデータを生成する。ストリームデータの概略図(一例)を図3に示す。図3では、ストリームデータを復号・伸張処理を行った画像の順番で上から順に示している。最初の画像はナビゲーション画面を示しており、Iピクチャとして圧縮・符号化され、音声データがないように多重化しており、2番目、3番目、4番目の画像は撮影画像データを示しており、2番目の画像はIピクチャ、3番目の画像はBピクチャ、4番目の画像はPピクチャとして圧縮・符号化され、音声データは該符号化音声データを使用して多重化している。データ生成部1Aで生成された該ストリームデータはデータ記録部1Bに出力され、データ記録部1Bは該ストリームデータを記録媒体1Cに記録する。 A photographing procedure in the image recording/reproducing system of the first embodiment will be described. A user issues a photographing instruction to the operation input unit 11 using buttons, switches, or the like of the video camera 1 . The operation input unit 11 issues an imaging start instruction to the control unit 12 . The control unit 12 issues an activation instruction to the captured image input unit 13 , the voice input unit 18 and the external image input unit 14 . The external image input unit 14 takes in a video signal constantly output from an external video terminal or the like of the navigation 2 via the AV cable 3 in response to the activation instruction, generates navigation image data, and outputs it to the image input arbitration unit 15. do. The photographed image input unit 13 receives an image of a subject to be photographed by the user, digitizes it to generate photographed image data, and outputs the photographed image data to the image input arbitration unit 15 . The audio input unit 18 receives the audio of the object to be photographed by the user, digitizes it to generate audio data, and outputs the audio data to the audio encoding unit 19 . The navigation image data and the photographed image data input to the image input arbitration unit 15 are temporarily held in an area of the image memory 16 determined to be encoded in this order. That is, the navigation image data is stored in an area of the image memory unit 16 that is read out when the subsequent image encoding unit 17 processes the first image data, and the image memory is read out when processing the second and subsequent image data. The photographed image data is temporarily held in another area of the unit 16 . The navigation image data and the photographic image data temporarily held in the image memory section 16 are read as image data by the image encoding section 17 in this order. The image encoding unit 17 performs image compression and encoding of the image data. Here, the image encoding unit 17 compresses and encodes the navigation image data, which is the first image, using only the data within one screen. It compresses and encodes as an I picture of H.264. The photographed image data following the navigation image data is similarly compressed and encoded using the image data for the first screen of the photographed image data as an I-picture. Subsequent pictures are, for example, P pictures and B pictures that are predicted from forward and backward pictures and are compressed and coded, or for example, I pictures that are compressed and coded only with data within one screen, or The mixed data is compressed and encoded to generate encoded image data, which is output to the data generation unit 1A. Further, the image encoding unit 17 performs processing with rough quantization in order to reduce the code amount and lighten the processing, or temporarily increases the clock frequency, in order to bring the compression/encoding processing closer to real-time operation. to change the processing speed. On the other hand, the audio data input to the audio encoding section 19 is compressed and encoded by the audio encoding section 19 to generate encoded audio data, which is output to the data generating section 1A. The data generator 1A multiplexes the coded image data and the coded audio data to generate moving image stream data. FIG. 3 shows a schematic diagram (one example) of stream data. In FIG. 3, stream data are shown in the order of images subjected to decoding and decompression processing from the top. The first image shows the navigation screen, which is compressed and coded as an I-picture, multiplexed so that there is no audio data, and the second, third, and fourth images show the captured image data. The second picture is an I picture, the third picture is a B picture, and the fourth picture is compressed and coded as a P picture, and audio data is multiplexed using the coded audio data. The stream data generated by the data generating section 1A is output to the data recording section 1B, and the data recording section 1B records the stream data on the recording medium 1C.

このように記録した該ストリームデータをビデオカメラ1で再生するためには、ストリームデータのピクチャタイプを解析する、図示していないピクチャ解析部を設け、Iピクチャが2枚以上連続するストリームデータであれば、最初のIピクチャを図示していないビデオカメラ1の表示部に出力したのち、あらかじめ設定しておいた時間同じ画像を表示し、その後次のIピクチャを該表示部に出力する。続くピクチャがIピクチャでなければ、通常のビデオデータの再生のように、次々に該表示部に出力する。なお、Iピクチャが2枚以上連続するストリームデータであれば、最初のIピクチャを図示していないビデオカメラ1の表示部に出力したのち、あらかじめ設定しておいた時間同じ画像を表示する、としたが、例えばユーザが再生ボタンを押すなどの操作をするまで同じ画像を表示する、といったユーザ操作を起点にして次の画像を表示しても良い。 In order to reproduce the stream data recorded in this way on the video camera 1, a picture analysis unit (not shown) for analyzing the picture type of the stream data is provided. For example, after the first I-picture is output to the display unit of the video camera 1 (not shown), the same image is displayed for a preset time, and then the next I-picture is output to the display unit. If the following pictures are not I-pictures, they are output to the display section one after another like normal video data reproduction. If two or more I-pictures are stream data, the first I-picture is output to the display unit of the video camera 1 (not shown), and then the same image is displayed for a preset time. However, the next image may be displayed starting from a user operation, such as displaying the same image until the user performs an operation such as pressing a play button.

また、例えばDVD-Video規格のStillコマンドのようにストリーム再生を停止するためのデータをストリーム内に埋め込む仕組みがある動画像圧縮・符号化方式では、ナビゲーション画面のピクチャと2画面目以降の撮影画像のピクチャとで例えばVOBU(Video Object Unit)を分けてVOBU Stillコマンドをデータ生成部1Aで挿入することで、ビデオカメラ1以外の機器での再生に対応させても良い。 For example, in a moving image compression/encoding method that embeds data for stopping stream playback, such as the still command of the DVD-Video standard, in a video image, the picture of the navigation screen and the captured images of the second and subsequent screens are used. For example, a VOBU (Video Object Unit) may be separated from a picture and a VOBU Still command may be inserted by the data generation unit 1A to support playback on a device other than the video camera 1. FIG.

以上のように、ビデオカメラに通常の撮影画像を入力する手段のほかに、別の映像入力源から画像を入力する手段を設け、さらに、これら2つの入力手段からの映像データを調停して取り込み、メモリに格納する画像入力調停部を設け、上記別の映像入力源を、カーナビゲーションの映像出力端子とすることで、カーナビゲーションの画面(地図情報)と、ユーザが撮影した画像を合わせてメモリ内に取り込める。このメモリ内のデータを動画像として圧縮・符号化処理することで、地図情報とユーザの撮影画像を1つの動画像として処理できる効果が得られる。 As described above, in addition to the means for inputting normal shot images into the video camera, means for inputting images from another video input source is provided, and video data from these two input means are arbitrated and captured. By providing an image input arbitration unit for storing in memory and using the video output terminal of the car navigation system as the other video input source, the screen of the car navigation system (map information) and the image taken by the user are combined into the memory. can be taken inside. By compressing and encoding the data in this memory as a moving image, it is possible to process the map information and the image captured by the user as one moving image.

また、本実施例ではビデオカメラ1の外部にナビゲーション2が接続されているとしたが、ビデオカメラ1とナビゲーション2がひとつの機器となっていても同様の効果が得られる。 Also, in this embodiment, the navigation 2 is connected to the outside of the video camera 1, but the same effect can be obtained even if the video camera 1 and the navigation 2 are one device.

また、記録媒体1Cに記録したストリームデータは、街中に設置されている無線LAN環境(ホットスポット)などを経由して、ネットワーク上のサーバなどに自動的に転送しても良い。図8はホットスポットの環境下で該ストリームデータをサーバに転送するシステムの概略図を示している。ビデオカメラ1は記録媒体1Cから該ストリームデータを読み出すデータ読み出し部1E、該ストリームデータを無線でネットワーク4に送信する無線通信部1Fを有する。無線通信部1Fから出力された該ストリームデータはネットワーク4に接続されているサーバ5に転送される。 Also, the stream data recorded on the recording medium 1C may be automatically transferred to a server on the network via a wireless LAN environment (hot spot) installed in the city. FIG. 8 shows a schematic diagram of a system for transferring the stream data to a server under hotspot environment. The video camera 1 has a data reading section 1E for reading the stream data from the recording medium 1C and a wireless communication section 1F for wirelessly transmitting the stream data to the network 4. FIG. The stream data output from the wireless communication unit 1F is transferred to the server 5 connected to the network 4. FIG.

また、本実施例ではデータ生成部1Aは単にストリームデータを生成するとしたが、ナビゲーション2からナビゲーション画像データとは別に、現在位置情報を受け取り、該現在位置情報と関連付けてストリームデータを生成し、データ記録部1Bに出力し、記録媒体1Cに記録しても良い。このとき、記録媒体1Cに記録されているストリームデータのサムネール画面を生成するとき、該現在位置情報を手がかりに、図9のように地図画面と組み合わせてサムネール表示画面を構成してもよい。図9の例では、該ストリームデータに関連付けられている位置情報に相当する地図上の位置を丸印で示し、該ストリームデータの撮影画像の最初の1枚目の画像を丸印に関連付けて表示している。また、複数の記録媒体をビデオカメラ1が有しているとき、例えばハードディスクとDVDを有しているとき、ビデオカメラ1の通常使用時はハードディスクに記録し、それらのストリームデータをユーザが選択・編集してDVDに記録するときなど、図9の画面のようなタイトル画面を自動的に作成し、DVDに記録しても良い。 In this embodiment, the data generation unit 1A simply generates stream data. It may be output to the recording section 1B and recorded on the recording medium 1C. At this time, when the thumbnail screen of the stream data recorded on the recording medium 1C is generated, the current position information may be used as a clue and combined with the map screen as shown in FIG. 9 to configure the thumbnail display screen. In the example of FIG. 9, the position on the map corresponding to the position information associated with the stream data is indicated by a circle, and the first image of the shot images of the stream data is displayed in association with the circle. is doing. When the video camera 1 has a plurality of recording media, for example, a hard disk and a DVD, the video camera 1 normally uses the hard disk for recording, and the user selects and stores the stream data. When editing and recording on a DVD, a title screen such as the one shown in FIG. 9 may be automatically created and recorded on the DVD.

また、本実施例ではユーザがビデオカメラ1のボタンやスイッチなどを操作して操作入力部11から撮影指示を出すとしたが、ナビゲーション2とビデオカメラ1にUSBやBlutoothや無線LANなどの通信手段を設け、ユーザがナビゲーション2に対してあらかじめ撮影したい地点を設定しておき、設定した地点に移動したときにナビゲーション2からビデオカメラ1の操作入力部11に対して撮影指示を出力し、操作入力部11が制御部12に撮影開始指示を出力することで撮影の開始を行っても良い。 In this embodiment, the user operates the buttons and switches of the video camera 1 to issue a photographing instruction from the operation input unit 11. However, the navigation 2 and the video camera 1 may be connected to communication means such as USB, Bluetooth, wireless LAN, or the like. is provided, and the user sets a point to be photographed in advance for the navigation 2, and when the user moves to the set point, the navigation 2 outputs a photographing instruction to the operation input unit 11 of the video camera 1, and the operation input The photographing may be started by the unit 11 outputting a photographing start instruction to the control unit 12 .

また、ナビゲーション2とAVケーブル3の代わりに、地図画像データをあらかじめ保存している媒体、例えばUSBフラッシュメモリやSDカードなどと該媒体から地図画像データを読み出す読み出し装置に置き換えること、および図8に示しているようにホットスポット環境下でネットワーク上のサーバにデータを転送すること、および記録媒体に記録された圧縮画像データを読み出し、ユーザによって設定された所定のタイミングで該圧縮画像データをパケット化してネットワークに送出する送出手段を有することで複数箇所に設置している監視用途などのビデオカメラにおいても同様の効果が得られる。このとき、無線通信部1Fは有線LANで通信する機能と置き換えても良い。 Also, instead of the navigation 2 and the AV cable 3, a medium in which the map image data is stored in advance, such as a USB flash memory or an SD card, and a reading device for reading out the map image data from the medium may be substituted. Transferring data to a server on a network under a hotspot environment as shown, reading compressed image data recorded on a recording medium, and packetizing the compressed image data at a predetermined timing set by a user A similar effect can be obtained in a video camera for monitoring use installed in a plurality of places by having a transmission means for transmitting to a network. At this time, the wireless communication unit 1F may be replaced with a function of communicating with a wired LAN.

実施例2を説明する。図4は本発明の第2の実施例での画像記録・再生システムを図示したものである。本実施例において、実施例1と構成上異なるのは、ビデオカメラ1が図1の構成に加え、ナビゲーションシステム2からの音声を入力する外部音声入力部181、音声入力部18から入力される音声データおよび外部音声入力部181から入力されるナビゲーション音声データの順番を調停し、出力する音声入力調停部182、音声入力調停部182から出力されるデータを一時保持する音声メモリ部183、ナビゲーション2へ音声を起動するように音声起動指示を例えば赤外線通信などでナビゲーション2へ送信する音声起動部1Dを有している点、およびナビゲーション2のナビゲーション本体部21が図1の構成に加え、ビデオカメラ1の音声起動部1Dから音声起動指示を赤外線通信などで受信し、ナビゲーションの音声を出力するように起動指示を出すナビゲーション音声起動部213、および該起動指示によりナビゲーション音声を出力するナビゲーション音声出力部212を有している点である。 Example 2 will be described. FIG. 4 illustrates an image recording/reproducing system according to a second embodiment of the present invention. This embodiment differs from the first embodiment in that, in addition to the configuration shown in FIG. A voice input arbitration unit 182 that arbitrates the order of data and navigation voice data input from the external voice input unit 181 and outputs them, a voice memory unit 183 that temporarily holds the data output from the voice input arbitration unit 182, In addition to the configuration shown in FIG. A navigation voice activation unit 213 that receives a voice activation instruction from the voice activation unit 1D via infrared communication or the like, issues a activation instruction to output a navigation voice, and a navigation voice output unit 212 that outputs a navigation voice according to the activation instruction. It is a point that has

図5は実施例2での各部の動作フローを示している。 FIG. 5 shows the operation flow of each part in the second embodiment.

実施例2の画像記録・再生システムにおける撮影手順について説明する。ユーザは、ビデオカメラ1の操作入力部11に撮影指示を出す。この撮影指示は、例えばナビゲーションの「現在地」ボタンを押す操作など、ナビゲーション2から位置情報などを示す音声を起動するための操作でも良い。操作入力部11は制御部12へ撮影開始指示を出す。また、操作入力部11は音声起動部1Dに音声起動指示を出す。制御部12は撮影画像入力部13、音声入力部18、外部画像入力部14、および外部音声入力部181に起動指示を出す。外部画像入力部14は、ナビゲーション2から外部映像端子などから常時出力されている映像信号を、該起動指示により取り込み、ナビゲーション画像データを生成して画像入力調停部15へ出力する。この場合のナビゲーション画像データは、あらかじめユーザなどにより設定された一定時間分の、1ピクチャ以上のデータである。撮影画像入力部13はユーザが撮影を行う対象の画像を入力し、デジタル化を行って撮影画像データを生成し、画像入力調停部15へ出力する。一方、操作入力部11によって音声起動部1Dに出された音声起動指示により、音声起動部1Dは、赤外線通信などによりナビゲーション2のナビゲーション音声起動部213に音声起動指示を出す。この音声起動指示は、一般的にナビゲーションの機能として有している、ナビゲーションに付属の図示していないリモコンなどの「現在地」ボタンなどを押したときのリモコンからナビゲーション2に対して出力される信号と同じものを音声起動部から出力しても良い。ナビゲーション音声起動部213は該音声起動指示を受信すると、ナビゲーション音声出力部212に起動指示を出す。ナビゲーション音声出力部は該起動指示により、例えば「現在地は横浜市戸塚区吉田町付近です。」などといった音声を出力し、外部音声端子などから出力する。外部音声入力部181は、ナビゲーション2から外部音声端子などから出力されているナビゲーション音声を、制御部12からの該起動指示により取り込み、ナビゲーション音声データを生成して音声入力調停部15へ出力する。この場合のナビゲーション音声データは、あらかじめユーザなどにより設定された一定時間分のデータである。この設定された時間は、外部画像入力部14が取り込むときの時間と同じでも良い。また音声入力部18はユーザが撮影を行う対象の音声を入力し、デジタル化を行って音声データを生成し、音声エンコード部19へ出力する。画像入力調停部15に入力された該ナビゲーション画像データおよび該撮影画像データは、この順番で符号化されるように定められた、画像メモリ16の領域に一時保持する。つまり、後段の画像エンコード部17が1枚目の画像データを処理する際に読み出す画像メモリ部16のある領域に該ナビゲーション画像データを、2枚目以降の画像データを処理する際に読み出す画像メモリ部16の別の領域に該撮影画像データを一時保持する。画像メモリ部16に一時保持した該ナビゲーション画像データおよび該撮影画像データはこの順番で画像エンコード部17に画像データとして読み出される。画像エンコード部17は該画像データの画像圧縮、符号化を行う。ここで、画像エンコード部17は最初の画像であるナビゲーション画像データを1画面内のデータのみで圧縮・符号化を行う例えばH.264のIピクチャとして圧縮・符号化を行う。該ナビゲーション画像データに続く該撮影画像データを、該撮影画像データの最初の1画面分の画像データを同様にIピクチャとして圧縮・符号化を行い。それ以降の画像は、例えば前方向や後方向の画像から予測して圧縮・符号化を行う例えばPピクチャやBピクチャ、または1画面内のデータのみで圧縮・符号化を行う例えばIピクチャ、またはそれらの混在データとして圧縮・符号化を行い、符号化画像データを生成し、データ生成部1Aに出力する。一方、音声入力調停部182に入力された該ナビゲーション音声データおよび該音声データは、この順番で符号化されるように定められた、音声メモリ183の領域に一時保持する。音声メモリ部183に一時保持した該ナビゲーション音声データおよび該音声データはこの順番で音声エンコード部19に混在音声データとして読み出される。音声エンコード部19に入力された該混在音声データは、音声エンコード部19により圧縮・符号化を行い、符号化音声データを生成し、データ生成部1Aに出力する。データ生成部1Aは該符号化画像データおよび該符号化音声データを多重化して動画像のストリームデータを生成する。ストリームデータの概略図(一例)を図6に示す。図6では、ストリームデータを復号・伸張処理を行った画像の順番で上から順に示している。上部3枚の画像はナビゲーション画面を示しており、上から順にI、B、Pピクチャとして圧縮・符号化され、音声データは該符号化音声データの外部音声データに相当するデータを多重化している。また下部3枚の画像は撮影画像データを示しており、上から4番目の画像から順にI、B、Pピクチャとして圧縮・符号化され、音声データは該符号化音声データの音声データに相当するデータを使用して多重化している。なお、図6において上部3枚は同じ画像になっているが、夫々異なるナビゲーション画像であってもよい。データ生成部1Aで生成された該ストリームデータはデータ記録部1Bに出力され、データ記録部1Bは該ストリームデータを記録媒体1Cに記録する。 A photographing procedure in the image recording/reproducing system of the second embodiment will be described. A user issues a photographing instruction to the operation input unit 11 of the video camera 1 . This photographing instruction may be an operation for activating a voice indicating position information from the navigation 2, such as an operation of pressing the "current location" button of the navigation. The operation input unit 11 issues an imaging start instruction to the control unit 12 . Further, the operation input unit 11 issues a voice activation instruction to the voice activation unit 1D. The control unit 12 issues an activation instruction to the captured image input unit 13 , the audio input unit 18 , the external image input unit 14 and the external audio input unit 181 . The external image input unit 14 takes in a video signal constantly output from an external video terminal or the like from the navigation device 2 according to the activation instruction, generates navigation image data, and outputs the generated navigation image data to the image input mediation unit 15 . The navigation image data in this case is data of one or more pictures for a certain period of time set in advance by a user or the like. The photographed image input unit 13 receives an image of a subject to be photographed by the user, digitizes it to generate photographed image data, and outputs the photographed image data to the image input arbitration unit 15 . On the other hand, in accordance with the voice activation instruction issued to the voice activation section 1D by the operation input section 11, the voice activation section 1D issues the voice activation instruction to the navigation voice activation section 213 of the navigation 2 by infrared communication or the like. This voice activation instruction is a signal that is output to the navigation device 2 from a remote control that is generally included as a function of navigation and that is output to the navigation device 2 when a "current location" button or the like on a remote control (not shown) attached to the navigation device is pressed. , may be output from the voice activation unit. Upon receiving the voice activation instruction, the navigation voice activation unit 213 issues an activation instruction to the navigation voice output unit 212 . In response to the activation instruction, the navigation voice output unit outputs a voice such as, for example, "My current location is near Yoshida-cho, Totsuka-ku, Yokohama." The external voice input unit 181 takes in the navigation voice output from the navigation device 2 through an external voice terminal or the like in response to the activation instruction from the control unit 12 , generates navigation voice data, and outputs the navigation voice data to the voice input arbitration unit 15 . The navigation voice data in this case is data for a certain period of time set in advance by the user or the like. This set time may be the same as the time when the external image input unit 14 captures the image. Also, the audio input unit 18 inputs the audio of the object to be photographed by the user, digitizes it to generate audio data, and outputs it to the audio encoding unit 19 . The navigation image data and the photographed image data input to the image input arbitration unit 15 are temporarily held in an area of the image memory 16 determined to be encoded in this order. That is, the navigation image data is stored in an area of the image memory unit 16 that is read out when the subsequent image encoding unit 17 processes the first image data, and the image memory is read out when processing the second and subsequent image data. The photographed image data is temporarily held in another area of the unit 16 . The navigation image data and the photographic image data temporarily held in the image memory section 16 are read as image data by the image encoding section 17 in this order. The image encoding unit 17 performs image compression and encoding of the image data. Here, the image encoding unit 17 compresses and encodes the navigation image data, which is the first image, using only the data within one screen. It compresses and encodes as an I picture of H.264. The photographed image data following the navigation image data is similarly compressed and encoded using the image data for the first screen of the photographed image data as an I-picture. Subsequent pictures are, for example, P pictures and B pictures that are predicted from forward and backward pictures and are compressed and coded, or for example, I pictures that are compressed and coded only with data within one screen, or The mixed data is compressed and encoded to generate encoded image data, which is output to the data generation unit 1A. On the other hand, the navigation voice data and the voice data input to the voice input arbitration unit 182 are temporarily held in an area of the voice memory 183 determined to be encoded in this order. The navigation voice data and the voice data temporarily held in the voice memory unit 183 are read out to the voice encoding unit 19 in this order as mixed voice data. The mixed audio data input to the audio encoding unit 19 is compressed and encoded by the audio encoding unit 19 to generate encoded audio data, which is output to the data generating unit 1A. The data generator 1A multiplexes the coded image data and the coded audio data to generate moving image stream data. FIG. 6 shows a schematic diagram (one example) of stream data. In FIG. 6, stream data are shown in the order of images subjected to decoding and decompression processing from the top. The upper three images show the navigation screen, which are compressed and encoded as I, B, and P pictures in order from the top, and audio data is multiplexed with data corresponding to external audio data of the encoded audio data. . The lower three images show captured image data, which are compressed and encoded as I, B, and P pictures in order from the fourth image from the top, and the audio data corresponds to the audio data of the encoded audio data. Multiplexing with data. Although the top three images in FIG. 6 are the same image, they may be different navigation images. The stream data generated by the data generating section 1A is output to the data recording section 1B, and the data recording section 1B records the stream data on the recording medium 1C.

以上の処理により、実施例1と同様の効果が得られる。 By the above processing, the same effects as those of the first embodiment can be obtained.

また、本実施例では該ナビゲーション画像データは、あらかじめユーザなどにより設定された一定時間分のデータとするとしたが、ナビゲーション2とビデオカメラ1にUSBやBlutoothや無線LANなどの通信手段を設け、ナビゲーション音声が終わったらナビゲーション2からビデオカメラ1の外部音声入力部181にナビゲーション音声終了通知を出力し、外部音声入力部181は該終了通知によりデータの終わりを判断するようにしても良い。 In this embodiment, the navigation image data is data for a certain period of time set in advance by the user or the like. When the voice ends, the navigation voice end notification may be output from the navigation device 2 to the external voice input section 181 of the video camera 1, and the external voice input section 181 may determine the end of the data based on the end notice.

実施例3を説明する。実施例1と異なるのは、実施例1ではビデオカメラ1とナビゲーション2がAVケーブル3で接続されていたところが、ビデオカメラ1にはC側無線通信手段32、ナビゲーション2にはN側無線通信手段31が接続している点である。C側無線通信手段32とN側無線通信手段31は赤外線通信や無線LAN、Bluetooth(登録商標)などの無線の通信プロトコルを用いて互いに通信してデータのやり取りを行う。 Example 3 will be described. The difference from embodiment 1 is that in embodiment 1 the video camera 1 and the navigation 2 are connected by the AV cable 3, but the video camera 1 has the C side wireless communication means 32 and the navigation 2 has the N side wireless communication means. 31 is connected. The C-side wireless communication means 32 and the N-side wireless communication means 31 communicate with each other and exchange data using wireless communication protocols such as infrared communication, wireless LAN, and Bluetooth (registered trademark).

実施例3の画像記録・再生システムにおける撮影手順は、実施例1でナビゲーション画像出力部211から外部画像入力部14へナビゲーション画像がAVケーブルでやり取りされていたところが、N側無線通信手段31、およびC側無線通信手段32によりナビゲーション画像をやり取りする点が異なること以外は実施例1と同様である。 In the imaging procedure in the image recording/reproducing system of the third embodiment, the navigation image is exchanged from the navigation image output unit 211 to the external image input unit 14 via the AV cable in the first embodiment, but the N side wireless communication means 31 and It is the same as the first embodiment except that the navigation image is exchanged by the C-side wireless communication means 32 .

以上の処理により、実施例1と同様の効果が得られる。 By the above processing, the same effects as those of the first embodiment can be obtained.

1 ビデオカメラ
11 操作入力部
12 制御部
13 撮影画像入力部
14 外部画像入力部
15 画像入力調停部
16 画像メモリ部
18 音声入力部
181 外部音声入力部
182 音声入力調停部
183 音声メモリ部
1D 音声起動部
2 ナビゲーション
21 ナビゲーション本体部
211 ナビゲーション画像出力部
212 ナビゲーション音声出力部
213 ナビゲーション音声起動部
22 ナビゲーション表示部
3 AVケーブル
1 video camera 11 operation input unit 12 control unit 13 captured image input unit 14 external image input unit 15 image input arbitration unit 16 image memory unit 18 audio input unit 181 external audio input unit 182 audio input arbitration unit 183 audio memory unit 1D audio activation Section 2 Navigation 21 Navigation body 211 Navigation image output section 212 Navigation sound output section 213 Navigation sound activation section 22 Navigation display section 3 AV cable

Claims (10)

画像処理装置であって、
複数の画像の入力を受ける第1インタフェースと、
前記複数の画像が取得された取得位置に関連する地図画像の入力を受ける、前記第1インタフェースとは異なる第2インタフェースと、
前記地図画像と前記複数の画像とを用いて生成された動画像を表示する表示部と、を備え、
前記表示部は、前記動画像を表示中に、前記表示中の動画像を構成する前記複数の画像から選択された一の画像に対応する一のサムネイル画像を、前記一の画像が取得された取得位置に対応する前記地図画像上の位置に関連させて、前記地図画像と共に表示することを特徴とする画像処理装置。
An image processing device,
a first interface for receiving input of a plurality of images;
a second interface, different from the first interface, for receiving an input of a map image associated with the capture location from which the plurality of images were captured;
a display unit for displaying a moving image generated using the map image and the plurality of images,
The display unit, while displaying the moving image, displays one thumbnail image corresponding to one image selected from the plurality of images constituting the moving image being displayed . An image processing apparatus, characterized in that the image is displayed together with the map image in association with a position on the map image corresponding to the acquired position.
請求項1記載の画像処理装置であって、
前記複数の画像各々が取得された取得位置に対応する地点を結ぶ線が前記地図画像上に表示されることを特徴とする画像処理装置。
The image processing device according to claim 1,
An image processing apparatus, wherein a line connecting points corresponding to acquisition positions where each of the plurality of images is acquired is displayed on the map image.
請求項2記載の画像処理装置であって、
前記一のサムネイル画像に関連する前記地図画像上の位置は前記上にあることを特徴とする画像処理装置。
The image processing device according to claim 2,
The image processing device, wherein a position on the map image related to the one thumbnail image is on the line .
請求項1記載の画像処理装置であって、
前記画像は動画像であることを特徴とする画像処理装置。
The image processing device according to claim 1,
An image processing apparatus, wherein the image is a moving image.
請求項1記載の画像処理装置であって、
前記動画像の最初の画像は地図画像を示す画像であることを特徴とする画像処理装置。
The image processing device according to claim 1,
An image processing apparatus, wherein the first image of the moving image is an image representing a map image.
画像処理方法であって、
第1インタフェースを介して複数の画像の入力を受けるステップと、
前記第1インタフェースとは異なる第2インタフェースを介して前記複数の画像が取得された取得位置に関連する地図画像の入力を受けるステップと、
前記地図画像と前記複数の画像とを用いて生成された動画像を表示部に表示するステップと、を備え、
前記動画像を前記表示部に表示中に、前記表示中の動画像を構成する前記複数の画像から選択された一の画像に対応する一のサムネイル画像を、前記一の画像が取得された取得位置に対応する前記地図画像上の位置に関連させて、前記地図画像と共に前記表示部に表示することを特徴とする画像処理方法。
An image processing method comprising:
receiving input of a plurality of images via a first interface;
receiving an input of a map image associated with an acquisition location from which the plurality of images were acquired via a second interface different from the first interface;
displaying a moving image generated using the map image and the plurality of images on a display unit;
acquiring one thumbnail image corresponding to one image selected from the plurality of images constituting the moving image being displayed while the moving image is being displayed on the display unit; An image processing method, wherein the image is displayed on the display unit together with the map image in association with the position on the map image corresponding to the position.
請求項6記載の画像処理方法であって、
前記複数の画像各々が取得された取得位置に対応する地点を結ぶ線が前記地図画像上に表示されることを特徴とする画像処理方法。
The image processing method according to claim 6,
An image processing method, wherein a line connecting points corresponding to acquisition positions where each of the plurality of images is acquired is displayed on the map image.
請求項7記載の画像処理方法であって、
前記一のサムネイル画像に関連する前記地図画像上の位置は前記上にあることを特徴とする画像処理方法。
The image processing method according to claim 7,
An image processing method, wherein a position on the map image related to the one thumbnail image is on the line .
請求項6記載の画像処理方法であって、
前記画像は動画像であることを特徴とする画像処理方法。
The image processing method according to claim 6,
An image processing method, wherein the image is a moving image.
請求項6記載の画像処理方法であって、
前記動画像の最初の画像は地図画像を示す画像であることを特徴とする画像処理方法。

The image processing method according to claim 6,
An image processing method, wherein the first image of the moving image is an image representing a map image.

JP2020192260A 2020-11-19 2020-11-19 Image processing device and method Active JP7137287B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020192260A JP7137287B2 (en) 2020-11-19 2020-11-19 Image processing device and method
JP2022139416A JP7420886B2 (en) 2020-11-19 2022-09-01 Image processing device and method
JP2024002445A JP2024038333A (en) 2020-11-19 2024-01-11 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020192260A JP7137287B2 (en) 2020-11-19 2020-11-19 Image processing device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019005164A Division JP6799092B2 (en) 2019-01-16 2019-01-16 Imaging device and imaging method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022139416A Division JP7420886B2 (en) 2020-11-19 2022-09-01 Image processing device and method

Publications (2)

Publication Number Publication Date
JP2021036723A JP2021036723A (en) 2021-03-04
JP7137287B2 true JP7137287B2 (en) 2022-09-14

Family

ID=74716836

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020192260A Active JP7137287B2 (en) 2020-11-19 2020-11-19 Image processing device and method
JP2022139416A Active JP7420886B2 (en) 2020-11-19 2022-09-01 Image processing device and method
JP2024002445A Pending JP2024038333A (en) 2020-11-19 2024-01-11 Imaging device

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022139416A Active JP7420886B2 (en) 2020-11-19 2022-09-01 Image processing device and method
JP2024002445A Pending JP2024038333A (en) 2020-11-19 2024-01-11 Imaging device

Country Status (1)

Country Link
JP (3) JP7137287B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001050756A (en) 1999-08-04 2001-02-23 Matsushita Electric Ind Co Ltd Method and device for recording and regenerating map information
JP2001358978A (en) 2000-06-14 2001-12-26 Toshiba Corp Information processing system, information device, information processor and method for processing information
JP2007135068A (en) 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3359781B2 (en) * 1995-05-26 2002-12-24 株式会社日立製作所 Information collection support system and portable terminal for information collection
JPH09113981A (en) * 1995-10-20 1997-05-02 Honda Motor Co Ltd Photographing device
JPH09210707A (en) * 1996-02-02 1997-08-15 Casio Comput Co Ltd Navigation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001050756A (en) 1999-08-04 2001-02-23 Matsushita Electric Ind Co Ltd Method and device for recording and regenerating map information
JP2001358978A (en) 2000-06-14 2001-12-26 Toshiba Corp Information processing system, information device, information processor and method for processing information
JP2007135068A (en) 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus

Also Published As

Publication number Publication date
JP7420886B2 (en) 2024-01-23
JP2024038333A (en) 2024-03-19
JP2021036723A (en) 2021-03-04
JP2022176202A (en) 2022-11-25

Similar Documents

Publication Publication Date Title
JP4978324B2 (en) Image recording apparatus, image recording system, and image reproducing method
US20110116759A1 (en) Imaging device and image processing apparatus
KR20070102404A (en) Image display control device, control method and program thereof
JP2010045765A (en) Reproducing apparatus
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP7137287B2 (en) Image processing device and method
JP2004297177A (en) Image processor
JP6248314B2 (en) Imaging apparatus, captured image processing method, and imaging system
JP4946935B2 (en) Imaging device
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP6799092B2 (en) Imaging device and imaging method
JP6469772B2 (en) Imaging device
JP5509159B2 (en) Image processing device
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP2014099870A (en) Image processing device
JP2006092681A (en) Image management method, image management device and image management system
JP2003257158A (en) Recording and reproducing device, and recording and reproducing method
JP2009159314A (en) Recording apparatus, playback apparatus, recording method, playback method and program
JP6263002B2 (en) Imaging apparatus, control method therefor, and program
JP6332963B2 (en) Image processing apparatus and image processing apparatus control method
JP3773041B2 (en) Video camera
JP2000333125A (en) Editing device and recording device
JP2007151023A (en) Recording apparatus
JP2005012378A (en) Apparatus and method for recording image
JP2017121001A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220901

R150 Certificate of patent or registration of utility model

Ref document number: 7137287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150