JP5509159B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5509159B2
JP5509159B2 JP2011166631A JP2011166631A JP5509159B2 JP 5509159 B2 JP5509159 B2 JP 5509159B2 JP 2011166631 A JP2011166631 A JP 2011166631A JP 2011166631 A JP2011166631 A JP 2011166631A JP 5509159 B2 JP5509159 B2 JP 5509159B2
Authority
JP
Japan
Prior art keywords
image
data
image data
unit
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011166631A
Other languages
Japanese (ja)
Other versions
JP2012010360A5 (en
JP2012010360A (en
Inventor
靖雄 無津呂
圭介 稲田
博樹 溝添
明仁 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2011166631A priority Critical patent/JP5509159B2/en
Publication of JP2012010360A publication Critical patent/JP2012010360A/en
Publication of JP2012010360A5 publication Critical patent/JP2012010360A5/ja
Application granted granted Critical
Publication of JP5509159B2 publication Critical patent/JP5509159B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、位置情報を示す画像とユーザの撮影画像を1つの動画像として記録・再生するシステム及び方法に関するものである。   The present invention relates to a system and method for recording / reproducing an image showing position information and a user's captured image as one moving image.

近年、スチルカメラやビデオカメラのデジタル化が進み、ユーザが非常に手軽に撮影・記録をすることが可能になり、たくさんの映像情報を記録できるようになった。このため、例えば、長行程の旅行などに出かけた場合、旅行が終わった後で撮影した映像を見たとき、どの映像をどこで撮影したのかが分からなくなった場合などが生じることが考えられる。このとき、ひとつの映像データに地図情報と撮影した映像が一緒になっていると、後から見たり整理したりする場合に非常に便利である。また、複数箇所に設置している監視用途ビデオカメラで撮影したデータでも、ひとつの映像データに位置情報を示す画像と撮影した映像が一緒になっていると、非常に便利である。   In recent years, digitalization of still cameras and video cameras has progressed, and it has become possible for users to shoot and record very easily, and a large amount of video information can be recorded. For this reason, for example, when going on a long trip, it may be possible that when viewing a video shot after the trip is over, it is not possible to know which video was shot where. At this time, if the map information and the captured video are combined in one video data, it is very convenient for viewing and organizing later. In addition, even if the data is taken by a surveillance video camera installed at a plurality of locations, it is very convenient if the image showing the position information and the taken video are combined in one video data.

これに近い技術として、近年タクシーなどに搭載され始めている、ドライビングレコーダの技術がある。ドライビングレコーダは自動的に撮影タイミングを決定して、位置情報を含めた状況データと撮影データを記録するものである。自動的に撮影タイミングを決定するため、場合によっては必要のないデータを多量に記録するため、それを防ぐ技術が発明されている。例えば、特許文献1では、記録データの取捨選択に学習機能を用いており、撮影した際に、ユーザが後から要/不要情報を入力することで撮影の要否を学習する。   As a technology close to this, there is a driving recorder technology that has recently been installed in taxis and the like. The driving recorder automatically determines shooting timing and records situation data and shooting data including position information. In order to automatically determine the photographing timing, a large amount of unnecessary data is recorded in some cases, and a technique for preventing this is invented. For example, in Patent Document 1, a learning function is used to select recording data, and when shooting, the user inputs necessary / unnecessary information later to learn whether shooting is necessary.

特開2007−11907号公報JP 2007-11907 A

しかしながら、自動的に撮影するため、完全にユーザの要否に合わせられるかというと、合わない可能性もあり、ユーザが好みの映像を地図情報とともに自由に撮影することにはそぐわない。   However, since it automatically shoots, there is a possibility that it may not match the necessity of the user completely, and it is not suitable for the user to freely shoot a favorite video together with map information.

本発明は、上記のような課題を鑑みてなされたものであり、複雑な処理を行うことなく、位置情報を示す画像とユーザの撮影画像を1つの動画像として記録・再生するシステム及び方法を提供する。   The present invention has been made in view of the above problems, and provides a system and method for recording / reproducing an image indicating position information and a user's captured image as one moving image without performing complicated processing. provide.

ビデオカメラに、通常の撮影画像を入力する手段のほかに、別の映像入力源から画像を入力する手段を設け、さらに、これら2つの入力手段からの映像データを調停して取り込み、メモリに格納する画像入力調停部を設ける。これにより、上記別の映像入力源を、カーナビゲーションの映像出力端子とすることで、カーナビゲーションの画面(地図情報)と、ユーザが撮影した画像を合わせてメモリ内に取り込める。また、監視用途ビデオカメラなどにおいては、地図画像データをあらかじめ保存している媒体、例えばUSBフラッシュメモリやSDカードなどと該媒体から地図画像データを読み出す読み出し手段を別の映像入力源とすることで、同様にメモリ内に取り込める。このメモリ内のデータを動画像として圧縮・符号化処理することで、位置情報を示す画像とユーザの撮影画像を1つの動画像として処理できる。   The video camera is provided with means for inputting an image from another video input source in addition to the means for inputting a normal photographed image. Further, the video data from these two input means is arbitrated and fetched and stored in a memory. An image input arbitration unit is provided. Thus, by using the other video input source as the video output terminal of the car navigation, the car navigation screen (map information) and the image taken by the user can be taken in the memory together. Further, in a surveillance video camera or the like, a medium that stores map image data in advance, such as a USB flash memory or an SD card, and a reading means for reading map image data from the medium are used as separate video input sources. , Can be taken into memory as well. By compressing and encoding the data in the memory as a moving image, the image indicating the position information and the user's captured image can be processed as one moving image.

本発明によれば、複雑な処理を行うことなく、位置情報を示す画像とユーザの撮影画像を1つの動画像として記録・再生できる。   According to the present invention, an image showing position information and a user's captured image can be recorded and reproduced as one moving image without performing complicated processing.

実施例1の画像記録・再生システムの構成図Configuration diagram of image recording / reproducing system of Embodiment 1 実施例1の画像記録・再生システムのフロー図FIG. 1 is a flowchart of an image recording / reproducing system according to the first embodiment. 実施例1の画像記録・再生システムで生成したストリームデータ模式図Schematic diagram of stream data generated by the image recording / reproducing system of Embodiment 1 実施例2の画像記録・再生システムの構成図Configuration diagram of image recording / reproducing system of Embodiment 2 実施例2の画像記録・再生システムのフロー図Flow chart of image recording / reproducing system of embodiment 2 実施例2の画像記録・再生システムで生成したストリームデータ模式図Schematic diagram of stream data generated by the image recording / reproducing system of Embodiment 2 実施例3の画像記録・再生システムの構成図Configuration diagram of image recording / reproducing system of Embodiment 3 ホットスポットでストリームデータを転送するシステムの概略図Schematic diagram of a system for transferring stream data at hot spots サムネール表示例Thumbnail display example

本発明を実施するための最良の形態を説明する。   The best mode for carrying out the present invention will be described.

以下、本発明の画像記録・再生システム及び方法の実施例について、図面を用いて説明する。   Embodiments of an image recording / reproducing system and method according to the present invention will be described below with reference to the drawings.

実施例1を説明する。本実施例において、ユーザが撮影指示を出してから撮影が行われるまでの動作を図1乃至3を用いて説明する。図1は本発明の第1の実施例での画像記録・再生システムを図示したものであり、ビデオカメラ1はユーザが撮影指示を始めとする各種指示を直接入力する、例えばボタンやタッチパネルなどのような操作入力部11、撮影に関する各部の制御を行う制御部12、ユーザが撮影を行う対象画像を入力し、デジタル化を行って撮影画像データを出力する撮影画像入力部13、後述のナビゲーションシステム2からの映像を入力する外部映像入力部14、撮影画像入力部13から入力される該撮影画像データおよび外部画像入力部14から入力されるナビゲーション画像データの順番を調停し、出力する画像入力調停部15、画像入力調停部15から出力されるデータを一時保持する画像メモリ部16、画像メモリ部16から画像データを読み出し、MPEG2やH.264などの方式で画像圧縮・符号化を行い、符号化画像データを出力する画像エンコード部17、ユーザが撮影を行う対象の音声を入力し、デジタル化を行って音声データを出力する音声入力部18、音声入力部18が出力する音声データを、AC3やDolbyDigitalなどの方式で音声圧縮を行い、符号化音声データを出力する音声エンコード部19、該符号化画像データ、および該符号化音声データを多重化してストリームデータを出力するデータ生成部1A、該ストリームデータを後述の記録媒体に記録するデータ記録部1B、及びDVDやBlu−ray、ハードディスク、半導体メモリなどの記録媒体1Cを有する。ビデオカメラ1は、AVケーブル3を介してナビゲーション2と接続される。ナビゲーション2は、ナビゲーション本体部21、ナビゲーション表示部22を有し、ナビゲーション本体部21はナビゲーション映像を出力するナビゲーション画像出力部211を有する。ナビゲーション211は、ナビゲーション表示部22に映像信号を常時出力しているのと同様に、外部映像端子(図示せず)などに接続したAVケーブル3へも信号を出力する。   Example 1 will be described. In this embodiment, an operation from when a user gives a shooting instruction to when shooting is performed will be described with reference to FIGS. FIG. 1 illustrates an image recording / playback system according to a first embodiment of the present invention. A video camera 1 directly inputs various instructions including a shooting instruction by a user, such as buttons and a touch panel. Such an operation input unit 11, a control unit 12 that controls each unit related to photographing, a photographed image input unit 13 that inputs a target image to be photographed by a user, digitizes, and outputs photographed image data, a navigation system described later Image input arbitration that arbitrates the order of the captured image data input from the external image input unit 14, the captured image input unit 13 and the navigation image data input from the external image input unit 14 Unit 15, image memory unit 16 that temporarily stores data output from image input arbitration unit 15, and image data read out from image memory unit 16 , MPEG2 and H. An image encoding unit 17 that performs image compression / encoding by a method such as H.264 and outputs encoded image data, and an audio input unit that inputs audio to be photographed by a user and digitizes and outputs audio data 18. The audio data output from the audio input unit 18 is compressed by a method such as AC3 or DolbyDigital, and the encoded audio data is output from the audio encoding unit 19, the encoded image data, and the encoded audio data. A data generation unit 1A that multiplexes and outputs stream data, a data recording unit 1B that records the stream data on a recording medium described later, and a recording medium 1C such as a DVD, Blu-ray, hard disk, and semiconductor memory. The video camera 1 is connected to the navigation 2 via the AV cable 3. The navigation 2 includes a navigation main body unit 21 and a navigation display unit 22. The navigation main body unit 21 includes a navigation image output unit 211 that outputs a navigation video. The navigation 211 outputs a signal to the AV cable 3 connected to an external video terminal (not shown) or the like in the same manner as the video signal is always output to the navigation display unit 22.

図2は実施例1での各部の動作フローを示している。   FIG. 2 shows an operation flow of each part in the first embodiment.

実施例1の画像記録・再生システムにおける撮影手順について説明する。ユーザは、ビデオカメラ1のボタンやスイッチなどにより操作入力部11に撮影指示を出す。操作入力部11は制御部12へ撮影開始指示を出す。制御部12は撮影画像入力部13、音声入力部18、および外部画像入力部14に起動指示を出す。外部画像入力部14は、ナビゲーション2の外部映像端子などから常時出力されている映像信号を、該起動指示によりAVケーブル3を介して取り込み、ナビゲーション画像データを生成して画像入力調停部15へ出力する。撮影画像入力部13はユーザが撮影を行う対象の画像を入力し、デジタル化を行って撮影画像データを生成し、画像入力調停部15へ出力する。音声入力部18はユーザが撮影を行う対象の音声を入力し、デジタル化を行って音声データを生成し、音声エンコード部19へ出力する。画像入力調停部15に入力された該ナビゲーション画像データおよび該撮影画像データは、この順番で符号化されるように定められた、画像メモリ16の領域に一時保持する。つまり、後段の画像エンコード部17が1枚目の画像データを処理する際に読み出す画像メモリ部16のある領域に該ナビゲーション画像データを、2枚目以降の画像データを処理する際に読み出す画像メモリ部16の別の領域に該撮影画像データを一時保持する。画像メモリ部16に一時保持した該ナビゲーション画像データおよび該撮影画像データはこの順番で画像エンコード部17に画像データとして読み出される。画像エンコード部17は該画像データの画像圧縮、符号化を行う。ここで、画像エンコード部17は最初の画像であるナビゲーション画像データを1画面内のデータのみで圧縮・符号化を行う例えばH.264のIピクチャとして圧縮・符号化を行う。該ナビゲーション画像データに続く該撮影画像データを、該撮影画像データの最初の1画面分の画像データを同様にIピクチャとして圧縮・符号化を行い。それ以降の画像は、例えば前方向や後方向の画像から予測して圧縮・符号化を行う例えばPピクチャやBピクチャ、または1画面内のデータのみで圧縮・符号化を行う例えばIピクチャ、またはそれらの混在データとして圧縮・符号化を行い、符号化画像データを生成し、データ生成部1Aに出力する。また、画像エンコード部17は圧縮・符号化処理をリアルタイム動作に近づけるために、例えば符号量を少なくして処理を軽くするために量子化を粗くして処理したり、一時的にクロック周波数を上げるなどして、処理速度を変える。一方、音声エンコード部19に入力された該音声データは、音声エンコード部19により圧縮・符号化を行い、符号化音声データを生成し、データ生成部1Aに出力する。データ生成部1Aは該符号化画像データおよび該符号化音声データを多重化して動画像のストリームデータを生成する。ストリームデータの概略図(一例)を図3に示す。図3では、ストリームデータを復号・伸張処理を行った画像の順番で上から順に示している。最初の画像はナビゲーション画面を示しており、Iピクチャとして圧縮・符号化され、音声データがないように多重化しており、2番目、3番目、4番目の画像は撮影画像データを示しており、2番目の画像はIピクチャ、3番目の画像はBピクチャ、4番目の画像はPピクチャとして圧縮・符号化され、音声データは該符号化音声データを使用して多重化している。データ生成部1Aで生成された該ストリームデータはデータ記録部1Bに出力され、データ記録部1Bは該ストリームデータを記録媒体1Cに記録する。   A photographing procedure in the image recording / reproducing system of Embodiment 1 will be described. The user issues a shooting instruction to the operation input unit 11 using a button or switch of the video camera 1. The operation input unit 11 issues a shooting start instruction to the control unit 12. The control unit 12 issues an activation instruction to the captured image input unit 13, the audio input unit 18, and the external image input unit 14. The external image input unit 14 takes in a video signal that is constantly output from the external video terminal of the navigation 2 through the AV cable 3 in response to the activation instruction, generates navigation image data, and outputs it to the image input arbitration unit 15 To do. The captured image input unit 13 inputs an image to be captured by the user, digitizes it, generates captured image data, and outputs it to the image input arbitration unit 15. The voice input unit 18 inputs voice to be photographed by the user, digitizes it, generates voice data, and outputs it to the voice encoding unit 19. The navigation image data and the captured image data input to the image input arbitration unit 15 are temporarily stored in an area of the image memory 16 that is determined to be encoded in this order. That is, the navigation image data is read into a certain area of the image memory unit 16 that is read when the subsequent image encoding unit 17 processes the first image data, and the image memory is read when the second and subsequent image data is processed. The captured image data is temporarily stored in another area of the unit 16. The navigation image data and the captured image data temporarily stored in the image memory unit 16 are read out as image data by the image encoding unit 17 in this order. The image encoding unit 17 performs image compression and encoding of the image data. Here, the image encoding unit 17 compresses and encodes the navigation image data, which is the first image, only with data in one screen. Compress and encode as a H.264 I picture. The captured image data subsequent to the navigation image data is compressed and encoded using the image data for the first screen of the captured image data as an I picture. Subsequent images are, for example, P pictures and B pictures that are predicted and compressed from forward and backward images, for example, P pictures and B pictures, or I pictures that are compressed and encoded only with data in one screen, or The mixed data is compressed and encoded to generate encoded image data, which is output to the data generation unit 1A. In addition, the image encoding unit 17 performs processing with coarser quantization or temporarily increases the clock frequency in order to reduce the amount of code and lighten the processing in order to make the compression / encoding processing close to real-time operation. To change the processing speed. On the other hand, the audio data input to the audio encoding unit 19 is compressed and encoded by the audio encoding unit 19 to generate encoded audio data, which is output to the data generation unit 1A. The data generator 1A multiplexes the encoded image data and the encoded audio data to generate moving image stream data. A schematic diagram (example) of the stream data is shown in FIG. In FIG. 3, the stream data is shown in order from the top in the order of images that have been subjected to decoding / decompression processing. The first image shows a navigation screen, is compressed and encoded as an I picture, multiplexed so that there is no audio data, the second, third, and fourth images show captured image data, The second image is compressed and encoded as an I picture, the third image is a B picture, the fourth image is a P picture, and audio data is multiplexed using the encoded audio data. The stream data generated by the data generation unit 1A is output to the data recording unit 1B, and the data recording unit 1B records the stream data on the recording medium 1C.

このように記録した該ストリームデータをビデオカメラ1で再生するためには、ストリームデータのピクチャタイプを解析する、図示していないピクチャ解析部を設け、Iピクチャが2枚以上連続するストリームデータであれば、最初のIピクチャを図示していないビデオカメラ1の表示部に出力したのち、あらかじめ設定しておいた時間同じ画像を表示し、その後次のIピクチャを該表示部に出力する。続くピクチャがIピクチャでなければ、通常のビデオデータの再生のように、次々に該表示部に出力する。なお、Iピクチャが2枚以上連続するストリームデータであれば、最初のIピクチャを図示していないビデオカメラ1の表示部に出力したのち、あらかじめ設定しておいた時間同じ画像を表示する、としたが、例えばユーザが再生ボタンを押すなどの操作をするまで同じ画像を表示する、といったユーザ操作を起点にして次の画像を表示しても良い。   In order to play back the recorded stream data with the video camera 1, a picture analysis unit (not shown) for analyzing the picture type of the stream data is provided, and the stream data may be stream data in which two or more I pictures are continuous. For example, after the first I picture is output to the display unit of the video camera 1 (not shown), the same image is displayed for a preset time, and then the next I picture is output to the display unit. If the following picture is not an I picture, it is output to the display section one after another as in normal video data playback. If the stream data includes two or more I pictures, the first I picture is output to the display unit of the video camera 1 (not shown), and then the same image is displayed for a preset time. However, for example, the next image may be displayed starting from a user operation such as displaying the same image until the user performs an operation such as pressing the play button.

また、例えばDVD−Video規格のStillコマンドのようにストリーム再生を停止するためのデータをストリーム内に埋め込む仕組みがある動画像圧縮・符号化方式では、ナビゲーション画面のピクチャと2画面目以降の撮影画像のピクチャとで例えばVOBU(Video Object Unit)を分けてVOBU Stillコマンドをデータ生成部1Aで挿入することで、ビデオカメラ1以外の機器での再生に対応させても良い。   In addition, in a moving image compression / encoding method in which data for stopping stream reproduction is embedded in a stream, such as a DVD-Video standard Still command, for example, a picture on the navigation screen and a captured image on the second and subsequent screens. For example, a VOBU (Video Object Unit) may be divided from the picture and inserted into the data generation unit 1A by the VOBU Still command, so that playback on a device other than the video camera 1 may be supported.

以上のように、ビデオカメラに通常の撮影画像を入力する手段のほかに、別の映像入力源から画像を入力する手段を設け、さらに、これら2つの入力手段からの映像データを調停して取り込み、メモリに格納する画像入力調停部を設け、上記別の映像入力源を、カーナビゲーションの映像出力端子とすることで、カーナビゲーションの画面(地図情報)と、ユーザが撮影した画像を合わせてメモリ内に取り込める。このメモリ内のデータを動画像として圧縮・符号化処理することで、地図情報とユーザの撮影画像を1つの動画像として処理できる効果が得られる。   As described above, in addition to means for inputting a normal photographed image to a video camera, means for inputting an image from another video input source is provided, and further, video data from these two input means is arbitrated and captured. By providing an image input arbitration unit for storing in the memory and using the other video input source as a video output terminal for car navigation, the car navigation screen (map information) and the image taken by the user are combined and stored in the memory. Can be taken in. By compressing and encoding the data in the memory as a moving image, the map information and the user's captured image can be processed as one moving image.

また、本実施例ではビデオカメラ1の外部にナビゲーション2が接続されているとしたが、ビデオカメラ1とナビゲーション2がひとつの機器となっていても同様の効果が得られる。   In this embodiment, the navigation 2 is connected to the outside of the video camera 1. However, the same effect can be obtained even if the video camera 1 and the navigation 2 are a single device.

また、記録媒体1Cに記録したストリームデータは、街中に設置されている無線LAN環境(ホットスポット)などを経由して、ネットワーク上のサーバなどに自動的に転送しても良い。図8はホットスポットの環境下で該ストリームデータをサーバに転送するシステムの概略図を示している。ビデオカメラ1は記録媒体1Cから該ストリームデータを読み出すデータ読み出し部1E、該ストリームデータを無線でネットワーク4に送信する無線通信部1Fを有する。無線通信部1Fから出力された該ストリームデータはネットワーク4に接続されているサーバ5に転送される。   The stream data recorded on the recording medium 1C may be automatically transferred to a server on the network via a wireless LAN environment (hot spot) installed in the city. FIG. 8 shows a schematic diagram of a system for transferring the stream data to a server in a hot spot environment. The video camera 1 includes a data reading unit 1E that reads the stream data from the recording medium 1C, and a wireless communication unit 1F that wirelessly transmits the stream data to the network 4. The stream data output from the wireless communication unit 1F is transferred to the server 5 connected to the network 4.

また、本実施例ではデータ生成部1Aは単にストリームデータを生成するとしたが、ナビゲーション2からナビゲーション画像データとは別に、現在位置情報を受け取り、該現在位置情報と関連付けてストリームデータを生成し、データ記録部1Bに出力し、記録媒体1Cに記録しても良い。このとき、記録媒体1Cに記録されているストリームデータのサムネール画面を生成するとき、該現在位置情報を手がかりに、図9のように地図画面と組み合わせてサムネール表示画面を構成してもよい。図9の例では、該ストリームデータに関連付けられている位置情報に相当する地図上の位置を丸印で示し、該ストリームデータの撮影画像の最初の1枚目の画像を丸印に関連付けて表示している。また、複数の記録媒体をビデオカメラ1が有しているとき、例えばハードディスクとDVDを有しているとき、ビデオカメラ1の通常使用時はハードディスクに記録し、それらのストリームデータをユーザが選択・編集してDVDに記録するときなど、図9の画面のようなタイトル画面を自動的に作成し、DVDに記録しても良い。   In the present embodiment, the data generation unit 1A merely generates stream data. However, the current position information is received from the navigation 2 separately from the navigation image data, and stream data is generated in association with the current position information. The data may be output to the recording unit 1B and recorded on the recording medium 1C. At this time, when the thumbnail screen of the stream data recorded on the recording medium 1C is generated, the thumbnail display screen may be configured in combination with the map screen as shown in FIG. 9, using the current position information as a clue. In the example of FIG. 9, the position on the map corresponding to the position information associated with the stream data is indicated by a circle, and the first image of the captured image of the stream data is displayed in association with the circle. doing. In addition, when the video camera 1 has a plurality of recording media, for example, when it has a hard disk and a DVD, it is recorded on the hard disk during normal use of the video camera 1, and the user selects and selects the stream data. A title screen such as that shown in FIG. 9 may be automatically created and recorded on a DVD, such as when editing and recording on a DVD.

また、本実施例ではユーザがビデオカメラ1のボタンやスイッチなどを操作して操作入力部11から撮影指示を出すとしたが、ナビゲーション2とビデオカメラ1にUSBやBlutoothや無線LANなどの通信手段を設け、ユーザがナビゲーション2に対してあらかじめ撮影したい地点を設定しておき、設定した地点に移動したときにナビゲーション2からビデオカメラ1の操作入力部11に対して撮影指示を出力し、操作入力部11が制御部12に撮影開始指示を出力することで撮影の開始を行っても良い。   In this embodiment, the user operates the buttons and switches of the video camera 1 to issue a shooting instruction from the operation input unit 11. However, the navigation 2 and the video camera 1 are connected to a communication means such as USB, Bluetooth, or wireless LAN. The user sets a point to be photographed in advance with respect to the navigation 2, and outputs a photographing instruction from the navigation 2 to the operation input unit 11 of the video camera 1 when moving to the set point. The unit 11 may start shooting by outputting a shooting start instruction to the control unit 12.

また、ナビゲーション2とAVケーブル3の代わりに、地図画像データをあらかじめ保存している媒体、例えばUSBフラッシュメモリやSDカードなどと該媒体から地図画像データを読み出す読み出し装置に置き換えること、および図8に示しているようにホットスポット環境下でネットワーク上のサーバにデータを転送すること、および記録媒体に記録された圧縮画像データを読み出し、ユーザによって設定された所定のタイミングで該圧縮画像データをパケット化してネットワークに送出する送出手段を有することで複数箇所に設置している監視用途などのビデオカメラにおいても同様の効果が得られる。このとき、無線通信部1Fは有線LANで通信する機能と置き換えても良い。   Further, instead of the navigation 2 and the AV cable 3, a medium that stores map image data in advance, such as a USB flash memory or an SD card, and a reading device that reads the map image data from the medium are replaced, and FIG. As shown, the data is transferred to a server on the network in a hot spot environment, and the compressed image data recorded on the recording medium is read, and the compressed image data is packetized at a predetermined timing set by the user. Thus, the same effect can be obtained in video cameras for surveillance applications installed at a plurality of locations by having sending means for sending to the network. At this time, the wireless communication unit 1F may be replaced with a function of communicating via a wired LAN.

実施例2を説明する。図4は本発明の第2の実施例での画像記録・再生システムを図示したものである。本実施例において、実施例1と構成上異なるのは、ビデオカメラ1が図1の構成に加え、ナビゲーションシステム2からの音声を入力する外部音声入力部181、音声入力部18から入力される音声データおよび外部音声入力部181から入力されるナビゲーション音声データの順番を調停し、出力する音声入力調停部182、音声入力調停部182から出力されるデータを一時保持する音声メモリ部183、ナビゲーション2へ音声を起動するように音声起動指示を例えば赤外線通信などでナビゲーション2へ送信する音声起動部1Dを有している点、およびナビゲーション2のナビゲーション本体部21が図1の構成に加え、ビデオカメラ1の音声起動部1Dから音声起動指示を赤外線通信などで受信し、ナビゲーションの音声を出力するように起動指示を出すナビゲーション音声起動部213、および該起動指示によりナビゲーション音声を出力するナビゲーション音声出力部212を有している点である。   A second embodiment will be described. FIG. 4 shows an image recording / reproducing system according to the second embodiment of the present invention. In the present embodiment, the configuration differs from the first embodiment in that the video camera 1 has an external audio input unit 181 that inputs audio from the navigation system 2 in addition to the configuration of FIG. The order of the data and the navigation voice data input from the external voice input unit 181 is arbitrated and output to the voice input arbitration unit 182, the voice memory unit 183 temporarily holding the data output from the voice input arbitration unit 182, and the navigation 2 In addition to the configuration of FIG. 1, the video camera 1 includes a voice activation unit 1D that transmits a voice activation instruction to the navigation 2 by, for example, infrared communication so as to activate voice. Receives voice activation instructions from the voice activation unit 1D via infrared communication and outputs navigation voice Navigation voice activation unit 213 issues a starting instruction to, and by the start instruction is that it has a navigation voice output unit 212 for outputting the navigation voice.

図5は実施例2での各部の動作フローを示している。   FIG. 5 shows an operation flow of each part in the second embodiment.

実施例2の画像記録・再生システムにおける撮影手順について説明する。ユーザは、ビデオカメラ1の操作入力部11に撮影指示を出す。この撮影指示は、例えばナビゲーションの「現在地」ボタンを押す操作など、ナビゲーション2から位置情報などを示す音声を起動するための操作でも良い。操作入力部11は制御部12へ撮影開始指示を出す。また、操作入力部11は音声起動部1Dに音声起動指示を出す。制御部12は撮影画像入力部13、音声入力部18、外部画像入力部14、および外部音声入力部181に起動指示を出す。外部画像入力部14は、ナビゲーション2から外部映像端子などから常時出力されている映像信号を、該起動指示により取り込み、ナビゲーション画像データを生成して画像入力調停部15へ出力する。この場合のナビゲーション画像データは、あらかじめユーザなどにより設定された一定時間分の、1ピクチャ以上のデータである。撮影画像入力部13はユーザが撮影を行う対象の画像を入力し、デジタル化を行って撮影画像データを生成し、画像入力調停部15へ出力する。一方、操作入力部11によって音声起動部1Dに出された音声起動指示により、音声起動部1Dは、赤外線通信などによりナビゲーション2のナビゲーション音声起動部213に音声起動指示を出す。この音声起動指示は、一般的にナビゲーションの機能として有している、ナビゲーションに付属の図示していないリモコンなどの「現在地」ボタンなどを押したときのリモコンからナビゲーション2に対して出力される信号と同じものを音声起動部から出力しても良い。ナビゲーション音声起動部213は該音声起動指示を受信すると、ナビゲーション音声出力部212に起動指示を出す。ナビゲーション音声出力部は該起動指示により、例えば「現在地は横浜市戸塚区吉田町付近です。」などといった音声を出力し、外部音声端子などから出力する。外部音声入力部181は、ナビゲーション2から外部音声端子などから出力されているナビゲーション音声を、制御部12からの該起動指示により取り込み、ナビゲーション音声データを生成して音声入力調停部15へ出力する。この場合のナビゲーション音声データは、あらかじめユーザなどにより設定された一定時間分のデータである。この設定された時間は、外部画像入力部14が取り込むときの時間と同じでも良い。また音声入力部18はユーザが撮影を行う対象の音声を入力し、デジタル化を行って音声データを生成し、音声エンコード部19へ出力する。画像入力調停部15に入力された該ナビゲーション画像データおよび該撮影画像データは、この順番で符号化されるように定められた、画像メモリ16の領域に一時保持する。つまり、後段の画像エンコード部17が1枚目の画像データを処理する際に読み出す画像メモリ部16のある領域に該ナビゲーション画像データを、2枚目以降の画像データを処理する際に読み出す画像メモリ部16の別の領域に該撮影画像データを一時保持する。画像メモリ部16に一時保持した該ナビゲーション画像データおよび該撮影画像データはこの順番で画像エンコード部17に画像データとして読み出される。画像エンコード部17は該画像データの画像圧縮、符号化を行う。ここで、画像エンコード部17は最初の画像であるナビゲーション画像データを1画面内のデータのみで圧縮・符号化を行う例えばH.264のIピクチャとして圧縮・符号化を行う。該ナビゲーション画像データに続く該撮影画像データを、該撮影画像データの最初の1画面分の画像データを同様にIピクチャとして圧縮・符号化を行い。それ以降の画像は、例えば前方向や後方向の画像から予測して圧縮・符号化を行う例えばPピクチャやBピクチャ、または1画面内のデータのみで圧縮・符号化を行う例えばIピクチャ、またはそれらの混在データとして圧縮・符号化を行い、符号化画像データを生成し、データ生成部1Aに出力する。一方、音声入力調停部182に入力された該ナビゲーション音声データおよび該音声データは、この順番で符号化されるように定められた、音声メモリ183の領域に一時保持する。音声メモリ部183に一時保持した該ナビゲーション音声データおよび該音声データはこの順番で音声エンコード部19に混在音声データとして読み出される。音声エンコード部19に入力された該混在音声データは、音声エンコード部19により圧縮・符号化を行い、符号化音声データを生成し、データ生成部1Aに出力する。データ生成部1Aは該符号化画像データおよび該符号化音声データを多重化して動画像のストリームデータを生成する。ストリームデータの概略図(一例)を図6に示す。図6では、ストリームデータを復号・伸張処理を行った画像の順番で上から順に示している。上部3枚の画像はナビゲーション画面を示しており、上から順にI、B、Pピクチャとして圧縮・符号化され、音声データは該符号化音声データの外部音声データに相当するデータを多重化している。また下部3枚の画像は撮影画像データを示しており、上から4番目の画像から順にI、B、Pピクチャとして圧縮・符号化され、音声データは該符号化音声データの音声データに相当するデータを使用して多重化している。なお、図6において上部3枚は同じ画像になっているが、夫々異なるナビゲーション画像であってもよい。データ生成部1Aで生成された該ストリームデータはデータ記録部1Bに出力され、データ記録部1Bは該ストリームデータを記録媒体1Cに記録する。   A photographing procedure in the image recording / reproducing system of the second embodiment will be described. The user issues a shooting instruction to the operation input unit 11 of the video camera 1. This photographing instruction may be an operation for starting a sound indicating position information or the like from the navigation 2 such as an operation of pressing a “current location” button of the navigation. The operation input unit 11 issues a shooting start instruction to the control unit 12. In addition, the operation input unit 11 issues a voice activation instruction to the voice activation unit 1D. The control unit 12 issues an activation instruction to the captured image input unit 13, the audio input unit 18, the external image input unit 14, and the external audio input unit 181. The external image input unit 14 takes in a video signal that is always output from the external video terminal or the like from the navigation 2 according to the activation instruction, generates navigation image data, and outputs the navigation image data to the image input arbitration unit 15. The navigation image data in this case is data of one picture or more for a predetermined time set in advance by the user or the like. The captured image input unit 13 inputs an image to be captured by the user, digitizes it, generates captured image data, and outputs it to the image input arbitration unit 15. On the other hand, in response to a voice activation instruction issued to the voice activation unit 1D by the operation input unit 11, the voice activation unit 1D issues a voice activation instruction to the navigation voice activation unit 213 of the navigation 2 by infrared communication or the like. This voice activation instruction is a signal that is generally provided as a navigation function and is output to the navigation 2 from the remote control when a “current location” button or the like of a remote control (not shown) attached to the navigation is pressed. May be output from the voice activation unit. When the navigation voice activation unit 213 receives the voice activation instruction, it issues an activation instruction to the navigation voice output unit 212. In response to the activation instruction, the navigation voice output unit outputs a voice such as “Current location is near Yoshida-cho, Totsuka-ku, Yokohama-shi” and the like and outputs it from an external voice terminal. The external voice input unit 181 takes navigation voice output from the navigation 2 from an external voice terminal or the like according to the activation instruction from the control unit 12, generates navigation voice data, and outputs the navigation voice data to the voice input arbitration unit 15. The navigation voice data in this case is data for a predetermined time set in advance by a user or the like. This set time may be the same as the time when the external image input unit 14 captures. The voice input unit 18 inputs voice to be photographed by the user, digitizes it, generates voice data, and outputs the voice data to the voice encoding unit 19. The navigation image data and the captured image data input to the image input arbitration unit 15 are temporarily stored in an area of the image memory 16 that is determined to be encoded in this order. That is, the navigation image data is read into a certain area of the image memory unit 16 that is read when the subsequent image encoding unit 17 processes the first image data, and the image memory is read when the second and subsequent image data is processed. The captured image data is temporarily stored in another area of the unit 16. The navigation image data and the captured image data temporarily stored in the image memory unit 16 are read out as image data by the image encoding unit 17 in this order. The image encoding unit 17 performs image compression and encoding of the image data. Here, the image encoding unit 17 compresses and encodes the navigation image data, which is the first image, only with data in one screen. Compress and encode as a H.264 I picture. The captured image data subsequent to the navigation image data is compressed and encoded using the image data for the first screen of the captured image data as an I picture. Subsequent images are, for example, P pictures and B pictures that are predicted and compressed from forward and backward images, for example, P pictures and B pictures, or I pictures that are compressed and encoded only with data in one screen, or The mixed data is compressed and encoded to generate encoded image data, which is output to the data generation unit 1A. On the other hand, the navigation voice data and the voice data input to the voice input arbitration unit 182 are temporarily stored in the area of the voice memory 183 determined to be encoded in this order. The navigation voice data and the voice data temporarily stored in the voice memory unit 183 are read as mixed voice data by the voice encoding unit 19 in this order. The mixed audio data input to the audio encoding unit 19 is compressed and encoded by the audio encoding unit 19, generates encoded audio data, and outputs the encoded audio data to the data generation unit 1A. The data generator 1A multiplexes the encoded image data and the encoded audio data to generate moving image stream data. A schematic diagram (example) of the stream data is shown in FIG. In FIG. 6, stream data is shown in order from the top in the order of images that have been subjected to decoding / decompression processing. The upper three images show the navigation screen, and are compressed and encoded as I, B, and P pictures in order from the top, and the audio data is multiplexed with data corresponding to the external audio data of the encoded audio data. . The lower three images show photographed image data, and are compressed and encoded as I, B, and P pictures in order from the fourth image from the top, and the audio data corresponds to the audio data of the encoded audio data. Multiplexed using data. In FIG. 6, the upper three images are the same image, but different navigation images may be used. The stream data generated by the data generation unit 1A is output to the data recording unit 1B, and the data recording unit 1B records the stream data on the recording medium 1C.

以上の処理により、実施例1と同様の効果が得られる。   With the above processing, the same effect as in the first embodiment can be obtained.

また、本実施例では該ナビゲーション画像データは、あらかじめユーザなどにより設定された一定時間分のデータとするとしたが、ナビゲーション2とビデオカメラ1にUSBやBlutoothや無線LANなどの通信手段を設け、ナビゲーション音声が終わったらナビゲーション2からビデオカメラ1の外部音声入力部181にナビゲーション音声終了通知を出力し、外部音声入力部181は該終了通知によりデータの終わりを判断するようにしても良い。   In this embodiment, the navigation image data is data for a predetermined time set in advance by a user or the like. However, the navigation 2 and the video camera 1 are provided with communication means such as USB, Bluetooth, and wireless LAN, and the navigation is performed. When the audio is over, a navigation audio end notification may be output from the navigation 2 to the external audio input unit 181 of the video camera 1, and the external audio input unit 181 may determine the end of data based on the end notification.

実施例3を説明する。実施例1と異なるのは、実施例1ではビデオカメラ1とナビゲーション2がAVケーブル3で接続されていたところが、ビデオカメラ1にはC側無線通信手段32、ナビゲーション2にはN側無線通信手段31が接続している点である。C側無線通信手段32とN側無線通信手段31は赤外線通信や無線LAN、Bluetoothなどの無線の通信プロトコルを用いて互いに通信してデータのやり取りを行う。   A third embodiment will be described. The difference from the first embodiment is that the video camera 1 and the navigation 2 are connected by the AV cable 3 in the first embodiment, but the video camera 1 has a C-side wireless communication means 32 and the navigation 2 has an N-side wireless communication means. 31 is connected. The C-side wireless communication means 32 and the N-side wireless communication means 31 communicate with each other and exchange data using a wireless communication protocol such as infrared communication, wireless LAN, or Bluetooth.

実施例3の画像記録・再生システムにおける撮影手順は、実施例1でナビゲーション画像出力部211から外部画像入力部14へナビゲーション画像がAVケーブルでやり取りされていたところが、N側無線通信手段31、およびC側無線通信手段32によりナビゲーション画像をやり取りする点が異なること以外は実施例1と同様である。   The shooting procedure in the image recording / playback system of the third embodiment is that the navigation image is transferred from the navigation image output unit 211 to the external image input unit 14 by the AV cable in the first embodiment. The second embodiment is the same as the first embodiment except that the navigation image is exchanged by the C-side wireless communication unit 32.

以上の処理により、実施例1と同様の効果が得られる。   With the above processing, the same effect as in the first embodiment can be obtained.

1 ビデオカメラ
11 操作入力部
12 制御部
13 撮影画像入力部
14 外部画像入力部
15 画像入力調停部
16 画像メモリ部
18 音声入力部
181 外部音声入力部
182 音声入力調停部
183 音声メモリ部
1D 音声起動部
2 ナビゲーション
21 ナビゲーション本体部
211 ナビゲーション画像出力部
212 ナビゲーション音声出力部
213 ナビゲーション音声起動部
22 ナビゲーション表示部
3 AVケーブル
DESCRIPTION OF SYMBOLS 1 Video camera 11 Operation input part 12 Control part 13 Captured image input part 14 External image input part 15 Image input mediation part 16 Image memory part 18 Voice input part 181 External voice input part 182 Voice input mediation part 183 Voice memory part 1D Voice activation Part 2 Navigation 21 Navigation body part 211 Navigation image output part 212 Navigation voice output part 213 Navigation voice start part 22 Navigation display part 3 AV cable

Claims (5)

画像処理装置であって、
ユーザが撮影した複数の動画像データが入力される入力手段と、
前記複数の動画像データ各々が撮影された位置情報と前記複数の動画像データとをそれぞれ関連付けて記録する記録手段と、
前記記録手段により記録された前記複数の動画像データ各々のサムネイルを、前記複数の動画像データ各々と関連付けた位置情報に基づいて、前記画像処理装置の移動経路を示した地図の当該移動経路上の対応する位置にそれぞれ関連付けて表示する表示手段と、
前記記録された複数の動画像データと、前記記録された複数の動画像データと前記地図の情報を関連付けて一つの画像とした画像データと、を無線でネットワーク上のサーバに転送する無線通信手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus,
Input means for a plurality of moving image data taken by the user is input,
Recording means for recording in association the plurality of moving image data each position information and the plurality of photographed moving image data and respectively,
The thumbnails of the plurality of moving image data each recorded by the recording means, based on the position information associated with said plurality of dynamic image data each, the image processing apparatus on the moving path of the map showing the moving path of the Display means associated with each corresponding position, and
Wireless communication means for transferring the recording a plurality of moving image data, the image data with the recorded plurality of moving image data as one image in association with the information of the map, the server on the network in a radio When,
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記無線通信手段は、無線LAN環境下に入ると前記画像データを自動的に前記ネットワーク上のサーバに転送することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus, wherein the wireless communication means automatically transfers the image data to a server on the network when entering a wireless LAN environment.
請求項1又は2記載の画像処理装置であって、
さらに、前記画像データを取得する撮像手段を備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus further comprises an imaging unit that acquires the image data.
請求項1乃至3のいずれかに記載の画像処理装置であって、
前記表示手段は、同一の位置情報と関連付けられた画像データが複数ある場合には、当該複数の画像データのうち一の画像データのサムネイルのみを地図上の対応する位置に関連付けて表示することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3,
When there are a plurality of image data associated with the same position information, the display means displays only the thumbnail of one image data among the plurality of image data in association with the corresponding position on the map. A featured image processing apparatus.
請求項4記載の画像処理装置であって、
前記地図上の対応する位置に関連付けて表示される一の画像データのサムネイルは、前記同一の位置情報と関連付けられた複数の画像データのうち最初に撮影されたものであることを特徴とする画像処理装置。
The image processing apparatus according to claim 4,
The thumbnail of one image data displayed in association with the corresponding position on the map is the image that was first taken out of the plurality of image data associated with the same position information. Processing equipment.
JP2011166631A 2011-07-29 2011-07-29 Image processing device Active JP5509159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011166631A JP5509159B2 (en) 2011-07-29 2011-07-29 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011166631A JP5509159B2 (en) 2011-07-29 2011-07-29 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007156959A Division JP4978324B2 (en) 2007-06-14 2007-06-14 Image recording apparatus, image recording system, and image reproducing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013263263A Division JP2014099870A (en) 2013-12-20 2013-12-20 Image processing device

Publications (3)

Publication Number Publication Date
JP2012010360A JP2012010360A (en) 2012-01-12
JP2012010360A5 JP2012010360A5 (en) 2012-04-12
JP5509159B2 true JP5509159B2 (en) 2014-06-04

Family

ID=45540311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011166631A Active JP5509159B2 (en) 2011-07-29 2011-07-29 Image processing device

Country Status (1)

Country Link
JP (1) JP5509159B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285515A (en) * 1997-04-10 1998-10-23 Minolta Co Ltd Image recording and reproducing system
JP2003304486A (en) * 2002-04-09 2003-10-24 Hitachi Ltd Memory system and service vending method using the same
JP4085254B2 (en) * 2002-09-13 2008-05-14 ソニー株式会社 COMMUNICATION SYSTEM, COMMUNICATION DEVICE, AND PROGRAM
JP2004147044A (en) * 2002-10-24 2004-05-20 Matsushita Electric Ind Co Ltd Communication system
JP2004254115A (en) * 2003-02-20 2004-09-09 Ntt Docomo Inc Mobile device, communication control method and communication control program
JP2005341259A (en) * 2004-05-27 2005-12-08 Canon Inc Image voice storage apparatus
JP2006211257A (en) * 2005-01-27 2006-08-10 Olympus Corp Electronic image pickup device and image management program
JP2007135069A (en) * 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus

Also Published As

Publication number Publication date
JP2012010360A (en) 2012-01-12

Similar Documents

Publication Publication Date Title
JP4978324B2 (en) Image recording apparatus, image recording system, and image reproducing method
US8515237B2 (en) Imaging device and image processing apparatus
KR101295430B1 (en) Image recording apparatus, image reproducing apparatus, image recording method, and image reproducing method
JP2010045765A (en) Reproducing apparatus
JP5082973B2 (en) Video recording system and imaging apparatus
JP2005312022A (en) Audio-visual recording/reproducing apparatus and digital video camera
JP6248314B2 (en) Imaging apparatus, captured image processing method, and imaging system
JP6469772B2 (en) Imaging device
JP7420886B2 (en) Image processing device and method
JP6632360B2 (en) Information processing device
JP5509159B2 (en) Image processing device
JP6799092B2 (en) Imaging device and imaging method
JP2014099870A (en) Image processing device
JP2008097727A (en) Animation-reproducing device
JP2006092681A (en) Image management method, image management device and image management system
JP6263002B2 (en) Imaging apparatus, control method therefor, and program
JP2007151023A (en) Recording apparatus
JP4490892B2 (en) Imaging device
JP2020170998A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2017041801A (en) Imaging apparatus, information processing method, and program
JP2016201712A (en) Video processing apparatus
JP2005175525A (en) Image reproducing apparatus, image reproducing method, program, and recording medium
JP2011155429A (en) Video information providing system
JP2016063256A (en) Imaging apparatus, control method thereof, and program
JP2015159387A (en) Video recorder

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131224

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5509159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250