JP6167483B2 - Reproduction processing device, imaging device, and reproduction processing program - Google Patents
Reproduction processing device, imaging device, and reproduction processing program Download PDFInfo
- Publication number
- JP6167483B2 JP6167483B2 JP2012174997A JP2012174997A JP6167483B2 JP 6167483 B2 JP6167483 B2 JP 6167483B2 JP 2012174997 A JP2012174997 A JP 2012174997A JP 2012174997 A JP2012174997 A JP 2012174997A JP 6167483 B2 JP6167483 B2 JP 6167483B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- reproduction
- processing apparatus
- data
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 40
- 238000003384 imaging method Methods 0.000 title claims description 10
- 239000013598 vector Substances 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 238000004091 panning Methods 0.000 claims description 6
- 230000008929 regeneration Effects 0.000 claims description 6
- 238000011069 regeneration method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 description 15
- 230000003321 amplification Effects 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、再生処理装置、撮像装置および再生処理プログラムに関する。 The present invention relates to a reproduction processing device, an imaging device, and a reproduction processing program.
従来、複数のマイクロホンを用いて録音した音声からその音声の音源の方向を取得することができる。 Conventionally, the direction of the sound source of the sound can be acquired from the sound recorded using a plurality of microphones.
例えば、複数のマイクロホンを有するデジタルカメラが、静止画像や動画を撮像するとともに音声を録音して、音声の音源ごとの方向および画像における位置を推定し、各音源の方向別音声データおよび位置データを生成して画像データに対応付けて記録する技術がある(特許文献1等参照)。 For example, a digital camera having a plurality of microphones captures still images and moving images and records audio, estimates the direction of each sound source and the position in the image, and obtains sound data and position data for each sound source by direction. There is a technique of generating and recording in association with image data (see Patent Document 1).
しかしながら、従来技術では、画像を再生表示すると同時に、単に全ての音源または音源ごとの音声データを再生するだけで、画像のシーンや撮影者または被写体の視点等に応じて、各音源の音声データに効果や演出を施して再生することはできない。 However, according to the conventional technology, at the same time as reproducing and displaying an image, the sound data of each sound source is simply reproduced by reproducing all the sound sources or sound data for each sound source according to the scene of the image, the photographer or the viewpoint of the subject, etc. It cannot be played back with effects and effects.
上記従来技術が有する問題に鑑み、本発明の目的は、音源ごとの音声データに効果や演出を施して再生することができる技術を提供することにある。 In view of the problems of the above-described conventional technology, an object of the present invention is to provide a technology capable of reproducing audio data for each sound source with effects and effects.
本発明を例示する再生処理装置の一態様は、画像データと画像データ生成処理時に録音された音声データとを読み込む入力部と、画像データより主要被写体を検出する被写体検出部と、検出された主要被写体までの距離に関する情報を画像データより取得し、距離に関する情報と、音源の方向と、音源が画角内か否かに基づいて、再生時の音声データの音量を制御する再生制御データを生成する制御部と、を備える。 An aspect of a reproduction processing apparatus illustrating the present invention includes an input unit that reads image data and audio data recorded during image data generation processing, a subject detection unit that detects a main subject from the image data, and a detected main component Obtains information about the distance to the subject from the image data, and generates playback control data that controls the volume of the audio data during playback based on the information about the distance , the direction of the sound source, and whether the sound source is within the angle of view. A control unit.
また、制御部は、音声データから少なくとも1つの音声の音源の方向を求めて音源の音声データを生成し、音源の方向、距離に関する情報および音源が画角内か否かに基づいて、音源に対する重み付けをして再生制御データを生成してもよい。 In addition, the control unit obtains the sound source sound data by obtaining the direction of at least one sound source from the sound data, and determines the sound source sound data based on the sound source direction and distance information and whether the sound source is within the angle of view. The reproduction control data may be generated by weighting.
また、制御部は、音声データから複数の音源それぞれの方向を求めて各音源の音声データを生成し、各音源の方向、距離に関する情報および音源が画角内か否かに基づいて、各音源に対する重み付けをして再生制御データを生成してもよい。 In addition, the control unit determines the direction of each of the plurality of sound sources from the sound data, generates sound data of each sound source, and determines each sound source based on information on the direction and distance of each sound source and whether the sound source is within the angle of view. The reproduction control data may be generated by weighting.
また、画像データのシーンを判定するシーン判定部を備え、制御部は、音源の方向、距離に関する情報および音源が画角内か否かとともに、シーン判定部の判定結果に基づいて、音源に対する重み付けをしてもよい。 The image processing apparatus further includes a scene determination unit that determines a scene of the image data, and the control unit weights the sound source based on information on the direction and distance of the sound source and whether or not the sound source is within the angle of view and the determination result of the scene determination unit. You may do.
また、画像データは、時系列に連続して撮像された複数のフレームからなり、制御部は、画像データを撮像する際の撮像装置のパンニングに伴う動きを検出し、フレームの動きベクトルとして算出する動きベクトル算出部をさらに備え、制御部は、音源の方向、距離に関する情報および音源が画角内か否かとともに、各フレームの動きベクトルに基づいて、各フレームにおける音源に対する重み付けをしてもよい
また、画像データは、時系列に連続して撮像された複数のフレームからなり、制御部は、主要被写体の動きを検出し、主要被写体の動きベクトルを算出する動きベクトル算出部をさらに備え、制御部は、音源の方向、距離に関する情報および音源が画角内か否かとともに、主要被写体の動きベクトルに基づいて、各フレームにおける音源に対する重み付けをしてもよい。
The image data includes a plurality of frames that are continuously captured in time series, and the control unit detects a motion associated with panning of the imaging device when capturing the image data, and calculates the motion vector of the frame. The control unit may further include a motion vector calculation unit, and the control unit may weight the sound source in each frame based on the information on the direction and distance of the sound source and whether the sound source is within the angle of view and the motion vector of each frame. The image data includes a plurality of frames that are continuously captured in time series, and the control unit further includes a motion vector calculation unit that detects a motion of the main subject and calculates a motion vector of the main subject. The information about the direction and distance of the sound source, whether the sound source is within the angle of view, and the motion vector of the main subject The sound source may be weighted.
また、制御部は、フレームにおける音源の重み付けを、隣接するフレームにおける音源の重み付けと加重平均してもよい。 In addition, the control unit may perform weighted averaging of the sound source in the frame and the weight of the sound source in the adjacent frame.
また、音声データを外部に音声で出力するスピーカ部を備え、制御部は、再生制御データに基づいて音声データの音量を制御してスピーカ部に音声を出力させてもよい。 In addition, a speaker unit that outputs voice data to the outside may be provided, and the control unit may control the volume of the voice data based on the reproduction control data and output the voice to the speaker unit.
また、画像データを表示する表示部を備えてもよい。 Moreover, you may provide the display part which displays image data.
本発明を例示する撮像装置の一態様は、被写界を撮像して画像データを生成する撮像部と、音声を受信して音声データを生成するマイクロホン部と、本発明の再生処理装置と、を備える。 An aspect of an imaging device illustrating the present invention includes an imaging unit that captures an object scene and generates image data, a microphone unit that receives audio and generates audio data, and a reproduction processing device of the present invention. Is provided.
本発明を例示する再生処理プログラムの一態様は、画像データと画像データ生成処理時に録音された音声データとを読み込む入力手順、画像データより主要被写体を検出する被写体検出手順、検出された主要被写体までの距離に関する情報を画像データより取得し、距離に関する情報と、音源の方向と、音源が画角内か否かに基づいて、再生時の音声データの音量を制御する再生制御データを生成する制御手順、をコンピュータに実行させる。 An aspect of a reproduction processing program illustrating the present invention includes an input procedure for reading image data and audio data recorded during the image data generation process, a subject detection procedure for detecting a main subject from the image data, and a detected main subject. Control to generate playback control data that controls the volume of audio data during playback based on distance information , the direction of the sound source, and whether or not the sound source is within the angle of view Make the computer execute the procedure.
本発明によれば、音源ごとの音声データに効果や演出を施して再生することができる。 According to the present invention, audio data for each sound source can be reproduced with effects and effects.
《一の実施形態》
図1は、本発明の一の実施形態に係る再生処理装置として動作させるコンピュータ100の構成を示す図である。
<< One Embodiment >>
FIG. 1 is a diagram showing a configuration of a computer 100 that is operated as a reproduction processing apparatus according to an embodiment of the present invention.
図1(a)に示すコンピュータ100は、CPU10、記憶部11、入出力インタフェース(入出力I/F)12およびバス13から構成される。CPU10、記憶部11および入出力I/F12は、バス13を介して情報伝達可能に接続される。また、コンピュータ100には、入出力I/F12を介して、画像処理の途中経過や処理結果を表示する出力装置14、ユーザからの入力を受け付ける入力装置15がそれぞれ接続される。出力装置14には、一般的な液晶モニタやプリンタ等を用いることができ、入力装置15には、キーボードやマウス等をそれぞれ適宜選択して使用できる。なお、本実施形態のコンピュータ100は、出力装置14として、スピーカも有するものとする。また、入出力IF12は、出力装置14および入力装置15とともに、不図示のデジタルカメラをUniversal Serial Bus(USB)ケーブルなどで接続する接続部や、デジタルカメラ(不図示)に装着されたメモリカード(不図示)を差し込む差し込み口を有するものとする。
A computer 100 shown in FIG. 1A includes a
本実施形態のコンピュータ100が処理対象とする画像は、不図示のデジタルカメラ等で撮像され、その撮像時に被写界周辺の音声をステレオ録音された音声データがヘッダ領域に付加された静止画像や動画である。なお、その静止画像や動画のヘッダ領域には、撮像時の露出条件(焦点距離、絞り値、シャッタ速度、ISO値等)とともに、少なくとも静止画像や動画に撮像された全ての主要被写体の被写体距離Dの情報を有するものとする。 An image to be processed by the computer 100 of the present embodiment is captured by a digital camera (not shown) or the like, and a still image in which audio data obtained by stereo-recording audio around the scene at the time of imaging is added to the header area or It is a video. In the still image or moving image header area, the subject distances of at least all main subjects imaged in the still image or moving image, together with the exposure conditions (focal length, aperture value, shutter speed, ISO value, etc.) at the time of image capturing are included. Assume that the information of D is included.
CPU10は、コンピュータ100の各部を統括的に制御するプロセッサである。例えば、CPU10は、入力装置15で受け付けたユーザからの指示に基づいて、記憶部11に記憶されている再生処理プログラムを読み込む。CPU10は、その再生処理プログラムを実行することにより、被写体検出部20およびシーン判定部21として動作し(図1(b))、処理対象の画像に対して再生処理を行う。CPU10は、静止画像や動画を出力装置14の液晶モニタに再生表示するとともに、付加された音声データの音声をスピーカに出力する。
The
被写体検出部20は、処理対象の静止画像や動画の各フレームに対して被写体検出処理を施し、人物の顔領域や、建物や自動車等の画像領域を検出する。この被写体検出処理は公知のアルゴリズムによって行われる。例えば、被写体検出部20は、記憶部11に記憶された、人物や建物等の様々なパターンのテンプレートを用いて、静止画像やフレームに対しパターンマッチング処理等を施して主要被写体の画像領域を検出する。CPU10は、検出された主要被写体の画像領域の大きさや位置等を被写体情報として取得する。
The
シーン判定部21は、公知の手法を用いて静止画像やフレームに撮像された被写界のシーンを判定する。なお、シーン判定部21は、読み込んだ静止画像や動画のヘッダ領域に撮像時のシーンモード情報を有する場合、そのシーンモード情報に基づいてシーンを判定する。
The
記憶部11は、制御プログラムや再生処理プログラム等、およびデジタルカメラ(不図示)から読み込んだ画像を記録する。記憶部11に記憶されるプログラムや画像等は、バス13を介して、CPU10から適宜参照することができる。記憶部11には、一般的なハードディスク装置、光磁気ディスク装置等の記憶装置を選択して用いることができる。なお、記憶部11は、コンピュータ100に組み込まれるとしたが、外付けの記憶装置でもよい。この場合、記憶部11は、入出力I/F12を介してコンピュータ100に接続される。
The
次に、図2のフローチャートを参照しつつ、本実施形態のコンピュータ100による再生処理について説明する。なお、本実施形態では、処理対象とする画像を、図3(a)に示すような人物30を含む被写界40が撮像された静止画像とする。ただし、図3(b)は、上記静止画像の撮像後の被写界40を示し、自動車32は、撮像時点では被写界40の外側であるが、人物30に接近しているものとする。
Next, playback processing by the computer 100 of the present embodiment will be described with reference to the flowchart of FIG. In this embodiment, the image to be processed is a still image in which the
ユーザは、入力装置15を用いて、再生処理プログラムのコマンドを入力、または出力装置14に表示されたそのプログラムのアイコンをダブルクリック等することにより、再生処理プログラムの起動をCPU10に指示する。CPU10は、その指示を入出力I/F12を介して受け付け、記憶部11に記憶されている再生処理プログラムを読み込み実行する。CPU10は、ステップS101からの処理を開始する。
The user uses the
ステップS101:CPU10は、入力装置14を介して、ユーザにより指定された静止画像を、記憶部11または入出力I/F12を介してデジタルカメラ(不図示)から読み込む。
Step S101: The
ステップS102:被写体検出部20は、読み込んだ静止画像から人物30の顔領域や建物31の画像領域を検出する。CPU10は、検出された各主要被写体の画像領域の大きさや位置等を、静止画像のヘッダ領域に付加された各主要被写体の被写体距離Dと合わせて被写体情報として取得する。
Step S102: The
ステップS103:CPU10は、特許文献1等の公知の手法を用いて、静止画像に付加されたステレオ録音の音声データから、その音声データに含まれる音声それぞれの音源の方向を求め、音源ごとの音声信号を抽出し各音源の音声データを生成する。本実施形態では、音源として、人物30の音声、建物31から流れる音楽、および接近する自動車32のエンジン音の音源があり、CPU10は、それらの音源の音声データを生成するものとする。また、CPU10は、それらの音源が静止画像上のどこに位置するかを、被写体情報および各音源の方向に基づいて特定し、各音源の方向と特定された位置とからなる位置情報を生成する。CPU10は、音源ごとの音声データおよび位置情報を、上記被写体情報と対応付けて不図示の内部メモリに記録する。
Step S103: The
なお、図3(a)に示すように、自動車32は、静止画像の画角内にないことから、自動車32の被写体情報の画像領域の大きさや位置、被写体距離D(i)は、画角外を示す所定の値または無限遠等に設定されているものとする。
As shown in FIG. 3A, since the
ステップS104:CPU10は、各音源の音声データを再生する際の音量を、後述する静止画像に撮像されたシーンに応じて設定するために、各音源が静止画像の画角内に存在するか否かを、静止画像の画角と各音源の位置情報とに基づいて判定する。CPU10は、音源が画角内の場合、その音源のフラグUseFlag(i)を1に設定する。一方、CPU10は、音源が画角外の場合、フラグUseFlag(i)を0と設定する。ここで、係数iは各音源を示し、本実施形態では、人物30をi=0、建物31をi=1、自動車32をi=2とする。
Step S104: The
ステップS105:シーン判定部21は、静止画像に撮像されたシーンを判定し、CPU10は、シーン判定部21の判定結果に応じて、再生時の各音源の重み付けをする。なお、本実施形態のシーン判定部21が判定するシーンは、「スナップ」、「ポートレート」または「風景」のいずれかとする。それぞれのシーンにおけるCPU10による各音源の重み付けの設定について説明する。
A)「スナップ」の場合
CPU10は、再生時の各音源の重み付けを、静止画像の撮像時における合焦領域、例えば、人物30の顔領域からの静止画像上の距離Lに応じて変化する重み係数WT(i)=α/Lとして設定する。係数αは所定の値が設定される。なお、音源が静止画像の画角外の場合、すなわち自動車32の距離Lは、所定の値または無限遠等に設定されているものとする。
B)「ポートレート」の場合
CPU10は、人物からの音源の重み係数WT(i)が最も大きな値になるように設定する。例えば、CPU10は、人物30の重み係数WT(i)を1に設定し、建物31および自動車32の重み係数WT(i)を0.5に設定する。
C)「風景」の場合
CPU10は、人物以外からの音源の重み係数WT(i)が大きな値となるように設定する。例えば、CPU10は、人物30の重み係数WT(i)を0.2に設定し、建物31および自動車32の重み係数WT(i)を1に設定する。
Step S105: The
A) In the case of “snap” The
B) “Portrait” The
C) In the case of “scenery” The
なお、各シーンにおける重み係数WT(i)の値および設定方法は一例であり、他の値または他の設定方法で設定してもよい。例えば、「ポートレート」の場合、人物30との距離に反比例するように、建物31や自動車32の重み係数WT(i)が設定されてもよい。
Note that the value and setting method of the weighting factor WT (i) in each scene are examples, and may be set by other values or other setting methods. For example, in the case of “portrait”, the weight coefficient WT (i) of the
ステップS106:CPU10は、ステップS105で設定された各音源の重み係数WT(i)を用いて、再生時の各音源の音量を決める増幅率AMP(i)を次式(1)に基づいて算出し、再生制御データとして生成する。
AMP(i)=UseFlag(i)×WT(i)/(β×D(i)) ・・・(1)
ここで、係数βは、各主要被写体の被写体距離D(i)を規格化する係数である。
Step S106: The
AMP (i) = UseFlag (i) × WT (i) / (β × D (i)) (1)
Here, the coefficient β is a coefficient that normalizes the subject distance D (i) of each main subject.
ステップS107:CPU10は、音源ごとに音声データと再生制御データの増幅率AMP(i)との積を計算して、各音源の再生用音声データを生成する。CPU10は、静止画像を出力装置14の液晶モニタに再生表示するとともに、出力装置14のスピーカに各音源の再生用音声データを音声として出力する。CPU10は、一連の処理を終了する。
Step S107: The
なお、処理対象の画像が動画の場合、コンピュータ100は、動画の各フレームに対し図2に示す再生処理を施す。すなわち、コンピュータ100は、動画の全フレームに対してステップS102〜ステップS105の処理を施した後、ステップS106へ移行して、各フレームにおける音源ごとの増幅率AMPを算出し、再生制御データを生成する。 When the image to be processed is a moving image, the computer 100 performs the reproduction process shown in FIG. 2 on each frame of the moving image. That is, the computer 100 performs the processing from step S102 to step S105 on all the frames of the moving image, and then proceeds to step S106, calculates the amplification factor AMP for each sound source in each frame, and generates reproduction control data. To do.
このように、本実施形態では、撮像された画像のシーンに応じて各音源の重み係数を設定することにより、各音源の音声データに効果や演出を施して再生することができる。
《他の実施形態》
本発明の他の実施形態に係るコンピュータは、図1に示す一の実施形態に係るコンピュータ100と同じであり、各構成要素についての詳細な説明は省略する。
As described above, in this embodiment, by setting the weighting coefficient of each sound source according to the scene of the captured image, it is possible to reproduce the sound data of each sound source with effects and effects.
<< Other embodiments >>
A computer according to another embodiment of the present invention is the same as the computer 100 according to one embodiment shown in FIG. 1, and a detailed description of each component will be omitted.
本実施形態のコンピュータ100と一の実施形態のものとの相違点は、1)処理対象となる画像は動画のみであり、2)コンピュータ100は、動画の再生において、撮影者視点か被写体視点かに応じて各音源の音声データの重み係数WTを設定する再生モードを有する点にある。ここで、再生モードの撮影者視点モードとは、デジタルカメラ(不図示)の撮影者が聞くような音声で各音源の音声データを再生するモードであり、被写体視点モードとは、主要被写体の位置で聞こえるような音声で各音源の音声データを再生するモードである。また、処理対象となる画像は動画のみとなることに伴い、本実施形態のCPU10は、再生プログラムを実行することにより、図4に示すように、被写体検出部20とともに、動きベクトル算出部22として動作する。
The difference between the computer 100 of this embodiment and that of the one embodiment is that 1) the image to be processed is only a moving image, and 2) the computer 100 is a photographer viewpoint or a subject viewpoint in reproducing a moving image. Accordingly, a reproduction mode for setting the weighting coefficient WT of the sound data of each sound source is provided. Here, the photographer viewpoint mode in the reproduction mode is a mode in which the sound data of each sound source is reproduced with sound heard by the photographer of the digital camera (not shown), and the subject viewpoint mode is the position of the main subject. In this mode, the sound data of each sound source is reproduced with sound that can be heard. Further, as the image to be processed is only a moving image, the
ベクトル算出部22は、動画を撮像したデジタルカメラ(不図示)のパンニングに伴う動きをフレーム動きとして検出しフレームの動きベクトルを算出するとともに、主要被写体の動きを検出し主要被写体の動きベクトルを算出する。具体的には、動きベクトル算出部22は、動画の隣接する2つのフレームに公知の相関処理を施す。動きベクトル算出部22は、その相関結果に基づいて、例えば、被写体検出部20により検出された主要被写体の画像領域を除いた背景の画像領域における2つのフレーム間のズレ量から、フレーム動きを検出しフレームの動きベクトルを算出する。一方、動きベクトル算出部22は、背景の画像領域のズレ量と主要被写体の画像領域のズレ量とに基づいて、主要被写体の動きを検出しその主要被写体の動きベクトルを算出する。
The
次に、図5のフローチャートを参照しつつ、本実施形態のコンピュータ100の再生処理について説明する。なお、本実施形態での処理対象の動画は、図3に示す被写界40を撮像したものである。図6(a)〜(c)は、その動画のフレームのうち、連続する3フレームを一例として示す。すなわち、図6(a)〜(c)は、k番目、k+1番目およびk+2番目のフレームを示す(kは自然数)。ただし、図6(a)、(b)は、人物30を追従するようにデジタルカメラ(不図示)をパンニングして撮像されたフレームとする。また、図6(c)は、左側から現れた自動車33が画像中心となるようにデジタルカメラ(不図示)をパンニングして撮像されたフレームとする。
Next, the reproduction process of the computer 100 of this embodiment will be described with reference to the flowchart of FIG. Note that the moving image to be processed in the present embodiment is an image of the
ユーザは、入力装置15を用いて、再生処理プログラムのコマンドを入力、または出力装置14に表示されたそのプログラムのアイコンをダブルクリック等することにより、再生処理プログラムの起動をCPU10に指示する。CPU10は、その指示を入出力I/F12を介して受け付け、記憶部11に記憶されている再生処理プログラムを読み込み実行する。CPU10は、ステップS201からの処理を開始する。
The user uses the
ステップS201:CPU10は、入力装置14を介して、ユーザにより指定された動画を、記憶部11または入出力I/F12を介してデジタルカメラ(不図示)から読み込む。なお、CPU10は、再生したい動画の指定とともに、再生モードの指定も受け付けることが好ましい。
Step S201: The
ステップS202:被写体検出部20は、読み込んだ動画の各フレームから人物30等の画像領域を検出する。CPU10は、検出された各主要被写体の画像領域の大きさや位置等を、動画のヘッダ領域に付加された各主要被写体の被写体距離Dと合わせて被写体情報として取得する。
Step S202: The
ステップS203:CPU10は、特許文献1等の公知の手法を用いて、動画に付加されたステレオ録音の音声データから、その音声データに含まれる音声それぞれの音源の方向を求め、音源ごとの音声信号を抽出し各音源の音声データを生成する。また、CPU10は、それらの音源が各フレーム上のどこに位置するかを、被写体情報および各音源の方向に基づいて特定し、各フレームにおける各音源の方向と特定された位置とからなる位置情報を生成する。CPU10は、音源ごとの音声データおよび位置情報を、上記被写体情報と対応付けて不図示の内部メモリに記録する。
Step S203: The
ステップS204:動きベクトル算出部22は、隣接する2つのフレームに対して相関処理を施し、背景の画像領域におけるズレ量から、フレーム動きを検出しフレームの動きベクトルを算出する。また、動きベクトル算出部22は、背景の画像領域のズレ量と各主要被写体の画像領域におけるズレ量とから、各主要被写体の動きベクトルを算出する。CPU10は、算出されたフレームおよび各主要被写体の動きベクトルを、各フレームに対応付けて不図示の内部メモリに記録する。
Step S204: The motion
ステップS205:CPU10は、再生モードとして撮影者視点モードに設定されているか否かを判定する。CPU10は、撮影者視点モードに設定されている場合、ステップS206(YES側)へ移行し、被写体視点モードに設定されている場合、ステップS207(NO側)へ移行する。
Step S205: The
ステップS206:CPU10は、撮影者視点モードの場合、デジタルカメラ(不図示)の撮影者が聞くような音声で各音源の音声データを再生するために、例えば、m番目のフレームにおけるフレームの動きベクトルおよび各音源の位置情報に基づいて、m番目のフレームにおける各音源の重み係数WT(m,i)を設定する。具体的には次のように設定する。
Step S206: In the case of the photographer viewpoint mode, the
図7(a)〜(c)は、図6(a)〜(c)に示すk番目、k+1番目、k+2番目のフレームにおけるフレームの動きベクトルの向きを、各フレームの中心に矢印で示す。また、図8(a)は、各フレームにおいて、フレームの動きベクトルの向きおよび各音源の位置情報に基づいて設定された、各音源の重み係数WT(m,i)の一覧を示す。なお、撮影者視点モードでは、フレームの動きベクトルの向きに一致し、フレームの中心に近い音源ほど大きな値の重み係数が設定される。 FIGS. 7A to 7C show the directions of the motion vectors of the frames in the kth, k + 1th, and k + 2th frames shown in FIGS. 6A to 6C by arrows at the centers of the respective frames. FIG. 8A shows a list of weighting factors WT (m, i) of each sound source set in each frame based on the direction of the motion vector of the frame and the position information of each sound source. In the photographer viewpoint mode, a larger weight coefficient is set for a sound source that matches the direction of the motion vector of the frame and is closer to the center of the frame.
すなわち、k番目およびk+1番目のフレームは、人物30がフレームの中心に来るように撮像されたものであることから、図8(a)に示すように、人物30の重み係数が一番大きな値に設定される。また、建物31および自動車32は、フレームの動きベクトルの向いた側にあり、且つ人物30に近づくことから、建物31および自動車32の重み係数は、k番目よりもk+1番目のフレーム方が大きな値に設定される。一方、自動車33は、k番目およびk+1番目のフレームでは画角外で、フレームの動きベクトルの向きとは反対側であることから、重み係数は小さい値のままに設定される。
That is, the kth and (k + 1) th frames are captured so that the
一方、k+2番目のフレームは、自動車33がフレームの中心に来るようにデジタルカメラ(不図示)がパンニングされて撮像されたものであることから、自動車33の重み係数が一番大きな値に設定される。一方、人物30、建物31および自動車32は、フレームの動きベクトルの向きとは反対側であることから、それぞれの重み係数は、k番目およびk+1番目のフレームに比べて小さな値に設定される。
On the other hand, the k + 2th frame is an image obtained by panning a digital camera (not shown) so that the
なお、図8(a)に示す各フレームにおける音源ごとの重み係数WT(m,i)の値および値の設定方法は一例であり、主要被写体の数、フレームの動きベクトルの大きさや向き等に応じて適宜設定されることが好ましい。 Note that the value of the weighting factor WT (m, i) for each sound source in each frame shown in FIG. 8A and the method of setting the value are examples, and the number of main subjects, the size and direction of the motion vector of the frame, and the like. It is preferable to set appropriately.
ステップS207:CPU10は、被写体視点モードの場合、例えば、人物30が聞くような音声で各音源の音声データを再生するために、人物30の動きベクトルの向きおよび各音源の位置情報に基づいて、m番目のフレームにおける各音源の重み係数WT(m,i)を設定する。具体的には次のように設定する。
Step S207: In the subject viewpoint mode, for example, in order to reproduce the sound data of each sound source with sound that the
図9(a)〜(c)は、図7の場合と同様に、図6(a)〜(c)に示すk番目、k+1番目、k+2番目のフレームにおける人物30の動きベクトルの向きを、各フレームの中心に矢印で示す。また、図8(b)は、各フレームにおいて、人物30の動きベクトルの向きおよび各音源の位置情報に基づいて設定された、各音源の重み係数WT(m,i)の一覧を示す。なお、被写体視点モードでは、人物の動きベクトルの向きに一致し、人物30に近い音源ほど大きな値の重み係数が設定される。
9A to 9C show the direction of the motion vector of the
すなわち、k番目からk+2番目のフレームにおける人物30の動きベクトルは同じ向きであり、建物31および自動車32は人物30に近づくことから、図8(b)に示すように、建物31および自動車32の重み係数は、k番目からk+2番目のフレームに従い大きな値に設定される。一方、自動車33は、k番目とk+1番目とのフレームにおいて画角外であることから、0.1と小さな値の重み係数に設定されている。また、自動車33は、k+2番目のフレームの画角内で人物30に接近しているが、人物30の動きベクトルの向きと反対側であることから、他の音源の重み係数より小さな値に設定される。
That is, the motion vectors of the
なお、被写体視点モードでは、人物30自身が聞くような音声で各音源の音声データを再生することから、図8(b)に示すように、人物30自身の音声は小さな音量で再生されるように、例えば、0.5等の所定の値の重み係数が予め設定される。
In the subject viewpoint mode, the sound data of each sound source is reproduced with sound that the
また、図8(b)に示す各フレームにおける音源ごとの重み係数WT(m,i)の値および値の設定方法は一例であり、主要被写体の数、主要被写体の動きベクトルの大きさや向き等に応じて適宜設定されることが好ましい。 Further, the value of the weighting coefficient WT (m, i) for each sound source in each frame shown in FIG. 8B and the method of setting the value are examples, and the number of main subjects, the size and direction of the motion vector of the main subject, etc. It is preferable to set appropriately according to the above.
ステップS208:CPU10は、ステップS206またはステップS207において設定したm番目のフレームにおける各音源の重み係数WT(m,i)を、次式(2)を用いて、m番目のフレームを含む隣接するN枚(<動画のフレーム総数)のフレームにおける重み係数を時間軸方向に加重平均する。
Step S208: The
ここで、係数ε(j)は、j番目のフレームにおける音源の重み係数がm番目のフレームに対して寄与する度合いを示し、j=mの時、最も寄与するように設定される。また、用いられるフレーム数Nは10枚程度以下とし、加重平均の範囲jは、mからm+N−1、m−N+1からm、またはm−N/2からm+N/2等と適宜選択して行うことが好ましい。この加重平均により、CPU10は、各音源の音量をなめらかに変化させることができる。
Here, the coefficient ε (j) indicates the degree to which the weight coefficient of the sound source in the j-th frame contributes to the m-th frame, and is set to contribute most when j = m. Further, the number N of frames to be used is about 10 or less, and the weighted average range j is appropriately selected from m to m + N-1, m-N + 1 to m, m-N / 2 to m + N / 2, and the like. It is preferable. With this weighted average, the
ステップS209:CPU10は、ステップS208で加重平均された重み係数<WT(m,i)>を用いて、再生時の各フレームにおける各音源の音量を決める増幅率AMP(m,i)を、次式(3)を用いて算出し再生制御データを生成する。
AMP(m,i)=<WT(m,i)>/(β×D(m,i)) ・・・(3)
ここで、係数βは、m番目のフレームにおける各被写体距離D(m,i)を規格化する係数である。
Step S209: The
AMP (m, i) = <WT (m, i)> / (β × D (m, i)) (3)
Here, the coefficient β is a coefficient that normalizes each subject distance D (m, i) in the m-th frame.
ステップS210:CPU10は、音源ごとに音声データと再生制御データの増幅率AMP(m,i)との積を計算して、各音源の再生用音声データを生成する。
Step S210: The
ステップS211:CPU10は、出力装置14の液晶モニタに再生表示するとともに、出力装置14のスピーカに各音源の再生用音声データを音声として出力する。CPU10は、一連の処理を終了する。
Step S211: The
このように、本実施形態では、撮像された各フレームにおけるフレームまたは主要被写体の動きベクトルに応じて各音源の重み係数を設定することにより、各音源の音声データに効果や演出を施して再生することができる。
《実施形態の補足事項》
(1)本発明の再生処理装置は、再生処理プログラムをコンピュータ100に実行させることにより実現させたが、本発明はこれに限定されない。本発明に係る再生処理装置における処理をコンピュータ100で実現するための再生処理プログラムおよびそれを記録した媒体に対しても適用可能である。
As described above, in this embodiment, by setting the weighting coefficient of each sound source in accordance with the frame in each captured frame or the motion vector of the main subject, the sound data of each sound source is reproduced with effects and effects. be able to.
<< Additional items of embodiment >>
(1) Although the reproduction processing apparatus of the present invention is realized by causing the computer 100 to execute a reproduction processing program, the present invention is not limited to this. The present invention can also be applied to a reproduction processing program for realizing the processing in the reproduction processing apparatus according to the present invention by the computer 100 and a medium on which the program is recorded.
また、本発明の再生処理プログラムを有したデジタルカメラに対しても適用可能である。なお、デジタルカメラが本発明の画像処理装置として動作する場合、CPU10は、被写体検出部20、シーン判定部21および動きベクトル算出部22の各処理をソフトウエア的に実現してもよいし、ASICを用いてこれらの各処理をハードウエア的に実現してもよい。この場合、デジタルカメラにより撮像された静止画像や動画のヘッダ領域には、露出条件とともに、被写体情報、音声データ、位置情報および再生制御データが付加されることが好ましい。なお、ヘッダ領域に付加される音声データは、音源ごとに抽出されたものでもよいし、抽出する前のステレオ録音されたものでもよい。
The present invention can also be applied to a digital camera having the reproduction processing program of the present invention. When the digital camera operates as the image processing apparatus of the present invention, the
(2)上記実施形態では、コンピュータ100が、各音源の音声データの再生とともに、静止画像や動画を再生表示したが、本発明はこれに限定されず、各音源の音声データのみ再生してもよい。 (2) In the above embodiment, the computer 100 reproduces and displays still images and moving images as well as the sound data of each sound source. However, the present invention is not limited to this. Good.
(3)上記実施形態では、シーン判定結果または再生モードに応じて、各音源の重み係数を設定し再生制御データおよび再生音声データを生成したが、本発明はこれに限定されない。例えば、CPU10は、フレームや主要被写体の動きベクトルに基づいて、ドップラー効果等を考慮して再生制御データおよび再生音声データを生成してもよい。
(3) In the above embodiment, the weighting coefficient of each sound source is set according to the scene determination result or the playback mode, and the playback control data and the playback audio data are generated. However, the present invention is not limited to this. For example, the
(4)上記他の実施形態では、動きベクトル算出部22が、隣接する2つのフレームに対する相関処理に基づいて、フレームおよび各主要被写体の動きベクトルを算出したが、本発明はこれに限定されない。例えば、H.264等の動画形式で動画圧縮された動画の場合には、圧縮効率を高めるために、フレーム間予測における動き補償において動きベクトルが算出される。そこで、動きベクトル算出部22は、その動きベクトルに基づいて、フレームおよび各主要被写体の動きベクトルを求めてもよい。
(4) In the other embodiment described above, the motion
また、被写体追尾機能により検出した被写体の動きを用いて動きベクトルを算出してもよい。 Alternatively, the motion vector may be calculated using the motion of the subject detected by the subject tracking function.
また、デジタルカメラ(不図示)が加速度センサや電子ジャイロ等のセンサを備える場合、動きベクトル算出部22は、そのセンサの出力値に基づいて、フレームの動きベクトルを算出してもよい。
When the digital camera (not shown) includes a sensor such as an acceleration sensor or an electronic gyro, the motion
(5)上記他の実施形態では、被写体視点モードにおいて、追従する主要被写体を人物30としたが、本発明はこれに限定されず、建物31や自動車32等の主要被写体を追従してもよい。
(5) In the above-described other embodiments, the main subject to be followed is the
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。 From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.
10 CPU、11 記憶部、12 入出力I/F、13 バス、14 出力装置、15 入力装置、20 被写体検出部、21 シーン判定部、22 動きベクトル算出部、100 コンピュータ 10 CPU, 11 storage unit, 12 input / output I / F, 13 bus, 14 output device, 15 input device, 20 subject detection unit, 21 scene determination unit, 22 motion vector calculation unit, 100 computer
Claims (11)
前記画像データより主要被写体を検出する被写体検出部と、
検出された前記主要被写体までの距離に関する情報を前記画像データより取得し、前記距離に関する情報と、音源の方向と、前記音源が画角内か否かとに基づいて、再生時の前記音声データの音量を制御する再生制御データを生成する制御部と、
を備える再生処理装置。 An input unit for reading image data and audio data recorded during the image data generation process;
A subject detection unit for detecting a main subject from the image data;
Information about the detected distance to the main subject is acquired from the image data, and based on the information about the distance , the direction of the sound source, and whether the sound source is within the angle of view, A control unit for generating playback control data for controlling the volume;
A reproduction processing apparatus comprising:
前記制御部は、前記音声データから少なくとも1つの前記音声の音源の方向を求めて前記音源の音声データを生成し、前記音源の方向、前記距離に関する情報および前記音源が画角内か否かに基づいて、前記音源に対する重み付けをして前記再生制御データを生成する
再生処理装置。 The reproduction processing apparatus according to claim 1,
The control unit, the seeking direction of the sound source of at least one of the audio from the audio data to generate audio data of the sound source, the direction of the sound source, the information and the sound source regarding the distance whether the angle A reproduction processing apparatus that generates the reproduction control data by weighting the sound source based on the reproduction control data.
前記制御部は、前記音声データから複数の前記音源それぞれの方向を求めて前記各音源の音声データを生成し、前記各音源の方向、前記距離に関する情報および前記音源が画角内か否かに基づいて、前記各音源に対する重み付けをして前記再生制御データを生成する
再生処理装置。 The reproduction processing apparatus according to claim 2, wherein
Wherein the control unit generates an audio data from the seeking direction of each of the plurality of the sound source of each of the sound source audio data, the direction of each sound source, the information and the sound source regarding the distance whether the angle A reproduction processing apparatus that generates the reproduction control data by weighting each sound source based on the reproduction control data.
前記画像データのシーンを判定するシーン判定部を備え、
前記制御部は、前記音源の方向、前記距離に関する情報および前記音源が画角内か否かとともに、前記シーン判定部の判定結果に基づいて、前記音源に対する重み付けをする
再生処理装置。 In the reproduction | regeneration processing apparatus of Claim 2 or Claim 3,
A scene determination unit for determining a scene of the image data;
The reproduction processing apparatus, wherein the control unit weights the sound source based on the direction of the sound source, information on the distance, and whether or not the sound source is within an angle of view and a determination result of the scene determination unit.
前記画像データは、時系列に連続して撮像された複数のフレームからなり、
前記制御部は、
前記画像データを撮像する際の撮像装置のパンニングに伴う動きを検出し、前記フレームの動きベクトルとして算出する動きベクトル算出部をさらに備え、
前記制御部は、前記音源の方向、前記距離に関する情報および前記音源が画角内か否かとともに、前記各フレームの動きベクトルに基づいて、前記各フレームにおける前記音源に対する重み付けをする
再生処理装置。 In the reproduction | regeneration processing apparatus of Claim 2 or Claim 3,
The image data consists of a plurality of frames imaged continuously in time series,
The controller is
A motion vector calculating unit that detects a motion associated with panning of the imaging device when capturing the image data and calculates the motion vector of the frame;
The control unit weights the sound source in each frame based on the direction of the sound source, information on the distance, and whether or not the sound source is within an angle of view, and a motion vector of each frame.
前記画像データは、時系列に連続して撮像された複数のフレームからなり、
前記制御部は、
前記主要被写体の動きを検出し、前記主要被写体の動きベクトルを算出する動きベクトル算出部をさらに備え、
前記制御部は、前記音源の方向、前記距離に関する情報および前記音源が画角内か否かとともに、前記主要被写体の動きベクトルに基づいて、前記各フレームにおける前記音源に対する重み付けをする
再生処理装置。 In the reproduction | regeneration processing apparatus of Claim 2 or Claim 3,
The image data consists of a plurality of frames imaged continuously in time series,
The controller is
A motion vector calculating unit for detecting a motion of the main subject and calculating a motion vector of the main subject;
The reproduction processing apparatus weights the sound source in each frame based on the direction of the sound source, information on the distance, and whether or not the sound source is within an angle of view and a motion vector of the main subject.
前記制御部は、前記フレームにおける前記音源の前記重み付けを、隣接するフレームにおける前記音源の重み付けと加重平均する再生処理装置。 In the reproduction | regeneration processing apparatus of Claim 5 or Claim 6,
The control unit is a reproduction processing apparatus that weights and averages the weight of the sound source in the frame with the weight of the sound source in an adjacent frame.
前記制御部は、前記再生制御データに基づいて前記音声データの音量を制御して前記スピーカ部に音声を出力させる
再生処理装置。 The reproduction processing apparatus according to any one of claims 1 to 7, further comprising a speaker unit that outputs the audio data to the outside as audio.
The reproduction processing apparatus, wherein the control unit controls a volume of the audio data based on the reproduction control data and outputs sound to the speaker unit.
前記画像データを表示する表示部を備える再生処理装置。 In the reproduction | regeneration processing apparatus of any one of Claim 1 thru | or 8,
A reproduction processing apparatus comprising a display unit for displaying the image data.
音声を受信して音声データを生成するマイクロホン部と、
請求項1に記載の再生処理装置と、
を備える撮像装置。 An imaging unit that images the object scene and generates image data;
A microphone unit that receives sound and generates sound data;
A reproduction processing apparatus according to claim 1;
An imaging apparatus comprising:
前記画像データより主要被写体を検出する被写体検出手順、
検出された前記主要被写体までの距離に関する情報を前記画像データより取得し、前記距離に関する情報と、音源の方向と、前記音源が画角内か否かとに基づいて、再生時の前記音声データの音量を制御する再生制御データを生成する制御手順、
をコンピュータに実行させる再生処理プログラム。 An input procedure for reading image data and audio data recorded during the image data generation process;
A subject detection procedure for detecting a main subject from the image data;
Information about the detected distance to the main subject is acquired from the image data, and based on the information about the distance , the direction of the sound source, and whether the sound source is within the angle of view, A control procedure for generating playback control data for controlling the volume;
A reproduction processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012174997A JP6167483B2 (en) | 2012-08-07 | 2012-08-07 | Reproduction processing device, imaging device, and reproduction processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012174997A JP6167483B2 (en) | 2012-08-07 | 2012-08-07 | Reproduction processing device, imaging device, and reproduction processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017127824A Division JP6525029B2 (en) | 2017-06-29 | 2017-06-29 | Reproduction processing apparatus, imaging apparatus and reproduction processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014036257A JP2014036257A (en) | 2014-02-24 |
JP6167483B2 true JP6167483B2 (en) | 2017-07-26 |
Family
ID=50285008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012174997A Active JP6167483B2 (en) | 2012-08-07 | 2012-08-07 | Reproduction processing device, imaging device, and reproduction processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6167483B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006203867A (en) * | 2004-12-20 | 2006-08-03 | Fuji Photo Film Co Ltd | Imaging apparatus, imaging method, and program |
JP5299034B2 (en) * | 2009-04-02 | 2013-09-25 | 株式会社ニコン | Imaging device |
JP2011160044A (en) * | 2010-01-29 | 2011-08-18 | Sanyo Electric Co Ltd | Imaging device |
JP2011254400A (en) * | 2010-06-03 | 2011-12-15 | Olympus Imaging Corp | Image and voice recording device |
-
2012
- 2012-08-07 JP JP2012174997A patent/JP6167483B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014036257A (en) | 2014-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102650850B1 (en) | Video sound processing device, video sound processing method , and computer readable recording medium storing program | |
JP5801026B2 (en) | Image sound processing apparatus and imaging apparatus | |
US7548256B2 (en) | Image processing scheme | |
JP4692550B2 (en) | Image processing apparatus, processing method thereof, and program | |
US20090052741A1 (en) | Subject tracking method, subject tracking device, and computer program product | |
JP2012151796A (en) | Image processing device, image processing method, and program | |
JP4859876B2 (en) | Information processing device | |
JP2013106298A (en) | Imaging controller, imaging control method, program for imaging control method, and imaging apparatus | |
US20170162195A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JPWO2006025272A1 (en) | Video classification device, video classification program, video search device, and video search program | |
TWI588590B (en) | Video generating system and method thereof | |
JP2006245677A (en) | Image processor, image processing method, and image processing program | |
CN103312975A (en) | Image processing apparatus that combines images | |
US8391544B2 (en) | Image processing apparatus and method for processing image | |
JP4490076B2 (en) | Object tracking method, object tracking apparatus, program, and recording medium | |
JP2011061461A (en) | Imaging apparatus, directivity control method, and program therefor | |
JP3716918B2 (en) | Sound collection device, method and program, and recording medium | |
JP6167483B2 (en) | Reproduction processing device, imaging device, and reproduction processing program | |
JP6525029B2 (en) | Reproduction processing apparatus, imaging apparatus and reproduction processing program | |
JP6295442B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP6314321B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
WO2020216709A1 (en) | Generating audio output signals | |
CN103312968A (en) | Image analysis device, image processing device and image analysis method | |
JP2020129763A (en) | Video reproduction device, video reproduction method, and program | |
JP6295443B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161205 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20170323 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20170323 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6167483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |