JP5196230B2 - 出力装置、出力方法、及びプログラム - Google Patents

出力装置、出力方法、及びプログラム Download PDF

Info

Publication number
JP5196230B2
JP5196230B2 JP2007323647A JP2007323647A JP5196230B2 JP 5196230 B2 JP5196230 B2 JP 5196230B2 JP 2007323647 A JP2007323647 A JP 2007323647A JP 2007323647 A JP2007323647 A JP 2007323647A JP 5196230 B2 JP5196230 B2 JP 5196230B2
Authority
JP
Japan
Prior art keywords
moving image
image
unit
moving
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007323647A
Other languages
English (en)
Other versions
JP2008178089A (ja
Inventor
哲弥 高森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007323647A priority Critical patent/JP5196230B2/ja
Priority to US11/961,693 priority patent/US8254626B2/en
Publication of JP2008178089A publication Critical patent/JP2008178089A/ja
Application granted granted Critical
Publication of JP5196230B2 publication Critical patent/JP5196230B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、出力装置、出力方法、及びプログラムに関する。特に本発明は、画像を出力する出力装置、出力方法、並びに出力装置用のプログラムに関する。
映像の重要度を示すトリガを発生し、発生されたトリガを用いて画面構成を算出し、画面構成の算出結果に基づいて、入力画像との合成に用いられる画像を作成し、入力画像と合成される画像とを1つの画面に合成する映像合成装置が知られている(例えば、特許文献1参照。)。
特開2004−266376号公報
上記特許文献1に記載の撮影装置によると、映像の重要度を示すトリガを用いて合成する画像を選択しているため、人物の軌跡が重なってしまい、見にくくなってしまう場合があるという課題があった。
そこで本発明は、上記課題を解決することができる出力装置、出力方法、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
上記課題を解決するために、本発明の第1の形態における出力装置は、動画を取得する動画取得部と、動画取得部が取得した動画において動くオブジェクトを抽出する動きオブジェクト抽出部と、動画取得部が取得した動画に含まれる複数の動画構成画像のそれぞれにおいて、動きオブジェクト抽出部が抽出したオブジェクトが占める領域であるオブジェクト領域を特定するオブジェクト領域特定部と、動画取得部が取得した動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する動画構成画像選択部と、動画構成画像選択部が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成する画像生成部と、画像生成部が生成した合成画像を出力する出力部とを備える。
動画取得部が取得した動画において、動きオブジェクト抽出部が抽出したオブジェクトの動く方向を特定する動き方向特定部と、動画取得部が取得した動画において、動き方向特定部が特定した方向の変化量が予め定められた変化量より小さくなる期間を特定する期間特定部とをさらに備え、動画構成画像選択部は、期間特定部が特定した期間の動画を表す複数の動画構成画像の中から、オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択してよい。
動画構成画像選択部は、動画取得部が取得した動画における第1期間の動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択し、画像生成部は、動画構成画像選択部が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成し、出力部は、第1期間の動画に含まれる複数の動画構成画像に代えて、画像生成部が生成した1つの合成画像を第1期間の動画を表す画像として出力してよい。
本発明の第2の形態における出力方法は、動画を取得する動画取得段階と、動画において動くオブジェクトを抽出する動きオブジェクト抽出段階と、動画取得段階において取得された動画に含まれる複数の動画構成画像のそれぞれにおいて、動きオブジェクト抽出段階において抽出されたオブジェクトが占める領域であるオブジェクト領域を特定するオブジェクト領域特定段階と、動画取得段階において取得された動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定段階において特定されたオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する動画構成画像選択段階と、動画構成画像選択段階において選択された複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて、1つの合成画像を生成する画像生成段階と、画像生成段階において生成された合成画像を出力する出力段階とを備える。
本発明の第3の形態によると、画像を出力する出力装置として機能させるプログラムであって、出力装置を、動画を取得する動画取得部と、動画において動くオブジェクトを抽出する動きオブジェクト抽出部、動画取得部が取得した動画に含まれる複数の動画構成画像のそれぞれにおいて、動きオブジェクト抽出部が抽出したオブジェクトが占める領域であるオブジェクト領域を特定するオブジェクト領域特定部、動画取得部が取得した動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する動画構成画像選択部、動画構成画像選択部が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて、1つの合成画像を生成する画像生成部と、画像生成部が生成した合成画像を出力する出力部として機能させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明によれば、撮像された画像の時間解像度を生かした形で出力することができる出力装置を提供することができる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態に係る監視システム110の利用環境の一例を示す。監視システム110は、複数の監視領域151〜156を撮像すべく設けられた複数の撮像装置100a〜c(以後、撮像装置100と総称する)と、伝送経路140と、出力装置170とを備える。出力装置170は、出力制御装置172と、複数のモニタ181〜186と、記憶装置175とを有する。なお、撮像装置100a〜cは、複数の監視領域151〜156を撮像すべく、複数の監視領域151〜156のそれぞれに複数設けられる。以後、複数の監視領域151〜156に設けられる複数の撮像装置100a〜cを撮像装置100と総称する。
撮像装置100は、監視領域151〜156を撮像した動画を伝送経路140を通じて出力制御装置172に送信する。出力制御装置172は、撮像装置100から受け取った動画を、観察者190が観察し易い予め定められた表示レートの動画に変換して、モニタ181〜186に表示させる。なお、予め定められた表示レートは、撮像装置100の撮像レートより低くてよい。また、予め定められた表示レートとは、モニタ181〜186が表示することができる動画の表示レートであってよい。記憶装置175は、出力制御装置172が出力した動画を記憶する。
出力制御装置172は、撮像装置100から受け取った動画を、予め定められた表示レートによって定まるフレーム画像の表示間隔と同じ時間幅を持つ期間毎の動画に分割する。そして、出力制御装置172は、分割された各期間の動画の中から人物の動きを抽出し、動画を構成する複数のフレーム画像において動く人物を特定する。そして、出力制御装置172は、各フレーム画像において特定した人物の人物画像のうち、重ならない位置にある人物画像を重ね合わせる。そして、出力制御装置172は、重ね合わせて得られた画像と背景領域とを合成して1つの合成画像を生成する。出力制御装置172は、各期間毎に1つ生成したそれぞれの合成画像を1駒の画像とする動画を生成して、モニタ181〜186に表示させる。
以上説明したように、出力制御装置172は、撮像装置100が撮像した動画を予め定められた表示レートの動画に変換してモニタ181〜186に表示させることができる。このとき出力制御装置172は、予め定められた表示レートより高い撮像レートで撮像装置100が撮像した動画の中の動く人物の人物画像を重ね合わせてフレーム画像を生成するので、観察者190は人物の細かな動きをモニタ181〜186上で観察することができる。また、出力制御装置172は、人物が互いに重ならないよう人物画像を合成するので、観察者190が出力制御装置172が生成した動画をコマ送りしたときに、人物の動きがわからなくなってしまうことを未然に防ぐことができる。また、出力制御装置172は、撮像装置100が撮像した動画のデータ量を低減して出力することができるので、記憶装置172の記憶容量を削減することができる。
なお、監視領域151〜156は、異なる建物内の空間であってよいし、同じ建物内の異なる空間であってもよい。例えば、監視領域151〜156は、店舗内の陳列棚の間の通路であってよい。また、監視領域151〜156は、建物内の空間に限らず、建物によって囲われていない開放された空間であってよいことは言うまでもない。
図2は、出力装置170のブロック構成の一例を示す。出力装置170は、動画取得部200、条件格納部210、オブジェクト特定部220、動きオブジェクト抽出部230、オブジェクト領域特定部240、期間特定部250、動画構成画像選択部260、画像生成部270、出力部280、及び動き方向特定部290を備える。
動画取得部200は、動画を取得する。例えば、動画取得部200は、撮像装置100が撮像した動画を伝送経路140を通じて撮像装置100から取得する。そして、動きオブジェクト抽出部230は、動画取得部200が取得した動画において動くオブジェクトを抽出する。例えば、動きオブジェクト抽出部230は、動画に含まれる複数の動画構成画像から、動くオブジェクトを抽出する。
具体的には、条件格納部210は、動画から抽出されるべきオブジェクトの条件を格納している。そして、オブジェクト特定部220は、条件格納部210が格納している条件に適合するオブジェクトを特定する。そして、動きオブジェクト抽出部230は、オブジェクト特定部220が特定したオブジェクトの中から、動画において動くオブジェクトを抽出する。その他にも、動画取得部200がMPEG符号化された動画を取得した場合には、動きオブジェクト抽出部230は、動きベクトル情報に基づいて動くオブジェクトを抽出してもよい。
オブジェクト領域特定部240は、動画取得部200が取得した動画に含まれる複数の動画構成画像のそれぞれにおいて、動きオブジェクト抽出部230が抽出したオブジェクトが占める領域であるオブジェクト領域を特定する。そして、動画構成画像選択部260は、動画取得部200が取得した動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定部240が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する。
そして、画像生成部270は、動画構成画像選択部260が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成する。そして、出力部280は、画像生成部270が生成した合成画像を出力する。なお、画像生成部270は、複数の合成画像のそれぞれが1コマの画像である動画を生成してよい。そして、出力部280は、画像生成部270が生成した動画を出力してよい。なお、モニタ181〜186又は記憶装置175は出力部280の一例であり、出力部280は、画像生成部270が生成した画像を表示デバイスに表示してよく、画像生成部270が生成した画像を記録媒体に記録してよい。
動き方向特定部290は、動画取得部200が取得した動画において、動きオブジェクト抽出部230が抽出したオブジェクトが動く方向を特定する。そして、期間特定部250とは、動画取得部200が取得した動画において、動き方向特定部が特定した方向の変化量が予め定められた変化量より小さい期間を特定する。そして、動画構成画像選択部260は、期間特定部250が特定した期間の動画を表す複数の動画構成画像の中から、オブジェクト領域特定部240が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する。
なお、条件格納部210は、動画から抽出されるべきオブジェクトの形状に関する条件を格納する。そして、オブジェクト特定部220は、条件格納部210が格納している形状に関する条件に適合するオブジェクトを特定する。また、条件格納部210は、動画から抽出されるべきオブジェクトの位置に関する条件を格納してよい。そして、オブジェクト特定部220は、条件格納部210が格納している位置に関する条件に適合するオブジェクトを特定してよい。
また、条件格納部210は、動画から抽出されるべきオブジェクトが動く方向に関する条件を格納してよい。そして、オブジェクト特定部220は、条件格納部210が格納している方向に関する条件に適合するオブジェクトを特定してよい。なお、条件格納部210は、動画から抽出されるべきオブジェクトが動く実空間における方向に関する条件を格納してよい。そして、オブジェクト特定部220は、条件格納部210が格納している実空間における方向に関する条件に適合するオブジェクトを特定してよい。
図3は、出力装置170の動作フローの一例を示す。動画取得部200は、撮像装置100が撮像した動画を、撮像装置100から取得する(S302)。そして、動画取得部200は、S302において取得した動画から一連のフレーム画像を抽出する(S304)。例えば、動画取得部200は、MPEG符号化された動画を取得した場合には、所定数のIピクチャを含む期間の動画を構成する複数のピクチャを抽出する。この他にも、動画取得部200は、予め定められた期間の動画を構成する所定数のフレーム画像を、当該一連のフレーム画像として抽出してもよいし、動画の画像内容の変化に基づいて決定される1シーンの動画を構成する複数のフレーム画像を当該一連のフレーム画像として抽出してもよい。
そして、オブジェクト特定部220は、S304において抽出した一連のフレーム画像の中に、人物を示すオブジェクトが存在するか否かを判断する(S306)。S306において人物を示すオブジェクトが存在する旨をオブジェクト特定部220が判断した場合には、動きオブジェクト抽出部230は、人物を示すオブジェクトが動いているか否かを判断し(S308)、人物を示すオブジェクトが動いていると判断されれば、フレーム画像から人物を示すオブジェクトを抽出する。そして、オブジェクト領域特定部240は、動きオブジェクト抽出部230が抽出した人物を示すオブジェクトの領域(以下、人物領域という。)を特定する(S310)。例えば、オブジェクト領域特定部240は、エッジ抽出等によって人物を示すオブジェクトの輪郭を抽出し、抽出した輪郭で囲まれる領域を人物領域としてよい。
そして、期間特定部250は、S304において取得された動画において、オブジェクトが略同一方向に動いている複数の期間に分割する(S312)。期間特定部250は、分割した複数の期間を、人物領域が重ならない動画構成画像を選択する選択期間とする。そして、動画構成画像選択部260は、S312において決定された各選択期間のフレーム画像の中から、互いに重ならない位置に人物領域が存在するフレーム画像を選択する(S314)。
そして、画像生成部270は、S314で選択された複数のフレーム画像に含まれる人物領域の画像を、S314で選択されたフレーム画像の中の1つに重ね合わせることによって合成画像を生成する(S316)。なお、画像生成部270は、S314で選択されたフレーム画像を重ね合わせて合成画像を生成してもよい。そして、画像生成部270は、各選択期間毎に1つずつ生成された合成画像を用いて動画を生成する(S318)。そして、S302において取得した動画を全て処理し終えたか否かを判断して(S320)、動画を全て処理し終えている場合には処理を終了し、動画を全て処理し終えていない場合にはS304に処理を戻す。
なお、S306において人物を示すオブジェクトが存在しない旨をオブジェクト特定部220が判断した場合、又は人物を示すオブジェクトが動いていないと判断された場合には、S304において取得したフレーム画像を適当に間引いて動画を生成して(S322)、出力装置170はS320に処理を移行する。なお、S322においては、生成する動画が予め定められた表示レートになるよう、S304において取得したフレーム画像を間引いてよい。以上説明したように、出力装置170は、人物が動いている動画から、人物の動きが重ならないようフレーム画像における人物領域を重ねあわせることによって、人物の動きが分かりやすい画像を観察者190に提供することができる。
なお、上記の説明では、説明を複雑になることを避けるためにシーケンシャルな処理フローを用いて出力装置170の動作を説明したが、上記の処理の中の一部の処理は、他の処理と並行して行うことができることは言うまでもない。例えば、S302における動画を取得する処理、及びS304における一連のフレーム画像を抽出する処理は、他の処理と並行して行うことができる。
図4は、画像生成部270が生成する合成画像420の一例を示す。オブジェクト領域特定部240は、撮像装置100が所定の時間間隔で時刻t411〜419において撮像したフレーム画像401〜409の中から、動く人物の領域である人物領域451〜459を特定する。このとき、動画構成画像選択部260は、フレーム画像401〜419を重ねた場合に、互いに重なり合わない位置に人物領域451〜459が存在するフレーム画像401、405、及び409を選択する。
なお、動画構成画像選択部260は、実空間上における同じ位置が重なり合うように複数のフレーム画像を重ね合わせたときに、人物領域451〜459の画像によって示される領域が互いに重ならないフレーム画像401、405、及び409を選択してよい。このようにすると、撮像装置100が撮像方向を変化させながら監視領域151〜156を撮像した場合であっても、人物領域451〜459が重ならない位置にあるフレーム画像を選択することができる。
そして、画像生成部270は、フレーム画像401及び409に含まれる人物領域451及び459を、フレーム画像405に重ね合わせることによって、合成画像420を生成する。なお、画像生成部270は、合成画像420を、時刻t401〜t409までの期間の動画における1つのフレーム画像として生成する。なお、画像生成部270は、フレーム画像401、405、及び409を重ね合わせることによって合成画像を生成してもよい。
このように、動画構成画像選択部260は、動画取得部200が取得した動画における第1期間の動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定部240が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する。そして、画像生成部270は、動画構成画像選択部260が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成する。そして、出力部280は、第1期間の動画に含まれる複数の動画構成画像に代えて、画像生成部270が生成した1つの合成画像を、第1期間の動画を表す画像として出力する。
図5は、画像生成部270が生成する合成画像の一例を示す。本図において、動き方向特定部290は、オブジェクト領域特定部240が特定したオブジェクト領域の重心の位置501〜514を補間することによってオブジェクト領域の軌跡550を算出する。そして、動き方向特定部290は、軌跡550を微分することによって位置501〜514におけるオブジェクトの方向を算出する。そして、期間特定部250は、オブジェクトの方向がなす角が予め定められた角度以下である期間を特定する。本図の例では、期間特定部250は、オブジェクト領域の重心が位置501〜507にある期間と、オブジェクト領域の重心が位置508〜514にある期間とを特定する。
そして、動画構成画像選択部260は、オブジェクト領域の重心が位置501〜507にある期間の動画に含まれるフレーム画像の中から、オブジェクト領域の重心が位置501、504、及び507にあるフレーム画像を選択する。そして、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像から合成画像510を生成する。また、動画構成画像選択部260は、オブジェクト領域の重心が位置508〜514にある期間の動画に含まれるフレーム画像の中から、オブジェクト領域の重心が位置508、510、512、及び514にあるフレーム画像を選択し、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像から合成画像520を生成する。このような制御によって、画像生成部270は、オブジェクトの動き方向が略同一となる期間の動画から1つの合成画像を生成することができる。
図6は、画像生成部270が生成する合成画像の他の一例を示す。図5と同様に、動画構成画像選択部260が、オブジェクト領域の重心が位置501〜507にある期間の動画に含まれるフレーム画像の中から、オブジェクト領域の重心が位置501、504、及び507にあるフレーム画像を選択し、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像から合成画像510を生成する。図5と異なり、期間特定部250は、合成画像510の次のタイミングで表示されるべき合成画像620を生成するためのフレーム画像を選択する選択期間として、前の選択期間の少なくとも一部の期間と、当該期間に続く期間とを含む連続する期間を決定する。
具体的には、期間特定部250は、オブジェクト領域の重心が位置507〜514にかる期間を選択する。そして、動画構成画像選択部260は、オブジェクト領域の重心が位置507〜514にある期間の動画に含まれるフレーム画像の中から、オブジェクト領域の重心が位置507、509、511、及び513にあるフレーム画像を選択し、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像から合成画像620を生成する。
このように、動画構成画像選択部260は、動画取得部200が取得した動画における第1期間の動画に含まれる複数の動画構成画像の中から、オブジェクト領域特定部240が特定したオブジェクト領域が互いに重ならない位置にある第1の組の動画構成画像を選択し、第1期間の動画に含まれる複数の動画構成画像のうちの少なくとも一部の動画構成画像と、第1期間に続く第2期間の動画に含まれる複数の動画構成画像との中から、オブジェクト領域特定部240が特定したオブジェクト領域が互いに重ならない位置にある第2の組の動画構成画像を選択する。そして、画像生成部270は、第1の組の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて第1合成画像を生成し、第2の組の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて第2合成画像を生成する。そして、出力部280は、第1期間及び第2期間の動画に含まれる複数の動画構成画像に代えて、画像生成部270が生成した第1合成画像及び第2合成画像をそれぞれ第1期間及び第2期間の動画を表す画像として出力する。
このような制御によって、出力装置170は、前のコマにおける人物の動きの一部を次のコマに含めることができる。このため、出力装置170が出力した動画を観察者190がコマ送り再生するような場合においても、観察者190は前のコマと次のコマとを比較したりすることなく、人物の動きの流れを容易に把握することができる。
図7は、画像生成部270が生成する合成画像の更なる他の一例を示す。本図において、位置701〜708はオブジェクト領域特定部240が特定したオブジェクト領域の重心の位置を示す。本図の例では、期間特定部250は、オブジェクト領域の重心が位置701〜703にある期間と、オブジェクト領域の重心が位置704〜508にある期間とを、合成画像を生成するためのフレーム画像を選択する選択期間として特定する。
例えば、オブジェクト領域の重心が位置701から708にある期間を選択期間として特定した場合、オブジェクト領域が重ならない位置は、順に位置701、703、位置708となる。しかし、オブジェクト領域の重心が位置703にあるフレーム画像とオブジェクト領域の重心が708にあるフレーム画像との間には、撮像間隔×5の間隔が存在してしまい、観察者190が人物の動きを把握することが難しくなってしまう。このため、期間特定部250は、オブジェクト領域の重心の位置が位置703にあるフレーム画像が撮像された時刻までの間で選択期間を区切る。そして、期間特定部250は、オブジェクト領域の重心の位置が位置704にあるフレーム画像が撮像された時刻から、オブジェクト領域の重心の位置が位置708にあるフレーム画像が撮像された時刻までの期間を選択期間として特定する。このように、期間特定部250は、互いに重ならないオブジェクト領域を有するフレーム画像が撮像された時間間隔が、所定の時間幅、例えば撮像装置100の撮像間隔×5の時間幅より短くなる選択期間を決定する。
そして、動画構成画像選択部260は、オブジェクト領域の重心が位置701〜703にある期間の動画に含まれるフレーム画像の中から、オブジェクト領域の重心が位置701及び703にあるフレーム画像を選択する。そして、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像から合成画像710を生成する。また、動画構成画像選択部260は、オブジェクト領域の重心が位置704〜708にある期間の動画に含まれるフレーム画像の中から、オブジェクト領域の重心が位置704、706、及び708にあるフレーム画像を選択し、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像から合成画像720を生成する。
このように、期間特定部250は、動画取得部200が取得した動画において、互いに重ならないオブジェクト領域を有する動画構成画像間の時間間隔が予め定められた時間幅より短くなる期間を特定する。そして、動画構成画像選択部260は、期間特定部250が特定した期間の動画を表す複数の動画構成画像の中から、オブジェクト領域特定部240が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する。このような制御によって、画像生成部270は、出力する動画におけるオブジェクトの動き幅が大きくなることを未然に防ぐことができる。このため、観察者190がオブジェクトの動きに不連続さに感じてしまうことを未然に防ぐことができる。
図8は、条件格納部210が格納している条件の一例をテーブル形式で示す。条件格納部210は、抽出されるべきオブジェクトが適合する、形状、色、画像上の位置、方向、及び種類に関する複数の条件を格納している。例えば、条件格納部210は、抽出されるべきオブジェクトの輪郭形状をそれぞれ定めるn個の条件(形状1〜形状n)を格納している。例えば、条件格納部210は、抽出されるべきオブジェクトの輪郭形状を定めるベクトル情報を格納している。具体的には、条件格納部210は、人物の頭部の形状を定める条件を格納してよい。より具体的には、条件格納部210は、人物の頭部形状、或いは頭部に含まれる顔、目、口、鼻、及び眉の形状及びその位置関係を定める条件を格納してよい。このように、条件格納部210は、動画から抽出されるべきオブジェクトであって、被写体を識別することができるオブジェクトが適合すべき条件を格納してよい。
また、条件格納部210は、抽出されるべきオブジェクトが含むべき色をそれぞれ定めるn個の条件(色範囲1〜色範囲n)を格納している。例えば、条件格納部210は、抽出されるべきオブジェクトが所定の面積比以上の面積比で有するべき色を示す色範囲を格納してよい。オブジェクト特定部220は、条件格納部210が定める色範囲に含まれる色を所定の面積比以上の面積比で有するオブジェクトを、条件格納部210が定める条件に適合するオブジェクトとして特定する。
また、条件格納部210は、抽出されるべきオブジェクトの存在する位置をそれぞれ定めるn個の条件(位置範囲1〜位置範囲n)を格納している。例えば、条件格納部210は、抽出されるべきオブジェクトが存在すべき、画像上における位置範囲を格納してよい。オブジェクト特定部220は、画像上において条件格納部210が定める位置範囲に位置するオブジェクトを、条件格納部210が定める条件に適合するオブジェクトとして特定する。
また、条件格納部210は、抽出されるべきオブジェクトが動く複数の方向の範囲をそれぞれ定めるn個の条件(角度範囲1〜角度範囲n)を格納している。例えば、条件格納部210は、画像上の座標軸における角度θと角度θを中心とする角度差Δθとによって示される角度範囲を格納してよい。この場合、オブジェクト特定部220は、画像上において角度(θ−Δθ)から角度(θ+Δθ)が示す角度内に移動方向を有するオブジェクトを検出した場合に、条件格納部210が定める条件に適合するオブジェクトが存在する旨を判断してよい。
なお、条件格納部210は、上記の位置範囲と角度範囲との組合せを、抽出されるべきオブジェクトが動く方向を示す条件として格納してよい。例えば、条件格納部210は、部屋内を撮像した動画から人物を抽出するための条件としては、部屋の入口からの監視対象として重要な領域への方向が示す角度を含む角度範囲を格納してよい。こうすれば、観察者190は、部屋に侵入した人物を適切に監視することができる。
また、条件格納部210は、抽出されるべきオブジェクトの種類をそれぞれ定めるn個の条件(種類1〜種類n)を格納している。例えば、条件格納部210は、上記の形状と色範囲との組合せをオブジェクトの種類を定める条件として格納してよい。
なお、以上の説明においては、撮像装置100が撮像した動画を取得して出力装置170が出力する形態について説明したが、他の形態においては、出力装置170は撮像装置100の撮像機能を有してよい。例えば、動画取得部200は、監視領域の動画を撮像する撮像部であってよい。また、本実施形態におけるフレーム画像とは動画構成画像の一例であり、動画構成画像はフィールド画像を含む。
図9は、合成画像の他の一例を示す。図4の例では、動画構成画像選択部260は、オブジェクト特定部220によって特定された人物の領域が重ならない位置にあるフレーム画像を選択した。他の選択方法としては、動画構成画像選択部260は、人物の少なくとも一部、例えば人物を識別することができる領域が重ならない位置にあるフレーム画像を選択してよい。
例えば、オブジェクト特定部220は、人物における特徴的な部分を特定してよい。例えば、オブジェクト特定部220は、条件格納部210が格納している条件に適合する、人物の頭部、或いは顔、目、口、鼻等の、人物を識別することができるオブジェクトを特定してよい。そして、動画構成画像選択部260は、特定されたオブジェクトの中から抽出された動くオブジェクトのオブジェクト領域が互いに重ならない位置にあるフレーム画像を選択する。
例えば、オブジェクト特定部220は、図4に示すフレーム画像401−409の中から、人物領域451−459に含まれる頭部の領域を、条件格納部210が格納している条件に適合するオブジェクトとして特定する。そして、動画構成画像選択部260は、頭部の領域が互いに重ならない位置にあるフレーム画像405、407、及び409を選択する。そして、画像生成部270は、フレーム画像407に含まれる人物の頭部を含む人物領域457及びフレーム画像409に含まれる人物の頭部を含む人物領域459をフレーム画像405に重ね合わせることによって、合成画像900を生成する。なお、画像生成部270は、人物領域457及び人物領域459をフレーム画像405に足し合わせることによって合成画像900を生成してもよい。
なお、画像生成部270は、フレーム画像が撮像された時刻の順又はフレーム画像が撮像された時刻の逆順で、オブジェクト領域を含む画像を重ね合わせてよい。例えば、画像生成部270は、フレーム画像405上に、人物領域457、人物領域459の順で重ね合わせることによって合成画像900を生成してよい。このように、人物の頭部等、人物の特徴的な領域が互いに重ならない位置にあるフレーム画像が選択されて合成されるので、人物の体部が重なっている合成画像からでも人物を特定することができる。
図10は、合成画像の更なる他の一例を示す。画像生成部270は、オブジェクトの動きを示す情報を、合成画像とともに生成する。オブジェクトの動きを示す情報は、オブジェクトが動く方向を示す情報であってよい。例えば、画像生成部270は、動き方向特定部290が特定した動き方向を示す矢印を含むマーク1010を合成画像900とともに生成してよい。
他にも、オブジェクトの動きを示す情報は、動画構成画像選択部260が選択したフレーム画像が撮像されたタイミングを示す情報であってもよい。例えば、画像生成部270は、動画構成画像選択部260によって選択されたフレーム画像が撮像された順番を示すマーク1020を合成画像900とともに生成してよい。なお、フレーム画像が撮像されたタイミングは、撮像された時刻そのものであってもよい。そして、画像生成部270は、マーク1010及びマーク1020の少なくとも一方と合成画像900とを合成した合成画像1000を生成して出力部280に供給する。なお、画像生成部270は、マーク1020に含まれるタイミングを示す情報が人物領域455、人物領域457、及び人物領域459に対応づけて視認されるよう、マーク1020をそれら人物領域の近傍に合成してよい。
そして、出力部280は、画像生成部270から供給された合成画像1000を出力する。なお、画像生成部270は、静止画として合成画像を表示する場合に、オブジェクトの動きを示す情報を含む合成画像1000を生成してよい。例えば、画像生成部270は、動画の再生が停止された場合に合成画像1000を生成してよい。このように、画像生成部270は、マーク910及びマーク920を生成するので、人物の体部が重なっている合成画像1000からでも、観察者190は人物の動きを容易に特定することができる。
図11は、出力装置170に係るコンピュータ1500のハードウェア構成の一例を示す。コンピュータ1500は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、コンピュータ1500内のCPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワークを介して出力装置170と通信し、出力装置170にプログラム、及びデータを提供する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、コンピュータ1500が起動時に実行するブート・プログラムや、コンピュータ1500のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
RAM1520を介して通信インターフェイス1530に提供されるプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM1520を介して通信インターフェイス1530に提供され、ネットワークを介して出力装置170に送信される。出力装置170に送信されたプログラムは、出力装置170においてインストールされて実行される。
出力装置170にインストールされて実行されるプログラムは、出力装置170を、図1から図10に関連して説明した、動画取得部200、条件格納部210、オブジェクト特定部220、動きオブジェクト抽出部230、オブジェクト領域特定部240、期間特定部250、動画構成画像選択部260、画像生成部270、出力部280、及び動き方向特定部290として機能させる。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1500に提供してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
監視システム110の利用環境の一例を示す図である。 出力装置170のブロック構成の一例を示す図である。 出力装置170の動作フローの一例を示す図である。 画像生成部270が生成する合成画像420の一例を示す図である。 画像生成部270が生成する合成画像の一例を示す図である。 画像生成部270が生成する合成画像の他の一例を示す図である。 画像生成部270が生成する合成画像の更なる他の一例を示す図である。 条件格納部210が格納する条件の一例をテーブル形式で示す図である。 合成画像の他の一例を示す図である。 合成画像の更なる他の一例を示す図である。 出力装置170に係るコンピュータ1500のハードウェア構成の一例を示す図である。
符号の説明
100 撮像装置
110 監視システム
140 伝送経路
151 監視領域
152 監視領域
153 監視領域
154 監視領域
155 監視領域
156 監視領域
170 出力装置
181 モニタ
182 モニタ
183 モニタ
184 モニタ
185 モニタ
186 モニタ
200 動画取得部
210 条件格納部
220 オブジェクト特定部
230 動きオブジェクト抽出部
240 オブジェクト領域特定部
250 期間特定部
260 動画構成画像選択部
270 画像生成部
280 出力部

Claims (11)

  1. 動画から抽出されるべきオブジェクトの条件を格納する条件格納部と、
    動画を取得する動画取得部と、
    前記動画取得部が取得した動画において、前記条件格納部が格納している条件に適合するオブジェクトを特定するオブジェクト特定部と、
    前記オブジェクト特定部が特定したオブジェクトの中から、動画において動くオブジェクトを抽出する動きオブジェクト抽出部と、
    前記動画取得部が取得した動画に含まれる複数の動画構成画像のそれぞれにおいて、前記動きオブジェクト抽出部が抽出したオブジェクトが占める領域であるオブジェクト領域を特定するオブジェクト領域特定部と、
    前記動画取得部が取得した動画に含まれる複数の動画構成画像の中から、前記オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する動画構成画像選択部と、
    前記動画構成画像選択部が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成する画像生成部と、
    前記画像生成部が生成した合成画像を出力する出力部と
    を備える出力装置。
  2. 前記動画取得部が取得した動画において、前記動きオブジェクト抽出部が抽出したオブジェクトが動く方向を特定する動き方向特定部と、
    前記動画取得部が取得した動画において、前記動き方向特定部が特定した方向の変化量が予め定められた変化量より小さい期間を特定する期間特定部と
    をさらに備え、
    前記動画構成画像選択部は、前記期間特定部が特定した期間の動画を表す複数の動画構成画像の中から、前記オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する
    請求項1に記載の出力装置。
  3. 前記動画取得部が取得した動画において、互いに重ならない前記オブジェクト領域を有する動画構成画像間の時間間隔が予め定められた時間幅より短くなる期間を特定する期間特定部
    をさらに備え、
    前記動画構成画像選択部は、前記期間特定部が特定した期間の動画を表す複数の動画構成画像の中から、前記オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する
    請求項1に記載の出力装置。
  4. 前記動画構成画像選択部は、前記動画取得部が取得した動画における第1期間の動画に含まれる複数の動画構成画像の中から、前記オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択し、
    前記画像生成部は、前記動画構成画像選択部が選択した複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成し、
    前記出力部は、前記第1期間の動画に含まれる複数の動画構成画像に代えて、前記画像生成部が生成した1つの合成画像を前記第1期間の動画を表す画像として出力する
    請求項1に記載の出力装置。
  5. 前記動画構成画像選択部は、前記動画取得部が取得した動画における第1期間の動画に含まれる複数の動画構成画像の中から、前記オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある第1の組の動画構成画像を選択し、前記第1期間の動画に含まれる複数の動画構成画像のうちの少なくとも一部の動画構成画像と、前記第1期間に続く第2期間の動画に含まれる複数の動画構成画像との中から、前記オブジェクト領域特定部が特定したオブジェクト領域が互いに重ならない位置にある第2の組の動画構成画像を選択し、
    前記画像生成部は、前記第1の組の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて第1合成画像を生成し、前記第2の組の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて第2合成画像を生成し、
    前記出力部は、前記第1期間及び前記第2期間の動画に含まれる複数の動画構成画像に代えて、前記画像生成部が生成した第1合成画像及び第2合成画像をそれぞれ前記第1期間及び前記第2期間の動画を表す画像として出力する
    請求項4に記載の出力装置。
  6. 前記条件格納部は、動画から抽出されるべきオブジェクトの形状に関する条件を格納し、
    前記オブジェクト特定部は、前記条件格納部が格納している形状に関する条件に適合するオブジェクトを特定する
    請求項1から5のいずれか一項に記載の出力装置。
  7. 前記条件格納部は、動画から抽出されるべきオブジェクトの位置に関する条件を格納し、
    前記オブジェクト特定部は、前記条件格納部が格納している位置に関する条件に適合するオブジェクトを特定する
    請求項1から5のいずれか一項に記載の出力装置。
  8. 前記条件格納部は、動画から抽出されるべきオブジェクトが動く方向に関する条件を格納し、
    前記オブジェクト特定部は、前記条件格納部が格納している方向に関する条件に適合するオブジェクトを特定する
    請求項1から5のいずれか一項に記載の出力装置。
  9. 前記条件格納部は、動画から抽出されるべきオブジェクトが動く実空間における方向に関する条件を格納し、
    前記オブジェクト特定部は、前記条件格納部が格納している実空間における方向に関する条件に適合するオブジェクトを特定する
    請求項8に記載の出力装置。
  10. コンピュータを、請求項1から9のいずれか一項に記載の出力装置として機能させるためのプログラム。
  11. 動画から抽出されるべきオブジェクトの条件を格納する条件格納段階と、
    動画を取得する動画取得段階と、
    前記動画取得段階において取得された動画において、前記条件格納段階において格納された条件に適合するオブジェクトを特定するオブジェクト特定段階と、
    前記オブジェクト特定段階において特定されたオブジェクトの中から、動画において動くオブジェクトを抽出する動きオブジェクト抽出段階と、
    前記動画取得段階において取得された動画に含まれる複数の動画構成画像のそれぞれにおいて、前記動きオブジェクト抽出段階において抽出されたオブジェクトが占める領域であるオブジェクト領域を特定するオブジェクト領域特定段階と、
    前記動画取得段階において取得された動画に含まれる複数の動画構成画像の中から、前記オブジェクト領域特定段階において特定されたオブジェクト領域が互いに重ならない位置にある複数の動画構成画像を選択する動画構成画像選択段階と、
    前記動画構成画像選択段階において選択された複数の動画構成画像のそれぞれに含まれる複数のオブジェクト領域を含む画像を重ね合わせて1つの合成画像を生成する画像生成段階と、
    前記画像生成段階において生成された合成画像を出力する出力段階と
    を備える出力方法。
JP2007323647A 2006-12-22 2007-12-14 出力装置、出力方法、及びプログラム Expired - Fee Related JP5196230B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007323647A JP5196230B2 (ja) 2006-12-22 2007-12-14 出力装置、出力方法、及びプログラム
US11/961,693 US8254626B2 (en) 2006-12-22 2007-12-20 Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006346663 2006-12-22
JP2006346663 2006-12-22
JP2007323647A JP5196230B2 (ja) 2006-12-22 2007-12-14 出力装置、出力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2008178089A JP2008178089A (ja) 2008-07-31
JP5196230B2 true JP5196230B2 (ja) 2013-05-15

Family

ID=39704731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007323647A Expired - Fee Related JP5196230B2 (ja) 2006-12-22 2007-12-14 出力装置、出力方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5196230B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010171491A (ja) * 2009-01-20 2010-08-05 Casio Computer Co Ltd 撮影装置、撮影方法及びプログラム
CN109194865A (zh) * 2018-08-06 2019-01-11 光锐恒宇(北京)科技有限公司 图像生成方法、装置、智能终端和计算机可读存储介质
CN110232654A (zh) * 2019-04-24 2019-09-13 薄涛 图像合成方法、装置、设备及其存储介质
CN111832539A (zh) * 2020-07-28 2020-10-27 北京小米松果电子有限公司 视频处理方法及装置、存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514897A (ja) * 1991-06-28 1993-01-22 Toshiba Corp 画像監視装置
JP3793258B2 (ja) * 1995-10-03 2006-07-05 日本放送協会 動画像処理装置および方法
JP3475026B2 (ja) * 1996-10-24 2003-12-08 富士通株式会社 形状追跡方法および装置
JP2003169319A (ja) * 2001-11-30 2003-06-13 Mitsubishi Electric Corp 映像監視装置
JP4140567B2 (ja) * 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
JP4682928B2 (ja) * 2005-06-17 2011-05-11 富士ゼロックス株式会社 アクションキーフレーム内における複数のビデオフレーム全体にわたる動作を視覚化する装置とそのためのプログラム

Also Published As

Publication number Publication date
JP2008178089A (ja) 2008-07-31

Similar Documents

Publication Publication Date Title
US8254626B2 (en) Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images
JP4911472B2 (ja) 出力装置、出力方法、及びプログラム
US7999843B2 (en) Image processor, image processing method, recording medium, computer program, and semiconductor device
US20100079491A1 (en) Image compositing apparatus and method of controlling same
US20100153847A1 (en) User deformation of movie character images
JP2006003871A (ja) 画像フレーム処理方法、装置、レンダリングプロセッサおよび動画像表示方法
US20060203109A1 (en) Moving image generating apparatus, moving image generating method, and program
JP2007266713A (ja) 監視システム、監視方法、及びプログラム
EP2650039A1 (en) System and method of imaging
JP5196230B2 (ja) 出力装置、出力方法、及びプログラム
JP2009110536A (ja) 画像フレーム処理方法、装置、レンダリングプロセッサおよび動画像表示方法
Rocca et al. Head pose estimation by perspective-n-point solution based on 2d markerless face tracking
JP4879717B2 (ja) 監視システム、監視方法、及びプログラム
JP4694461B2 (ja) 撮像装置、撮像方法、監視システム、監視方法、及びプログラム
US9092874B2 (en) Method for determining the movements of an object from a stream of images
JP5150943B2 (ja) 監視システム、監視方法、及びプログラム
JP4977454B2 (ja) 監視システム、監視方法、及びプログラム
JP2008182680A (ja) 監視システム、監視方法、及びプログラム
JP5033412B2 (ja) 監視システム、監視方法、及びプログラム
US20230396748A1 (en) Image processing apparatus, image processing method, and storage medium
US20230410444A1 (en) Display system for displaying mixed reality space image andprocessing method for use of display system
JP2008228281A (ja) 撮像装置、撮像方法、及びプログラム
JP4750005B2 (ja) 表示装置、表示方法、撮像システム、撮像方法、及びプログラム
CN108270978A (zh) 一种图像处理方法和装置
WO2011132382A1 (ja) 情報提供システム、情報提供方法および情報提供用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5196230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees