JP2017097799A - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2017097799A
JP2017097799A JP2015232336A JP2015232336A JP2017097799A JP 2017097799 A JP2017097799 A JP 2017097799A JP 2015232336 A JP2015232336 A JP 2015232336A JP 2015232336 A JP2015232336 A JP 2015232336A JP 2017097799 A JP2017097799 A JP 2017097799A
Authority
JP
Japan
Prior art keywords
image
images
virtual viewpoint
area
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015232336A
Other languages
English (en)
Other versions
JP6416741B2 (ja
Inventor
康輔 高橋
Kosuke Takahashi
康輔 高橋
弾 三上
Dan Mikami
弾 三上
麻理子 五十川
Mariko Isogawa
麻理子 五十川
明 小島
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015232336A priority Critical patent/JP6416741B2/ja
Publication of JP2017097799A publication Critical patent/JP2017097799A/ja
Application granted granted Critical
Publication of JP6416741B2 publication Critical patent/JP6416741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数のカメラで撮影された画像を用いて生成される合成画像の品質低下を抑制すること。【解決手段】所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成部と、複数の画像及び中間画像から仮想視点を含む部分領域を抽出する部分領域抽出部と、抽出された複数の部分領域を用いて合成画像を生成する合成画像生成部と、を備える画像処理装置。【選択図】図1

Description

本発明は、複数の撮影装置によって撮影された画像の処理技術に関する。
近年、360度のパノラマ画像を撮影できるカメラ(以下、「全天球カメラ」という。)が普及し始めている。全天球カメラによって撮影されたパノラマ画像(以下、「全天球画像」という。)は、所望の視点位置に全天球カメラを設置することで撮影することができる。しかしながら、競技中の競技者の邪魔となるためサッカーコートやバスケットコートなどの競技用コートの中には全天球カメラを設置することができない。そのため、競技用コートの中の所望の視点位置における競技中の全天球画像を撮影することができない。
そこで、全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、この仮想視点において全天球カメラで撮影したかのような全天球画像を、コートの外側に設置された複数のカメラによって撮影された画像を合成することによって得る技術が提案されている(例えば、非特許文献1参照)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像と記載する。
仮想全天球画像を複数のカメラによって撮影された画像の合成によって得るシステムの具体例について説明する。
図9は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図9に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングで競技用コート10内の仮想視点11の位置に設置される。全天球カメラ2は、仮想視点11の位置から、仮想全天球画像の背景となる画像(以下、「背景画像」という。)を撮影する。全天球カメラ2で撮影された背景画像は、画像処理装置4に入力されて蓄積される。このように、画像処理装置4は、予め背景画像を蓄積する。
競技用コート10の周囲には、カメラ群3が設置されている。カメラ群3の各カメラ3−1、3−2、3−3、・・・、3−Nは、それぞれ仮想視点11を含む画角となるように競技用コート10の周囲に設置されている。カメラ群3の各カメラ3−1、3−2、3−3、・・・、3−Nは、仮想視点11を含む領域を撮影する。画像処理装置4は、カメラ群3によって撮影された画像に対して画像処理を施して、背景画像に画像処理後の画像を合成して仮想全天球画像を生成する。表示装置5は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する。
次に、画像処理システム1における画像処理の具体例について図10を用いて説明する。
図10は、画像処理システム1における画像処理の流れを説明するための図である。図10(a)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
図10(b)は、各カメラ3−1、3−2及び3−3で撮影された画像を示す図である。図10(b)には、左からカメラ3−1で撮影された画像21と、カメラ3−2で撮影された画像22と、カメラ3−3で撮影された画像23とが示されている。画像処理装置4は、画像21〜23のそれぞれから仮想視点11を含む領域211、221、231を抽出する。画像処理装置4は、抽出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に合成可能な部分画像211a、221a、231aを生成する。
画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することによって仮想全天球画像24を生成する。図10(c)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図10(c)に示すように、仮想全天球画像24の所定の領域には部分画像211a、221a、231aが合成されている。そのため、仮想全天球画像24として、競技用コート10上に物体(例えば、人物)が撮影されている画像が生成される。
従来の画像処理システム1は、合成に用いているカメラ群3の光学中心及び仮想視点11において想定する全天球カメラの光学中心はそれぞれ異なる。そのため、合成された仮想全天球画像24は幾何学的に正しくない画像を含む。これを防ぐためには、画像処理装置4は、部分画像211a、221a、231aを、仮想視点11からの距離を示す奥行きの一点で整合性が保たれるよう画像処理を行い背景画像20に合成する必要がある。しかしながら、整合性が保たれる奥行きに存在せずに別の奥行に存在している物体(例えば、人物)の部分画像を合成する場合には、画像処理により奥行きの整合性を保つことができない。このような奥行に整合性のない物体は、仮想全天球画像24において、その画像が分身(多重像)したり、消失したりする現象が発生する。
以下に、図11を用いて仮想全天球画像24において、物体の画像が分身したり、消失したりする現象について説明する。図11は、画像処理システム1における課題を説明するための図である。図11において、撮影範囲41は、カメラ3−1の撮影範囲において図10(b)に示した領域211の撮影範囲を示す。撮影範囲42は、カメラ3−2の撮影範囲において図10(b)に示した領域221の撮影範囲を示す。撮影範囲43は、カメラ3−3の撮影範囲において図10(b)に示した領域231の撮影範囲を示す。また、仮想視点11からの距離(奥行)が異なる3つの物体(例えば、人物)49〜51が存在する。
図11において破線で示している仮想視点11からの第1の距離を示す奥行46は、各撮影範囲41〜43が、重なりなく並んでいる。このような奥行46に位置する被写体49は、その画像が分身したり消失したりすることがなく、奥行に整合性のある被写体である。仮想視点11からの第2の距離を示す奥行47は、各撮影範囲41〜43が、横線部分44に示すように重なっている。このような奥行47に位置する被写体50は、その画像が分身してしまうので、奥行に整合性のない被写体となる。仮想視点11からの第3の距離を示す奥行48は、各撮影範囲41〜43の間が斜線部分45に示すように空いている。このような奥行48に位置する被写体51は、その画像の一部が消失してしまうので、奥行に整合性のない被写体となる。
高橋康輔、外3名、「複数カメラ映像を用いた仮想全天球映像合成に関する検討」、社団法人電子情報通信学会、信学技報、2015年6月、vol.115、no.76、p.43-48
仮想全天球画像において物体が存在する領域は、人が注視する領域(以下、「視聴領域」という。)である可能性が高い。そのため、視聴領域に存在する物体に多重像や消失が発生してしまうと、仮想全天球画像の品質が低下してしまうという問題がある。このような問題は、仮想全天球画像に限らず、複数のカメラで撮影された画像を用いて生成される合成画像全てに共通する課題である。
上記事情に鑑み、本発明は、複数のカメラで撮影された画像を用いて生成される合成画像の品質低下を抑制する技術の提供を目的としている。
本発明の一態様は、所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成部と、前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出部と、抽出された複数の部分領域を用いて合成画像を生成する合成画像生成部と、を備える画像処理装置である。
本発明の一態様は、上記の画像処理装置であって、前記部分領域抽出部は、短冊形に前記部分領域を抽出し、前記合成画像生成部は、抽出された複数の短冊形の部分領域を並べることによって前記合成画像を生成する。
本発明の一態様は、上記の画像処理装置であって、前記中間画像の生成元である前記複数の画像を用いて前記合成画像に対して見た目の違和感を低減させる処理を行う画像処理部をさらに備える。
本発明の一態様は、所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成ステップと、前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出ステップと、抽出された複数の部分領域を用いて合成画像を生成する合成画像生成ステップと、を有する画像処理方法である。
本発明の一態様は、所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成ステップと、前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出ステップと、抽出された複数の部分領域を用いて合成画像を生成する合成画像生成ステップと、をコンピュータに実行させるためのコンピュータプログラムである。
本発明により、複数のカメラで撮影された画像を用いて生成される合成画像の品質低下を抑制することが可能となる。
本発明における画像処理システム100のシステム構成を示す図である。 中間画像の一例を示す図である。 抽出領域情報テーブルの具体例を示す図である。 部分領域抽出部804による部分領域の抽出処理を説明するための図である。 画像合成部806の処理を説明するための図である。 仮想全天球画像の一例を示す図である。 画像処理装置80の処理の流れを示すフローチャートである。 1つの入力画像から複数の部分領域を抽出する場合に用いられる抽出領域情報テーブルの具体例を示す図である。 従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。 画像処理システム1における画像処理の流れを説明するための図である。 画像処理システム1における課題を説明するための図である。
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
全天球カメラ60は、撮影対象領域81内の仮想視点82の位置に設置される。撮影対象領域81は、例えばサッカーコートやバスケットコートなどの競技用コートなどである。仮想視点82は、所定の領域(本実施形態では、撮影対象領域81)内に仮想的に設定された視点である。全天球カメラ60は、仮想視点82の位置における全天球画像を撮影する。本実施形態における全天球画像は、仮想視点82を中心として撮影対象領域81全体を含む。全天球カメラ60による処理は、画像処理装置80による処理の開始前に行われる。全天球カメラ60は、撮影した全天球画像を背景画像として画像処理装置80に出力する。
M台のカメラ70−1、70−2、・・・、70−Mは、撮影対象領域81の外側に設けられ、画像を動画(映像)で撮影するカメラであり、仮想視点82を含む領域を撮影する。M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影された動画は、複数フレームの画像により構成される。図1に示すように、カメラ70−1には仮想視点82の位置上を通過する光線71が入力され、カメラ70−2には仮想視点82の位置上を通過する光線72が入力される。以下、カメラ70に入力される光線を実光線と記載する。図1では示していないが、カメラ70は撮影対象領域81の周囲に設置される。つまり、カメラ70は、それぞれ仮想視点82を含む画角となるように撮影対象領域81の周囲を取り囲むように設置される。図1においてMは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであれば撮影対象領域81が大きいほど大きな値となる。また、撮影対象領域81の大きさが同じであれば、Mの値が大きい程、合成領域(仮想全天球画像において、M台のカメラ70からの画像を合成した領域)の面積が大きくなり、あるいは合成領域の大きさが同じであれば合成領域における画質が向上す仮想全天球画像の画質を高いものにしようとするほど大きな値となる。
画像処理装置80は、M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影されたそれぞれの動画から入力画像を事前に取得する。撮影されたそれぞれの動画は複数フレームの画像で構成されており、本実施形態における画像処理装置80は処理対象となるフレームの画像を入力画像として取得する。画像処理装置80は、全天球カメラ60によって撮影された全天球画像と、M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影された動画からそれぞれ取得された入力画像とに基づいて仮想全天球画像を生成する。
次に、画像処理装置80の機能構成について説明する。画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、画像入力部801、中間画像生成部802、抽出領域情報記憶部803、部分領域抽出部804、背景画像記憶部805、画像合成部806、画像処理部807を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
画像入力部801は、カメラ70−1、70−2、・・・、70−Mそれぞれによって同時刻に撮影された複数の入力画像を入力する。画像入力部801は、入力された複数の入力画像を中間画像生成部802に出力する。
中間画像生成部802は、画像入力部801から出力された複数の入力画像を入力とする。中間画像生成部802は、入力された複数の入力画像のうち隣接する2台のカメラ70それぞれによって同時刻に撮影された入力画像に基づいて、2視点(2台のカメラ70での撮影位置)の間の撮影位置における画像(以下、「中間画像」という。)を生成する。例えば、中間画像生成部802は、View Morphingを利用することによって中間画像を生成する。中間画像生成部802は、生成した中間画像と、中間画像の生成に利用した複数の入力画像を部分領域抽出部804に出力する。また、中間画像生成部802は、中間画像の生成に利用した複数の入力画像を画像処理部807に出力する。View Morphingは、2視点で撮影された画像と、各画像の対応点を入力として中間画像を生成する手法である。なお、対応点は手動で与えられてもよいし、SURF(Speeded Up Robust Features)やSIFT(Scale-invariant feature transform)などの技術を適用して与えられてもよい。View Morphingの手法は、例えば参考文献1に記載の技術を用いることができる。
[参考文献1]Seitz, S. M., and C. R. Dyer. "View Morphing, 1996.", Siggraph 1996 Conference Proceedings, Annual Conference Series. 1996.
中間画像の生成結果を図2に示す。
図2は、中間画像の一例を示す図である。
図2では、以下に示すカメラ配置の下で生成された中間画像を示している。
カメラ配置は、水平方向に2個以上、かつ、仮想視点82を中心として円周状、かつ、カメラ70の撮影方向として仮想視点82を含むように配置されている。なお、ここで示したカメラ配置は一例であり、カメラ70の撮影方向として仮想視点82を含むように配置されていれば、その他の配置であってもよい。
図2において、画像83はカメラ70−1によって撮影された画像を表し、画像84はカメラ70−2によって撮影された画像を表し、画像85は中間画像を表す。また、光線71及び72は実光線を表し、光線73は仮想光線を表す。ここで、仮想光線とは、仮想的に得られる光線である。実光線が含まれる2視点の各画像を用いて生成される中間画像は、実光線と同様に仮想視点82の位置上を通過する仮想光線を含む。なお、図2では、中間画像が1つの場合を例に示しているが、中間画像は複数生成されてもよい。中間画像の生成数は、事前に中間画像生成部802に入力される。例えば、ユーザが不図示の入力装置を用いて中間画像の生成数を入力してもよい。入力装置は、キーボード、ポインティングデバイス(マウス、タブレット等)、タッチパネル、ボタン等の既存の入力装置を用いて構成される。
図1に戻って、画像処理装置80の説明を続ける。
抽出領域情報記憶部803は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。抽出領域情報記憶部803は、抽出領域情報テーブルを記憶する。抽出領域情報テーブルは、全天球画像に合成するために各画像(入力画像及び中間画像)から抽出する領域に関する情報を表すレコード(以下、「抽出領域情報レコード」という。)で構成される。
図3は、抽出領域情報テーブルの具体例を示す図である。
抽出領域情報テーブルは、抽出領域情報レコードを複数有する。抽出領域情報レコードは、画像ID及び抽出領域情報の各値を有する。画像IDの値は、領域の抽出対象となる画像を識別するための識別情報を表す。図3において、画像ID“I1”及び“I10”は、隣り合うカメラ70のそれぞれで撮影された入力画像の識別情報を表す。図3において、画像ID“I2”〜“I9”は、中間画像の識別情報を表す。抽出領域情報の値は、同じ抽出領域情報レコードの画像IDで識別される画像から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報の具体例として、左上座標、幅及び高さがある。左上座標は、抽出領域の入力画像中での左上の座標を表す。幅は、抽出領域の入力画像中での幅を表す。高さは、抽出領域の入力画像中での高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、抽出領域中に仮想視点を含む範囲に設定される。
図3に示される例では、抽出領域情報テーブルには複数の抽出領域情報レコードが登録されている。図3において、抽出領域情報テーブルの最上段に登録されている抽出領域情報レコードは、画像IDの値が“I1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”である。すなわち、画像ID“I1”で識別される画像から、画像の左上座標(A,B)、幅C、高さDで表される領域を抽出することが表されている。
なお、図3では、一つの画像から一つの部分領域を利用する場合の抽出領域情報テーブルを示している。また、後述する図8では、一つの画像から複数の部分領域を利用する場合の抽出領域情報テーブルを示している。図8についての説明は後述するためここでは省略する。
図1に戻って、画像処理装置80の説明を続ける。
部分領域抽出部804は、中間画像生成部802から出力された中間画像及び入力画像と、抽出領域情報記憶部803に記憶されている抽出領域情報テーブルとを入力とする。部分領域抽出部804は、入力された抽出領域情報テーブルの抽出領域情報に基づいて、入力された各画像(入力画像及び中間画像)から全天球画像に重畳させる仮想視点82の位置を含む部分領域を抽出する。以下、部分領域抽出部804によって抽出された部分領域を部分領域画像と記載する。部分領域抽出部804は、各画像の各部分領域画像を画像合成部806に出力する。
図4は、部分領域抽出部804による部分領域の抽出処理を説明するための図である。
図4では、2視点(カメラ70−1及び70−2)それぞれで撮影された画像83及び画像84と、画像83及び画像84から生成された中間画像85とから部分領域を抽出する処理について説明する。カメラ70−1及び70−2は、図4に示すように仮想視点82の位置を撮影するように設置されている。部分領域抽出部804は、抽出領域情報テーブルに基づいて、各画像(入力画像及び中間画像)から部分領域を抽出する。例えば、部分領域抽出部804は、画像83から部分領域86を抽出する。部分領域抽出部804は、部分領域の抽出の一例として、図4に示すように部分領域を短冊形に抽出する。また、部分領域抽出部804は、画像84から部分領域87を抽出する。そして、部分領域抽出部804は、中間画像85から部分領域88を抽出する。このように、部分領域抽出部804は、抽出領域情報テーブルで予め定められた情報に基づいて部分領域を抽出する。
例えば、部分領域抽出部804は、中間画像が3個生成される場合には、画像が5個(入力画像2個+中間画像3個)の場合の抽出領域情報テーブルを用いて各画像から抽出する領域を決定し、決定した領域を各画像から抽出する。部分領域抽出部804が部分領域を抽出する際の理想的なケースとしては、画像中の重畳する対象となる領域の横画素数分の画像から光学中心となるラインの部分領域を抽出することが挙げられる。例えば、画像中の重畳する対象となる領域の横画素の数が10である場合、10個の画像それぞれから光学中心となるラインの部分領域を抽出することによって光学的に正しい合成画像を生成することができる。
背景画像記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部805は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。ここで、背景画像は、合成画像の元となる画像を表す。背景画像は、例えば、あらかじめ仮想視点で撮影した画像でも良いし、縦横の画素数が決まっているだけの全画素の輝度値が一定の画像であってもよい。
画像合成部806は、部分領域抽出部804から出力された部分領域画像と、背景画像記憶部805に記憶されている背景画像とを入力とする。画像合成部806は、入力された部分領域画像を、背景画像に重畳することによって合成画像である仮想全天球画像を生成する。より具体的には、画像合成部806は、部分領域画像の画素値で、全天球画像上の部分領域画像が対応する位置の画素値を置き換えることによって全天球画像に部分領域画像を重畳する。画像合成部806は、生成した仮想全天球画像を画像処理部807に出力する。
画像処理部807は、画像合成部806から出力された仮想全天球画像と、中間画像生成部802から出力された入力画像とを入力とする。画像処理部807は、入力された仮想全天球画像に対して入力画像を用いて画像の品質を向上させるための画像処理を行う。
画像合成部806の処理について図5を用いて具体的に説明する。図5は、画像合成部806の処理を説明するための図である。
まず、画像合成部806の処理を行う前に以下のような事前処理が行なわれる。
図5において、隣り合うカメラ70をC、Ci+1とし、それらカメラで撮影した画像をそれぞれI、Ii+1とする。さらに、あるカメラCについて、Cの光学中心と仮想視点82とを結んだ直線上に基準物体(チェスボードやボール)を設置する。そして、その基準物体上の点をpとしたとき、pの全天球画像上への投影点をq’とし、Cの画像I上の投影点をqとする。この時、q’とqは対応付いている。そのため、画像合成部806は、あるカメラCについて合成時にはq’の画素値としてqの画素値を利用する。例えば、画像合成部806は、あるカメラCから抽出した部分領域画像を全天球画像に重畳する場合には、全天球画像上のq’と部分領域画像に含まれるqとが重なるように部分領域画像を全天球画像に重畳する。
同様に、あるカメラCi+1について、Ci+1の光学中心と仮想視点82とを結んだ直線上に基準物体(チェスボードやボール)を設置する。そして、その基準物体上の点をpi+1としたとき、pi+1の全天球画像上への投影点をq’i+1とし、Ci+1の画像Ii+1上の投影点をqi+1とする。この時、q’i+1とqi+1は対応付いている。そのため、画像合成部806は、あるカメラCi+1について合成時にはq’i+1の画素値としてqi+1の画素値を利用する。例えば、画像合成部806は、あるカメラCi+1から抽出した部分領域画像を全天球画像に重畳する場合には、全天球画像上のq’ i+1と部分領域画像に含まれるqi+1とが重なるように部分領域画像を全天球画像に重畳する。
次に、q’−q’i+1間に存在するピクセルに対し、中間視点における仮想視点82の位置の画素q i,i+1を対応付ける。この対応付けの方法としては、どのような方法であってもよい。例えば、q’−q’i+1間に存在するピクセルが2ピクセルであり、view morphingで2視点の中間画像を作成した場合には、それぞれの画像における仮想視点(q i,i+1, qj+1 i,i+1)の位置を2ピクセルに対応づける。
上記のような対応付けを,部分領域画像に含まれる全てのピクセルについて実施する。
画像合成部806は、上述した対応付けの結果をテーブルとして記憶しておき、中間画像から抽出された部分領域画像を全天球画像に重畳する。画像合成部806は、この処理を部分領域画像全て対して行うことによって仮想全天球画像を生成する。上記の方法によって、生成される仮想全天球画像の具体例を図6に示す。
図6は、仮想全天球画像の一例を示す図である。
図6に示されるように、仮想全天球画像90は、全天球画像に対して各画像から抽出された部分領域画像が合成される。なお、図6では、図4に示す各画像83、84及び85のそれぞれから抽出された部分領域画像86、87及び88が仮想全天球画像90上のどの部分に含まれるのかを示している。
次に、画像処理部807の具体的な処理について説明する。
まず、画像処理部807(決定部)は、全天球画像に重畳された部分領域画像で構成される領域(以下、「処理対象領域」という。)中から処理対象となる小領域(パッチ)を決定する。この方法としては、処理対象画像の輪郭上に存在し、周辺のエッジの強いパッチから選定する方法などが挙げられる。ここで、決定された小領域をp(X,Y)とする。(X,Y)は、小領域の左上の座標を表す。次に、画像処理部807(検索部)は、決定した小領域p(X,Y)の画素を基に、中間画像の生成元である2視点の入力画像から類似パッチを検索する。類似パッチとは、選択した小領域の画素に最も画素が類似する小領域を表す。画像処理部807は、以下の式に基づいて、類似パッチp(a’,b’)を検索する。
p(a’,b’)=argmin_{a,b}Sim(p(a,b),p(X,Y))
ここで、Sim()は小領域の類似度を表し、ユークリッド距離などが利用可能である。また、(a,b)は、入力画像から選択される小領域の左上の座標を表す。類似パッチの検索には、パッチマッチの手法が用いられてもよい。画像処理部807(合成部)は、検索した類似パッチp(a’,b’)を、処理対象領域から検索した小領域p(X,Y)に重畳する。具体的には、画像処理部807は、検索した類似パッチp(a’,b’)の画素で、処理対象領域から検索した小領域p(X,Y)の画素を置き換える。画像処理部807は、上記の処理を処理対象領域に対して行う。
以上で、画像処理部807の処理についての説明を終了する。
図7は、画像処理装置80の処理の流れを示すフローチャートである。なお、図7の説明では、2視点(例えば、カメラ70−1及びカメラ70−2)によって撮影された画像が入力される場合を例に説明する。
画像入力部801は、カメラ70−1及びカメラ70−2それぞれによって撮影された画像を入力する(ステップS101)。画像入力部801は、入力された各入力画像を画像生成部802に出力する。中間画像生成部802は、画像入力部801から出力された各入力画像を入力とする。中間画像生成部802は、入力された各入力画像に基づいて、カメラ70−1及びカメラ70−2の2視点の間の中間画像を生成する(ステップS102)。中間画像生成部802が生成する中間画像の生成数は、事前に入力される。中間画像生成部802は、生成した中間画像及び各入力画像を部分領域抽出部804に出力する。また、中間画像生成部802は、各入力画像を画像処理部807に出力する。次に、部分領域抽出部804は、中間画像生成部802から出力された中間画像及び各入力画像と、領域の抽出数と、抽出領域情報記憶部803に記憶されている抽出領域情報テーブルとを入力とする。部分領域抽出部804は、入力された抽出領域情報テーブルと、領域の抽出数とに基づいて、各入力画像から部分領域を抽出する(ステップS103)。この処理によって、部分領域抽出部804は、各画像から部分領域画像を生成する。部分領域抽出部804は、生成した部分領域画像を画像合成部806に出力する。画像合成部806は、部分領域抽出部804から出力された複数の部分領域画像と、背景画像記憶部805に記憶されている背景画像とを入力とする。画像合成部806は、入力された背景画像に部分領域画像を重畳することによって仮想全天球画像を生成する(ステップS104)。画像合成部806は、生成した仮想全天球画像を画像処理部807に出力する。
その後、画像処理部807は、中間画像生成部802から出力された入力画像と、画像合成部806から出力された仮想全天球画像とを入力とする。画像処理部807は、入力された仮想全天球画像上から小領域を決定する(ステップS105)。具体的には、画像処理部807は、処理対象領域から小領域を決定する。次に、画像処理部807は、決定した小領域の画素を基に、入力された入力画像中から類似パッチを検索する(ステップS106)。その後、画像処理部807は、検索した類似パッチを、ステップS105の処理で決定した小領域に重畳する(ステップS107)。画像処理部807は、処理対象領域全てに対してステップS105からステップS107までの処理を実行したか否か判定する(ステップS108)。
処理対象領域全てに対してステップS105からステップS107までの処理を実行している場合(ステップS108−YES)、画像処理装置80は処理を終了する。
一方、処理対象領域全てに対してステップS105からステップS107までの処理を実行していない場合(ステップS108−NO)、画像処理部807はステップS105以降の処理を繰り返し実行する。
以上のように構成された画像処理システム100によれば、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。以下、この効果について詳細に説明する。
画像処理装置80は、隣り合うカメラ70それぞれで撮影された画像に基づいて、隣り合うカメラ70の間の撮影位置における中間視点の画像を生成する。これにより、画像処理装置80は、カメラ70が設置されていない位置からの仮想視点における光線を含む画像を生成する。画像処理装置80は、生成した画像と、カメラ70で撮影された画像とからそれぞれ仮想視点を含む領域を抽出する。そして、画像処理装置80は、抽出した領域を、背景画像に重畳することによって仮想全天球画像を生成する。これにより、多重像や消失の発生を抑制することができる。そのため、複数のカメラで撮影された画像を用いて生成される合成画像の品質低下を抑制することが可能になる。
また、画像処理システム100では、隣り合うカメラ70それぞれで撮影された画像に基づいて、隣り合うカメラ70の間の撮影位置における中間視点の画像を生成する。したがって、隣り合うカメラ70の間の撮影位置における画像を補間することができる。これにより、カメラ70の間の撮影位置における中間視点の画像を撮影するためのカメラを備える必要がない。そのため、従来のシステムより少ない台数のカメラ70を用いて理想的な仮想全天球画像を生成することができる。
また、複数の部分領域画像を合成した仮想全天球画像は、各部分領域画像の境界部分において見た目に違和感が生じるおそれがある。これは、仮想全天球画像の品質を低下させる要因となる。そこで、画像処理装置80は、合成後の部分領域画像に対してより高品質化を目的とした処理を行う。これにより、各部分領域画像の境界部分において見た目の違和感を低減させることができる。
<変形例>
本実施形態では、背景画像である全天球画像に部分領域画像を重畳する構成を示したが、これは一例であり本発明はこれに限定される必要はない。例えば、本発明は、View Morphingを利用して生成した中間画像を少なくとも1枚用いて部分領域画像を生成し、生成した部分領域画像を並べることが出来ればよい。この場合、画像処理装置80は、背景画像記憶部805を備える必要がない。
本実施形態では、仮想視点82において事前に撮影された全天球画像を合成画像の元となる画像として説明したが、合成画像の元となる画像は何の情報も入っていない黒い画像であってもよい。ここで、何の情報も入っていない黒い画像とは、縦横の画素数が決まっているだけの画像を表す。この場合、画像合成部806は、抽出された部分領域画像を黒い画像に重畳することによって合成画像を生成する。なお、このように構成される場合、画像処理装置80は、背景画像記憶部805を備える必要がない。
本実施形態では、中間画像生成部802は、画像入力部801に入力された入力画像を用いて中間画像を生成する構成を示したが、中間画像生成部802は入力画像が記憶されている記憶部から入力画像を読み出して、読み出した入力画像を入力とすることによって中間画像を生成してもよい。なお、このように構成される場合、記憶部にはカメラ70それぞれによって撮影された入力画像が時系列順に記憶される。
画像の重畳の方法として、以下の(1)、(2)のような方法が用いられてもよい。
(1)部分領域画像(例えば、短冊形に抽出された画像)を重複させながら重畳する。そして、重複部分は、いずれかの画像の画素値を優先して利用してもよいし、両方の画像の重複部分の画素値の重みづけ平均を利用してもよい。
このように構成される場合、抽出領域情報テーブルにおける幅の値が、隣接する部分領域画像が重複するような値に設定される。
(2)部分領域画像(例えば、短冊形に抽出された画像)を、所定の領域をあけながら重畳する。そして、所定の領域を補完する。
このように構成される場合、抽出領域情報テーブルにおける幅の値が、隣接する部分領域画像が所定の領域を挟むような値に設定される。所定の領域は、例えば所定の領域に隣接する2つの部分領域画像に基づいて、所定の領域の右側に隣接する部分領域画像の左上座標及び左下座標と、所定の領域の左側に隣接する部分領域画像の右上座標及び右下座標とで囲まれる領域を表す。そして、画像処理部807は、所定の領域を、所定の領域に隣接する部分領域画像の生成元である入力画像を用いて補完する。補完には、既存の技術が用いられる。例えば、補完に用いられる処理の一例として、パッチベースの手法が用いられてもよい。また、この方法は、部分領域画像を並べる場合にも適用可能である。
本実施形態では、1つの入力画像から1つの部分領域を抽出する構成を示したが、1つの入力画像から複数の部分領域を抽出するように構成されてもよい。このように構成される場合、部分領域抽出部804は図8に示す抽出領域情報テーブルを用いて入力画像から部分領域を抽出する。
図8は、1つの入力画像から複数の部分領域を抽出する場合に用いられる抽出領域情報テーブルの具体例を示す図である。
図8に示す抽出領域情報テーブルは、抽出領域情報レコードを複数有する。抽出領域情報レコードは、部分領域ID及び抽出領域情報の各値を有する。部分領域IDの値は、抽出する部分領域を識別するための識別情報を表す。抽出領域情報の値は、同じ抽出領域情報レコードの部分領域IDで識別される部分領域に関する情報を表す。抽出領域情報の具体例として、画像ID、左上座標、幅及び高さがある。画像IDは、部分領域IDで識別される部分領域の抽出対象となる画像を識別するための識別情報を表す。左上座標は、抽出する領域の左上の座標を表す。幅は、抽出する領域の幅を表す。幅は、抽出する領域の左上座標を基準とする。高さは、抽出する領域の高さを表す。
図8に示される例では、抽出領域情報テーブルには複数の抽出領域情報レコードが登録されている。図8において、抽出領域情報テーブルの最上段に登録されている抽出領域情報レコードは、部分領域IDの値が“P1”、画像IDの値が“I1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”である。すなわち、部分領域ID“P1”で識別される部分領域を抽出する対象となる画像が画像ID“I1”で識別される画像であり、画像ID“I1”の画像の左上座標(A,B)、幅C、高さDで表される領域を抽出することが表されている。
また、図8において、抽出領域情報テーブルの2段目に登録されている抽出領域情報レコードは、部分領域IDの値が“P2”、画像IDの値が“I1”、左上座標の値が“(A1,B1)”、幅の値が“C”、高さの値が“D”である。すなわち、部分領域ID“P2”で識別される部分領域を抽出する対象となる画像が画像ID“I1”で識別される画像であり、画像ID“I1”の画像の左上座標(A1,B1)、幅C、高さDで表される領域を抽出することが表されている。
このような抽出領域情報テーブルを用いることによって、部分領域抽出部804は1つの画像から複数の部分領域を抽出する。
本実施形態において、全天球画像に部分領域抽出部804によって抽出された部分領域画像を重畳する場合、各部分領域画像の間の境界領域において重複が発生する場合がある。このような場合、画像合成部806は、合成処理の後にPoisson Blendingを利用してもよい。Poisson Blendingの手法は、例えば参考文献2に記載の技術を用いることができる。
[参考文献2]Perez, Patrick, Michel Gangnet, and Andrew Blake. "Poisson image editing."ACM Transactions on Graphics (TOG). Vol. 22. No. 3. ACM, 2003.
画像処理部807は、以下のような処理を行ってもよい。
まず、画像処理部807は、処理対象領域から処理対象となる小領域(パッチ)p(X,Y)を決定する。次に、画像処理部807は、決定した小領域p(X,Y)の画素を基に、中間画像の生成元である2視点の入力画像から小領域p(X,Y)の変換を許容しながら類似パッチを検索する。変換の例として、拡大・縮小、回転、アフィン変換、ホモグラフィ距離などがある。本実施形態では、どの変換が用いられてもよい。画像処理部807は、以下の式に基づいて、類似パッチp(a’,b’,A’)を検索する。
p(a’,b’,A’)=argmin_{a,b,A}Sim(p(a,b),A(p(X,Y)))
ここで、Sim()は小領域の類似度を表し、ユークリッド距離などが利用可能である。また、(a,b)は入力画像から検索される小領域の左上の座標を表し、A(I)は中間画像Iの変換を表す。画像処理部807は、検索した類似パッチp(a’,b’,A’)の逆変換A’−1(p(a’,b’))を施した後の小領域を、処理対象領域から検索した小領域p(X,Y)に重畳する。画像処理部807は、上記の処理を処理対象領域全体に対して行う。
このように小領域の変換を許容しながら類似パッチを検索することによって、より高品質な仮想全天球画像を生成することが可能になる。なお、画像処理部807は、合成画像の生成元である複数の画像全体を変換して(合成画像側は変換せず)、変換後の画像の中から類似パッチを検索してもよい。この場合、画像処理部807は、逆変換しない状態の類似パッチを探索結果として取得し、取得した類似パッチを合成画像の対応する箇所に重畳する。
画像処理部807は、複数のカメラ70によって撮影された複数の画像から生成された合成画像であれば、どのような合成画像に対しても上記の処理を行ってもよい。
本実施形態では、カメラ70を水平方向に並べた構成を例に説明したが、本発明はカメラ70を縦方向に並べた場合であっても適用可能である。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
60…全天球カメラ, 70(70−1〜70−M)…カメラ, 4、80…画像処理装置, 801…画像入力部, 802…中間画像生成部, 803…抽出領域情報記憶部, 804…部分領域抽出部, 805…背景画像記憶部, 806…画像合成部(合成画像生成部), 807…画像処理部

Claims (5)

  1. 所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成部と、
    前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出部と、
    抽出された複数の部分領域を用いて合成画像を生成する合成画像生成部と、
    を備える画像処理装置。
  2. 前記部分領域抽出部は、短冊形に前記部分領域を抽出し、
    前記合成画像生成部は、抽出された複数の短冊形の部分領域を並べることによって前記合成画像を生成する、請求項1に記載の画像処理装置。
  3. 前記中間画像の生成元である前記複数の画像を用いて前記合成画像に対して見た目の違和感を低減させる処理を行う画像処理部をさらに備える、請求項1又は2に記載の画像処理装置。
  4. 所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成ステップと、
    前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出ステップと、
    抽出された複数の部分領域を用いて合成画像を生成する合成画像生成ステップと、
    を有する画像処理方法。
  5. 所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成ステップと、
    前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出ステップと、
    抽出された複数の部分領域を用いて合成画像を生成する合成画像生成ステップと、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2015232336A 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム Active JP6416741B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015232336A JP6416741B2 (ja) 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015232336A JP6416741B2 (ja) 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2017097799A true JP2017097799A (ja) 2017-06-01
JP6416741B2 JP6416741B2 (ja) 2018-10-31

Family

ID=58817981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232336A Active JP6416741B2 (ja) 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6416741B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190129433A (ko) * 2018-05-11 2019-11-20 재단법인대구경북과학기술원 파노라마 영상 생성 방법 및 그 장치
CN113826378A (zh) * 2019-05-16 2021-12-21 佳能株式会社 布置确定装置、系统、布置确定方法和程序

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003043599A (ja) * 2001-07-31 2003-02-13 Canon Inc 立体画像形成方法、立体画像形成システム、プログラム及び記憶媒体
US20030235344A1 (en) * 2002-06-15 2003-12-25 Kang Sing Bing System and method deghosting mosaics using multiperspective plane sweep
JP2008217243A (ja) * 2007-03-01 2008-09-18 Mitsubishi Electric Corp 画像生成装置
JP2013025649A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置及び画像処理方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003043599A (ja) * 2001-07-31 2003-02-13 Canon Inc 立体画像形成方法、立体画像形成システム、プログラム及び記憶媒体
US20030235344A1 (en) * 2002-06-15 2003-12-25 Kang Sing Bing System and method deghosting mosaics using multiperspective plane sweep
JP2008217243A (ja) * 2007-03-01 2008-09-18 Mitsubishi Electric Corp 画像生成装置
JP2013025649A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置及び画像処理方法、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋康輔, 外3名: ""複数カメラ映像を用いた仮想全天球映像合成に関する検討"", 電子情報通信学会技術研究報告, vol. 第115巻, 第76号, JPN6018029259, 1 June 2015 (2015-06-01), JP, pages 43 - 48, ISSN: 0003847909 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190129433A (ko) * 2018-05-11 2019-11-20 재단법인대구경북과학기술원 파노라마 영상 생성 방법 및 그 장치
KR102082277B1 (ko) * 2018-05-11 2020-02-28 재단법인대구경북과학기술원 파노라마 영상 생성 방법 및 그 장치
CN113826378A (zh) * 2019-05-16 2021-12-21 佳能株式会社 布置确定装置、系统、布置确定方法和程序
CN113826378B (zh) * 2019-05-16 2024-05-07 佳能株式会社 布置确定装置、系统、布置确定方法和存储介质
US12010437B2 (en) 2019-05-16 2024-06-11 Canon Kabushiki Kaisha Arrangement determination apparatus, system, arrangement determination method, and recording medium

Also Published As

Publication number Publication date
JP6416741B2 (ja) 2018-10-31

Similar Documents

Publication Publication Date Title
CN111861879A (zh) 用于来自低分辨率图像的人类超分辨率的方法和装置
JP6371553B2 (ja) 映像表示装置および映像表示システム
US9361660B2 (en) Image processing device and method, supplement image generation device and method, program, and recording medium
JP7387434B2 (ja) 画像生成方法および画像生成装置
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
US10482571B2 (en) Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium
KR101529820B1 (ko) 월드 좌표계 내의 피사체의 위치를 결정하는 방법 및 장치
JP6606242B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6416741B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6416740B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP7352374B2 (ja) 仮想視点変換装置及びプログラム
JP6392739B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6389452B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6426594B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6420750B2 (ja) 合成情報テーブル作成装置、合成情報テーブル作成方法及びコンピュータプログラム
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
Abbas et al. A novel projection for omni-directional video
JP6450305B2 (ja) 情報取得装置、情報取得方法及び情報取得プログラム
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
Calagari et al. Sports VR content generation from regular camera feeds
JP6416734B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6450306B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Chang et al. A low-complexity image stitching algorithm suitable for embedded systems
JP6346157B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
US10989525B2 (en) Laser guided scanning systems and methods for scanning of symmetrical and unsymmetrical objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181004

R150 Certificate of patent or registration of utility model

Ref document number: 6416741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150