JP2016143919A - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP2016143919A
JP2016143919A JP2015016084A JP2015016084A JP2016143919A JP 2016143919 A JP2016143919 A JP 2016143919A JP 2015016084 A JP2015016084 A JP 2015016084A JP 2015016084 A JP2015016084 A JP 2015016084A JP 2016143919 A JP2016143919 A JP 2016143919A
Authority
JP
Japan
Prior art keywords
image processing
image
subject
processing apparatus
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015016084A
Other languages
English (en)
Other versions
JP2016143919A5 (ja
JP6525611B2 (ja
Inventor
貴博 松下
Takahiro Matsushita
貴博 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015016084A priority Critical patent/JP6525611B2/ja
Priority to US15/006,839 priority patent/US10139218B2/en
Publication of JP2016143919A publication Critical patent/JP2016143919A/ja
Publication of JP2016143919A5 publication Critical patent/JP2016143919A5/ja
Application granted granted Critical
Publication of JP6525611B2 publication Critical patent/JP6525611B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Abstract

【課題】撮影画像の被写体の距離情報を、ユーザが容易に画像処理に利用することを可能にする画像処理装置およびその制御方法の提供。
【解決手段】 被写体の距離情報に基づいて、撮影画像から、各々が個別の被写体距離の範囲に対応する複数の画像を生成し、生成した複数の画像を選択可能に表示する。複数の画像のうち、選択された画像を対象として画像処理を適用する。
【選択図】図7

Description

本発明は画像処理装置およびその制御方法に関し、特には被写体の距離情報を活用した画像処理技術に関する。
近年、撮像シーン内に存在する個々の被写体の距離情報を取得可能な撮像装置が知られている(特許文献1)。特許文献1では、個々の被写体の距離情報を用いて、シーン内の被写体の奥行き方向における位置関係と現在の合焦距離とを表す俯瞰マップを提示することで、現在どの被写体に合焦しているかを撮影者が容易に把握できるようにしている。
特開2010-177741号公報
しかしながら、従来、被写体の距離情報は、撮像時に装置で行われる画像処理に専ら用いられており、ユーザに利用させることが想定されていなかった。例えば、撮影画像に対する画像処理アプリケーションにおいて、被写体の距離情報を利用した画像処理をユーザが容易に行うための手法は提案されていなかった。
本発明はこのような従来技術の課題に鑑みなされたものであって、撮影画像の被写体の距離情報を、ユーザが容易に画像処理に利用することを可能にする画像処理装置およびその制御方法の提供を目的とする。
上述の目的は、撮影画像と、被写体の距離情報とを取得する取得手段と、距離情報に基づいて、撮影画像から、各々が個別の被写体距離の範囲に対応する複数の画像を生成する生成手段と、複数の画像を選択可能に表示する表示制御手段と、複数の画像のうち、選択された画像を対象として画像処理を適用する画像処理手段と、を有することを特徴とする画像処理装置によって達成される。
このような構成により本発明によれば、撮影画像の被写体の距離情報を、ユーザが容易に画像処理に利用することを可能にする画像処理装置およびその制御方法を提供できる。
本発明の一実施形態に係る画像処理装置の利用形態を模式的に示す図 図1におけるタブレット端末101とデジタルカメラ102の機能構成例を示すブロック図 実施形態に係る画像処理アプリケーションの全体的な処理の流れを説明するためのフローチャート 撮影画像、距離画像、および奥行き分割画像の例を示す図 実施形態に係る奥行き分割画像の生成処理方法の例を説明するためのフローチャート 実施形態に係る奥行き分割画像の生成方法を説明するための図 実施形態に係る画像処理アプリケーションにおけるGUIの例を示す図 実施形態に係る画像処理の例を説明するための図 実施形態に係る画像処理アプリケーションにおけるGUIの例を示す図 実施形態に係る画像処理装置の傾きに応じた奥行き分割画像の表示制御の例を模式的に示す図
以下、図面を参照して、本発明の例示的な実施形態を詳細に説明する。
図1は、本発明の一実施形態に係る画像処理装置の利用形態を模式的に示している。ここでは、画像処理装置の具体例として、タブレット端末101、デジタルカメラ102、パーソナルコンピュータ(PC)105、およびサーバ107が示されている。タブレット端末101、デジタルカメラ102、およびPC105は、ルータ109を通じて同一のローカルネットワーク(LAN)に接続されている。また、サーバ107は広域ネットワーク(WAN)の一例としてのインターネット106を通じて、LAN上の機器と通信可能に接続されている。LAN内のコネクションは無線であっても有線であっても両者が混在していてもよい。
図1には、画像処理の対象である撮影画像と、撮影画像で撮影されたシーンの距離情報とがデジタルカメラ102に存在し、タブレット端末101またはPC105がデジタルカメラ102から撮影画像と距離情報を取得して画像処理を実施する形態を示している。しかしながら、タブレット端末101、デジタルカメラ102、パーソナルコンピュータ(PC)105、およびサーバ107のいずれもが本発明に係る画像処理装置として機能しうる。より一般的には、画像処理の対象である撮影画像と、撮影画像で撮影されたシーンの距離情報とを取得可能し、ユーザが撮影画像に対して距離情報を用いた画像処理を行うための画像処理アプリケーションを実行可能な任意の機器において、本発明を実施可能である。なお、画像処理アプリケーションがウェブアプリケーションのような形態を有する場合や、処理の一部を外部装置で実行する場合など、画像処理装置は複数の機器で実現されうることに留意されたい。
以下では、タブレット端末101が、撮影画像に対する画像処理アプリケーションを記憶、実行する場合について説明する。しかし、タッチ操作をマウス等のポインティングデバイスの操作や、キーボードのカーソルキーと実行キーとの組み合わせに置き換えることで、PC105やサーバ107で画像処理アプリケーションを実行する場合にも適用できる。デジタルカメラ102においても、タブレット端末101と同様のタッチ操作や、方向キーなどの操作に置き換えることで、同様の画像処理アプリケーションを実施可能である。
タブレット端末101は、撮影画像と、撮影画像に対応する距離情報とを、LAN通じてデジタルカメラ102から取得する。取得方法に制限はなく、デジタルカメラ102からタブレット端末101に直接転送してもよいし、デジタルカメラ102からメールに添付してサーバに送信し、タブレット端末101でサーバからメールを受信することで取得してもよい。また、デジタルカメラ102とタブレット端末101とをケーブルで直接接続して転送してもよいし、メモリカードからタブレット端末101で読み取ってもよい。
図2は、図1におけるタブレット端末101とデジタルカメラ102の機能構成例を示すブロック図である。デジタルカメラ102は、光学系214と、撮像素子210と、制御部208と、記憶装置212と、表示部213と、操作部211と、通信部209とを備えている。なお、図1に示した以外の機能ブロックを備えてもよい。例えば、手ぶれ補正用にデジタルカメラ102の動きを検出するセンサを有していてもよい。
光学系214は、レンズ、シャッター、絞りを有し、制御部208から合焦距離、絞りの開口量、およびシャッターの開閉を制御することができる。撮像素子210は、光学系214が撮像面に結像する光学像を、各画素で電気信号に変換して出力する。
制御部208は、例えばプログラマブルプロセッサ(以下、CPU)と、ROMのような不揮発性メモリと、RAMのような揮発性メモリとを有し、ROMに記憶されたプログラムをCPUで実行し、各部を制御してデジタルカメラ102の機能を実現する。制御部208は撮像素子210で撮影された画像の輝度情報やコントラスト情報等に基づいて、自動露出制御(AE)や自動焦点検出(AF)を実現する。
記憶装置212は撮影画像や、距離画像などを記憶する。記憶装置212はメモリカードのような着脱可能な記録媒体を用いる構成であっても、固定された構成であっても、両方を有してもよい。
画像処理部215は、撮像素子210が出力する画像信号に対し、A/D変換、ノイズ除去、エッジ強調処理、ガンマ補正処理などを行い、RAW画像データを生成する。また、画像処理部215は、必要に応じてRAW画像データにホワイトバランス調整処理、デモザイク処理などの現像処理や、符号化処理などを行う。画像処理部215の一部または全部の機能は、制御部208によってソフトウェア的に実現されてもよい。
表示部213は、撮影スタンバイ時や動画撮影時におけるライブビュー画像、撮影画像、デジタルカメラ102の状態や各種設定値などの各種情報、メニュー画面のようなユーザインタフェースなどを表示する。表示部213は一般にフラットパネルディスプレイであり、タッチパネルを備えてもよい。
操作部211は、ユーザがデジタルカメラ102に各種の指示を与えるための入力デバイス群で、例えばボタン、キー、レバー、スイッチ、タッチパネルなどで構成される。撮影準備指示や撮影指示を与えるためのレリーズボタン、電源スイッチ、方向キー、決定ボタン、メニューボタンなどが含まれる。
通信部209は、外部装置と制御コマンドやデータの送受信を行うための通信インタフェースである。デジタルカメラにおいて一般的に外部装置と通信する際に用いられる通信プロトコルとしては、例えば以下の様なものがある。PTP(Picture Transfer Protocol)やMTP(Media Transfer Protocol)。あるいは、ISO/IEC 14443 A/BやJIS X6319-4等のNFC(Near Field Communication)関連のプロトコル。なお、通信部209は、例えばUSB(Universal Serial Bus)やHDMI(登録商標)(High-Definition Multimedia Interface)のような規格に基づく有線接続で外部装置と通信を行ってもよい。また、無線LANやBluetooth(登録商標)などの規格に基づく無線接続により外部装置と通信を行ってもよい。また、外部装置とは直接接続されてもよいし、サーバや、インターネットなどのネットワークを介して接続されてもよい。
なお、撮影画像や距離情報は、通常、通信部209を介して記憶装置212から外部装置に転送されるが、記録媒体が無線通信機能を有する場合には、通信部209を介さずに外部装置に転送されてよい。
デジタルカメラ102は撮像シーンの距離情報を生成する撮影モードを有し、この撮影モードが設定されている場合、通常の撮影動作に加え、距離情報の生成動作を実行する。 本実施形態において、撮影画像の距離情報は、各画素の値が距離を表す距離画像の形式を有するものとするが、形式はこれに限定されない。例えば、撮影シーン内に存在する特定被写体(例えば人物)の領域の位置および距離を表す情報であってもよい。なお、デジタルカメラを用いてこのような距離情報を作成する方法に特に制限は無く、例えば特許文献1にも記載されている様々な方法を始めとした任意の方法を用いることができる。制御部208は、生成した撮影画像と距離画像とを、記憶装置212に記憶する。
タブレット端末101は、一般には、ハードウェアキーボードを有さず、タッチパネルディスプレイを有するスレート形状を有する携帯情報端末であり、機能構成は一般的な情報処理装置(PC)と同様である。すなわち、タブレット端末101は、制御部201と、通信部202と、姿勢センサ203と、画像管理部204と、画像処理部205と、表示部206と、記憶装置207とを備えている。
通信部202は、外部装置と制御コマンドやデータの送受信を行うための通信インタフェースである。例えば、通信部202は同一ネットワークに接続されたデジタルカメラ102やPC105、インターネット上のサーバ107などから、撮影画像と距離情報を受信する。通信部202は、デジタルカメラ102の通信部209と同様、様々な形態を有しうる。
制御部201は、例えばプログラマブルプロセッサ(以下、CPU)と、ROMのような不揮発性メモリと、RAMのような揮発性メモリとを有し、ROMに記憶されたプログラムをCPUで実行し、各部を制御してタブレット端末101の機能を実現する。
姿勢センサ203はタブレット端末101の姿勢を検出するセンサであり、例えば3軸のジャイロセンサなどであってよい。
画像処理部205は、取得した撮影画像と距離情報とに基づき、撮影画像を、複数の画像であって、個々の画像が特定の距離範囲の被写体のみを含むような複数の画像に分離する。画像処理部205はまた、取得した撮影画像が符号化されていれば復号処理、RAW画像であれば現像処理を適用する。さらに、画像処理部205は、特定の被写体領域の一例としての顔領域の認識ならびに、登録された顔の特徴量に基づく個人認識処理を実行する。また、画像処理部205は、画像処理アプリケーションが一般的に提供する画像処理機能を提供する。なお、画像処理部215の一部または全部の機能は、制御部201によってソフトウェア的に実現されてもよい。
記憶装置207はSSDやHDDを代表とする不揮発性の記憶装置であり、OS、アプリケーション、画像データ等が記憶される。画像管理部204は、撮影画像や距離情報を始めとした、通信部202を通じて取得したデータや、画像処理部205が処理した画像データなどを管理する。例えば、画像処理アプリケーションにおけるアンドゥ処理を実現するための情報や、処理対象の画像と、対応する距離情報との関連付けなども画像管理部204が管理する。表示部206は、LCD、有機ELディスプレイなどのフラットパネルディスプレイであり、タッチパネルである操作部2061が設けられている。表示部206は、制御部201の制御に従い、OSやアプリケーションのGUIを表示する。
次に、図3のフローチャートを用いて、本実施形態に係る画像処理アプリケーションの全体的な処理の流れについて説明する。
例えば表示部206に表示されている画像処理アプリケーションのアイコンが操作部(タッチパネル)2061を通じてタップ操作されるなどの起動操作が行われると、制御部201は記憶装置207から画像処理アプリケーションを読み出し、実行する。そして、制御部201は処理対象の画像を選択するためのGUI、例えばOSが提供するファイルブラウズGUIを表示し、ユーザ指示を待機する。
ユーザが処理対象とする撮影画像ファイルを指定すると、取得手段としての制御部201は記憶装置207から、指定された撮影画像と、対応する距離情報(距離画像)とを取得する(S301、S302)。
S303で制御部201は画像処理部205を用い、撮影画像から複数の画像を生成する。具体的には、生成手段としての画像処理部205は、距離画像から被写体が存在する距離の分布を求め、被写体の距離範囲を複数に分割する。そして、画像処理部205は、分割された距離範囲ごとに、対応する被写体の画像領域を撮影画像から抽出し、撮影画像から複数の画像を生成する。以後、生成された個々の画像を奥行き分割画像と呼ぶ。画像処理部205は、生成した奥行き分割画像を、撮影画像および距離画像と関連付けて例えば記憶装置207に保存する。
図4に、撮影画像、距離画像、および奥行き分割画像の例を示す。距離画像42は、撮影画像41と同じ画素数を有し、画素値(輝度値)がその画素における被写体距離を表す単色画像である。画像処理部205は、距離画像42の画素値の分布(すなわち、被写体距離の分布)に基づいて被写体距離の範囲を分割し、被写体距離の範囲ごとに、対応する撮影画像の領域を抽出して奥行き分割画像43を生成する。図4の例では、被写体距離の範囲が4分割され、各範囲の奥行き分割画像43が生成されている。奥行き分割画像43は、図4に示すように、対応する距離範囲に存在する被写体領域を有し、他の距離範囲に存在する被写体の領域には画素を有さないか、透明な画素が配置される。また、表示する奥行き分割画像は、縮小画像であってよい。奥行き分割画像の生成方法の具体例については後述する。
S304で表示制御手段としての制御部201は、生成された奥行き分割画像を、対応する距離の遠近が把握でき、かつ個別に選択できるような形式で、画像処理アプリケーションのGUI内の領域に表示し、ユーザによる選択操作を待機する。例えば、図4に示すように、近距離に対応する奥行き分割画像を手前に、遠距離に対応する奥行き分割画像を奥に、かつ全ての奥行き分割画像について少なくとも一部が見えるように表示することができる。
なお、図4の例では、複数の奥行き分割画像が重なっているような立体的な視覚効果を与えて表示しているが、このような視覚効果は必須ではない。また、手前から奥へという並べ方でなくてもよく、右から左に向かって距離が大きくなるように並べるなど、複数の奥行き分割画像が、対応する被写体距離が増加もしくは減少する方向で配置されれば、どのような表示形態であってもよい。
S305でユーザが奥行き分割画像の1つを選択すると、制御部201は選択された奥行き分割画像を画像処理対象とし、画像処理アプリケーションのGUIにおける処理対象画像用の領域に表示する。つまり、制御部201は、複数の奥行き分割画像のうちユーザが選択した1枚を抜き出して、画像処理の対象として表示する。この際、奥行き分割画像の一覧表示(図4右側のような表示)は消去してもよいし、表示を継続してもよい。
そして、制御部201は、ユーザが画像処理アプリケーションのGUIや画像に対して与えるタッチ操作に応じて、画像処理部205を用いて、処理対象の画像に予め定められた画像処理を適用する(S306,S307)。そして、奥行き分割画像の一覧表示に、画像処理の適用結果を反映させる。これによりユーザは、奥行き分割画像に対する画像処理が、撮影画像に与える影響について把握することが可能になる。
ユーザは必要に応じて所望の奥行き分割画像の選択と、画像処理の適用を繰り返すことができる。S309で、画像処理アプリケーションの終了指示もしくは、新たな撮影画像を変更する指示が与えられた場合、制御部201はS310で、現在の撮影画像に対する画像処理結果を例えば記憶装置207に保存する。そして、制御部201は、画像処理アプリケーションを終了するか、処理をS301に戻す。
次に、図3のS303における、奥行き分割画像の生成処理の例を2つ、図5のフローチャートを用いて説明する。
まず、第1例を図5(a)のフローチャートを用いて説明する。まずS501において画像処理部205は、撮影画像に対応する距離画像のヒストグラムを生成する。上述の通り、距離画像は画素値が被写体距離を表す距離情報であるため、画素値のヒストグラムは被写体距離の分布頻度を表す。ここでは画素値が8ビット(0〜255)であるものとする。なお、ヒストグラムのクラスの幅は予め定めておくことができる。
そして、画像処理部205は、被写体距離の分布頻度の極小値を検出する。図6(a)および(b)は距離画像と対応するヒストグラムの例を示す。図6(b)のようなヒストグラムが得られた場合、画像処理部205は、分布頻度が極小値のクラスに分類される最大被写体距離(図6(b)では7021と7022)を極小値として検出する。
次いでS502において画像処理部205は、検出した極小値を境界として被写体距離の範囲を分割する。図6(b)の例では、極小値が2つ検出されたため、0〜255の被写体距離は、3つの範囲7031,7032,7033に分割される。一般的な被写体は、比較的まとまった距離に存在するため、被写体距離の分布頻度の極小値を用いて被写体距離の範囲を分割することで、撮影されたシーンに含まれる、距離の異なる複数の被写体を、異なる奥行き分割画像に分離しやすくなる。
そして、画像処理部205は、分割した範囲のそれぞれについて、分類された距離画像の画素に対応する撮影画像の画素から構成される画像(奥行き分割画像)を生成する。従って、図6(b)の例では、範囲7031〜7033のそれぞれについて奥行き分割画像が生成され、合計3枚の奥行き分割画像が得られる。
この方法では、(検出された極小値+1)枚の奥行き分割画像が生成されるため、奥行き分割画像の数が不定であり、撮影シーンによっては奥行き分割画像の数が多くなり、分割画像を指定した画像処理の操作性が悪くなる場合が考えられる。そのため、被写体距離の範囲をより効率的に分割し、特定の枚数の奥行き分割画像を生成するように構成してもよい。特定枚数の奥行き分割画像を生成する方法の例を、図5(b)のフローチャートを用いて説明する。
S601において画像処理部205は、生成すべき奥行き分割画像の枚数Nを取得する。枚数Nはユーザが設定可能であっても、固定値であってもよい。画像処理部205は例えば制御部201から枚数Nを取得することができる。
S602で画像処理部205は、S501と同様にして、被写体距離の分布頻度の極小値を全て検出する。ここでは、検出された極小値の数をn(nは1以上の整数)とする。
S603で画像処理部205は、nの極小値のうち、極小値(m)(m=1〜n)を境界としないで被写体距離の範囲を分割した場合について、各分割範囲での分散を算出し、その総和を求める。
S604において画像処理部205は、すべての極小値についてS603の処理を行っていればS605へ、未処理の極小値があればS603へ、処理を移行する。
S605において画像処理部205は、分散の総和が大きい順にN−1個の極小値を、奥行き分割画像を生成するための境界として選択する。ある極小値を境界として用いない場合の分散の総和が大きいことは、その極小値を境界として用いるほうが、分散の総和がより小さくなること、つまり分布のまとまりを効率的に分割できることを意味する。
S606において画像処理部205は、S605で選択した境界に従って撮影画像をN枚の奥行き分割画像に分離する。なお、n≦Nの場合は、S603以降の処理を行う必要がないため、図5(a)と同様の方法で奥行き分割画像を生成してもよい。この場合、S602の次にS502と同様の処理を行えばよい。
なお、ここでは、奥行き分割画像の生成条件(枚数、境界位置)を自動で決定する方法について説明した。しかし、自動で決定した生成条件をユーザが変更できるように構成してもよい。この場合、例えば図6(b)に示したようなヒストグラムを、自動決定した境界を表す指標704とともに表示し、ヒストグラム上でユーザが指標704の位置を変更したり、指標704を追加および削除したりすることが可能なように構成することができる。また、図5(b)では分散の総和に基づいて境界とする極小値を決定したが、他の統計値(平均、標準偏差など)を使用して境界を決定してもよい。また、距離範囲を等分割((N−1)分割)するようにしてもよい。
例えば、特定の被写体だけを含むような奥行き分割画像を生成したい場合などには、ヒストグラムにおいてその被写体がどのクラスに分布しているかを把握する必要がある。しかし、距離画像からは被写体の輪郭はある程度判別できても、類似の輪郭を有するものが複数ある場合には、それが何なのかを把握しにくい。例えば人物が複数写った撮影画像の距離画像から、特定の人物を判別することは容易でない。
図6(c)は、人物の認識結果など、被写体を識別するための付加情報を距離画像に追加することで、このような問題を緩和する構成の例を示している。距離画像801は、図6(a)と同じものであるが、撮影画像において認識された人物の顔領域を示す指標8011と、認識された人物名8012が重畳表示されている。また、ヒストグラム802においても、顔領域に対応する画素が分類されているクラス8021を識別可能に表示している。例えば、認識されている被写体を表す指標の色と、対応するクラスの色とを同色で表示することで、複数の被写体が認識されている場合でも対応関係が明確になる。
従って、ユーザはヒストグラム802において境界の指標803を、クラス8021に近い極小値に設定することで、認識された人物と、他の被写体とを異なる奥行き分割画像に分離することができる。
なお、顔認識した被写体の代わりに、撮影画像で合焦している領域を距離画像およびヒストグラムで示すようにするなど、他の方法によって分割位置(境界)の手動設定を支援してもよい。
図7(a)は、本実施形態に係る画像処理アプリケーションにおいて、奥行き分割画像の生成条件を設定するためのGUI(設定画面)の例を示す。この例では、設定画面901において、処理対象とする撮影画像の選択、奥行き分割数、分割方法、水平方向の画角、最近面距離、最遠面距離などの条件を指定できるものとする。なお、分割方法としては、等間隔と、距離分布に応じた決定方法(図5(a),(b)のいずれか)とが選択可能である。以下で説明するように、本実施形態では奥行き分割画像を透視投影におけるビューボリュームの投影面のように表示するため、ビューボリュームを定義するパラメータとして、水平方向の画角と、最近面距離および最遠面距離を指定するように構成されている。
図7(a)の例では、画像編集画面に距離画像とヒストグラムを表示するか否かについても設定画面901から設定できるように構成されている。なお、設定画面901において設定可能な項目の内容や数は、図7(a)の例に限定されない。なお、設定画面901は、画像アプリケーションの起動後、処理対象とする撮影画像を選択させる際に表示してもよいし、ユーザ指示に応じて任意のタイミングで表示してもよい。
図7(b)は、本実施形態に係る画像処理アプリケーションにおいて、奥行き分割画像を利用した画像編集を行うGUI(編集画面)1001の例を示す。編集画面の左半分には処理対象の撮影画像1002と、対応する距離画像1003およびヒストグラム1004が、それぞれ別個の領域に表示されている。また、ヒストグラムには分割画像を生成する境界を表す指標10041が重畳表示されている。一方、編集画面の右半分には、生成された奥行き分割画像の表示領域1005と、ズームスライダ1006が設けられている。
上述したように、本実施形態では、生成した奥行き分割画像1010、1011を、透視投影で用いられるビューボリュームの投影面のように、近距離に対応する奥行き分割画像ほど小さく、遠距離に対応する奥行き分割画像ほど大きくなるよう、表示する。しかし、これは単なる一例であり、他の方法で表示してもよい。図7(b)では、ヒストグラム1004に示された1つの境界に基づいて生成された、近距離側の被写体に対応する奥行き分割画像1010と、遠距離側の被写体に対応する奥行き分割画像1011とが、ビューボリュームの最近面と最遠面として表示されている。ズームスライダ1006は、奥行き分割画像の大きさを個別に変更することを可能にする。
次に、図8を用いて、画像処理の例について説明する。図8(a),(b)は、ズームスライダ1006を用いた画像処理の一例を模式的に示す図である。図8では、距離画像とヒストグラムが表示されていない点を除き、図7(b)と同様の内容が表示されている。図8(a)では、例えば表示領域1005で奥行き分割画像1011がタップされたり、撮影画像1002で対応する被写体がタップされたりして選択されている状態を示している。撮影画像1002において、選択状態にある被写体領域を示す指標10021が示されている。また、表示領域1005でも、選択されている奥行き分割画像1011が他の奥行き分割画像と視覚的に区別できるよう、例えば枠の色や太さを異ならせて表示する。
ここで、ズームスライダ1006を左に所定量移動させた場合の表示例を、図8(b)に示す。本実施形態において制御部201は、ズームスライダ1006の移動を、選択されていない奥行き分割画像の大きさ(画角)を独立して変更する画像処理の指示として認識し、画像処理部205によって画像処理を適用する。図8(b)では、選択されていない遠距離側の奥行き分割画像をズームアップした例を示している。制御部201は、画像処理の適用結果を撮影画像1002の表示にも反映させる。このように、選択された奥行き分割画像1010の大きさ(画角)を固定し、他の奥行き分割画像1011の大きさを変更することで、いわゆるドリーズーム(ドリーイン、ドリーアウト)のような効果を得ることができる。
ここでは選択された奥行き分割画像の大きさを固定し、選択されていない奥行き分割画像の大きさを変更するように構成した例を説明したが、逆に、選択された奥行き分割画像の大きさが変更されるように構成したり、両者を切り替え可能に構成したりしてもよい。また、上述の通り、奥行き分割画像を直接選択する方法以外に、撮影画像1002で選択(タップ)された被写体領域に対応する奥行き分割画像が選択されるようにしてもよい。
図8(c),(d)は、撮影画像1002を操作して被写体を削除する画像処理の例を示している。図8(c)は、撮影画像1002に含まれる人物の領域内の位置10022がタップされ、人物の領域が選択された状態であるとする。上述の通り、被写体領域が選択されると、選択された被写体領域が判別できるような指標(ここでは枠状の指標10021)が表示される。なお、奥行き分割画像1011が選択されても同様の指標10021が撮影画像1002に表示される。なお、図8(c)に示すように、撮影画像1002と奥行き分割画像1010,1011の一方でタップされている位置を、他方でも表示するようにしてもよい。図8(c)では、撮影画像1002内の位置10022がユーザの指10023でタップされたことに応じて、対応する奥行き分割画像1011内の位置10051を示す表示が行われている。
この状態で、タップが一定時間継続(プレスホールド)されると、予め定められた画像処理を選択された被写体領域に対して実行するように構成することができる。図8(d)では、選択された被写体領域を削除する処理が行われた場合を模式的に示している。なお、削除された被写体領域に対しては、周辺画素を使用して補間したり、背景の一部をコピーしたりすることができる。あるいは、似たシーンの撮影画像を利用して補間してもよい。なお、ここでは選択された被写体領域を画像処理の対象とする構成について説明したが、選択された被写体領域が含まれる奥行き分割画像の全体、もしくは同じ奥行き分割画像に含まれる全ての被写体領域を画像処理の対象としてもよい。また、撮影画像に対する操作として説明した操作が、奥行き分割画像で行われた場合にも同様の画像処理を行うように構成してもよい。
図9は、画像編集画面における、撮影画像や奥行き分割画像に対するタッチ操作と、実行される画像処理との関連付けを行う設定画面の例を示す。設定画面901は、画像処理アプリケーションのメニューなどの選択に応答して制御部201が表示させることができる。設定画面901にはタッチ操作の一覧を表示する操作一覧領域902と、関連付けする画像処理の候補の一覧を表示する処理一覧領域903とを有する。
操作一覧領域902で1つのタッチ操作が選択されると、関連付け可能な画像処理の一覧が処理一覧領域903に表示される。タッチ操作と、関連付け可能な画像処理との関係は、操作一覧領域902で選択状態のタッチ操作と、処理一覧領域903で選択状態の画像処理とが関連付けられる。OKボタン904がタップされると、制御部201は関連付けの設定結果を保存する。なお、このように1つのタッチ操作に対して1つの画像処理を関連付けずに、タッチ操作が行われた時点で複数の選択肢を表示し、ユーザに選択させるように構成にしてもよい。例えば、プレスホールド操作が検出された場合、制御部201は、選択領域に実行可能な画像処理の一覧を選択可能に表示し、ユーザが選択した処理を実行することができる。
図8(e),(f)は、撮影画像1002を操作して被写体を移動する画像処理の例を示している。図8(e)において、撮影画像1002の奥の建物がユーザの指10023でタップされ、選択された状態にある。ここでは、人物と異なり建物はその領域が認識されていないため、建物を含む奥行き分割画像1011の全体が選択状態であることを示す指標10021が表示される。
選択状態のままドラッグ操作が行われると、制御部201は選択領域をドラッグ方向に移動させる指示と認識する。例えば、右方向にドラッグ操作が行われた場合、図8(f)に示すように、奥行き分割画像1011が奥行き分割画像1010に対して相対的に右方向に移動され、表示領域1005における奥行き分割画像の表示および撮影画像1002の表示に反映される。
なお、移動によって画像が存在しなくなった領域に対しては、周辺画素を使用して補間したり、背景の一部をコピーしたりすることができる。あるいは、似たシーンの撮影画像を利用して補間してもよい。なお、撮影画像に対する操作として説明した操作が、奥行き分割画像で行われた場合にも同様の画像処理を行うように構成してもよい。
図7および図8の例では、奥行き分割画像の表示形態に用いられる四角錐の視点位置および視線方向が一定であった。しかし、タブレット端末101が端末の傾きを検知可能な場合、端末の傾きに従って四角錐の視点位置および視線方向を変更して奥行き分割画像を表示するようにしてもよい。
図10は、タブレット端末101の傾きと、奥行き分割画像の表示形態に用いられる四角錐の視点位置および視線方向との対応例を模式的に示している。例えばタブレット端末101が水平な場合(図10(a))は、四角錐を鉛直上方から俯瞰したように表示することで、奥行き分割画像間の距離を直感的に把握できる。一方、タブレット端末101を直立させた場合(図10(d))は、奥行き分割画像を正面から見たように表示することで、撮影画像1002と同様の表示となる。水平と垂直の間では(図10(b),(c))、タブレット端末101の角度に応じた角度で表示を行う。なお、ここでは理解および説明を容易にするため、1つの軸周りの角度に応じた表示の変化について説明したが、実際には2軸もしくは3軸周りの角度に応じた表示制御を行うことができる。
なお、上記の説明においては、距離画像42は、撮影画像41と同じ画素数を有し、画素値(輝度値)がその画素における被写体距離を表すとしたが、これに限るものでは無い。例えば、撮影画像を被写体毎に複数の領域に分割し、この被写体の領域ごとに被写体距離を与えるような形式でも良い。また画像データで距離を示す様にしなくても良い。例えば、撮影画像41の各画素に対して距離情報を与えるものであれば、数列やテーブルデータ等でもよい。
以上説明したように、本実施形態によれば、撮影画像の距離情報を利用して、撮影画像を被写体の距離範囲に応じて複数の画像に分割し、各画像をユーザが選択可能に提示する。そのため、特定の距離に存在する被写体を対象とした画像処理を提供することが容易になるという利点がある。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101…タブレット端末、102…制御部、102…デジタルカメラ、107…サーバ、109…ルータ、201…制御部、202…通信部、204…画像管理部、205…画像処理部、206…表示部、207…記憶装置、208…制御部、209…通信部。

Claims (13)

  1. 撮影画像と、被写体の距離情報とを取得する取得手段と、
    前記距離情報に基づいて、前記撮影画像から、各々が個別の被写体距離の範囲に対応する複数の画像を生成する生成手段と、
    前記複数の画像を選択可能に表示する表示制御手段と、
    前記複数の画像のうち、選択された画像を対象として画像処理を適用する画像処理手段と、
    を有することを特徴とする画像処理装置。
  2. 前記生成手段が、前記距離情報が表す被写体距離の分布に基づいて前記複数の画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記距離情報が、前記撮影画像の画素ごと、または前記撮影画像中の被写体の領域ごとの被写体距離を表す情報であり、
    前記生成手段は、
    前記被写体距離の分布頻度に基づいて、前記距離情報が表す被写体距離を複数の範囲に分割し、
    前記分割された被写体距離の範囲に含まれる画素から、前記複数の画像の各々を生成する、ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記生成手段が、前記被写体距離の分布の極小値に基づいて前記複数の画像を生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記生成手段が、前記被写体距離の分布を等分割して前記複数の画像を生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  6. 前記表示制御手段は、前記被写体距離の分布をさらに表示し、
    前記生成手段が、前記表示された前記被写体距離の分布で指定された位置に基づいて前記複数の画像を生成することを特徴とする請求項1または2に記載の画像処理装置。
  7. 前記表示制御手段は、前記撮影画像をさらに表示し、
    前記画像処理手段は、前記複数の画像のうち、前記表示された前記撮影画像において指定された位置の被写体に対応する画像を対象として前記画像処理を適用することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記撮影画像から、特定の被写体領域を認識する認識手段をさらに有し、
    前記画像処理手段は、前記認識手段が認識した被写体領域が選択されている場合には、該選択されている被写体領域を対象として前記画像処理を適用することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記表示制御手段は、前記複数の画像を、近い被写体距離の範囲に対応する画像から、遠い被写体距離の範囲に対応する画像の順に、大きくなるように表示することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記画像処理装置の傾きを検出する検出手段をさらに有し、
    前記表示制御手段は、前記検出手段が検出した傾きに応じて前記複数の画像の表示を制御することを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 撮像装置または情報処理装置であることを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 画像処理装置の取得手段が、撮影画像と、被写体の距離情報とを取得する取得工程と、
    前記画像処理装置の生成手段が、前記距離情報に基づいて、前記撮影画像から、各々が個別の被写体距離の範囲に対応する複数の画像を生成する生成工程と、
    前記画像処理装置の表示制御手段が、前記複数の画像を選択可能に表示する表示制御工程と、
    前記画像処理装置の画像処理手段が、前記複数の画像のうち、選択された画像を対象として画像処理を適用する画像処理工程と、
    を有することを特徴とする画像処理装置の制御方法。
  13. コンピュータを、請求項1から11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2015016084A 2015-01-29 2015-01-29 画像処理装置およびその制御方法 Expired - Fee Related JP6525611B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015016084A JP6525611B2 (ja) 2015-01-29 2015-01-29 画像処理装置およびその制御方法
US15/006,839 US10139218B2 (en) 2015-01-29 2016-01-26 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015016084A JP6525611B2 (ja) 2015-01-29 2015-01-29 画像処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2016143919A true JP2016143919A (ja) 2016-08-08
JP2016143919A5 JP2016143919A5 (ja) 2018-03-08
JP6525611B2 JP6525611B2 (ja) 2019-06-05

Family

ID=56553521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015016084A Expired - Fee Related JP6525611B2 (ja) 2015-01-29 2015-01-29 画像処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US10139218B2 (ja)
JP (1) JP6525611B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181560A1 (ja) * 2018-03-22 2019-09-26 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
EP4258638A1 (en) 2022-01-04 2023-10-11 Canon Kabushiki Kaisha Image processing device, image processing method, and storage medium

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
US11722764B2 (en) * 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011147109A (ja) * 2009-12-16 2011-07-28 Canon Inc 撮像装置及び画像処理装置
JP2012095186A (ja) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd 電子機器
JP2012124885A (ja) * 2010-11-16 2012-06-28 Panasonic Corp 表示装置及び表示方法
JP2012151724A (ja) * 2011-01-20 2012-08-09 Olympus Imaging Corp 合成画像作成装置、合成画像作成プログラム、および、撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
EP4336447A1 (en) * 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5178553B2 (ja) 2009-01-27 2013-04-10 オリンパス株式会社 撮像装置
US9306270B2 (en) * 2011-01-28 2016-04-05 Kathrein-Werke Kg Antenna array and method for operating antenna array
US9485518B2 (en) * 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US9207759B1 (en) * 2012-10-08 2015-12-08 Edge3 Technologies, Inc. Method and apparatus for generating depth map from monochrome microlens and imager arrays
JP6075110B2 (ja) * 2013-02-21 2017-02-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9251613B2 (en) * 2013-10-28 2016-02-02 Cyberlink Corp. Systems and methods for automatically applying effects based on media content characteristics
JP6525617B2 (ja) * 2015-02-03 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011147109A (ja) * 2009-12-16 2011-07-28 Canon Inc 撮像装置及び画像処理装置
JP2012095186A (ja) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd 電子機器
JP2012124885A (ja) * 2010-11-16 2012-06-28 Panasonic Corp 表示装置及び表示方法
JP2012151724A (ja) * 2011-01-20 2012-08-09 Olympus Imaging Corp 合成画像作成装置、合成画像作成プログラム、および、撮像装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181560A1 (ja) * 2018-03-22 2019-09-26 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
JP2019169769A (ja) * 2018-03-22 2019-10-03 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
JP7080688B2 (ja) 2018-03-22 2022-06-06 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
US11663710B2 (en) 2018-03-22 2023-05-30 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method, and recording medium
EP4258638A1 (en) 2022-01-04 2023-10-11 Canon Kabushiki Kaisha Image processing device, image processing method, and storage medium

Also Published As

Publication number Publication date
JP6525611B2 (ja) 2019-06-05
US10139218B2 (en) 2018-11-27
US20160227121A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
JP6525611B2 (ja) 画像処理装置およびその制御方法
JP6525617B2 (ja) 画像処理装置およびその制御方法
US10222903B2 (en) Display control apparatus and control method thereof
KR20150071660A (ko) 제어장치, 촬상 시스템, 제어방법, 및 기록 매체
CN111385470B (zh) 电子设备、电子设备的控制方法和计算机可读介质
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
US10958825B2 (en) Electronic apparatus and method for controlling the same
CN112584043B (zh) 辅助对焦方法、装置、电子设备及存储介质
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
US10120496B2 (en) Display control apparatus and control method thereof
WO2020139726A1 (en) Using change of scene to trigger automatic image capture
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP6128967B2 (ja) 表示制御装置及びその制御方法
JP5911300B2 (ja) 撮像装置及びその制御方法
JP6362090B2 (ja) ネットワークカメラのプリセット位置の表示方法
US11477367B2 (en) Information processing apparatus, image processing apparatus, and method of controlling the same
JP2017034719A (ja) 撮影制御装置および撮像制御装置の制御方法
JP2018036426A (ja) 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体
JP6851788B2 (ja) フォーカス制御装置、フォーカス制御装置の制御方法及びプログラム
JP6711599B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2021144121A (ja) 表示制御装置およびその制御方法、プログラム、並びに記憶媒体
KR20160014414A (ko) 카메라를 구비한 휴대용 디바이스 및 이의 제어방법
GB2617673A (en) Electronic device, method for controlling electronic device, and program
JP2021061531A (ja) 撮像制御装置及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees