JP2016136699A - 情報処理装置及びその制御方法、プログラム、並びに記憶媒体 - Google Patents

情報処理装置及びその制御方法、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP2016136699A
JP2016136699A JP2015011684A JP2015011684A JP2016136699A JP 2016136699 A JP2016136699 A JP 2016136699A JP 2015011684 A JP2015011684 A JP 2015011684A JP 2015011684 A JP2015011684 A JP 2015011684A JP 2016136699 A JP2016136699 A JP 2016136699A
Authority
JP
Japan
Prior art keywords
frame
moving image
setting
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015011684A
Other languages
English (en)
Other versions
JP2016136699A5 (ja
JP6529267B2 (ja
Inventor
竜太 庄司
Ryuta Shoji
竜太 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015011684A priority Critical patent/JP6529267B2/ja
Priority to US15/004,307 priority patent/US9727789B2/en
Priority to CN201610044682.5A priority patent/CN105825521B/zh
Publication of JP2016136699A publication Critical patent/JP2016136699A/ja
Publication of JP2016136699A5 publication Critical patent/JP2016136699A5/ja
Application granted granted Critical
Publication of JP6529267B2 publication Critical patent/JP6529267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影後に各フレームの合焦位置を任意に設定できる動画に対して、任意の時間でのフレームの合焦距離を容易に設定できる技術を実現する。【解決手段】情報処理装置は、各フレームが複数の光線空間情報を有する画像からなる動画を取得する取得手段と、前記動画の各フレームに対して合焦距離を設定する設定手段とを有し、前記設定手段は、前記動画のフレームごとに設定可能な合焦距離の範囲を表示する。【選択図】図2

Description

本発明は、撮影後に合焦位置が任意に設定できる画像を編集する技術に関する。
近年、ライトフィールドカメラと呼ばれる撮像装置が注目されている。このライトフィールドカメラには、撮像レンズの他に、マイクロレンズアレイが撮像素子の表面に配置され、撮像素子が受ける光の強度と共に、光の進行方向の光線空間情報(ライトフィールドデータ)が記録される。ライトフィールドカメラによって撮影された画像(ライトフィールド画像)は、そのライトフィールドデータに基づき任意の位置にフォーカスを合わせた画像を生成することができる。
特許文献1には、ライトフィールド画像をフレームとした動画(ライトフィールド動画)を生成すること、ユーザ操作によりライトフィールド動画の各フレームにおいて、フォーカスを合わせる位置(合焦距離)を決定することが記載されている。
特開2014−011574号公報
しかしながら、上記特許文献1では、ライトフィールド動画の各フレームに対する合焦距離の微調整が容易ではなく、また、動画の時間経過に対する合焦距離の変化を視覚的に確認することも困難であった。
本発明は、上記課題に鑑みてなされ、その目的は、撮影後に各フレームの合焦位置が任意に設定できる動画に対して、任意の時間でのフレームの合焦距離を容易に設定できる技術を実現することである。
上記課題を解決するために、本発明の情報処理装置は、各フレームが複数の光線空間情報を有する画像からなる動画を取得する取得手段と、前記動画の各フレームに対して合焦距離を設定する設定手段とを有し、前記設定手段は、前記動画のフレームごとに設定可能な合焦距離の範囲を表示する。
本発明によれば、撮影後に各フレームの合焦位置を任意に設定できる動画に対して、任意の時間でのフレームの合焦距離を容易に設定できる。
本実施形態の情報処理装置の構成を示すブロック図。 本実施形態の動画編集アプリケーションの概要を説明する図。 本実施形態の編集対象であるライトフィールド動画のファイル構成図。 実施形態1の動画編集アプリケーションの処理を示すフローチャート。 実施形態1のアプリケーション画面の設定エリアの表示例を示す図。 実施形態1の動画編集アプリケーションによる合焦距離設定処理を示すフローチャート。 実施形態1の合焦距離を設定するときの設定エリアの表示例を示す図。 実施形態1の合焦距離を設定するときの設定エリアの表示例を示す図。 実施形態2の動画編集アプリケーションによる合焦距離設定処理を示すフローチャート。 実施形態2のアプリケーション画面の設定エリアの表示例を示す図。 実施形態2のアプリケーション画面の設定エリアの表示例を示す図。
以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。
[実施形態1]以下、本発明の情報処理装置として、ライトフィールドカメラにより撮影された動画(ライトフィールド動画)を編集するパーソナルコンピュータ(以下、PC)に適用した実施形態について説明する。なお、本発明は、ライトフィールドカメラを搭載するスマートフォンタブレット端末などの電子機器にも適用可能である。
なお、ライトフィールド動画は、各フレームが複数の光線空間情報を有する多視点画像からなり、撮影後に各フレームの合焦位置を任意に設定できる。
本実施形態の動画編集アプリケーションによれば、上記ライトフィールド動画に対して、GUI(グラフィックユーザインタフェース)上で任意の時間でのフレームの合焦距離を簡単に設定することが可能となる。
<装置構成>先ず、図1を参照して、本実施形態の情報処理装置の構成について説明する。
図1に示すように、PC100は、CPU101、RAM102、VRAM103、ROM104、HDD105、メモリI/F106、入力I/F107、画像処理部108、表示制御部109、表示装置110、記録媒体111、操作部112、内部バス113を有する。なお、PC100はさらに、画像を撮像する撮像部や、外部装置と通信する通信部を有していても良い。通信部は、外部装置との間で制御信号や映像信号などを送受信する機能を有し、例えば、無線LAN、有線LAN、USB、Bluetooth(登録商標)など、通信方式を特に限定するものではない。ここで、外部装置は、PC100と通信が可能な機器であれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、リモコンなど、どのようなものであっても良い。
CPU101は、PC100の各動作ブロックを制御する。RAM102は、データの格納を行うメインメモリである。RAM102は、主に、CPU101が実行するプログラムを格納または展開する領域、プログラム実行中のワーク領域など、様々なデータの格納領域として使用される。
VRAM103は、表示装置110に表示するための画像データが描画される。VRAM103に生成された画像データは、表示制御部109に転送され、表示装置110に画像が表示される。なお、RAM102のデータ転送速度が十分高速であれば、VRAM103は、RAM102と同じであっても良い。
ROM104は、ブートプログラム、アプリケーションプログラム(本実施形態で説明する動画編集アプリケーションなど)、オペレーティングシステム(以下、OS)などの各種プログラムとデータを格納するために使用される。
ハードディスクドライブ(以下、HDD)105は、上記アプリケーションやOSなどの制御プログラムや動画(後述するライトフィール動画を含む)や静止画などのコンテンツデータを格納する大容量記憶装置である。
画像処理部108は、HDD105に格納されている画像データや表示装置110に表示されている画像に対してエンコード処理やデコード処理を行う。
表示制御部109は、VRAM103に格納された画像データを読み出し、表示装置110に表示するよう制御を行う。
表示装置110は、液晶パネルや有機ELパネルなどの表示部を有し、表示制御部109からの制御信号に基づき画像の表示を行う。また、表示装置110には、後述する動画編集アプリケーションに係る動画編集画面(図2参照)が表示される。
メモリI/F106は、メモリカード150や外付けハードディスク160などの記録媒体111に対するデータの読み出しや書き込み制御する。
記録媒体111は、PC100内で実行される各制御プログラムやコンテンツ、データを格納する。
入力I/F107は、マウス113やキーボード114、表示装置110上に設けられたタッチパネルなどの操作部112に対するユーザ操作を受け付け、CPU101に制御信号を送出する。CPU101は、操作部112から入力された制御信号を受け付けて、PC100の各動作ブロックを制御する。
PC100では、タッチパネルはLCDパネルと一体的に構成されており、表示装置110に対する接触を検知可能である。そして、タッチパネルにおける入力座標と、表示装置110上の表示座標とを対応付ける。これにより、あたかもユーザが表示装置110上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。
内部バス113は、上述した各動作ブロック間をデータ通信可能に接続し、各種データや制御情報などPC100の各動作ブロックに送出するための伝送路として機能する。
<動画編集アプリケーションの概要>次に、図2を参照して、本実施形態の動画編集アプリケーションについて説明する。
図2に示すように、PC100上で動画編集アプリケーションが起動されると、表示装置110にアプリケーション画面200が表示される。アプリケーション画面200は、HDD105や記録媒体111から読み込まれたライトフィールド動画や既存の圧縮符号化方式で生成された動画ファイルを一覧表示するファイル表示エリア210を含む。アイコン211は、複数の動画を、シーン単位や編集単位でまとめたグループごとに名称が付記されている。図2では、「scene_01」のグループは、4つの動画(AAAA、BBBB、CCCC、DDDDは動画名称)を含んでいる。ユーザは上記グループ別に、カット編集を実施する。プレビューエリア220には、ユーザによって選択された動画が再生表示される。図では、プレビューエリア220には、手前、中央、奥にそれぞれ人物221、222、223が存在し、背景に壁224が存在するライトフィールド動画が表示されている。コントロールボタン230は、プレビューエリア220に表示中の動画の再生の開始、(一時)停止、早送り、巻き戻しなどの操作を行うためのGUIである。タイムラインエリア240は、HDD105や記録媒体111から読み込まれた動画のフレームの再生順序や再生区間などの再生タイミング241を表示するためのGUIである。上記タイムライン240へ動画を追加するには、ファイル表示エリア210に表示中の動画アイコン211をタイムライン240にドラッグ&ドロップすることで可能である。また、タイムラインエリア240へのドラッグ操作により、タイムラインエリア240へ動画を追加した後の再生タイミングの変更が可能である。設定エリア250NIは、動画の各フレームに対する合焦距離を設定、表示するためのGUIが表示される。設定エリア250は、合焦位置(被写体)までの距離を縦軸、録画時間を横軸とする領域であり、タイムライン240に追加された動画の再生タイミングに対応づけて、動画の各フレームの合焦距離を設定し、表示することが可能である。なお、設定エリア250の縦軸には、タイムライン240に追加された動画中の被写体に対して合焦可能な最大距離(10m)251と最小距離(0.5m)252が表示される。図2では、合焦可能な距離として0.5mから10mまで合焦距離を設定することが可能である。設定エリア250における合焦距離の設定操作の詳細については後述する。バー260は、タイムラインエリア240において現在の再生位置を示す指標である。
<ファイル構成>次に、図3を参照いて、本実施形態の編集対象であるライトフィールド動画300のファイル構成について説明する。
図3において、ライトフィールド動画ファイル300は、ファイルに関する属性情報が記録されるヘッダ部310と、フレームに関する属性情報が記録されるヘッダ部320と、1フレーム分の画像データが記録される画像データ部340とを含む。ヘッダ部310には、動画ファイルの属性情報として、例えば、撮影日時情報、カメラ機種名、動画のファイルサイズ、動画の解像度、スタートタイムコード、エンドタイムコード、動画の継続時間、フレーム総数、フレームレート、その他の付加情報が記録される。ヘッダ部320には、1フレーム分(図3では1番目のフレーム1)に関する属性情報として、例えば、フレーム1に対するタイムコード、シャッタースピード、絞り値、ISO感度、撮影モード、フォーカス情報、その他の付加情報が記録される。フォーカス情報330は、リフォーカス可能フラグ、合焦可能範囲、フォーカス情報を含む。リフォーカス可能フラグとは、後述する画像データ部340に記録された1フレーム分のデータが、ライトフィールドデータであるか否かを示すフラグである。合焦可能範囲とは、各フレームに対する、合焦可能な距離の最大値と最小値である。これら最大値および最小値はライトフィールド動画を撮影したビデオカメラのレンズの構成によって決定される。フォーカス情報には、合焦距離が記録される。なお、合焦可能な距離は、ライトフィールド動画が撮影可能なライトフィールドカメラではない通常のビデオカメラのオートフォーカス機能によって取得された合焦距離で代替されても良いし、ユーザが任意に設定した合焦距離であっても良い。また、フォーカス情報には、複数の合焦距離や、例えば、1m〜2mのような合焦距離の範囲を記録するようにしても良い。さらに、フォーカス情報には、合焦距離以外の情報を記録するようにしても良い。例えば、フォーカス情報として画像データ上の座標のみを記録し、ヘッダ部の別の領域に、公知の方法で取得した深度マップを記録するようにしても良い。この場合、深度マップ上の座標を参照することで合焦距離が取得可能となる。画像データ部340には、1フレーム分のライトフィールドデータが記録され、図示のように、2番目のフレーム(フレーム2)以降についても1番目のフレーム(フレーム1)と同様にヘッダ部310、320と画像データ部340がそれぞれ記録される。
<動画編集処理>次に、図4から図8を参照して、本実施形態のPC100上で動作する動画編集アプリケーションによるライトフィールド動画の合焦距離設定処理について説明する。
図4は、図3のタイムライン240に追加されたライトフィールド動画に設定されたフォーカス情報を設定エリア250に表示するまでの動画編集アプリケーションの処理を示すフローチャートである。なお、本処理は、CPU101がROM104に格納されたプログラムをRAM102に展開して実行し、各部を制御することにより実現される。
ステップS401では、CPU101は、ファイル表示エリア210の動画がタイムライン240に追加されたか否かを判定する。判定の結果、追加された場合にはステップS402へ進み、追加されていない場合にはステップS401へ戻り、動画がタイムラインに追加されるのを待つ。以下では、HDD105や記録媒体111から読み込まれたライトフィールド動画が図3の動画編集アプリケーション画面200のタイムライン240に追加されたものとする。
ステップS402では、CPU101は、ステップS401で追加された動画の属性情報から、動画の継続時間やフレームレートなどの情報を取得し、現在のタイムライン240の設定に合わせて、タイムライン240上に動画の再生タイミングを描画する。
ステップS403では、CPU101は、動画の属性情報から、動画のフレーム総数Fmaxを取得する。
ステップS404では、CPU101は、フレーム数をカウントするための変数iに対し、i=1とする。
ステップS405では、CPU101は、動画の属性情報におけるフォーカス情報から、i番目のフレームの合焦距離を取得し、フレーム番号と合わせてRAM102に格納する。
ステップS406では、CPU101は、i番目のフレーム位置が、タイムライン240の現在の再生位置と一致しているか否かを判定する。判定の結果、一致している場合には、ステップS407へ進み、一致していない場合には、ステップS410へ進む。
ステップS407では、CPU101は、動画の属性情報におけるフォーカス情報から、i番目のフレームのリフォーカス可能フラグを参照し、i番目のフレームがライトフィールドデータか否かを判定する。判定の結果、i番目のフレームがライトフィールドデータである場合はステップS408へ進み、ライトフィールドデータでない場合はステップS409へ進む。
ステップS408では、CPU101は、i番目のフレームの画像データ部340に格納されているライトフィールドデータから、ステップS405で取得した合焦距離に合焦する画像を生成する。ライトフィールドデータから特定の距離に合焦する画像を生成する処理は様々な方法が存在するが、本発明の特徴ではないので詳細な説明は省略する。
ステップS409では、CPU101は、i番目のフレームにおける画像をプレビューエリア220に表示する。
ステップS410では、CPU101は、iを1インクリメントする。
ステップS411では、CPU101は、iがFmaxより大きいか否かを判定する。判定の結果、iがFmaxより大きい場合はステップS412へ進み、iがFmax以下の場合はステップS405へ進む。
ステップS412では、CPU101は、RAM102に格納したFmax個の合焦距離を、設定エリア250に描画して本処理を終了する。図5は、実際に動画のフレームの合焦距離を描画したときの設定エリア250の表示例である。ここでは、タイムライン240上に配置された動画の区間1、2、3に対応する各フレームは、それぞれ、図2の人物221、222、223に合焦して撮影したものとする。また、動画撮影時は、カメラおよび人物221、222、223はともに静止しているものとする。また、カメラのレンズ面から人物221、222、223までの距離をそれぞれL1m、L2m、L3mとする。区間1、2、3の各フレームの合焦距離はそれぞれ、L1m、L2m、L3mで固定であるため、設定エリア250では、区間1、2、3に対して、それぞれL1m、L2m、L3mの位置に時間軸に沿って線を描画する。図5における点線は説明を分かりやすくするための補助線であり、実際のアプリケーション画面200の設定エリア250には表示されない。
なお、ライトフィールド動画以外の既存の圧縮符号化方式で生成された動画ファイルにも、本実施形態のライトフィールド動画と同様に、所定の領域に動画フレーム総数や各フレームの合焦距離を格納しているため、本処理を適用可能である。
図6(a)、(b)は、図5の状態からユーザが合焦距離を設定するときの動画編集アプリケーションの処理を示している。
図6(a)において、ステップS601では、CPU101は、設定エリア250の各フレームの区間で、ユーザがクリック操作を行ったか否かを判定する。判定の結果、クリック操作を行った場合はステップS602へ進み、クリック操作を行わなかった場合には、ステップS601へ戻り、設定エリア250でのユーザのクリック操作を待つ。以下、図5における区間1上で、ユーザがクリック操作を行ったものとする。
ステップS602では、CPU101は、区間1の動画における、クリック操作を行った位置のフレーム番号Fおよび縦軸の値Lを取得する。縦軸の値Lは、F番目のフレームに対して設定される合焦距離となる。取得したフレーム番号と縦軸の値は関連付けられてRAM102に格納される。以下、設定エリア250においてユーザがクリック操作を行った位置を節点と呼び、節点位置にはドットを表示する。
ステップS603では、CPU101は、区間1において、ステップS602で設定した節点に対し、横軸方向で隣接する節点の位置をRAM102から取得する。次に、取得した2つの節点に対し、左側の節点おける動画のフレーム番号Faおよび当該フレームの合焦距離Laと、右側の節点における動画のフレーム番号Fbおよび当該フレームの合焦距離Lbをそれぞれ取得する。図7(a)は、設定エリア250において、ステップS601でユーザがクリック操作を行った場合の表示例である。図7(a)において、710はステップS602で設定された節点である。節点710は、区間1のフレーム番号F、合焦距離L=L2となる位置に存在している。図7(a)は、区間1において、ユーザが節点710のみを指定した状態を示している。この場合、節点710に隣接する節点は存在しないため、区間1の左端の点720、右端の点730を節点710に対する隣接する節点とする。図7(a)では、Fa=1、La=L1、Fb=Fmax、Lb=L1となる。なお、区間1の左端の位置でユーザがクリック操作を行った場合、設定した節点に対し左側に隣接する節点が存在しないため、設定した節点と左側に隣接する節点を同一のものとして扱う。すなわち、Fa=F、La=Lとする。区間1の右端の位置でユーザがクリック操作を行った場合も同様に、Fb=F、Lb=Lとする。既に節点が存在するフレーム位置でユーザがクリック操作を行った場合は、既存の節点を削除し、新たにクリック操作を行った位置に節点を表示する。
ステップS604では、CPU101は、区間1の各フレームに対する合焦距離を算出し、フレーム番号と合わせてRAM102に格納する。算出した合焦距離は、ライトフィールド動画の属性情報における各フレームのフォーカス情報の領域に格納するようにしても良い。この処理の詳細は後述する。
ステップS605では、CPU101は、RAM102に格納したFmax個の合焦距離を、設定エリア250に描画して本処理を終了する。
図6(b)は、図6(a)のステップS604における合焦距離算出処理を示している。
図6(b)において、ステップS611では、CPU101は、フレーム数をカウントするための変数iに対し、i=Faとする。
ステップS612では、CPU101は、区間1の動画の属性情報におけるフォーカス情報から、i番目のフレームの合焦距離Liを式1により算出する。
Li=(L−La)/(F−Fa)×(i−Fa)+La・・・(1)
取得した合焦距離は、フレーム番号と合わせてRAM102に格納する。
ステップS613では、CPU101は、i番目のフレーム位置が、タイムライン240の現在の再生位置と一致しているか否かを判定する。判定の結果、一致している場合には、ステップS614へ進み、一致していない場合には、ステップS616へ進む。
ステップS614では、CPU101は、i番目のフレームの画像データ部340に格納されているライトフィールドデータに対し、ステップS612で算出した合焦距離に合焦する画像を生成する。
ステップS615では、CPU101は、i番目のフレームにおける画像をプレビューエリア220に表示する。
ステップS616では、CPU101は、iを1インクリメントする。
ステップS617では、CPU101は、iがFより大きいか否かを判定する。判定の結果、iがFより大きい場合はステップS618へ進み、iがF以下の場合はステップS611へ進む。
ステップS618では、CPU101は、区間1の動画の属性情報におけるフォーカス情報から、i番目のフレームの合焦距離Liを式2により算出する。
Li=(Lb−L)/(Fb−F)×(i−F)+L・・・(2)
取得した合焦距離は、フレーム番号と合わせてRAM102に格納する。
ステップS619〜S622は、ステップS613〜S616と同様である。
ステップS623では、CPU101は、iがFbより大きいか否かを判定する。判定の結果、iがFbより大きい場合は本処理を終了し、iがFb以下の場合はステップS618へ進む。
図7(b)は、ステップS605の処理後の設定エリア250の表示例である。アプリケーション画面200で区間1を再生する場合、CPU101は、再生位置におけるフレームのライトフィールドデータに対し、RAM102から取得した当該フレームに対する合焦距離に合焦する画像を生成してプレビューエリア220に表示する。再生時に毎回画像を生成せず、再生前に各フレームに対する画像を生成しておき、画像データをRAM102やHDD105に格納するようにしても良い。図7(b)の区間1を再生すると、人物221、人物222、人物221の順にフォーカスが移動する動画がプレビュー220に表示される。
なお、設定エリア250において描画された線や節点は、ユーザによるドラッグ操作を受け付けるものとする。線がドラッグされた場合には、線の形状を保持したまま設定エリア250上を線が移動するように表示制御を行い、ドラッグ操作が停止したとき、各フレームの縦軸の値を当該フレームの合焦距離として取得する。また、節点がドラッグされた場合は、ドラッグ対象の節点に接続している線が移動する節点に追従するように表示制御を行い、ドラッグ操作が停止したとき、各フレームの縦軸の値を当該フレームの合焦距離として取得する。図8(a)は、設定エリア250に描画された区間1の線を横軸に対して垂直方向にドラッグした場合の表示例である。また、図8(b)は、設定エリア250に描画された節点710を横軸に対して垂直方向にドラッグした場合の表示例である。設定エリア250上の節点は、ユーザが操作しやすいよう、ある程度の大きさを持たせて表示するようにしても良い。
以上説明したように、本実施形態によれば、撮影後に各フレームの合焦位置を任意に設定できるライトフィールド動画に対して、任意の時間でのフレームの合焦距離を容易に設定することが可能となる。また、動画の時間経過に対する合焦位置の変化を視覚的に確認することが可能となる。
[実施形態2]次に、実施形態2の動画編集処理について説明する
実施形態1では、設定エリア250において、フレームごとに1点の合焦距離が設定可能であり、合焦位置の変化が1本の折れ線で描画されて、設定された合焦位置にフォーカスを合わせた画像が生成される構成であった。これに対して、本実施形態では、フレームごとに2点の合焦距離が設定でき、合焦距離に範囲を持たせることができるように構成している。
なお、実施形態1と同様の処理には同一の符号を付して説明は省略する。また、本実施形態のPCの構成、動画編集アプリケーションの概要、ライトフィールド動画のファイル構成はそれぞれ、実施形態1の図1、図2、図3と同様であるため説明を省略する。
図9は、本実施形態の動画編集アプリケーションの処理を示し、設定エリア250が図7(b)ように表示されているものとする。
図9において、ステップS901では、CPU101は、設定エリア250のフレームの区間で、ユーザがクリック操作を行ったか否かを判定する。判定の結果、クリック操作を行った場合はステップS902へ進み、クリック操作を行わなかった場合には、ステップS901へ戻り、設定エリア250でのユーザのクリック操作を待つ。以下、節点710と同一のフレーム位置かつ縦軸の値が異なる位置でユーザがクリック操作を行ったとする。
図10(a)は、設定エリア250において、フレーム番号F、縦軸の値L3の位置でユーザがクリック操作を行った場合の表示例である。実施形態1では、既に節点が存在するフレーム位置でユーザがクリック操作を行った場合は、既存の節点を削除し、新たにクリック操作があった位置に節点を表示していた。これに対して、本実施形態は、同一フレーム位置に対して2点まで節点を表示可能とする。既に節点が2点存在するフレーム位置でユーザがクリック操作を行った場合は、クリック操作があった位置に近い節点を削除し、クリック操作があった位置に節点を表示する。図10(a)は今回のユーザのクリック操作で新たに追加された節点1010を示している。
ステップS902では、CPU101は、区間1のフレームにおけるクリックされた位置のフレーム番号Fおよび縦軸の値Lを取得し、RAM102に格納する。
ステップS903では、CPU101は、区間1において、ステップS902で設定された節点に対し、横軸方向で隣接する節点の位置をRAM102から取得する。次に、取得した2つの節点に対し、左側の節点おける動画のフレーム番号Faと、右側の節点における動画のフレーム番号Fbをそれぞれ取得する。図10(a)の例では、Fa=1、Fb=Fmaxとなる。
ステップS904では、CPU101は、ステップS901でクリックされた位置と同一のフレーム位置に、他の節点が存在するか否かを判定する。判定の結果、存在する場合には、ステップS905へ進み、存在しない場合には、ステップS908へ進む。
ステップS905では、CPU101は、同一フレーム位置に存在する他の節点の合焦距離Loと縦軸の値Lを比較する。比較の結果、値Lが合焦距離Loよりも大きい場合には、ステップS906へ進み、値Lが合焦距離Lo以下である場合には、ステップS907へ進む。
ステップS906では、CPU101は、横軸方向で隣接する節点に関して、同一フレーム位置に複数の節点が存在する場合、より大きい方の合焦距離(以下、最大合焦距離)を有する節点における合焦距離を取得する。この処理の詳細は後述する。
ステップS907では、CPU101は、横軸方向で隣接する節点に関して、同一フレーム位置に複数の節点が存在する場合、より小さい方の合焦距離(以下、最小合焦距離)を有する節点における合焦距離を取得する。この処理の詳細は後述する。
ステップS908では、CPU101は、ステップ903で取得した2つの隣接する節点に対し、左側の節点おける合焦距離Laと、右側の節点における合焦距離Lbをそれぞれ取得する。
ステップS909では、CPU101は、ステップS906〜S0908で取得した、横軸方向で隣接する節点におけるフレーム番号、合焦距離を用いて、区間1の動画の各フレームに対する合焦距離を算出する。合焦距離算出処理は、実施形態1の図6(b)と同様である。
ステップS910では、CPU101は、RAM102に格納したFmax個の合焦距離を、設定エリア250に描画して本処理を終了する。
図9(b)は、図9(a)のステップS906における横軸方向で隣接する節点の最大合焦距離取得処理を示している。
図9(b)において、ステップS921では、CPU101は、左側に隣接する節点が複数存在するか否かを判定する。判定の結果、複数存在する場合には、ステップS922に進み、複数存在しない場合には、ステップS923に進む。
ステップS922では、CPU101は、左側に隣接する節点の最大合焦距離Lahを取得する。
ステップS923では、CPU101は、左側に隣接する節点の合焦距離Laを取得する。
ステップS924では、CPU101は、右側に隣接する節点が複数存在するか否かを判定する。判定の結果、複数存在する場合には、ステップS925に進み、複数存在しない場合には、ステップS926に進む。
ステップS925では、CPU101は、右側に隣接する節点の最大合焦距離Lbhを取得して本処理を終了する。
ステップS926では、CPU101は、右側に隣接する節点の合焦距離Lbを取得して本処理を終了する。
図9(c)は、図9(a)のステップS907における横軸方向で隣接する節点の最小合焦距離取得処理を示している。
図9(c)において、ステップS931では、CPU101は、左側に隣接する節点が複数存在するか否かを判定する。判定の結果、複数存在する場合には、ステップS932に進み、複数存在しない場合には、ステップS933に進む。
ステップS932では、CPU101は、左側に隣接する節点の最小合焦距離Lalowを取得する。
ステップS933では、CPU101は、左側に隣接する節点の合焦距離Laを取得する。
ステップS934では、CPU101は、右側に隣接する節点が複数存在するか否かを判定する。判定の結果、複数存在する場合には、ステップS935に進み、複数存在しない場合には、ステップS936に進む。
ステップS935では、CPU101は、右側に隣接する節点の最小合焦距離Lblを取得して本処理を終了する。
ステップS936では、CPU101は、右側に隣接する節点の合焦距離Lbを取得して本処理を終了する。
図10(b)は、ステップS910の処理後の設定エリア250の表示例である。図示のように、設定エリア250において、2本の折れ線で各フレームの合焦距離の範囲を表すことが可能である。図10(b)では、再生位置を示すバー260がフレーム番号Fの位置にきたときには、人物222から人物223の間に合焦する画像がプレビューエリア220に表示される。以下、2本の線のうち、最大合焦距離を有する節点を繋いだ線を最大合焦距離線と呼び、最小合焦距離を有する節点を繋いだ線を最小合焦距離線と呼ぶ。
図10(c)のように、設定エリア250において、既に最大合焦距離線、最小合焦距離線が描画されている状態で、1020の位置でユーザがクリック操作を行った場合にも図9の処理が適用可能である。この場合、ステップS902において、節点1020が追加された場合に、節点1020のフレーム位置F1で、最小合焦距離線上に節点1030を設定することで図9の処理が適用可能となる。
なお、実施形態1と同様に、設定エリア250において描画された最大合焦距離線、最小合焦距離線は互いに独立してユーザのドラッグ操作を受け付ける。また、節点のドラッグ操作に関しては、同じフレーム位置に複数の節点が存在する場合、常に両者のフレーム位置が一致するように表示制御を行う。例えば、図10(d)において、節点1040を1060の位置にドラッグする場合、節点1050は、最小合焦距離線の形状に沿って、節点1040の移動に追従する。
以上説明したように、本実施形態によれば、撮影後に各フレームの合焦位置を任意に設定できるライトフィールド動画において、任意の時間でのフレームに対して複数の合焦距離を容易に設定でき、合焦位置に範囲を持たせることが可能となる。また、動画の時間経過に対する合焦位置の範囲の変化を視覚的に確認することが可能となる。
なお、本実施形態では、設定エリア250において、折れ線を用いて合焦距離の範囲を表すようにしたが、折れ線以外にも、スプライン補間のような手段を用いて、合焦距離の範囲を曲線で表すようにしても良い。合焦距離の範囲の表示形態は、設定エリア250で合焦距離の範囲を視覚的に確認できる表示形態であればどのようなものでも良く、線による表示以外にも、合焦距離の範囲の色を変更したり、合焦距離の範囲に矢印などの所定の図形を識別可能に描画したりするようにしても良い。
また、アプリケーション画面200において、属性情報のフォーカス情報に合焦距離が格納されていないライトフィールド動画がタイムライン240に追加された場合には、プレビューエリア220に表示する画像を生成することができない。このような場合、初期表示として、各フレームのパンフォーカス画像を生成して表示するようにしても良い。その他に、例えば、予めアプリケーション画面200で設定された距離に合焦した画像や、動画中の主被写体に合焦した画像を表示するようにしても良い。
また、設定エリア250において、縦軸の最大値251および最小値252は、ライトフィールドデータが合焦可能な範囲内において変更可能としても良い。例えば、図2において、最大値251を10mから5mに、最小値252を0.5mから1mとすれば、設定エリア250の縦軸の単位長さ当たりの合焦距離が大きくなるため、ユーザは合焦範囲をより細かく設定することが可能になる。
また、ライトフィールド動画の属性情報にフレームごとの深度マップを格納しておき、プレビューエリア220で特定の被写体をクリック操作により指定した場合に、深度マップから当該被写体までの距離を取得し、設定エリア250に表示するようにしても良い。これにより、ユーザは合焦したい被写体までの合焦距離を設定エリア250で確認することが可能になる。
また、深度マップにおいて、最大の奥行き距離と設定エリア250の縦軸の最大値251を比較し、最大値251の方が大きい場合には、画面のどこにも合焦していない画像が生成されてしまう可能性がある。例えば、図2において、カメラのレンズ面から壁224までの距離を9mとすると、9mから最大合焦可能距離10mの範囲には合焦可能な被写体が存在しない。このため、設定エリア250において、9mから10mの範囲に合焦範囲を設定すると、画面のどこにも合焦していない画像が生成されてしまう。この場合は、深度マップにおける最大の奥行き距離と設定エリア250の縦軸の最大値251を比較し、縦軸の最大値251の方が大きくなるフレームに対しては、図11に示すようにユーザに注意を促すようにしても良い。図11の網掛け領域1110では合焦範囲を設定不可とすることで画面のどこにも合焦していない画像の生成を防止できる。
また、ライトフィールド動画の合焦距離が変更されたフレームの画像を生成する処理において、本実施形態の動画編集アプリケーションに対して、H.264などの既存の圧縮符号化方式を適用して異なる形式の動画ファイルを生成する機能を持たせても良い。このように生成された動画データは、合焦範囲の変更はできなくなるが、一般的な動画プレイヤーで閲覧することが可能となる。
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
100…PC、101…CPU、102…RAM、103…VRAM、104…ROM、105…HDD、106…メモリI/F、107…入力I/F、108…画像処理部、109…表示制御部、110…表示装置、111…記録媒体、112…操作部

Claims (13)

  1. 各フレームが複数の光線空間情報を有する画像からなる動画を取得する取得手段と、
    前記動画の各フレームに対して合焦距離を設定する設定手段とを有し、
    前記設定手段は、前記動画のフレームごとに設定可能な合焦距離の範囲を表示することを特徴とする情報処理装置。
  2. さらに、前記動画の各フレームの画像に対して前記設定手段により設定された合焦距離に変更した画像を生成する生成手段と、
    前記生成手段により生成された画像を表示部に表示する表示制御手段とを有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記設定手段は、前記動画の各フレームに対する合焦距離の範囲と時間軸とからなる設定エリアを表示し、
    前記設定エリアは、ユーザによる合焦距離の設定操作を受け付け可能であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記設定手段は、前記動画の各フレームに対して設定された合焦距離と、各フレームの画像が撮影されたときの合焦距離とを識別可能に前記設定エリアに表示することを特徴とする請求項3に記載の情報処理装置。
  5. 前記設定手段は、当該設定手段により設定可能な合焦距離の最大値および最小値を時間軸に沿って前記設定エリアに表示し、
    前記動画の各フレームの画像が撮影されたときの合焦距離をフレームごとに時間軸に沿って前記設定エリアに表示することを特徴とする請求項3または4に記載の情報処理装置。
  6. 前記設定手段は、前記動画の各フレームに対して少なくとも1点に合焦距離が設定可能であり、前記動画の各フレームの画像が撮影されたときの合焦距離と当該合焦距離に隣接する前記設定手段により設定された合焦距離とを繋いだ線を前記設定エリアに表示することを特徴とする請求項3ないし5のいずれか1項に記載の情報処理装置。
  7. 前記設定手段は、前記設定手段により設定可能な合焦距離の範囲内で前記最大値および前記最小値を変更可能であり、
    前記設定手段は、前記変更された合焦距離の最大値および最小値を前記設定エリアに表示することを特徴とする請求項5または6に記載の情報処理装置。
  8. 前記設定手段は、前記動画の各フレームに対して最大の奥行き距離と前記最大値とを比較し、前記最大値の方が大きい場合に合焦距離の設定を不可とする範囲を前記設定エリアに表示することを特徴とする請求項5ないし7のいずれか1項に記載の情報処理装置。
  9. 前記動画の各フレームの画像から被写体を指定する指定手段をさらに有し、
    前記設定手段は、前記動画の各フレームに対して前記指定手段により指定された被写体の合焦距離を前記設定エリアに表示することを特徴とする請求項3ないし8のいずれか1項に記載の情報処理装置。
  10. 前記生成手段は、前記設定手段により合焦距離が変更された画像から前記取得手段が取得した動画とは異なる形式の画像を生成することを特徴とする請求項2ないし9のいずれか1項に記載の情報処理装置。
  11. 取得手段が、各フレームが複数の光線空間情報を有する画像からなる動画を取得するステップと、
    設定手段が、前記動画の各フレームに対して合焦距離を設定するステップとを有し、
    前記設定するステップでは、前記動画のフレームごとに設定可能な合焦距離の範囲を表示することを特徴とする情報処理装置の制御方法。
  12. コンピュータを、請求項1ないし10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  13. コンピュータを、請求項1ないし10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。
JP2015011684A 2015-01-23 2015-01-23 情報処理装置及びその制御方法、プログラム、並びに記憶媒体 Active JP6529267B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015011684A JP6529267B2 (ja) 2015-01-23 2015-01-23 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
US15/004,307 US9727789B2 (en) 2015-01-23 2016-01-22 Information processing apparatus and control method thereof
CN201610044682.5A CN105825521B (zh) 2015-01-23 2016-01-22 信息处理设备及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015011684A JP6529267B2 (ja) 2015-01-23 2015-01-23 情報処理装置及びその制御方法、プログラム、並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2016136699A true JP2016136699A (ja) 2016-07-28
JP2016136699A5 JP2016136699A5 (ja) 2018-02-22
JP6529267B2 JP6529267B2 (ja) 2019-06-12

Family

ID=56434339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015011684A Active JP6529267B2 (ja) 2015-01-23 2015-01-23 情報処理装置及びその制御方法、プログラム、並びに記憶媒体

Country Status (3)

Country Link
US (1) US9727789B2 (ja)
JP (1) JP6529267B2 (ja)
CN (1) CN105825521B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017184144A (ja) * 2016-03-31 2017-10-05 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
JP2018107569A (ja) * 2016-12-26 2018-07-05 株式会社ニコン 再生装置および再生プログラム
JP2021083096A (ja) * 2021-01-20 2021-05-27 株式会社ニコン 電子機器およびプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
JP6844139B2 (ja) * 2016-07-13 2021-03-17 株式会社リコー 撮像装置、システム
CN108600623B (zh) * 2018-04-20 2020-07-28 维沃移动通信有限公司 重聚焦显示方法以及终端设备
CN112154658A (zh) 2018-05-29 2020-12-29 索尼公司 图像处理装置、图像处理方法和程序
JP7214538B2 (ja) * 2019-03-29 2023-01-30 キヤノン株式会社 撮像装置及び記録制御方法
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013110556A (ja) * 2011-11-21 2013-06-06 Olympus Corp プレノプティックカメラ
WO2014129127A1 (ja) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 画像処理装置、画像処理方法、及び非一時的なコンピュータ可読媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101510098B1 (ko) * 2007-12-21 2015-04-08 삼성전자주식회사 디지털 영상 처리 장치에서 영상의 배경흐림 효과 처리장치 및 방법
US8279325B2 (en) * 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
GB0907870D0 (en) * 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
JP2012004739A (ja) * 2010-06-15 2012-01-05 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP6080417B2 (ja) * 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
JP5898501B2 (ja) * 2012-01-13 2016-04-06 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び記録媒体
JP5854984B2 (ja) * 2012-02-20 2016-02-09 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
JP5370542B1 (ja) 2012-06-28 2013-12-18 カシオ計算機株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6012342B2 (ja) * 2012-09-03 2016-10-25 キヤノン株式会社 再生装置、再生装置の制御方法
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013110556A (ja) * 2011-11-21 2013-06-06 Olympus Corp プレノプティックカメラ
WO2014129127A1 (ja) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 画像処理装置、画像処理方法、及び非一時的なコンピュータ可読媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017184144A (ja) * 2016-03-31 2017-10-05 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
JP2018107569A (ja) * 2016-12-26 2018-07-05 株式会社ニコン 再生装置および再生プログラム
JP2021083096A (ja) * 2021-01-20 2021-05-27 株式会社ニコン 電子機器およびプログラム
JP7384261B2 (ja) 2021-01-20 2023-11-21 株式会社ニコン 電子機器およびプログラム

Also Published As

Publication number Publication date
US20160219212A1 (en) 2016-07-28
CN105825521B (zh) 2019-11-05
US9727789B2 (en) 2017-08-08
CN105825521A (zh) 2016-08-03
JP6529267B2 (ja) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6529267B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
KR101376455B1 (ko) 화상 처리 장치 및 화상 표시 방법
US9430500B2 (en) Method and device for operating image in electronic device
JP2017538320A (ja) 複数視点のコンテンツ取込みおよび合成
JP6176991B2 (ja) 情報処理装置およびその制御方法およびプログラム
US10115431B2 (en) Image processing device and image processing method
US20200349355A1 (en) Method for determining representative image of video, and electronic apparatus for processing the method
US10860166B2 (en) Electronic apparatus and image processing method for generating a depth adjusted image file
JP6230386B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2016116133A (ja) 撮像制御装置、その制御方法、プログラム、及び記憶媒体
CN107295247B (zh) 图像记录装置及其控制方法
JP5792983B2 (ja) 表示制御装置および表示制御方法
JP6632360B2 (ja) 情報処理装置
JP6572107B2 (ja) 画像処理装置及び画像処理方法
JP2011009958A (ja) ネットワーク制御装置、画像処理装置及びプログラム
JP6566804B2 (ja) 電子機器、方法及びプログラム並びに記憶媒体
JP2017084161A (ja) 画像処理装置、表示装置及びその制御方法
JP2017092913A (ja) 画像再生装置およびその制御方法ならびにプログラムならびに記録媒体
JP6104047B2 (ja) 表示制御装置、画像表示システムおよび制御方法
US9251764B2 (en) Information processing device and information processing method for processing and displaying multi-picture format images
JP6150538B2 (ja) 動画記録装置及びその制御方法
JP2014086805A (ja) 撮像装置、撮像装置の制御方法、プログラム
JP2011254232A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016021675A (ja) 表示装置
JP2018018443A (ja) 画像処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190514

R151 Written notification of patent or utility model registration

Ref document number: 6529267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151