JP2019003005A - フォーカスアシスト装置及びそのプログラム - Google Patents

フォーカスアシスト装置及びそのプログラム Download PDF

Info

Publication number
JP2019003005A
JP2019003005A JP2017116913A JP2017116913A JP2019003005A JP 2019003005 A JP2019003005 A JP 2019003005A JP 2017116913 A JP2017116913 A JP 2017116913A JP 2017116913 A JP2017116913 A JP 2017116913A JP 2019003005 A JP2019003005 A JP 2019003005A
Authority
JP
Japan
Prior art keywords
subject
focus
distance
range
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017116913A
Other languages
English (en)
Other versions
JP6924622B2 (ja
Inventor
雄一郎 浅見
Yuichiro Asami
雄一郎 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017116913A priority Critical patent/JP6924622B2/ja
Publication of JP2019003005A publication Critical patent/JP2019003005A/ja
Application granted granted Critical
Publication of JP6924622B2 publication Critical patent/JP6924622B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Viewfinders (AREA)
  • Lens Barrels (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Accessories Of Cameras (AREA)

Abstract

【課題】簡易な操作で正確なフォーカスを実現できるフォーカスアシスト装置を提供する。【解決手段】RAF4は、フォーカスデマンド2で操作可能なフォーカス範囲を被写体毎に割り当てる被写体距離離散化手段43と、フォーカス操作値が含まれているフォーカス範囲に対応した被写体をデマンド被写体として選択するデマンド被写体選択手段44と、フォーカス現在値が含まれているフォーカス範囲に対応した被写体を合焦被写体として選択する合焦被写体選択手段45と、カメラ1が撮影した映像を縮小し、少なくともデマンド被写体を強調表示したビューファインダ用映像を生成するビューファインダ用映像生成手段46と、SNAPスイッチ押下通知が入力された場合、カメラ1に対して、デマンド被写体へのフォーカスを指令するフォーカス指令手段47と、を備える。【選択図】図5

Description

本発明は、フォーカスアシスト装置及びそのプログラムに関する。
従来、映画やテレビ番組などの商業映像の撮影では、撮影対象にフォーカスを合わせる操作を、基本的にマニュアルフォーカスで行っている。このマニュアルフォーカスでは、カメラマンがレンズのフォーカスリングを直接回転させるか、又は、フォーカスデマンド(アナログつまみ)などのインターフェイスを介して、フォーカスリングの回転角をアナログ値として入力している。このとき、カメラマンが頼りにしているのはファインダに表示される映像であり、この映像のエッジ部分を強調するピーキング処理などを行って、カメラマンが確認し易いように調整していた。
また、映画撮影などの現場では、フォーカスを専門に担当するスタッフが被写体までの距離を目視で測定し、カメラマンと2人でカメラをオペレーションする方式も行われている。このスタッフには経験を重ねた職人的な能力が必要とされる上、予算的にもすべての撮影現場でこの方式を採用することは難しい。
従って、カメラマンがフォーカスも担当するワンマンオペレーションにより、4Kや8Kの超高精細映像を撮影することが多い。この場合、2〜3インチ程度のビューファインダで正確にフォーカスしているか否かを確認することは、ファインダや肉眼の解像度の問題もあり、非常に困難になってきている。そして、ビューファインダ上で判断できないフォーカスのずれが、大画面で高精細映像を視聴したときの品質を大きく低下させてしまう。
そこで、カメラマンのフォーカス操作をアシスト(支援)すべく、様々な手法が提案されている(例えば、特許文献1)。この特許文献1に記載の発明では、ポインティングデバイスで高精細映像の拡大領域を指定し、その領域をビューファインダに拡大表示することで、カメラマンが高精細映像の細部までも確認することができる。
特開2016−100883号公報
しかし、特許文献1に記載の発明では、ポインティングデバイスによる領域の指定などカメラマンの操作が複雑化してしまう上、カメラマンが操作の習熟に時間を要すると言う問題がある。
そこで、本発明は、簡易な操作で正確なフォーカスを実現できるフォーカスアシスト装置及びそのプログラム提供することを課題とする。
前記した課題に鑑みて、本発明に係るフォーカスアシスト装置は、ビューファインダを備え、かつ、フォーカス操作装置でフォーカスを操作するカメラ用のフォーカスアシスト装置であって、フォーカス範囲割当手段と、第1被写体選択手段と、第2被写体選択手段と、フォーカス指令手段と、ビューファインダ用映像生成手段と、を備える構成とした。
かかるフォーカスアシスト装置によれば、フォーカス範囲割当手段によって、距離情報が入力され、入力された前記距離情報により定まる被写体毎の距離に基づいて、前記フォーカス操作装置で操作可能な前記カメラのフォーカス範囲を前記被写体毎に割り当てる。
つまり、フォーカス範囲割当手段は、被写体までの距離の集合(距離情報)を取得し、被写体を距離順に並べてカメラのフォーカス範囲を被写体毎に離散化する。
また、フォーカスアシスト装置は、第1被写体選択手段によって、前記フォーカス操作装置からフォーカス操作値が入力され、前記フォーカス範囲割当手段が割り当てた被写体毎のフォーカス範囲において、入力された前記フォーカス操作値が含まれているフォーカス範囲の被写体を第1被写体として選択する。
このように、フォーカスアシスト装置は、使い慣れたフォーカス操作装置を介して、カメラマンがフォーカスしたい被写体(デマンド被写体)を選択するだけでよい。
このフォーカス操作装置としては、例えば、アナログつまみを備えた従来のフォーカスデマンドをあげることができる。従って、フォーカス操作装置は、従来と操作性が変わらず、カメラマンが使い慣れている。
また、フォーカスアシスト装置は、第2被写体選択手段によって、前記カメラからフォーカス現在値が入力され、前記フォーカス範囲割当手段が割り当てた被写体毎のフォーカス範囲において、入力された前記フォーカス現在値が含まれているフォーカス範囲の被写体を第2被写体として選択する。
また、フォーカスアシスト装置は、フォーカス指令手段によって、前記フォーカス操作装置からフォーカス確定信号が入力された場合、前記カメラに対して、前記フォーカス確定信号が入力されたときに選択されている前記第1被写体へのフォーカスを指令する。
また、フォーカスアシスト装置は、ビューファインダ用映像生成手段によって、前記カメラが撮影した映像を縮小し、少なくとも前記第1被写体を強調表示したビューファインダ用映像を生成する。
本発明によれば、以下のような優れた効果を奏する。
本発明に係るフォーカスアシスト装置は、使い慣れたフォーカス操作装置を介して、カメラマンがフォーカスしたい被写体を選択するだけで、その被写体にカメラをフォーカスさせることができる。このように、本発明に係るフォーカスアシスト装置は、簡易な操作で正確なフォーカスを実現することができる。
本発明の実施形態に係るフォーカスアシストシステムの概略図である。 本実施形態において、被写体を説明する説明図である。 図2において、カメラから被写体までの距離を説明する説明図である。 従来技術において、フォーカスデマンドのフォーカス操作値と、カメラの撮影距離との関係を示すグラフである。 図1のフォーカスアシストシステムの構成を示すブロック図である。 本実施形態において、被写体領域の抽出を説明する説明図である。 本実施形態において、距離情報の生成を説明する説明図である。 本実施形態において、フォーカス範囲の離散化を説明する説明図である。 本実施形態において、デマンド被写体及び合焦被写体を説明する説明図である。 本実施形態において、デマンド被写体及び合焦被写体が強調表示されたビューファインダ用映像を説明する説明図である。 本実施形態において、デマンド被写体を説明する説明図である。 本実施形態において、デマンド被写体が強調表示されたビューファインダ用映像を説明する説明図である。 本実施形態において、DETAILシフトを説明する説明図である。 本実施形態において、被写体が拡大表示されたビューファインダ用映像を説明する説明図である。 図5のレンジアシストフォーカスコントローラの動作を示すフローチャートである。
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、実施形態において、同一の手段には同一の符号を付し、説明を省略した。
[フォーカスアシストシステムの概略]
図1を参照し、フォーカスアシストシステム100の概略について説明する。
フォーカスアシストシステム100は、カメラマンのフォーカス操作をアシスト(支援)するものである。このフォーカス操作とは、レンズ15が合焦する位置を操作することであり、本実施形態では、フォーカスデマンド2のアナログつまみ2Aを回転させて距離を入力することである。
図1に示すように、フォーカスアシストシステム100は、カメラ1と、フォーカスデマンド(フォーカス操作装置)2と、測距センサ3と、レンジアシストフォーカスコントローラ(フォーカスアシスト装置)4とを備える。
カメラ1は、一般的な撮影カメラである。本実施形態では、カメラ1は、4Kや8Kなどの超高精細映像を撮影するカメラであることとする。本実施形態では、カメラ1が超高精細映像を撮影しているが、2K以下の低解像度映像を撮影するカメラについても適用可能である。
フォーカスデマンド2は、カメラマンがカメラ1のフォーカスを操作する一般的なものである。このフォーカスデマンド2は、フォーカスノブと呼ばれることもある。なお、図1では、カメラ1及びフォーカスデマンド2を別々に図示したが、カメラ1にフォーカスデマンド2を取り付けてもよい。
測距センサ3は、被写体までの距離を測定する一般的なセンサである。本実施形態では、測距センサ3は、カメラ1と同軸方向で、カメラ1のレンズフード上面に固定されている。
レンジアシストフォーカスコントローラ(RAF:Range Assisted Focus controller)4は、カメラマンのフォーカス操作をアシスト(支援)するものである。以後、レンジアシストフォーカスコントローラをRAFと略記する。本実施形態では、RAF4は、ケーブルを介して、カメラ1及び測距センサ3と接続する。また、RAF4は、Bluetooth(登録商標)等の無線通信を用いて、フォーカスデマンド2と接続する。
例えば、本実施形態では、図2に示すように、7つの被写体T(T〜T)を撮影することとする。この図2では、被写体Tが犬、被写体T,T,Tが女性、被写体T,Tが男性、被写体Tが樹木である。図3に示すように、被写体T〜Tが距離順に並んでいる。つまり、カメラ1から見て、被写体Tが最前方に位置し、被写体T〜Tの順で並び、被写体Tが最後方に位置する。
従来手法での場合、図4に示すように、フォーカスデマンド2のフォーカス操作値(横軸、Input)、及び、カメラ1の撮影距離(縦軸、Output)が線形の関係になっている。このため、カメラマンは、フォーカスデマンド2を操作し、被写体に正確にフォーカスを合わせる必要がある。しかし、超高精細映像より解像度が大幅に低いビューファインダを目視するだけでは、正確なフォーカス操作が困難である。そこで、RAF4は、フォーカスデマンド2で操作可能なカメラ1のフォーカス範囲を被写体毎に離散化し(図8)、フォーカスデマンド2のフォーカス操作値に最も近い被写体へのフォーカスをカメラ1に指令することとした。
なお、カメラ1から被写体T〜Tまでの距離(被写体距離)をd〜dとする。また、図4の縦軸及び横軸には、最短撮影距離(MOD)、最長撮影距離(FAR)、及び、被写体距離d〜dを図示した。この撮影距離とは、各被写体Tからカメラ1の結像面までの距離のことである。
[フォーカスアシストシステムの構成]
<カメラ>
図5を参照し、フォーカスアシストシステム100の構成について説明する(適宜図1参照)。
カメラ1は、カメラ本体11と、ビューファインダ13と、レンズ15とを備える。
カメラ本体11は、図示を省略した撮像素子を備え、撮影した超高精細映像を記録すると共に、この超高精細映像(図5では映像と略記)をビューファインダ用映像生成手段46に出力する。
ビューファインダ13は、ビューファインダ用映像生成手段46から入力されたビューファインダ用映像(図5ではVF用映像と略記)を表示する。
レンズ15は、一般的なズームレンズであり、フォーカス指令手段47から指令された撮影距離(フォーカス指令値)に応じて、フォーカスリングを駆動し、撮影距離を制御できる。また、レンズ15は、図示を省略したエンコーダにより現在の撮影距離(フォーカス現在値)を合焦被写体選択手段45に出力する。さらに、レンズ15は、焦点距離値(画角情報)をビューファインダ用映像生成手段46に出力する。
<フォーカスデマンド>
フォーカスデマンド2は、アナログつまみ2A(図1)と、SNAPスイッチ20Aと、DETAILスイッチ20Bと、MAGスイッチ20Cと、フォーカス操作値出力手段21と、SNAPスイッチ判定手段23と、DETAILスイッチ判定手段25と、MAGスイッチ判定手段27と備える。
なお、図5では、スイッチをSWと略記した。
ここで、フォーカスデマンド2は、図1に示すように、アナログつまみ2Aを回転させることでカメラ1のフォーカスを操作できる。また、フォーカスデマンド2には、カメラマンが押下できるように、SNAPスイッチ20A、DETAILスイッチ20B及びMAGスイッチ20Cが外周部に設けられている。
SNAPスイッチ20Aは、カメラマンが、後記するデマンド被写体へのフォーカスを指令するときに押下するスイッチである。
DETAILスイッチ20Bは、カメラマンが、後記するDETAILシフトを指令するときに押下するスイッチである。
MAGスイッチ20Cは、カメラマンが、後記する被写体の拡大表示を指令するときに押下するスイッチである。
フォーカス操作値出力手段21は、アナログつまみ2Aの回転操作に応じたフォーカス値(フォーカス操作値)をデマンド被写体選択手段44に出力するものである。
SNAPスイッチ判定手段23は、SNAPスイッチ20Aが押下されたか否かを判定し、SNAPスイッチ20Aが押下された場合、SNAPスイッチ押下通知(フォーカス確定信号)をフォーカス指令手段47に出力するものである。
DETAILスイッチ判定手段25は、DETAILスイッチ20Bが押下されたか否かを判定し、DETAILスイッチ20Bが押下された場合、DETAILスイッチ押下通知を被写体領域抽出手段41及び被写体距離算出手段42に出力するものである。
MAGスイッチ判定手段27は、MAGスイッチ20Cが押下されたか否かを判定し、MAGスイッチ20Cが押下された場合、MAGスイッチ押下通知をビューファインダ用映像生成手段46に出力するものである。
<測距センサ>
測距センサ3は、TOF(Time Of Fly)方式で距離を測定する赤外線センサなど、カメラ1の撮影方向に分布する被写体の距離情報を測定するものである。具体的には、測距センサ3は、近赤外線LEDを高速点滅させて、その近赤外線が被写体から反射されてくるまでの時間を位相差として、センサ計測平面の各画素で2次元的に測定する。そして、測距センサ3は、画素毎の距離を表した測距データ(レンズ垂直面分布測距データ)を、被写体領域抽出手段41及び被写体距離算出手段42に出力する。
<RAF>
RAF4は、被写体領域抽出手段41と、被写体距離算出手段42と、被写体距離離散化手段(フォーカス範囲割当手段)43と、デマンド被写体選択手段(第1被写体選択手段)44と、合焦被写体選択手段(第2被写体選択手段)45と、ビューファインダ用映像生成手段46と、フォーカス指令手段47とを備える。
被写体領域抽出手段41は、測距センサ3から入力された測距データを参照し、公知の被写体領域抽出手法により、この測距データから被写体領域を抽出するものである。本実施形態では、被写体領域抽出手段41は、図6に示すように、被写体T〜Tそれぞれの領域を抽出する。例えば、被写体領域抽出手段41は、距離が一定範囲内になる画素領域を、同一の被写体を構成する被写体領域として抽出する。
その後、被写体領域抽出手段41は、抽出した被写体領域を被写体距離算出手段42及びビューファインダ用映像生成手段46に出力する。
被写体距離算出手段42は、測距センサ3から入力された測距データを参照し、公知の被写体距離算出手法により、被写体領域抽出手段41から入力された被写体領域毎に距離を算出するものである。本実施形態では、被写体距離算出手段42は、図7に示すように、被写体T〜Tまでの距離d〜dを算出する。例えば、被写体領域抽出手段41は、測距データから被写体領域に含まれる画素を取得し、各画素が示す距離の平均値又は中央値を、被写体までの距離として算出する。また、被写体領域抽出手段41は、被写体領域の重心位置にある画素を求め、その画素が示す距離を被写体までの距離としてもよい。
その後、被写体距離算出手段42は、被写体毎の距離を表す距離情報を生成し、生成した距離情報を被写体距離離散化手段43に出力する。
被写体距離離散化手段43は、被写体距離算出手段42から距離情報が入力され、入力された距離情報により定まる被写体毎の間隔に基づいて、カメラ1のフォーカス範囲を被写体毎に割り当てるものである。
その後、被写体距離離散化手段43は、フォーカス範囲の割り当て結果をデマンド被写体選択手段44及び合焦被写体選択手段45に出力する。
<フォーカス範囲の離散化>
図8を参照し、フォーカス範囲の離散化について、詳細に説明する(適宜図4参照)。
図8では、図4と同様、横軸がフォーカスデマンド2のフォーカス操作値、縦軸がカメラ1の撮影距離を表している。また、図8では、図4におけるフォーカスデマンド2のフォーカス操作値とカメラ1の撮影距離との線形な関係を太破線で図示した。
具体的には、被写体距離離散化手段43は、フォーカス範囲の割り当て対象となる注目被写体と注目被写体の前に位置する前方被写体との中間距離から、注目被写体と当該注目被写体の後に位置する後方被写体との中間距離まで範囲を、注目被写体のフォーカス範囲として割り当てる。
例えば、注目被写体が被写体Tの場合を考える。この場合、被写体距離離散化手段43は、被写体Tと、この被写体Tの1つ前に位置する被写体Tとの中間距離d1−2を算出する。つまり、中間距離d1−2は、被写体距離d,dの平均値となる。また、被写体距離離散化手段43は、被写体Tと、この被写体Tの1つ後に位置する被写体Tとの中間距離d2−3を算出する。そして、被写体距離離散化手段43は、カメラ1でMODからFARまでの全フォーカス範囲のうち、中間距離d1−2から中間距離d2−3までの範囲を、被写体Tのフォーカス範囲Rとして割り当てる。
被写体Tと同様、被写体距離離散化手段43は、カメラ1の全フォーカス範囲のうち、中間距離d2−3から中間距離d3−4までの範囲を、被写体Tのフォーカス範囲Rとして割り当てる。さらに、被写体距離離散化手段43は、被写体T〜Tのフォーカス範囲R〜Rも同様に割り当てる。
このように、被写体Tのフォーカス範囲Rは、被写体Tまでの距離をdとすると、以下の式(1)で表される。ここで、添え字iは、各被写体Tの番号を表す(本実施形態において説明している例では、2≦i≦6)。すなわち、任意の撮影距離を指定したとき、その撮影距離が属するフォーカス範囲Rに対応する被写体Tが、その撮影距離に最近傍の被写体ということになる。
−(d−di-1)/2<R<d+(di+1−d)/2 …式(1)
ここで、被写体距離離散化手段43は、被写体Tの前に別の被写体が位置しないので、MODから中間距離d1−2までの範囲を、最前方の被写体Tのフォーカス範囲Rとして割り当ててもよい。
また、被写体距離離散化手段43は、被写体Tの後に別の被写体が位置しないので、中間距離d6−7からFARまでの範囲を、最後方の被写体Tのフォーカス範囲Rとして割り当ててもよい。
このように、被写体距離離散化手段43は、被写体T〜Tを距離順に並べ、カメラ1の全フォーカス範囲を被写体T〜Tに離散化する。つまり、図8において、カメラ1の全フォーカス範囲が、被写体T〜Tそれぞれのフォーカス範囲R〜Rとして割り当てられる。例えば、フォーカスデマンド2から入力されたフォーカス操作値(図8横軸)がフォーカス範囲Rに含まれる場合、カメラ1に出力する撮影距離(図8縦軸)がdになる。また、フォーカスデマンド2から入力されたフォーカス操作値がフォーカス範囲Rに含まれる場合、カメラ1に出力する撮影距離がdになる。
図5に戻り、RAF4の構成について、説明を続ける。
デマンド被写体選択手段44は、フォーカス操作値出力手段21からフォーカス操作値が入力され、被写体距離離散化手段43が割り当てた被写体毎のフォーカス範囲において、入力されたフォーカス操作値が含まれているフォーカス範囲の被写体をデマンド被写体(第1被写体)として選択するものである。そして、デマンド被写体選択手段44は、選択したデマンド被写体をビューファインダ用映像生成手段46に出力する。さらに、デマンド被写体選択手段44は、選択したデマンド被写体に対応する撮影距離をフォーカス指令手段47に出力する。
なお、デマンド被写体選択手段44の詳細は、後記する。
合焦被写体選択手段45は、レンズ15からフォーカス現在値が入力され、被写体距離離散化手段43が割り当てた被写体毎のフォーカス範囲において、入力されたフォーカス現在値が含まれているフォーカス範囲の被写体を合焦被写体(第2被写体)として選択するものである。そして、合焦被写体選択手段45は、選択した合焦被写体をビューファインダ用映像生成手段46に出力する。
なお、合焦被写体選択手段45の詳細は、後記する。
ビューファインダ用映像生成手段46は、カメラ本体11から入力された超高精細映像を縮小し、少なくともデマンド被写体を強調表示したビューファインダ用映像を生成するものである。例えば、ビューファインダ用映像生成手段46は、超高精細映像を2K等のサイズにダウンコンバート(低解像度化)する。そして、ビューファインダ用映像生成手段46は、生成したビューファインダ用映像をビューファインダ13に出力する。
なお、ビューファインダ用映像生成手段46の詳細は、後記する。
フォーカス指令手段47は、SNAPスイッチ判定手段23からSNAPスイッチ押下通知が入力された場合、カメラ1に対して、SNAPスイッチ押下通知が入力されたときに選択されているデマンド被写体へのフォーカスを指令するものである。具体的には、フォーカス指令手段47は、SNAPスイッチ押下通知が入力されたとき、デマンド被写体選択手段44から入力されたデマンド被写体に対応する撮影距離を、フォーカス指令値としてレンズ15に出力する。
以下、デマンド被写体及び合焦被写体の強調表示、デマンド被写体へのフォーカス指令、DETAILシフト、被写体の拡大表示を順に説明する。
ここで、DETAILシフトとは、例えば、被写体が犬の場合、その犬の鼻、目、耳、首、胸、前脚、後脚などの部位毎にフォーカス範囲を割り当てることである。
<デマンド被写体及び合焦被写体の強調表示>
図9,図10を参照し、デマンド被写体及び合焦被写体の強調表示を具体的に説明する(適宜図5参照)。
ここで、図9に示すように、カメラ1が最後方の被写体T付近にフォーカスしており、カメラマンがフォーカスデマンド2を最前方の被写体T付近に操作したこととする。また、被写体距離離散化手段43が、カメラ1の全フォーカス範囲を被写体T〜Tに離散化していることとする。
なお、図9では、被写体Tをハッチングで図示し、被写体Tをドットで図示した。
デマンド被写体選択手段44は、フォーカス操作値出力手段21から、フォーカス操作値として、被写体T付近の距離が入力される。従って、デマンド被写体選択手段44は、図8のフォーカス範囲において、被写体Tをデマンド被写体として選択する。そして、デマンド被写体選択手段44は、選択した被写体Tをビューファインダ用映像生成手段46に出力する。
また、合焦被写体選択手段45は、レンズ15から、フォーカス現在値として、被写体T付近の距離が入力される。従って、合焦被写体選択手段45は、図8のフォーカス範囲において、被写体Tを合焦被写体として選択する。そして、合焦被写体選択手段45は、選択した被写体Tをビューファインダ用映像生成手段46に出力する。
ビューファインダ用映像生成手段46は、カメラ本体11から入力された超高精細映像を縮小して、ビューファインダ用映像を生成する。このとき、ビューファインダ用映像生成手段46は、デマンド被写体選択手段44から入力されたデマンド被写体と、合焦被写体選択手段45から入力された合焦被写体とが、同一の被写体であるか異なる被写体であるかを判定する。そして、ビューファインダ用映像生成手段46は、ビューファインダ用映像において、デマンド被写体及び合焦被写体が異なる被写体の場合、デマンド被写体及び合焦被写体のそれぞれを強調表示する。
この例では、ビューファインダ用映像生成手段46は、デマンド被写体である被写体Tと合焦被写体である被写体Tとが異なるので、図10に示すように、被写体T,Tのそれぞれを強調表示する。例えば、ビューファインダ用映像生成手段46は、デマンド被写体である被写体Tを予め設定した第1色(例えば、青色)で強調表示し、合焦被写体である被写体Tを第1色とは異なる第2色(例えば、赤色)で強調表示する。
このように、カメラ1が実際にフォーカスしている被写体と、フォーカスを合わせようとしている被写体とを、カメラマンがビューファインダ13で容易に確認できる。
ここで、ビューファインダ用映像生成手段46は、レンズ15から入力された画角情報を参照し、測距センサ3のセンサ計測平面上でトリミングされている部分を求め、被写体Tをオーバーレイ表示してもよい。例えば、ビューファインダ用映像生成手段46は、カメラ1がズームインした場合、そのときの画角情報に応じて、オーバーレイした強調表示部分を大きくする。
<デマンド被写体へのフォーカス指令>
図11,図12を参照し、デマンド被写体へのフォーカス指令を具体的に説明する(適宜図5参照)。
ここで、図9に示すように、デマンド被写体として被写体T及び合焦被写体として被写体Tが選択されている状態において、カメラマンがSNAPスイッチ20Aを押下し、デマンド被写体である被写体Tへのフォーカスを指令したこととする。
フォーカス指令手段47は、SNAPスイッチ判定手段23から、SNAPスイッチ押下通知が入力される。このSNAPスイッチ押下通知に応じて、フォーカス指令手段47は、デマンド被写体選択手段44から入力されたデマンド被写体(被写体T)の撮影距離dを、フォーカス指令値としてレンズ15に出力する。すると、図11に示すように、このフォーカス指令値に応じて、レンズ15が駆動し、カメラ1が被写体Tにフォーカスする。つまり、図11では、デマンド被写体及び合焦被写体が同一の被写体Tになる。
なお、図11では、被写体Tをドットで図示した。
従って、合焦被写体選択手段45は、レンズ15から、フォーカス現在値として、被写体Tの距離dが入力される。従って、合焦被写体選択手段45は、図8のフォーカス範囲において、被写体Tを合焦被写体として選択する。そして、合焦被写体選択手段45は、選択した被写体Tをビューファインダ用映像生成手段46に出力する。
この例では、ビューファインダ用映像生成手段46は、デマンド被写体及び合焦被写体である被写体Tが同一の被写体なので、図12に示すように、被写体Tを合焦被写体として強調表示する。例えば、ビューファインダ用映像生成手段46は、ビューファインダ用映像において、前記した第2色(例えば、赤色)で被写体Tを強調表示する。
このように、カメラマンが、容易な操作で正確にフォーカスを合わせることができる。
<DETAILシフト>
以下、DETAILシフトを具体的に説明する(適宜図5参照)。
ここで、図11に示すように、カメラ1が被写体Tにフォーカスしている状態において、カメラマンがDETAILスイッチ20Bを押下し、DETAILシフトを指令したこととする。
被写体領域抽出手段41及び被写体距離算出手段42は、DETAILスイッチ判定手段25から、DETAILスイッチ押下通知が入力される。すると、被写体領域抽出手段41は、測距センサ3から入力された測距データにおいて被写体Tの領域のみを対象として、公知の被写体領域抽出手法により、カメラ1がフォーカスしている被写体Tの部位(例えば、鼻、目、耳、首、胸、前脚、後脚)を抽出する。
被写体距離算出手段42は、測距センサ3から入力された測距データを参照し、公知の被写体距離算出手法により、被写体全体に対する処理と同様、被写体領域抽出手段41が抽出した被写体Tの部位毎の距離を算出する。
被写体距離離散化手段43は、被写体距離算出手段42から、カメラ1がフォーカスしている被写体部位毎の距離情報が入力される。そして、被写体距離離散化手段43は、距離情報により定まる被写体部位毎の距離に基づいて、被写体全体に対する処理と同様、カメラ1のフォーカス範囲を被写体Tの部位毎に割り当てる。例えば、被写体距離離散化手段43は、図8の全フォーカス範囲に、鼻、目、耳、首、胸、前脚、後脚のそれぞれのフォーカス範囲に割り当てる。
デマンド被写体選択手段44は、被写体距離離散化手段43が割り当てた被写体Tの部位毎のフォーカス範囲において、被写体全体に対する処理と同様、フォーカス操作値が含まれているフォーカス範囲に対応した被写体Tの部位をデマンド被写体として選択する。
合焦被写体選択手段45は、被写体距離離散化手段43が割り当てた被写体Tの部位毎のフォーカス範囲において、被写体全体に対する処理と同様、フォーカス現在値が含まれているフォーカス範囲に対応した被写体Tの部位を合焦被写体として選択する。
ビューファインダ用映像生成手段46は、ビューファインダ用映像において、被写体全体に対する処理と同様、デマンド被写体及び合焦被写体としての被写体Tの部位毎を強調表示する。
以下、複数の被写体Tに対する処理とDETAILシフトとの関係を補足する。ここで、カメラマンは、被写体Tの部位としての犬の鼻にフォーカスを合わせることとする。
フォーカスデマンド2の微細な調整が要求されるので、犬の鼻に直接フォーカスを合わせることが困難である。そこで、カメラマンは、被写体T〜Tのうち、フォーカスデマンド2を操作して、被写体T(犬)の全体をデマンド被写体として選択し、SNAPスイッチ20Aを押下する。すると、カメラ1が被写体Tの全体にフォーカスを合わせ、図12のビューファインダ用映像がビューファインダ13に表示される。
次に、カメラマンは、DETAILスイッチ20Bを押下する。すると、RAF4の各手段がDETAILシフトを行い、犬の鼻、目、耳、首、胸、前脚、後脚といった各部位をフォーカスデマンド2で選択可能になる。従って、カメラマンは、被写体Tの各部位のうち、フォーカスデマンド2を操作して、犬の鼻をデマンド被写体として選択し、SNAPスイッチ20Aを押下する。すると、カメラ1が犬の鼻にフォーカスを合わせ、図13のビューファインダ用映像がビューファインダ13に表示される。図13では、犬の鼻が合焦被写体として強調表示されている。
このように、犬の鼻といった細かな部位についても、カメラマンが容易な操作で正確にフォーカスを合わせることができる。
<被写体の拡大表示>
図14を参照し、被写体の拡大表示を具体的に説明する(適宜図5参照)。
ここで、図13に示すように、カメラ1が被写体Tの部位としての犬の鼻にフォーカスを合わせている状態において、カメラマンがMAGスイッチ20Cを押下し、被写体の拡大表示を指令したこととする。
ビューファインダ用映像生成手段46は、MAGスイッチ判定手段27から、MAGスイッチ押下通知が入力される。すると、ビューファインダ用映像生成手段46は、図14に示すように、合焦被写体である犬の鼻を拡大表示する。
このように、犬の鼻といった細かな部位についても正確にフォーカスが合っているかを、カメラマンがビューファインダ13で容易に確認できる。
(RAFの動作)
図15を参照し、RAF4の動作について説明する(適宜図5参照)。
被写体領域抽出手段41は、測距センサ3から入力された測距データを参照し、公知の被写体領域抽出手法により、この測距データから被写体の領域を抽出する(ステップS1)。
被写体距離算出手段42は、測距センサ3から入力された測距データを参照し、公知の被写体距離算出手法により、ステップS1で抽出した被写体の領域毎に距離を算出し、距離情報を生成する(ステップS2)。
被写体距離離散化手段43は、ステップS2で生成した距離情報により定まる被写体毎の距離に基づいて、フォーカスデマンド2で操作可能なフォーカス範囲を離散化する。つまり、被写体距離離散化手段43は、フォーカス範囲を被写体毎に割り当てる(ステップS3)。
デマンド被写体選択手段44は、フォーカス操作値出力手段21からフォーカス操作値が入力され、ステップS3で割り当てた被写体毎のフォーカス範囲において、入力されたフォーカス操作値が含まれているフォーカス範囲の被写体をデマンド被写体として選択する(ステップS4A)。
合焦被写体選択手段45は、レンズ15からフォーカス現在値が入力され、ステップS3で割り当てた被写体毎のフォーカス範囲において、入力されたフォーカス現在値が含まれているフォーカス範囲の被写体を合焦被写体として選択する(ステップS4B)。
なお、ステップS4A,S4Bの実行順は任意である。例えば、ステップS4A,S4Bを同時に実行してもよく、ステップS4Bの後にステップS4Aを実行してもよい。
ビューファインダ用映像生成手段46は、デマンド被写体及び合焦被写体が同一の被写体の場合、同一の被写体を合焦被写体として強調表示したビューファインダ用映像を生成し、デマンド被写体及び合焦被写体が異なる被写体の場合、デマンド被写体及び合焦被写体のそれぞれを強調表示したビューファインダ用映像を生成する(ステップS5)。
フォーカス指令手段47は、SNAPスイッチ判定手段23からSNAPスイッチ押下通知が入力されたか否かにより、フォーカスが指令されたか否かを判定する(ステップS6)。
フォーカスが指令された場合(ステップS6でYes)、フォーカス指令手段47は、SNAPスイッチ押下通知が入力されたときに選択されているデマンド被写体へのフォーカスをカメラ1に指令する(ステップS7)。
フォーカスが指令されない場合(ステップS6でNo)、又は、ステップS7の処理後、RAF4は、ステップS1の処理に戻る。
図15のフローチャートでは、RAF4がステップS1〜S7の処理を繰り返しているが、カメラ1が撮影を終了した場合、RAF4も動作を終了してもよい。
以上のように、RAF4は、フォーカスデマンド2で操作可能なフォーカス範囲を被写体までの距離の集合に離散値化し、フォーカスデマンド2から入力されたフォーカス操作値に最も近い被写体に自動的にフォーカスが合うようにレンズ15を制御する。その結果、カメラマンは、SNAPスイッチ20Aを押下したままフォーカスつまみ2Aを回転させることにより、距離順に並んだ被写体に次々と合焦させることができる。さらに、被写体との距離が変化しても、RAF4が距離の集合を更新するので、従来のようにカメラマンがフォーカスしたい位置を追尾する必要がなく、RAF4がフォーカス位置を自動尾的に追尾する。ここで、距離測定の精度については、カメラ1の画角、絞り、被写体距離、撮像素子のサイズにより決定される被写界深度の範囲内に収まるとよい。
[作用・効果]
以上のように、本発明の実施形態に係るRAF4は、使い慣れたフォーカスデマンド2を介して、カメラマンがフォーカスしたい被写体を選択するだけで、簡易な操作で正確なフォーカスを実現することができる。
すなわち、RAF4は、カメラマンが使い慣れたフォーカスデマンド2を操作すればよいので、カメラマンの操作が複雑化することや、カメラマンが操作の習熟に時間を要することがない。
さらに、RAF4は、フォーカスしたい被写体を選択した後にDETAILシフトを行うことで、被写体の細かな部位に正確にフォーカスを合わせることができる。
さらに、RAF4は、被写体の拡大表示を行うことで、正確にフォーカスしているかを容易に確認することができる。
さらに、RAF4は、フォーカスを専門に担当するスタッフが不要であり、映像制作に要するコストを抑えることができる。
以上、本発明の実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、距離センサで距離を測定することとして説明したが、本発明は、これに限定されない。例えば、本発明では、ステレオカメラで距離を測定してもよい。
前記した実施形態では、被写体距離離散化手段が全被写体の離散化を行うこととして説明したが、本発明は、これに限定されない。例えば、被写体距離離散化手段は、距離が近い順に予め設定した数の被写体のみを離散化してもよい。
前記した実施形態では、ビューファインダ用映像生成手段が所定の赤色や青色で強調表示を行うこととして説明したが、本発明は、これに限定されない。例えば、ビューファインダ用映像生成手段は、赤色や青色以外の色で強調表示を行ってもよい。さらに、ビューファインダ用映像生成手段は、ピーキング処理により強調表示を行ってもよい。
前記した実施形態では、1回目のDETAILシフトのみを説明したが、2回目以降のDETAILシフトを行ってもよい。例えば、1回目のDETAILシフトにより、犬の鼻にフォーカスが合っていることとする。この状態でさらに2回目のDETAILシフトを行うと、犬の鼻の先端部や中腹部にフォーカスを合わせることができる。このように、同一の被写体にDETAILシフトを繰り返し行うことで、より細かな部位にフォーカスを合わせることができる。
前記した実施形態では、RAFを独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したRAFとして協調動作させるプログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
100 フォーカスアシストシステム
1 カメラ
11 カメラ本体
13 ビューファインダ
15 レンズ
2 フォーカスデマンド(フォーカス操作装置)
20A SNAPスイッチ
20B DETAILスイッチ
20C MAGスイッチ
21 フォーカス操作値出力手段
23 SNAPスイッチ判定手段
25 DETAILスイッチ判定手段
27 MAGスイッチ判定手段
3 測距センサ
4 レンジアシストフォーカスコントローラ(フォーカスアシスト装置)
41 被写体領域抽出手段
42 被写体距離算出手段
43 被写体距離離散化手段(フォーカス範囲割当手段)
44 デマンド被写体選択手段(第1被写体選択手段)
45 合焦被写体選択手段(第2被写体選択手段)
46 ビューファインダ用映像生成手段
47 フォーカス指令手段

Claims (6)

  1. ビューファインダを備え、かつ、フォーカス操作装置でフォーカスを操作するカメラ用のフォーカスアシスト装置であって、
    距離情報が入力され、入力された前記距離情報により定まる被写体毎の距離に基づいて、前記フォーカス操作装置で操作可能な前記カメラのフォーカス範囲を前記被写体毎に割り当てるフォーカス範囲割当手段と、
    前記フォーカス操作装置からフォーカス操作値が入力され、前記フォーカス範囲割当手段が割り当てた被写体毎のフォーカス範囲において、入力された前記フォーカス操作値が含まれているフォーカス範囲の被写体を第1被写体として選択する第1被写体選択手段と、
    前記カメラからフォーカス現在値が入力され、前記フォーカス範囲割当手段が割り当てた被写体毎のフォーカス範囲において、入力された前記フォーカス現在値が含まれているフォーカス範囲の被写体を第2被写体として選択する第2被写体選択手段と、
    前記フォーカス操作装置からフォーカス確定信号が入力された場合、前記カメラに対して、前記フォーカス確定信号が入力されたときに選択されている前記第1被写体へのフォーカスを指令するフォーカス指令手段と、
    前記カメラが撮影した映像を縮小し、少なくとも前記第1被写体を強調表示したビューファインダ用映像を生成するビューファインダ用映像生成手段と、を備えることを特徴とするフォーカスアシスト装置。
  2. 前記フォーカス範囲割当手段は、前記フォーカス範囲の割り当て対象となる注目被写体と当該注目被写体の前に位置する前方被写体との中間距離から、当該注目被写体と当該注目被写体の後に位置する後方被写体との中間距離まで範囲を、当該注目被写体のフォーカス範囲として割り当てることを特徴とする請求項1に記載のフォーカスアシスト装置。
  3. 前記フォーカス範囲割当手段は、前記カメラがフォーカスしている被写体の距離情報が入力され、入力された当該距離情報により定まる被写体部位毎の距離に基づいて、前記フォーカス範囲を前記被写体部位毎に割り当て、
    前記第1被写体選択手段は、前記フォーカス範囲割当手段が割り当てた前記被写体部位毎のフォーカス範囲において、入力された前記フォーカス操作値が含まれているフォーカス範囲の被写体部位を前記第1被写体として選択し、
    前記第2被写体選択手段は、前記フォーカス範囲割当手段が割り当てた前記被写体部位毎のフォーカス範囲において、入力された前記フォーカス現在値が含まれているフォーカス範囲の被写体部位を前記第2被写体として選択することを特徴とする請求項1又は請求項2に記載のフォーカスアシスト装置。
  4. 前記ビューファインダ用映像生成手段は、前記第1被写体及び前記第2被写体が同一の被写体の場合、前記同一の被写体を前記第1被写体として強調表示した前記ビューファインダ用映像を生成し、前記第1被写体及び前記第2被写体が異なる場合、前記第1被写体及び前記第2被写体をそれぞれ強調表示した前記ビューファインダ用映像を生成することを特徴とする請求項1から請求項3の何れか一項に記載のフォーカスアシスト装置。
  5. 前記第1被写体選択手段は、前記フォーカス操作装置としてのフォーカスデマンドから前記フォーカス操作値が入力され、
    前記フォーカス指令手段は、前記フォーカスデマンドから前記フォーカス確定信号が入力された場合、前記カメラにフォーカスを指令することを特徴とする請求項1から請求項4の何れか一項に記載のフォーカスアシスト装置。
  6. コンピュータを、請求項1から請求項5の何れか一項に記載のフォーカスアシスト装置として機能させるためのフォーカスアシストプログラム。
JP2017116913A 2017-06-14 2017-06-14 フォーカスアシスト装置及びそのプログラム Active JP6924622B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017116913A JP6924622B2 (ja) 2017-06-14 2017-06-14 フォーカスアシスト装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017116913A JP6924622B2 (ja) 2017-06-14 2017-06-14 フォーカスアシスト装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2019003005A true JP2019003005A (ja) 2019-01-10
JP6924622B2 JP6924622B2 (ja) 2021-08-25

Family

ID=65007797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017116913A Active JP6924622B2 (ja) 2017-06-14 2017-06-14 フォーカスアシスト装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6924622B2 (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279683A (ja) * 2003-03-14 2004-10-07 Ricoh Co Ltd 画像入力装置
JP2007214845A (ja) * 2006-02-09 2007-08-23 Casio Comput Co Ltd 電子カメラ、多数ポイント同時合焦枠表示方法、及びプログラム
JP2009122289A (ja) * 2007-11-13 2009-06-04 Sony Corp 撮影装置および撮影方法、並びにプログラム
US20110032411A1 (en) * 2009-08-10 2011-02-10 Canon Kabushiki Kaisha Image pickup system and lens apparatus
JP2013009160A (ja) * 2011-06-24 2013-01-10 Nikon Corp 電子ビューファインダ及びこれを用いた撮像装置
US20140347541A1 (en) * 2013-05-22 2014-11-27 Panasonic Corporation Imaging apparatus and method of displaying captured image
US20140368719A1 (en) * 2013-06-18 2014-12-18 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
JP2015001717A (ja) * 2013-06-18 2015-01-05 オリンパス株式会社 撮影機器及びその制御方法
US8982272B1 (en) * 2014-05-23 2015-03-17 Howard Preston Methods, apparatuses, systems and software for focusing a camera on an object in any of a plurality of zones using graphics overlaid on a display
JP2015225340A (ja) * 2014-05-23 2015-12-14 プレストン ハワード カメラのフォーカスを合わせるための方法、装置、システム、およびソフトウェア
JP2016142779A (ja) * 2015-01-30 2016-08-08 キヤノン株式会社 撮像装置
US20170054897A1 (en) * 2015-08-21 2017-02-23 Samsung Electronics Co., Ltd. Method of automatically focusing on region of interest by an electronic device

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279683A (ja) * 2003-03-14 2004-10-07 Ricoh Co Ltd 画像入力装置
US20040240871A1 (en) * 2003-03-14 2004-12-02 Junichi Shinohara Image inputting apparatus
JP2007214845A (ja) * 2006-02-09 2007-08-23 Casio Comput Co Ltd 電子カメラ、多数ポイント同時合焦枠表示方法、及びプログラム
JP2009122289A (ja) * 2007-11-13 2009-06-04 Sony Corp 撮影装置および撮影方法、並びにプログラム
US20110032411A1 (en) * 2009-08-10 2011-02-10 Canon Kabushiki Kaisha Image pickup system and lens apparatus
JP2011039213A (ja) * 2009-08-10 2011-02-24 Canon Inc 撮影システムおよびレンズ装置
JP2013009160A (ja) * 2011-06-24 2013-01-10 Nikon Corp 電子ビューファインダ及びこれを用いた撮像装置
US20140347541A1 (en) * 2013-05-22 2014-11-27 Panasonic Corporation Imaging apparatus and method of displaying captured image
JP2015004960A (ja) * 2013-05-22 2015-01-08 パナソニックIpマネジメント株式会社 撮像装置および撮像画像の表示方法
US20140368719A1 (en) * 2013-06-18 2014-12-18 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
JP2015001717A (ja) * 2013-06-18 2015-01-05 オリンパス株式会社 撮影機器及びその制御方法
US8982272B1 (en) * 2014-05-23 2015-03-17 Howard Preston Methods, apparatuses, systems and software for focusing a camera on an object in any of a plurality of zones using graphics overlaid on a display
JP2015225340A (ja) * 2014-05-23 2015-12-14 プレストン ハワード カメラのフォーカスを合わせるための方法、装置、システム、およびソフトウェア
JP2016142779A (ja) * 2015-01-30 2016-08-08 キヤノン株式会社 撮像装置
US20170054897A1 (en) * 2015-08-21 2017-02-23 Samsung Electronics Co., Ltd. Method of automatically focusing on region of interest by an electronic device

Also Published As

Publication number Publication date
JP6924622B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
US9888182B2 (en) Display apparatus
JP5434361B2 (ja) 画像処理装置及び画像処理方法
JP2006086952A (ja) デジタルカメラ、および、プログラム
JP6825073B2 (ja) 撮像装置、制御方法、およびプログラム
JP2013013050A (ja) 撮像装置及びこの撮像装置を用いた表示方法
KR20120122677A (ko) 디지털 촬영 장치, 디지털 촬영 장치 제어 방법, 및 컴퓨터 판독가능 저장매체
JP2010093422A (ja) 撮像装置
JP2017055310A (ja) 撮像装置およびその制御方法
KR20170027266A (ko) 영상 촬영 장치 및 그 동작 방법
JP2016039613A (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
JP2011237713A (ja) 画像撮影装置、及び画像撮影方法
JP2015012481A (ja) 画像処理装置
JP2015026880A (ja) 撮像装置
JP2017135660A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6270578B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP6924622B2 (ja) フォーカスアシスト装置及びそのプログラム
JP2011193066A (ja) 撮像装置
JP2016167767A (ja) 撮像装置、合成撮影方法及び合成撮影プログラム
KR20100093955A (ko) 디지털 영상신호 처리장치에서 이미지확대표시방법
JP7289626B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2017184007A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
JP6545229B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP6516410B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6924622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250