JP2019070822A - Imaging apparatus and control method of the same - Google Patents

Imaging apparatus and control method of the same Download PDF

Info

Publication number
JP2019070822A
JP2019070822A JP2018234292A JP2018234292A JP2019070822A JP 2019070822 A JP2019070822 A JP 2019070822A JP 2018234292 A JP2018234292 A JP 2018234292A JP 2018234292 A JP2018234292 A JP 2018234292A JP 2019070822 A JP2019070822 A JP 2019070822A
Authority
JP
Japan
Prior art keywords
distance
image
unit
subject
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018234292A
Other languages
Japanese (ja)
Inventor
片山 達嗣
Tatsushi Katayama
達嗣 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018234292A priority Critical patent/JP2019070822A/en
Publication of JP2019070822A publication Critical patent/JP2019070822A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus which can accurately focus a subject which a user intends with a simpler operation and to provide a control method of the apparatus.SOLUTION: An imaging apparatus includes: an imaging optical system; an imaging element for acquiring an image of a subject; means for acquiring distance information between the imaging optical system and the subject; means for generating a distance map corresponding to the image on the basis of the distance information; a display section for displaying the image which the imaging element acquires; means for detecting touch operation of a user to the display section which displays the image and detecting a position in the image corresponding to a position which the user touches; and control means constituted to acquire the distance information in the position of the acquired image from the distance map, to set the position in a focus point in accordance with the acquired distance information or to display an enlarged image obtained by cutting a partial region of the image including the position on the display section.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置及びその制御方法に関する。   The present invention relates to an imaging device and a control method thereof.

従来、タッチパネルを装着した液晶パネルを有する撮像装置において、表示画面を押圧することによりフォーカスエリア(以下、「AFポイント」或いは「フォーカスポイント」とも言う)を設定する技術が提案されている。特許文献1には、設定したAFポイントの合焦確認のため、取得した画像の一部の領域を拡大表示することが記載されている。   2. Description of the Related Art Conventionally, in an imaging apparatus having a liquid crystal panel with a touch panel mounted, a technique has been proposed in which a focus area (hereinafter also referred to as "AF point" or "focus point") is set by pressing a display screen. Patent Document 1 describes enlarging and displaying a partial area of an acquired image for confirmation of focusing of a set AF point.

特開2005−078009号公報JP, 2005-078009, A

しかしながら、撮像装置の画面上でAFポイントの指定を指で行う場合、意図している被写体にピントが合わなかったり、遠近競合が起きたりすることがあった。また、特許文献1に記載の技術では、AFポイントを拡大して合焦の確認ができるが、仮に意図した部分に合焦していない場合には、再度全体画面表示からやり直す必要があった。   However, when the user designates an AF point on the screen of the imaging device with a finger, the intended subject may not be in focus or a perspective conflict may occur. Further, in the technology described in Patent Document 1, although it is possible to check the in-focus point by enlarging the AF point, if it was not in-focus on the intended part, it was necessary to start again from the entire screen display.

また、近年では、マルチタッチ操作によりタッチした2本の指を広げる操作を識別して画像を拡大する手法が普及している。しかしながら、撮影の際に撮像装置を構えた状態でマルチタッチ操作をするのは難しく、所望の被写体位置にAFポイントを設定するのには手間がかかっていた。   Further, in recent years, a method of enlarging an image by identifying an operation of spreading two fingers touched by a multi-touch operation has become widespread. However, it is difficult to perform multi-touch operation while holding the imaging device at the time of shooting, and it takes time to set an AF point at a desired subject position.

本発明の目的は、より簡単な操作でユーザが意図する被写体に正確にピントを合わせることができる撮像装置及びその制御方法を提供することにある。   An object of the present invention is to provide an imaging apparatus capable of accurately focusing on an object intended by a user with a simpler operation, and a control method thereof.

本発明の一観点によれば、被写体の光学像を形成する撮像光学系と、前記光学像から前記被写体の画像を取得する撮像素子と、前記撮像光学系と前記被写体との間の距離情報を取得する手段と、前記距離情報に基づき前記画像に対応した距離マップを生成する手段と、前記撮像素子が取得した前記画像を表示する表示部と、前記画像を表示した前記表示部へのユーザのタッチ操作を検出し、前記ユーザがタッチした位置に対応する前記画像における位置を検出する手段と、取得した前記画像の前記位置における前記距離情報を前記距離マップから取得し、取得した前記距離情報に応じて、前記位置をフォーカスポイントに設定し、又は、前記位置を含む前記画像の一部の領域を切り出した拡大画像を前記表示部に表示するように構成された制御手段とを有することを特徴とする撮像装置が提供される。   According to one aspect of the present invention, an imaging optical system for forming an optical image of a subject, an imaging element for acquiring an image of the subject from the optical image, distance information between the imaging optical system and the subject Means for acquiring, means for generating a distance map corresponding to the image based on the distance information, a display unit for displaying the image acquired by the imaging device, and a user of the display unit displaying the image A means for detecting a touch operation and detecting a position in the image corresponding to a position touched by the user, and acquiring the distance information at the position of the acquired image from the distance map, to the acquired distance information In response, the control unit is configured to set the position as a focus point or display an enlarged image obtained by cutting out a partial area of the image including the position on the display unit. Imaging apparatus is provided, characterized in that it comprises a means.

また、本発明の他の一観点によれば、被写体の光学像を形成する撮像光学系と、前記光学像から前記被写体の画像を取得する撮像素子と、前記撮像光学系と前記被写体との間の距離情報を取得する手段と、前記撮像素子が取得した前記画像を表示する表示部と、前記画像を表示した前記表示部へのユーザのタッチ操作を検出する手段とを有する撮像装置の制御方法であって、取得した前記距離情報に基づき前記画像に対応した距離マップを生成するステップと、取得した前記画像を前記表示部に表示するステップと、前記表示部へのユーザのタッチ操作を検出し、前記ユーザがタッチした位置に対応する前記画像における位置を取得するステップと、取得した前記画像の前記位置における前記距離情報を前記距離マップから取得するステップと、取得した前記距離情報に応じて、前記位置をフォーカスポイントに設定し、又は、前記位置を含む前記画像の一部の領域を切り出した拡大画像を前記表示部に表示するステップとを有することを特徴とする撮像装置の制御方法が提供される。   Further, according to another aspect of the present invention, an imaging optical system for forming an optical image of a subject, an imaging element for acquiring an image of the subject from the optical image, and the imaging optical system and the subject Control method of an imaging apparatus having: a unit for acquiring distance information of the above; a display unit for displaying the image acquired by the imaging device; and a unit for detecting a user's touch operation on the display unit displaying the image A step of generating a distance map corresponding to the image based on the acquired distance information, a step of displaying the acquired image on the display unit, and a user's touch operation on the display unit. Acquiring a position in the image corresponding to the position touched by the user, and acquiring the distance information at the position of the acquired image from the distance map Setting the position as a focus point in accordance with the acquired distance information, or displaying an enlarged image obtained by cutting out a partial area of the image including the position on the display unit. A control method of an imaging device characterized by the present invention is provided.

本発明によれば、より簡単な操作によってユーザが意図する被写体に正確にピントを合わせることができるようになる。   According to the present invention, it is possible to accurately focus on a subject intended by the user with a simpler operation.

本発明の第1実施形態による撮像装置の構成を示すブロック図である。It is a block diagram showing composition of an imaging device by a 1st embodiment of the present invention. 本発明の第1実施形態による撮像装置において用いられる距離マップを説明する図である。It is a figure explaining the distance map used in the imaging device by a 1st embodiment of the present invention. 本発明の第1実施形態による撮像装置の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the imaging device by 1st Embodiment of this invention. 本発明の第1実施形態による撮像装置の制御方法におけるAFポイントの選択方法を説明する図である。It is a figure explaining the selection method of AF point in the control method of the imaging device by a 1st embodiment of the present invention. 本発明の第1実施形態による撮像装置において用いられる距離ヒストグラムを説明する図である。It is a figure explaining the distance histogram used in the imaging device by 1st Embodiment of this invention. 距離ヒストグラムのピークパターンの種類を説明する図である。It is a figure explaining the kind of peak pattern of a distance histogram. 距離ヒストグラムのピークを検出する方法の一例を説明する図である。It is a figure explaining an example of the method of detecting the peak of a distance histogram. 距離ヒストグラムが単独ピークパターンを示すときの画像の拡大処理を説明する図である。It is a figure explaining the expansion process of an image when a distance histogram shows a single peak pattern. 距離ヒストグラムが複数ピークパターンを示すときの画像の拡大処理を説明する図である。It is a figure explaining the expansion process of the image in case a distance histogram shows a several peak pattern. 本発明の第1実施形態による撮像装置の制御方法における拡大画像からのAFポイントの選択方法を説明する図である。It is a figure explaining the selection method of AF point from the expansion picture in the control method of the imaging device by a 1st embodiment of the present invention. AFポイントにおける遠近競合の発生例を説明する図である。It is a figure explaining the example of generation | occurrence | production of the near-and-far conflict in AF point. 本発明の第2実施形態による撮像装置の制御方法を示す表示画面の模式図である。It is a schematic diagram of the display screen which shows the control method of the imaging device by 2nd Embodiment of this invention. 本発明の第3実施形態による撮像装置の制御方法において表示する距離ヒストグラムの一例を示す図である。It is a figure which shows an example of the distance histogram displayed in the control method of the imaging device by 3rd Embodiment of this invention.

以下、図面を参照しながら本発明の好適な実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
本発明の第1実施形態による撮像装置及びその駆動方法について、図1乃至図10を用いて説明する。
First Embodiment
An imaging apparatus and a driving method thereof according to a first embodiment of the present invention will be described with reference to FIGS.

図1は、本実施形態による撮像装置の構成を示すブロック図である。図2は、本実施形態による撮像装置で用いる距離マップを説明する図である。図3は、本実施形態による撮像装置の動作を示すフローチャートである。図4は、本実施形態による撮像装置の制御方法におけるAFポイントの選択方法を説明する図である。図5は、本実施形態による撮像装置において用いられる距離ヒストグラムを説明する図である。図6は、距離ヒストグラムのピークパターンの種類を説明する図である。図7は、距離ヒストグラムのピークを検出する方法の一例を説明する図である。図8は、距離ヒストグラムが単独ピークパターンを示すときの画像の拡大処理を説明する図である。図9は、距離ヒストグラムが複数ピークパターンを示すときの画像の拡大処理を説明する図である。図10は、本実施形態による撮像装置の制御方法における拡大画像からのAFポイントの選択方法を説明する図である。   FIG. 1 is a block diagram showing a configuration of an imaging device according to the present embodiment. FIG. 2 is a diagram for explaining a distance map used in the imaging device according to the present embodiment. FIG. 3 is a flowchart showing the operation of the imaging device according to the present embodiment. FIG. 4 is a view for explaining the AF point selection method in the control method of the imaging device according to the present embodiment. FIG. 5 is a view for explaining the distance histogram used in the imaging device according to the present embodiment. FIG. 6 is a diagram for explaining types of peak patterns of the distance histogram. FIG. 7 is a diagram for explaining an example of a method of detecting a peak of the distance histogram. FIG. 8 is a diagram for explaining an image enlargement process when the distance histogram indicates a single peak pattern. FIG. 9 is a diagram for explaining an image enlargement process when the distance histogram indicates a plurality of peak patterns. FIG. 10 is a view for explaining a method of selecting an AF point from an enlarged image in the control method of the imaging device according to the present embodiment.

はじめに、本実施形態による撮像装置の構造について、図1を用いて説明する。   First, the structure of the imaging device according to the present embodiment will be described with reference to FIG.

本実施形態による撮像装置10は、図1に示すように、撮像光学系101、フォーカス制御部102、撮像センサ103、画像処理部104、距離情報生成部105、メモリ106、記録処理部107、記録媒体108、ROM109を有している。また、撮像装置10は、システム制御部110、表示処理部111、表示部112、位置検出部113、タッチパネル114、バス115を有している。   As shown in FIG. 1, the imaging apparatus 10 according to the present embodiment includes an imaging optical system 101, a focus control unit 102, an imaging sensor 103, an image processing unit 104, a distance information generation unit 105, a memory 106, a recording processing unit 107, and a recording unit. A medium 108 and a ROM 109 are included. The imaging device 10 further includes a system control unit 110, a display processing unit 111, a display unit 112, a position detection unit 113, a touch panel 114, and a bus 115.

撮像センサ103は、CMOSセンサ等の固体撮像素子であり、被写体の画像(以下、「被写体像」とも言う)を取得するためのものである。撮像センサ103には位相差検出用のセンサが埋め込まれており、撮像センサ103から出力される位相差信号をもとに撮影する被写体との間の距離情報を取得することもできる。撮像光学系101は、撮像センサ103に被写体の光学像を形成するためのものであり、フォーカス位置制御機構を有する。フォーカス制御部102は、撮像光学系101のフォーカス位置制御機構の動作を制御するためのものである。   The imaging sensor 103 is a solid-state imaging device such as a CMOS sensor, and is for acquiring an image of a subject (hereinafter, also referred to as a “subject image”). A sensor for phase difference detection is embedded in the imaging sensor 103, and distance information between the subject and an object to be photographed can be acquired based on the phase difference signal output from the imaging sensor 103. The imaging optical system 101 is for forming an optical image of a subject on the imaging sensor 103, and has a focus position control mechanism. The focus control unit 102 is for controlling the operation of the focus position control mechanism of the imaging optical system 101.

距離情報生成部105は、撮像センサ103から出力される位相差信号をもとに、被写体との間の距離情報を算出するためのものである。算出された被写体の距離情報は、メモリ106に保存される。画像処理部104は、撮像センサ103から出力される画像信号をデジタル化して所定の処理を施すためのものである。処理後の画像データは、メモリ106に一時的に保存される。   The distance information generation unit 105 is for calculating distance information with the subject based on the phase difference signal output from the imaging sensor 103. The calculated distance information of the subject is stored in the memory 106. The image processing unit 104 is for digitizing an image signal output from the imaging sensor 103 and performing predetermined processing. The processed image data is temporarily stored in the memory 106.

メモリ106は、DRAM等の半導体メモリからなる内部記憶装置である。メモリ106には、記録情報部107で生成される記録データ、撮像装置10を制御するプログラム、表示部112に表示する画像や文字、アイコン等のGUI(グラフィカル・ユーザー・インタフェース)データ等が保存される。   The memory 106 is an internal storage device made of a semiconductor memory such as a DRAM. The memory 106 stores recording data generated by the recording information unit 107, a program for controlling the imaging device 10, and images (characters and icons) displayed on the display unit 112 such as graphical user interface (GUI) data. Ru.

記録処理部107は、メモリ106に保存されている画像データや被写体の距離情報を読み出して所定の記録フォーマットに変換し、記録媒体108に書きこむためのものである。記録媒体108は、特に限定されるものではないが、例えば、SDメモリカード等の、不揮発性半導体メモリを用いたメモリカードを適用することができる。   The recording processing unit 107 reads out the image data and the distance information of the subject stored in the memory 106, converts the information into a predetermined recording format, and writes the information into the recording medium 108. Although the recording medium 108 is not particularly limited, for example, a memory card using a nonvolatile semiconductor memory such as an SD memory card can be applied.

システム制御部110は、撮像装置10全体を制御するための制御部(CPU)である。ROM(リードオンリーメモリ)109は、制御プログラム、文字フォント、アイコンリソースデータ等を保存するためのものである。   The system control unit 110 is a control unit (CPU) for controlling the entire imaging device 10. A ROM (Read Only Memory) 109 is for storing control programs, character fonts, icon resource data, and the like.

表示部112は、液晶パネル等の表示装置により構成される。表示部112の表示面、例えば液晶パネル上には、タッチパネル114が装着されている。表示処理部111は、メモリ106に保存されている映像や、アイコン、文字等の情報を表示部112に表示させるための処理を行うためのものである。   The display unit 112 is configured of a display device such as a liquid crystal panel. A touch panel 114 is mounted on the display surface of the display unit 112, for example, a liquid crystal panel. The display processing unit 111 is for performing processing for causing the display unit 112 to display information such as an image, an icon, and a character stored in the memory 106.

位置検出部113は、タッチパネル114へのユーザのタッチ操作やユーザが指で押圧した位置を検出してシステム制御部110に出力するためのものである。   The position detection unit 113 is for detecting a touch operation of the user on the touch panel 114 or a position pressed by the user and outputting the detected position to the system control unit 110.

バス115は、上記の各モジュール間を接続してモジュール間でデータを交換するための経路である。システム制御部110は、所定の制御信号を、バス115を介して各モジュールに伝達することで、撮像装置10の全体を制御する。   The bus 115 is a path for connecting the above-described modules and exchanging data between the modules. The system control unit 110 controls the entire imaging device 10 by transmitting a predetermined control signal to each module via the bus 115.

ここで、本実施形態による撮像装置10の具体的な動作を説明する前に、距離情報生成部105において生成される距離情報の一例について、図2を用いて説明する。   Here, before describing the specific operation of the imaging device 10 according to the present embodiment, an example of the distance information generated by the distance information generation unit 105 will be described with reference to FIG.

図2(a)は、撮像装置10と被写体210,211,212との位置関係を示す概略図である。撮像装置10から被写体210,211,212までの距離は、それぞれ距離L1,L2,L3であるものとする。   FIG. 2A is a schematic view showing the positional relationship between the imaging device 10 and the subjects 210, 211, 212. It is assumed that the distances from the imaging device 10 to the subjects 210, 211, and 212 are distances L1, L2, and L3, respectively.

撮像センサ103は、前述の通り、撮像面の各画素の信号を分割して取り込むことにより、各画素単位でAF(オートフォーカス)用の位相差情報を取得することができる。そして、距離情報生成部105は、撮像センサ103から取得した位相差情報をもとに、撮影している被写体までの距離情報を所定の分解能で生成する。なお、撮像面位相差検出による距離情報の生成には、公知の技術を適用することができるため、ここでは詳細な説明は省略する。   As described above, the imaging sensor 103 can acquire phase difference information for AF (Auto Focus) in units of pixels by dividing and capturing the signal of each pixel of the imaging surface. Then, based on the phase difference information acquired from the imaging sensor 103, the distance information generation unit 105 generates, with a predetermined resolution, distance information to the subject being photographed. In addition, since a well-known technique can be applied to generation | occurrence | production of distance information by imaging surface phase difference detection, detailed description is abbreviate | omitted here.

図2(b)は、取得した距離情報を2次元の画像情報として表した距離マップの模式図である。図2(b)の距離マップ215では、撮影した画像を9×9の単位領域に分割し、各単位領域について、被写体までの距離に対応した異なるパターンで塗り分けている。距離データ220,221,222は、図2(a)の被写体210,211,212からの距離を表すデータである。図2(b)の右側には、距離マップ215内の各領域のパターンと撮像装置から被写体までの距離との関係を示している。   FIG. 2B is a schematic view of a distance map representing the acquired distance information as two-dimensional image information. In the distance map 215 shown in FIG. 2B, the captured image is divided into 9 × 9 unit areas, and each unit area is divided into different patterns corresponding to the distance to the subject. The distance data 220, 221, 222 is data representing the distance from the subject 210, 211, 212 in FIG. 2A. The right side of FIG. 2B shows the relationship between the pattern of each area in the distance map 215 and the distance from the imaging device to the subject.

距離データは、撮像センサ103の各画素単位で検出することが可能である。ただし、処理性能を向上するために、例えば初期状態では、撮像センサ103のN×N画素毎に1つの距離データを割り当てた距離マップを生成するように設定することができる。撮像センサ102の総画素数がH×V画素の場合、初期状態の距離マップの分解能は(H/N)×(V/N)となる。距離マップ215の分解能は、システム制御部110の設定により変更が可能である。   Distance data can be detected in units of pixels of the imaging sensor 103. However, in order to improve the processing performance, for example, in the initial state, a distance map in which one distance data is allocated for each N × N pixels of the imaging sensor 103 can be set to be generated. When the total number of pixels of the imaging sensor 102 is H × V pixels, the resolution of the distance map in the initial state is (H / N) × (V / N). The resolution of the distance map 215 can be changed by the setting of the system control unit 110.

なお、距離マップ215上に示される距離データの形式は、上記の例に限られるものではなく、撮像装置10と被写体との間の距離を示すデータであれば、任意の形式のデータを用いることが可能である。   Note that the format of the distance data shown on the distance map 215 is not limited to the above example, and data of any format may be used as long as the data indicates the distance between the imaging device 10 and the subject. Is possible.

距離情報生成部105において生成した距離マップデータは、メモリ106の所定の領域に一時的に保存される。そして、システム制御部110の制御により、メモリ106に保存されている画像データと共に記録処理部107で所定の記録フォーマットに変換され、記録媒体108に記録される。なお、この画像データと距離マップデータとは、撮像センサ103における同じタイミングの信号を基に生成されたものである。   The distance map data generated by the distance information generation unit 105 is temporarily stored in a predetermined area of the memory 106. Then, under the control of the system control unit 110, the recording processing unit 107 converts the image data stored in the memory 106 into a predetermined recording format and records the image data in the recording medium 108. The image data and the distance map data are generated based on signals at the same timing in the imaging sensor 103.

次に、本実施形態による撮像装置の動作について、図3乃至図10を用いて説明する。   Next, the operation of the imaging device according to the present embodiment will be described using FIG. 3 to FIG.

本実施形態による撮像装置10は、例えば図3に示すフローチャートに従って制御することができる。   The imaging device 10 according to the present embodiment can be controlled, for example, according to the flowchart shown in FIG.

まず、ステップS301において、不図示の操作部を介して電源が投入され、撮像装置10の動作が開始する。   First, in step S301, power is turned on via the operation unit (not shown), and the operation of the imaging device 10 is started.

次いで、ステップS302において、撮像光学系101を介して撮像センサ103に入射する撮影中の被写体像が、撮像センサ103において電気信号に変換されて画像処理部104に入力される。そして、この画像データに対して画像処理部104において所定の画像処理が施され、処理後の画像データがメモリ106に保存される。メモリ106に保存された画像データは、表示処理部111に読み出され、表示部112に表示される。   Next, in step S302, the image of the subject being imaged which is incident on the imaging sensor 103 via the imaging optical system 101 is converted into an electrical signal in the imaging sensor 103 and input to the image processing unit 104. The image processing unit 104 applies predetermined image processing to the image data, and the processed image data is stored in the memory 106. The image data stored in the memory 106 is read by the display processing unit 111 and displayed on the display unit 112.

また、撮像センサ103からは、AF用の焦点検出用信号(前述の位相差情報)も出力され、距離情報生成部105に入力される。距離情報生成部105は、焦点検出用信号に基づき距離マップを生成し、メモリ106に保存する。   Further, a focus detection signal for AF (the above-described phase difference information) is also output from the imaging sensor 103, and is input to the distance information generation unit 105. The distance information generation unit 105 generates a distance map based on the focus detection signal, and stores the distance map in the memory 106.

次いで、ステップS303において、タッチパネル114に対するユーザの指等によるタッチ操作を検出すると、タッチパネル114はその操作に応じた信号を位置検出部113に出力する。タッチパネル114が出力する信号としては、指の押下状態を示す信号、押下されている場合にはその位置を示す信号等が挙げられる。   Next, in step S303, when a touch operation by the user's finger or the like on the touch panel 114 is detected, the touch panel 114 outputs a signal corresponding to the operation to the position detection unit 113. As a signal which touch panel 114 outputs, a signal which shows a pressing state of a finger, a signal which shows the position when it is pressed, etc. are mentioned.

位置検出部113は、タッチパネル114から、所定のサンプリングレートで、押下に応じた信号を受け取る。そして、タッチパネル114の押下状態、タッチパネル114が押下されているときには表示部112の画面上の2次元的な位置を示すデータを、システム制御部110に出力する。   The position detection unit 113 receives, from the touch panel 114, a signal corresponding to the pressing at a predetermined sampling rate. Then, data indicating a two-dimensional position on the screen of the display unit 112 is output to the system control unit 110 when the touch panel 114 is pressed or when the touch panel 114 is pressed.

システム制御部110は、位置検出部113から受信したデータをもとに、タッチパネルに対する指の操作状態を検出する。指の操作状態としては、タッチパネル114に指が触れた状態(以下、「プレス」と呼ぶ)、タッチパネル114から指を離した状態(以下、「アンプレス」と呼ぶ)、プレスしたまま移動中の状態(以下、「ムーブ」と呼ぶ)等が挙げられる。   The system control unit 110 detects an operation state of the finger on the touch panel based on the data received from the position detection unit 113. As the operation state of the finger, a state in which the finger touches the touch panel 114 (hereinafter referred to as “press”), a state in which the finger is released from the touch panel 114 (hereinafter referred to as “unpress”), A state (hereinafter, referred to as "move") and the like can be mentioned.

操作状態が「プレス」であるとシステム制御部110が判断した場合には、ステップS304に移行する。一方、操作状態が「プレス」ではない場合には、ステップS303において位置検出部113からの次のデータを待ち受ける。   If the system control unit 110 determines that the operation state is "press", the process proceeds to step S304. On the other hand, when the operation state is not "press", the next data from the position detection unit 113 is waited in step S303.

ステップS304では、システム制御部110は、指の操作状態が「ムーブ」であるかどうかを、位置検出部113から受信したデータに基づいて判定する。その結果、指の操作状態が「ムーブ」であると判定された場合には、ステップS307に移行する。   In step S304, the system control unit 110 determines whether the operation state of the finger is "move" based on the data received from the position detection unit 113. As a result, when it is determined that the operation state of the finger is "move", the process proceeds to step S307.

ステップS307において、システム制御部110は、表示部112に表示されている被写体像が拡大表示状態か否かを判定する。なお、拡大表示状態とは、後述するステップS308において被写体像の一部の領域が拡大表示されたときの状態である。その結果、拡大表示状態であると判定された場合には、ムーブした移動量及び方向に応じて、拡大表示画像を移動する。一方、表示部112に表示されている被写体像が拡大表示状態ではないと判定された場合には、そのままの状態を保持し、ステップS302に戻る。   In step S307, the system control unit 110 determines whether the subject image displayed on the display unit 112 is in the enlargement display state. Note that the enlarged display state is a state when a partial area of the subject image is enlarged and displayed in step S308 described later. As a result, when it is determined that the enlarged display state is set, the enlarged display image is moved according to the moved amount and direction of movement. On the other hand, when it is determined that the subject image displayed on the display unit 112 is not in the enlarged display state, the state as it is is held, and the process returns to step S302.

ステップS304において、システム制御部110により、指の操作状態が「ムーブ」ではないと判定された場合には、ステップS305に移行する。   In step S304, when it is determined by the system control unit 110 that the operation state of the finger is not "move", the process proceeds to step S305.

ステップS305では、距離情報生成部105で生成されメモリ106に保存されている距離マップデータの解析が行われる。ステップS305における距離マップデータの解析手法について、図4及び図5を用いて説明する。   In step S305, analysis of distance map data generated by the distance information generation unit 105 and stored in the memory 106 is performed. An analysis method of distance map data in step S305 will be described with reference to FIGS. 4 and 5.

図4(a)に示すように、表示部112に表示されている撮影中の画面(被写体像401)の中に、被写体403,404,405が含まれているものとする。この被写体像401に対応する距離マップが、図4(b)に示す距離マップ402であるものとする。距離マップ402中、距離データ406,407,408は、それぞれ、被写体403,404,405までの距離を表している。   As shown in FIG. 4A, it is assumed that subjects 403, 404, and 405 are included in the screen (subject image 401) being displayed on the display unit 112. It is assumed that the distance map corresponding to the subject image 401 is the distance map 402 shown in FIG. In the distance map 402, the distance data 406, 407, and 408 represent the distances to the objects 403, 404, and 405, respectively.

ユーザの指409が、被写体像401を表示する表示部112に装着されているタッチパネル114をプレスすると、システム制御部110は、タッチパネル114及び位置検出部113を介して、被写体像401上のプレスされた位置を検出する。例えば、図4(a)の被写体像401において、点Aが検出されたプレス位置(以下、「プレス位置A」と呼ぶ)であるものとする。   When the user's finger 409 presses the touch panel 114 mounted on the display unit 112 displaying the subject image 401, the system control unit 110 is pressed on the subject image 401 via the touch panel 114 and the position detection unit 113. Detect the position where the For example, in the subject image 401 of FIG. 4A, it is assumed that the point A is a detected press position (hereinafter referred to as “press position A”).

システム制御部110は、プレス位置Aを中心に所定の領域Pを設定する。領域Pに対応する距離マップ402上の領域が、図4(b)の領域421である。図4(b)の例では、領域421内に25個の単位領域が含まれており、各単位領域に、被写体像までの距離情報を表す距離データが対応づけられている。   The system control unit 110 sets a predetermined area P around the press position A. The area on the distance map 402 corresponding to the area P is the area 421 in FIG. In the example of FIG. 4B, 25 unit areas are included in the area 421, and each unit area is associated with distance data representing distance information to the subject image.

システム制御部110は、領域421内の距離データを解析して、図5に示すような距離ヒストグラムを生成する。すなわち、システム制御部110は、領域421内の複数の単位領域について、それらの距離データが表す距離毎に数を集計し、距離毎の単位領域の数を、距離の最小値から最大値の昇順に並べる。例えば、図4(b)の領域421については、各距離に対応する単位領域の数は表1に示すようになるので、これをグラフ化すると図5に示す距離ヒストグラムとなる。   The system control unit 110 analyzes the distance data in the area 421 and generates a distance histogram as shown in FIG. That is, the system control unit 110 counts the number of unit areas in each of the plurality of unit areas in the area 421 for each distance represented by the distance data, and increases the number of unit areas for each distance from the minimum value of the distance to the maximum value. Line up. For example, for the area 421 in FIG. 4B, the number of unit areas corresponding to each distance is as shown in Table 1, and when this is graphed, the distance histogram shown in FIG. 5 is obtained.

Figure 2019070822
Figure 2019070822

次いで、ステップS306において、システム制御部110は、生成した距離ヒストグラムに基づいてフォーカスポイント(AFポイント)を確定できるかどうかを判断する。   Next, in step S306, the system control unit 110 determines whether the focus point (AF point) can be determined based on the generated distance histogram.

まず、システム制御部110は、生成された距離ヒストグラムを基にして、距離データを3つの距離パターンに分類する。3つの距離パターンとは、1つ目は単独ピークパターンであり、2つ目は複数ピークパターンであり、3つ目は単一距離パターンである。   First, the system control unit 110 classifies distance data into three distance patterns based on the generated distance histogram. In the three distance patterns, the first is a single peak pattern, the second is a multiple peak pattern, and the third is a single distance pattern.

これら3つの距離パターンについて、図6を用いて説明する。図6(a)は、単独ピークパターンの距離ヒストグラムの概略図である。単独ピークパターンは、図6(a)に示すように、単独のピークを示すデータ区間があり、且つ、単独のピークを示すデータ区間の度数の全データ数に占める割合が所定値以下の場合である。すなわち、単独ピーク以外の距離データも相当数含まれるケースである。図6(b)は、複数ピークパターンの距離ヒストグラムの概略図である。複数ピークパターンは、図6(b)に示すように、ピークを示すデータ区間が複数ある場合である。図6(c)は、単一距離パターンの距離ヒストグラムの概略図である。単一距離パターンは、単独のピークを示すデータ区間があり、且つ、単独のピークを示すデータ区間の度数の全データ数に占める割合が所定値以上の場合である。すなわち、単独ピーク以外の距離データが少数のケースである。   These three distance patterns will be described with reference to FIG. FIG. 6 (a) is a schematic view of a distance histogram of a single peak pattern. As shown in FIG. 6A, the single peak pattern has a data section indicating a single peak, and the ratio of the frequency of the data section indicating a single peak to the total number of data is less than or equal to a predetermined value. is there. That is, in this case, a considerable number of distance data other than a single peak is also included. FIG. 6B is a schematic view of a distance histogram of a plurality of peak patterns. The multiple peak pattern is a case where there are multiple data sections showing peaks, as shown in FIG. 6 (b). FIG. 6C is a schematic view of a distance histogram of a single distance pattern. The single distance pattern has a data section indicating a single peak, and the ratio of the frequency of the data section indicating a single peak to the total number of data is a predetermined value or more. That is, distance data other than a single peak is a small number of cases.

距離ヒストグラムにおけるピーク検出には、例えば以下の方法を用いることができる。ただし、ピーク検出の方法は、以下の方法に限定されるものではなく、公知の他の方法を用いることもできる。   For example, the following method can be used for peak detection in the distance histogram. However, the method of peak detection is not limited to the following method, and other known methods can also be used.

まず、システム制御部110において、距離ヒストグラムにおける度数の平均値を算出する。例えば、図7の距離ヒストグラムにおいて、度数Mが平均値であったものとする。次に、各距離の度数と平均値Mとの差を、それぞれ算出する。そして、その差が所定値以上の場合に、その距離をピークと検出する。例えば図7の例において、平均の度数M及び差の所定値Dが図示するような値であった場合、度数が(M+D)以上である距離(3m〜4m)がピークとして検出される。   First, the system control unit 110 calculates the average value of the frequencies in the distance histogram. For example, in the distance histogram of FIG. 7, it is assumed that the frequency M is an average value. Next, the difference between the frequency of each distance and the average value M is calculated. And when the difference is more than predetermined value, the distance is detected as a peak. For example, in the example of FIG. 7, when the average frequency M and the predetermined value D of the difference are as illustrated, a distance (3 m to 4 m) having a frequency of (M + D) or more is detected as a peak.

このようにしてピーク検出を行った結果、単一距離パターンと検出された場合には、AFポイントが確定したと判定し、検出されたピークに対応するデータ区間の距離情報をシステム制御部110に保存して、ステップS309に移行する。   If a single distance pattern is detected as a result of peak detection in this way, it is determined that the AF point is determined, and the system control unit 110 sends distance information of the data section corresponding to the detected peak to the system control unit 110. It preserve | saves and transfers to step S309.

一方、単独ピークパターン又は複数ピークパターンと検出された場合には、システム制御部110は、AFポイントが確定しないと判定し、ステップS308に移行する。ステップS308では、AFポイントを確定するために、画像の一部を拡大して再表示するための処理を行う。   On the other hand, when a single peak pattern or a plurality of peak patterns are detected, the system control unit 110 determines that the AF point is not determined, and proceeds to step S308. In step S308, in order to confirm the AF point, a process for enlarging and redisplaying a part of the image is performed.

ステップS306におけるピーク検出の結果、単独ピークパターンと判定された場合の処理について、図8の概略図を用いて説明する。図8(a)は距離マップの概略図であり、図8(b)は図8(a)の距離マップをもとに生成した距離ヒストグラムである。   A process when it is determined as a single peak pattern as a result of peak detection in step S306 will be described using the schematic diagram of FIG. FIG. 8 (a) is a schematic view of a distance map, and FIG. 8 (b) is a distance histogram generated based on the distance map of FIG. 8 (a).

図8(a)の距離マップ600において、領域602は、AFポイントを選択する際にユーザが指でプレスした点を中心にシステム制御部110が設定した領域である。図8(b)は、この領域602内の単位領域の距離データをもとにシステム制御部110が生成した距離ヒストグラムである。   In the distance map 600 of FIG. 8A, an area 602 is an area set by the system control unit 110 centering on a point pressed by the user when selecting an AF point. FIG. 8B is a distance histogram generated by the system control unit 110 based on distance data of unit areas in the area 602.

図8(b)の距離ヒストグラムを用い、システム制御部110において前述のピークパターンの検出を行った結果、ピーク601を有する単独ピークパターンであると検出されたものとする。   As a result of detecting the above-mentioned peak pattern in the system control unit 110 using the distance histogram of FIG. 8B, it is assumed that the single peak pattern having the peak 601 is detected.

単独のピーク601が検出された場合、システム制御部110において、ピーク601に対応するデータ区間(3m−4m)を示す単位領域を、距離マップ600から抽出し、抽出した単位領域の重心の位置を算出する。そして、システム制御部110は、算出した重心の位置を中心として、切り出し領域を設定する。この際、ピーク601のデータ区間に対応する距離情報を示す単位領域の切り出し領域内に占める割合が所定値、例えば50%程度になるように、切り出しサイズを算出する。図8(a)の例では、点線で示した領域603が、切り出し領域としてシステム制御部110により設定されたものとする。   When a single peak 601 is detected, the system control unit 110 extracts a unit area indicating a data section (3 m-4 m) corresponding to the peak 601 from the distance map 600, and the position of the center of gravity of the extracted unit area calculate. Then, the system control unit 110 sets a cutout region around the calculated position of the center of gravity. At this time, the cutout size is calculated so that the ratio occupied in the cutout area of the unit area indicating the distance information corresponding to the data section of the peak 601 becomes a predetermined value, for example, about 50%. In the example of FIG. 8A, it is assumed that the area 603 indicated by a dotted line is set by the system control unit 110 as a cutout area.

ステップS306におけるピーク検出の結果、複数ピークパターンと判定された場合の処理について、図9の概略図を用いて説明する。図9(a)は距離マップデータの概略図であり、図9(b)は図9(a)の距離マップデータをもとに生成した距離ヒストグラムである。   A process in the case where it is determined as a plurality of peak patterns as a result of peak detection in step S306 will be described using the schematic diagram of FIG. FIG. 9A is a schematic diagram of distance map data, and FIG. 9B is a distance histogram generated based on the distance map data of FIG. 9A.

図9(a)は、図4(a)に示した撮影中の画像401に対応する距離マップ402であり、領域421はプレス位置Aに対応してシステム制御部110が設定した領域である。図9(b)は、領域421内の単位領域の距離データをもとにシステム制御部110が生成した距離ヒストグラムである。図9(b)の距離ヒストグラムは、複数のピーク701,702を有する複数ピークパターンに分類される。   FIG. 9A is a distance map 402 corresponding to the image 401 being photographed shown in FIG. 4A, and an area 421 is an area set by the system control unit 110 corresponding to the press position A. FIG. 9B is a distance histogram generated by the system control unit 110 based on distance data of unit areas in the area 421. The distance histogram of FIG. 9B is classified into a plurality of peak patterns having a plurality of peaks 701 and 702.

複数ピークパターンが検出された場合、システム制御部110において、ピーク701に対応するデータ区間(1m−2m)及びピーク702に対応するデータ区間(3m−4m)を示す単位領域を、距離マップデータから抽出する。そして、システム領域110は、抽出した単位領域の重心の位置を算出し、算出した重心の位置を中心として、切り出し領域を設定する。この際、ピーク701,702のデータ区間に対応する距離情報を示す単位領域の切り出し領域内に占める割合が所定値、例えば50%程度になるように、切り出しサイズを算出する。図9(a)の例では、点線で示した領域704が、切り出し領域としてシステム制御部110により設定されたものとする。   When a plurality of peak patterns are detected, in system control section 110, a unit area indicating a data section (1 m-2 m) corresponding to peak 701 and a data section (3 m-4 m) corresponding to peak 702 is Extract. Then, in the system area 110, the position of the center of gravity of the extracted unit area is calculated, and the cutout area is set around the position of the calculated center of gravity. At this time, the cutout size is calculated so that the ratio occupied in the cutout area of the unit area indicating the distance information corresponding to the data section of the peaks 701 and 702 becomes a predetermined value, for example, about 50%. In the example of FIG. 9A, it is assumed that the area 704 indicated by a dotted line is set by the system control unit 110 as a cutout area.

このようにして切り出し領域を設定した後、ステップS302に戻り、拡大画像の表示が行われる。すなわち、システム制御部110は、メモリ106に保存されている撮影中の画像から切り出し領域に対応するデータを読み出して拡大処理するように、表示処理部111に指示を出す。表示処理部111は、メモリ106から読み出したデータを拡大処理して表示部112に出力する。その結果、領域603に対応する撮影中の画像の一部が拡大され、表示部112に表示される。   After the cutout region is set in this manner, the process returns to step S302, and the display of the enlarged image is performed. That is, the system control unit 110 instructs the display processing unit 111 to read out data corresponding to the cutout area from the image being captured stored in the memory 106 and to perform enlargement processing. The display processing unit 111 enlarges the data read from the memory 106 and outputs the data to the display unit 112. As a result, a part of the image being photographed corresponding to the area 603 is enlarged and displayed on the display unit 112.

距離ヒストグラムのピークパターンに応じてAFポイントを確定するか拡大画像を表示するかを自動的に判断することにより、ユーザが画面上でピンチアウトなどして所望の位置を所望のサイズに拡大するステップを省略することができる。特に、撮像装置を手持ちしている状態でピンチアウト等を行う操作は煩雑であり手間がかかるため、本実施形態の方法は極めて有用である。   A step of the user expanding a desired position to a desired size by pinching out on the screen or the like by automatically determining whether to determine the AF point or display the enlarged image according to the peak pattern of the distance histogram Can be omitted. In particular, the operation of performing pinch-out or the like while holding the imaging apparatus is complicated and time-consuming, so the method of the present embodiment is extremely useful.

図10(a)は、複数ピークパターンと判定された場合の拡大画像であり、図9(a)の領域704に対応する画像を拡大したものである。拡大画像801には、被写体802と被写体804とが含まれている。   FIG. 10A is an enlarged image in the case where it is determined that there are a plurality of peak patterns, and an image corresponding to the region 704 in FIG. 9A is enlarged. The magnified image 801 includes a subject 802 and a subject 804.

ステップS302において表示部112に拡大画像が表示された後は、以後のステップにおいては、拡大画像に対して上述の処理が行われる。すなわち、拡大画像801に対してユーザが指で被写体802をタッチすると、ステップS303において、タッチパネル押下が検出される。次いで、ステップS304において、システム制御部110は、ムーブ操作か否かの検出を行う。次いで、ステップS305において、押下した領域の距離マップデータの解析が行われる。   After the enlarged image is displayed on the display unit 112 in step S302, the above-described processing is performed on the enlarged image in the subsequent steps. That is, when the user touches the subject 802 with the finger on the enlarged image 801, touch panel depression is detected in step S303. Next, in step S304, the system control unit 110 detects whether it is a move operation. Next, in step S305, analysis of distance map data of the pressed area is performed.

図10(a)の例においては、領域803に対応する距離マップが解析対象となる。図10(b)に、領域803において検出される距離ヒストグラムの概略図を示す。   In the example of FIG. 10A, the distance map corresponding to the area 803 is to be analyzed. FIG. 10B shows a schematic view of the distance histogram detected in the area 803.

ステップS306において、システム制御部110は、領域803において検出された距離ヒストグラムのピークパターンを分析する。図10(b)の距離ヒストグラムは、単独のピークを有し、且つ、ピークの距離の度数が全データ数に対して占める割合が所定数以上なので、単一距離パターンと判定され、領域803内は略同一の距離と判断することができる。この結果、システム制御部110は、AFポイントが確定したと判断し、当該ピークの距離情報を保存して、ステップS309に移行する。   In step S306, the system control unit 110 analyzes the peak pattern of the distance histogram detected in the area 803. The distance histogram in FIG. 10B has a single peak, and since the ratio of the frequency of the peak distance to the total number of data is equal to or greater than a predetermined number, it is determined to be a single distance pattern. Can be determined as substantially the same distance. As a result, the system control unit 110 determines that the AF point is determined, stores the distance information of the peak, and shifts to step S309.

ステップS308において設定された領域の画像を拡大処理して表示する際には、拡大した被写体に合焦するようにフォーカス制御を行った画像を取得して表示することが望ましい。例えば、単独ピークパターンの場合には、距離ヒストグラムのピークの距離に合わせてフォーカス制御を行うことにより、拡大表示したときにピークの距離に位置する被写体はフォーカスが合った状態にすることができる。また、複数ピークパターンの場合には、複数ピークの中で最大の度数の距離に合わせてフォーカスを合わせることにより、拡大表示したとき最大度数のピークの距離に位置する被写体にフォーカスが合った画像となる。これにより、拡大画像でAFポイントを選択する際に視認性を向上することができる。   When enlarging and displaying the image of the area set in step S308, it is desirable to obtain and display an image for which focus control has been performed so as to focus on the enlarged subject. For example, in the case of a single peak pattern, by performing focus control in accordance with the distance of the peak of the distance histogram, the subject positioned at the distance of the peak when enlarged display can be brought into a focused state. In the case of a multiple peak pattern, by focusing on the distance of the largest frequency among the multiple peaks, an image in which the subject located at the distance of the peak of the largest frequency is in focus when enlarged display Become. This makes it possible to improve the visibility when selecting an AF point in the enlarged image.

次いで、ステップS309において、システム制御部110は、保存されているピークの距離情報を用い、フォーカス制御部102にフォーカス制御の指示を出す。フォーカス制御部102では、指示された距離で合焦するように撮像光学系101を制御する。その結果、ピーク領域の被写体にフォーカスが合った画像を取得し表示部112に表示することができる。   Next, in step S309, the system control unit 110 instructs the focus control unit 102 to perform focus control using the stored distance information of the peaks. The focus control unit 102 controls the imaging optical system 101 so as to focus at the designated distance. As a result, an image in which the subject in the peak area is in focus can be acquired and displayed on the display unit 112.

このように、本実施形態の撮像装置では、タッチパネル操作でフォーカスを合わせる被写体領域を選択する際に、距離データマップに基づいて自動的に適切なサイズに拡大表示するので、簡便かつ確実にAFポイントを設定することができる。これにより、利便性、使い勝手の優れた撮像装置を実現することができる。   As described above, in the image pickup apparatus according to the present embodiment, when a subject region to be focused is selected by the touch panel operation, the AF point is automatically enlarged to an appropriate size based on the distance data map. Can be set. As a result, an imaging device with excellent convenience and usability can be realized.

[第2実施形態]
本発明の第2実施形態による撮像装置及びその駆動方法について、図11及び図12を用いて説明する。図1乃至図10に示す第1実施形態による撮像装置と同様の構成要素には同様の符号を付し説明を省略し或いは簡潔にする。
Second Embodiment
An imaging apparatus and a method of driving the same according to a second embodiment of the present invention will be described with reference to FIGS. 11 and 12. The same members of the present embodiment as those of the imaging device according to the first embodiment shown in FIGS. 1 to 10 are represented by the same reference numbers not to repeat or to simplify their explanation.

図11は、AFポイントにおける遠近競合の発生例を説明する図である。図12は、本発明の第2実施形態による撮像装置の制御方法を示す表示画面の模式図である。   FIG. 11 is a diagram for explaining an example of occurrence of near and far conflict at an AF point. FIG. 12 is a schematic view of a display screen showing a control method of the imaging device according to the second embodiment of the present invention.

本実施形態による撮像装置の制御方法は、第1実施形態による撮像装置の駆動方法において、拡大表示した画像においてもAFポイントの選択が困難な場合に対応するものである。以下、本実施形態による撮像装置の駆動方法の特徴的な部分について、図を用いて説明する。   The control method of the image pickup apparatus according to the present embodiment corresponds to the case where it is difficult to select the AF point even in the image which is enlarged and displayed in the method of driving the image pickup apparatus according to the first embodiment. Hereinafter, characteristic parts of the driving method of the imaging device according to the present embodiment will be described with reference to the drawings.

図11(a)は拡大表示した画像の一例を示す模式図であり、図11(b)は図11(a)の拡大画像を生成する際に用いられた距離ヒストグラムの一例を示す概略図である。   FIG. 11 (a) is a schematic view showing an example of an enlarged image, and FIG. 11 (b) is a schematic view showing an example of a distance histogram used when generating the enlarged image of FIG. 11 (a). is there.

図11(a)において、密なハッチングを付した4本の帯状の領域1102は、図11(b)の距離ヒストグラムのデータ区間(2m−3m)に位置するピークに対応する被写体であるものとする。また、疎なハッチングを付した4本の帯状の領域1103は、図11(b)の距離ヒストグラムのデータ区間(4m−5m)に位置するピークに対応する被写体であるものとする。このような場合、拡大画像1101を指でプレスしてAFポイントを設定しようとしても、領域1102,1103が細くて隣接しているため、領域1102又は領域1103のいずれかを選んで正確にプレスすることは難しい。   In FIG. 11A, four belt-like regions 1102 with dense hatching are objects corresponding to the peaks located in the data section (2 m-3 m) of the distance histogram of FIG. Do. In addition, it is assumed that four band-like regions 1103 with sparse hatching correspond to the peaks located in the data section (4 m to 5 m) of the distance histogram of FIG. In such a case, even if the magnified image 1101 is pressed with a finger to set an AF point, either the region 1102 or the region 1103 is selected and pressed accurately because the regions 1102 and 1103 are thin and adjacent to each other. Things are difficult.

そこで、本実施形態による撮像装置においては、不図示の操作部又は表示部112にGUIを表示して、ユーザが表示モードを切り換えることができるように構成されている。   Therefore, in the imaging apparatus according to the present embodiment, a GUI is displayed on the operation unit or display unit 112 (not shown) so that the user can switch the display mode.

例えば、システム制御部110は、操作部又はタッチパネル114の操作を検出し、更にその操作が表示モード切り換えボタンの操作であることを検出すると、表示部112の表示を、例えば図12の画面1201のような構成に変更する。   For example, when the system control unit 110 detects the operation of the operation unit or the touch panel 114 and further detects that the operation is the operation of the display mode switching button, the display of the display unit 112 is displayed on the screen 1201 of FIG. Change to a similar configuration.

画面1201は、拡大画像1202と、距離ヒストグラム1203とを含む。拡大画像1202は、第1実施形態で説明した拡大画像(拡大画像801に相当)であり、表示処理部111により生成される。また、距離ヒストグラム1203は、拡大画像のもとになる距離ヒストグラムである。システム制御部110は、距離ヒストグラムデータを算出し、算出した距離ヒストグラムデータを用いて図12に示すようなGUIデータを生成し、メモリ106に保存する。表示処理部111は、メモリ106に保存されているGUIデータを読み出し、表示部112に表示する。   The screen 1201 includes a magnified image 1202 and a distance histogram 1203. The magnified image 1202 is the magnified image (corresponding to the magnified image 801) described in the first embodiment, and is generated by the display processing unit 111. The distance histogram 1203 is a distance histogram that is the basis of the enlarged image. The system control unit 110 calculates distance histogram data, generates GUI data as shown in FIG. 12 using the calculated distance histogram data, and stores the GUI data in the memory 106. The display processing unit 111 reads GUI data stored in the memory 106 and displays the data on the display unit 112.

ユーザは、拡大画像1202の代わりに距離ヒストグラム1203をプレスすることで、被写体を選択することができる。例えば、AFポイントとして領域1102の被写体を選択しようとする場合、領域1102に対応する距離ヒストグラム1203のデータ区間1204をプレスする。このようにすることで、所望の被写体をAFポイントとして容易に選択することができる。プレス位置の検出等については第1実施形態1と同様であるため、ここでは説明を省略する。   The user can select a subject by pressing the distance histogram 1203 instead of the enlarged image 1202. For example, when it is intended to select the subject in the area 1102 as the AF point, the data section 1204 of the distance histogram 1203 corresponding to the area 1102 is pressed. By doing this, a desired subject can be easily selected as an AF point. The detection of the press position and the like are the same as in the first embodiment, and thus the description thereof is omitted here.

なお、図12のように、距離ヒストグラム1203のデータ区間毎に色やパターンを変え、各データ区間に対応する距離に位置する被写体に同じ色やパターンを付けるようにしてもよい。このようにすることで、距離ヒストグラム1203のデータ区間と拡大画像の被写体との関連を明確にすることができ、所望の被写体に対応するデータ区間をユーザが容易に指定できるようになる。   As shown in FIG. 12, the color or pattern may be changed for each data section of the distance histogram 1203, and the same color or pattern may be attached to the object located at the distance corresponding to each data section. By doing this, the relationship between the data section of the distance histogram 1203 and the subject of the enlarged image can be clarified, and the user can easily specify the data section corresponding to the desired subject.

このように、本実施形態によれば、ユーザが選択したフォーカスエリアにおいて遠近競合が生じるような場合にも、所望の被写体をAFポイントとして容易に選択することができる。   As described above, according to the present embodiment, it is possible to easily select a desired subject as the AF point even when the near and far conflict occurs in the focus area selected by the user.

[第3実施形態]
本発明の第3実施形態による撮像装置及びその駆動方法ついて、図13を用いて説明する。図1乃至図12に示す第1及び第2実施形態による撮像装置及びその駆動方法と同様の構成要素には同様の符号を付し説明を省略し或いは簡潔にする。
Third Embodiment
An imaging apparatus and a method of driving the same according to a third embodiment of the present invention will be described with reference to FIG. The same members of the present embodiment as those of the imaging device and the driving method according to the first and the second embodiments shown in FIGS. 1 to 12 are represented by the same reference numbers not to repeat or to simplify their explanation.

図13は、本実施形態による撮像装置の制御方法において表示する距離ヒストグラムの一例を示す図である。   FIG. 13 is a diagram showing an example of the distance histogram displayed in the control method of the imaging device according to the present embodiment.

本実施形態による撮像装置の駆動方法は、段階的に距離マップデータの精度を向上することにより、より高精度のフォーカス合わせに対応するものである。   The driving method of the imaging apparatus according to the present embodiment copes with focusing with higher accuracy by improving the accuracy of the distance map data in stages.

第2実施形態による撮像装置の駆動方法において、表示部112に、例えば図10(a)に示す拡大画像801と、その基になった距離ヒストグラム(図13(a))とを含むGUIが表示されていたものとする。   In the method of driving the imaging apparatus according to the second embodiment, the display unit 112 displays a GUI including, for example, an enlarged image 801 shown in FIG. 10A and a distance histogram (FIG. 13A) based thereon. It shall have been done.

この場合、第2実施形態による撮像装置の駆動方法に従うと、ユーザは距離(1m−2m)に対応するデータ区間をAFポイントとして選択することになるが、より高精度の距離範囲に基づくAFポイントの設定をユーザが望むことも想定される。そこで、本実施形態による撮像装置の駆動方法では、以下の処理を行うことにより、より高精度のフォーカス合わせを可能とする。   In this case, according to the method of driving the imaging device according to the second embodiment, the user selects the data section corresponding to the distance (1 m-2 m) as the AF point, but the AF point based on the higher precision distance range It is also assumed that the user desires the setting of. Therefore, in the method of driving an imaging device according to the present embodiment, focusing can be performed with higher accuracy by performing the following processing.

システム制御部110は、拡大画像801がプレスされたことを検出すると、GUIとして図13(a)の距離ヒストグラムを表示するとともに、プレス開始からの経過時間を計測する。   When detecting that the enlarged image 801 has been pressed, the system control unit 110 displays the distance histogram of FIG. 13A as a GUI and measures an elapsed time from the start of the press.

拡大画像801のプレスからの経過時間が所定時間に達する前に、GUIとして表示されている距離ヒストグラムのあるデータ区間がプレスされた場合には、第2実施形態の駆動方法に従って処理を継続する。   If a data section having a distance histogram displayed as a GUI is pressed before the elapsed time from the press of the enlarged image 801 reaches a predetermined time, the processing is continued according to the driving method of the second embodiment.

拡大画像801のプレスからの経過時間が所定時間を超えるまでに距離ヒストグラムに対するプレスが検出されなかった場合、システム制御部110は、距離情報生成部105に対して、生成する距離情報の単位をより細かい単位に設定するように指示する。距離情報生成部105は、新たに設定された単位に従って、距離マップデータを再生成する。そして、システム制御部110は、再生成された距離マップデータに基づいて、データ区間の解像度をより高くした距離ヒストグラムを生成する。   If the press on the distance histogram is not detected before the elapsed time from the press on the enlarged image 801 exceeds the predetermined time, the system control unit 110 instructs the distance information generation unit 105 to use a unit of distance information to be generated. Instructs you to set in fine units. The distance information generation unit 105 regenerates the distance map data according to the newly set unit. Then, the system control unit 110 generates a distance histogram in which the resolution of the data section is increased based on the regenerated distance map data.

図13(b)は、再生成した距離ヒストグラムの一例である。図13(a)の距離ヒストグラムでは1m単位でデータ区間が分けられていたが、図13(b)の距離ヒストグラムでは0.2m単位でデータ区間が分けられており、5倍の精度となっている。   FIG. 13B is an example of the regenerated distance histogram. In the distance histogram of FIG. 13 (a), the data section is divided by 1 m, but in the distance histogram of FIG. 13 (b), the data section is divided by 0.2 m, and the accuracy is 5 times. There is.

再生成された距離ヒストグラムは、表示処理部111により、GUIとして表示部112に表示される。そして、表示された距離ヒストグラムの特定のデータ区間をユーザが指でプレスすることにより、被写体の所望のポイントにフォーカスを合わせることが可能となる。   The display histogram is displayed on the display unit 112 as a GUI by the display processing unit 111. Then, when the user presses a specific data section of the displayed distance histogram with a finger, it is possible to focus on a desired point of the subject.

このように、本実施形態によれば、より高い精度で所望の被写体にAFポイントを設定することができる。   Thus, according to the present embodiment, it is possible to set an AF point on a desired subject with higher accuracy.

[変形実施形態]
本発明は、上記実施形態に限らず種々の変形が可能である。
例えば、上記第1実施形態による撮像装置の構成は、一例を示したものであり、本発明を適用可能な撮像装置は図1に示した構成に限定されるものではない。
[Modified embodiment]
The present invention is not limited to the above embodiment, and various modifications are possible.
For example, the configuration of the imaging device according to the first embodiment is an example, and the imaging device to which the present invention can be applied is not limited to the configuration shown in FIG.

また、上記実施形態に示した撮像装置の制御方法における各ステップは、それらを実現するためのプログラムをメモリから読み出してシステム制御部110のCPUが実行することによりその機能を実現させるものである。各ステップの全部又は一部の機能は、専用のハードウェアにより実現してもよい。   In addition, each step in the control method of the imaging device shown in the above-described embodiment realizes the function by reading a program for realizing them from the memory and executing it by the CPU of the system control unit 110. All or part of the functions of each step may be realized by dedicated hardware.

なお、上述したメモリは、光磁気ディスク装置、フラッシュメモリ等の不揮発性メモリや、CD−ROM等の読み出しのみが可能な記憶媒体、RAM以外の揮発性のメモリであってもよい。また、それらの組合せによるコンピュータ読み取り、書き込み可能な記憶媒体より構成されてもよい。   The memory described above may be a non-volatile memory such as a magneto-optical disk device or a flash memory, a storage medium such as a CD-ROM which can only read data, or a volatile memory other than a RAM. Also, the present invention may be configured from a computer readable and writable storage medium by a combination thereof.

また、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   In addition, a program that implements one or more functions of the above-described embodiments is supplied to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. But it is possible. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

例えば、上記各ステップを実現するためのプログラムをコンピュータ読み取り可能な記憶媒体に記録して、この記憶媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含む。   For example, a program for realizing the above steps may be recorded in a computer readable storage medium, and the computer system may read and execute the program recorded in the storage medium to perform each process. Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, the program read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program, the CPU provided in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized.

また、「コンピュータ読み取り可能な記憶媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記憶媒体」とは、一定時間プログラムを保持しているものも含むものとする。例えば、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)も含む。これらは、一定時間プログラムを保持する記憶媒体である。   Further, the "computer-readable storage medium" refers to a storage device such as a flexible disk, a magneto-optical disk, a ROM, a portable medium such as a ROM or a CD-ROM, or a hard disk built in a computer system. Furthermore, the "computer-readable storage medium" also includes one that holds a program for a certain period of time. For example, it also includes volatile memory (RAM) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. These are storage media that hold programs for a fixed time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by transmission waves in the transmission medium. Here, the “transmission medium” for transmitting the program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the program may be for realizing a part of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。   A program product such as a computer readable recording medium having the above program recorded thereon can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium and program product are included in the scope of the present invention.

上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.

101・・・撮像光学系
102・・・フォーカス制御部
103・・・撮像センサ
104・・・画像処理部
105・・・距離情報生成部
106・・・メモリ
107・・・記録処理部
108・・・記録媒体
109・・・ROM
110・・・システム制御部
111・・・表示処理部
112・・・表示部
113・・・位置検出部
114・・・タッチパネル
101 ... imaging optical system 102 ... focus control unit 103 ... imaging sensor 104 ... image processing unit 105 ... distance information generation unit 106 ... memory 107 ... recording processing unit 108 ... .Recording medium 109 ... ROM
110: System control unit 111: Display processing unit 112: Display unit 113: Position detection unit 114: Touch panel

Claims (9)

撮像素子により撮影された被写体の画像と、前記撮像素子と前記被写体との間の距離情報に対応したマップ情報と、を取得する取得手段と、
前記マップ情報に基づき距離ヒストグラムを生成する生成手段と、
前記画像と、前記画像に対応する前記距離ヒストグラムと、を表示部に表示する表示制御手段と、
前記表示部に表示した前記距離ヒストグラムへのユーザによるタッチ操作を検出する検出手段と、
前記画像内において前記ユーザがタッチした前記距離ヒストグラムのデータ区間に対応する前記距離情報を示すエリアを、フォーカスエリアとして設定する設定手段と
を有することを特徴とする情報処理装置。
Acquisition means for acquiring an image of a subject taken by an imaging device and map information corresponding to distance information between the imaging device and the subject;
Generation means for generating a distance histogram based on the map information;
Display control means for displaying the image and the distance histogram corresponding to the image on a display unit;
A detection unit that detects a touch operation by the user on the distance histogram displayed on the display unit;
An setting unit configured to set, as a focus area, an area indicating the distance information corresponding to a data section of the distance histogram touched by the user in the image.
前記表示制御手段は、前記画像と前記距離ヒストグラムとを前記表示部に同時に表示する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the display control means simultaneously displays the image and the distance histogram on the display unit.
前記表示制御手段は、データ区間の各々が異なるように表された前記距離ヒストグラムを表示する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the display control unit displays the distance histogram in which each of the data sections is represented differently.
前記表示制御手段は、データ区間毎に異なる色又はパターンで表された前記距離ヒストグラムを表示し、
前記表示制御手段は、前記画像の、前記データ区間の各々に対応する距離に位置する被写体に、前記データ区間と同じ色又はパターンを付けて表示する
ことを特徴とする請求項1に記載の情報処理装置。
The display control means displays the distance histogram represented by different colors or patterns for each data section;
The information according to claim 1, wherein the display control means displays the subject at a distance corresponding to each of the data sections of the image with the same color or pattern as that of the data sections. Processing unit.
前記表示制御手段は、データ区間毎に異なるGUIを備えた前記距離ヒストグラムを表示する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the display control means displays the distance histogram provided with a different GUI for each data section.
前記設定手段は、前記生成手段により生成された前記距離ヒストグラムの分布に基づいて前記フォーカスエリアを自動的に設定する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the setting unit automatically sets the focus area based on a distribution of the distance histogram generated by the generation unit.
前記生成手段は、解像度が互いに異なる複数の前記距離ヒストグラムを生成する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the generation unit generates a plurality of distance histograms having different resolutions.
前記設定手段により設定された前記フォーカスエリアに基づいて、前記撮像素子に前記被写体の光学像を形成するための撮像光学系のフォーカス位置制御機構の動作を制御する焦点制御部を更に有する
ことを特徴とする請求項1に記載の情報処理装置。
The apparatus further includes a focus control unit that controls an operation of a focus position control mechanism of an imaging optical system for forming an optical image of the subject on the imaging device based on the focus area set by the setting unit. The information processing apparatus according to claim 1, wherein
撮像素子により撮影された被写体の画像と、前記撮像素子と前記被写体との間の距離情報に対応したマップ情報と、を取得するステップと、
前記マップ情報に基づき距離ヒストグラムを生成するステップと、
前記画像と、前記画像に対応する前記距離ヒストグラムと、を表示部に表示するステップと、
前記表示部に表示した前記距離ヒストグラムへのユーザによるタッチ操作を検出するステップと、
前記画像内において前記ユーザがタッチした前記距離ヒストグラムのデータ区間に対応する前記距離情報を示すエリアを、フォーカスエリアとして設定するステップと
を有することを特徴とする情報処理方法。
Acquiring an image of a subject captured by an imaging device, and map information corresponding to distance information between the imaging device and the subject;
Generating a distance histogram based on the map information;
Displaying the image and the distance histogram corresponding to the image on a display unit;
Detecting a touch operation by the user on the distance histogram displayed on the display unit;
Setting an area indicating the distance information corresponding to a data section of the distance histogram touched by the user in the image as a focus area.
JP2018234292A 2018-12-14 2018-12-14 Imaging apparatus and control method of the same Pending JP2019070822A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018234292A JP2019070822A (en) 2018-12-14 2018-12-14 Imaging apparatus and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234292A JP2019070822A (en) 2018-12-14 2018-12-14 Imaging apparatus and control method of the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015011574A Division JP6478654B2 (en) 2015-01-23 2015-01-23 Imaging apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2019070822A true JP2019070822A (en) 2019-05-09

Family

ID=66441179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234292A Pending JP2019070822A (en) 2018-12-14 2018-12-14 Imaging apparatus and control method of the same

Country Status (1)

Country Link
JP (1) JP2019070822A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11317016B2 (en) 2020-02-03 2022-04-26 Canon Kabushiki Kaisha Image processing device, control method thereof, imaging device, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003262910A (en) * 2002-03-12 2003-09-19 Casio Comput Co Ltd Image pickup device, focusing situation display method and program
JP2010093422A (en) * 2008-10-06 2010-04-22 Canon Inc Imaging apparatus
JP2013093754A (en) * 2011-10-26 2013-05-16 Olympus Corp Imaging apparatus
JP2013142725A (en) * 2012-01-06 2013-07-22 Canon Inc Image display device, imaging apparatus including the same, image display method, program, storage medium storing the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003262910A (en) * 2002-03-12 2003-09-19 Casio Comput Co Ltd Image pickup device, focusing situation display method and program
JP2010093422A (en) * 2008-10-06 2010-04-22 Canon Inc Imaging apparatus
JP2013093754A (en) * 2011-10-26 2013-05-16 Olympus Corp Imaging apparatus
JP2013142725A (en) * 2012-01-06 2013-07-22 Canon Inc Image display device, imaging apparatus including the same, image display method, program, storage medium storing the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11317016B2 (en) 2020-02-03 2022-04-26 Canon Kabushiki Kaisha Image processing device, control method thereof, imaging device, and recording medium

Similar Documents

Publication Publication Date Title
JP6478654B2 (en) Imaging apparatus and control method thereof
US10205869B2 (en) Video processing apparatus, control method, and recording medium
US20120105590A1 (en) Electronic equipment
US20130239050A1 (en) Display control device, display control method, and computer-readable recording medium
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
CN102566918A (en) Display control apparatus and control method therefore
CN103945109A (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
JP2011146821A (en) Device and method for providing tactile information, and program
JP6700813B2 (en) Image processing device, imaging device, image processing method, and program
JP2008079193A (en) Digital camera
JP5693022B2 (en) Display control device, display control system, and control method, program, and storage medium thereof
JP2019070822A (en) Imaging apparatus and control method of the same
WO2018055659A1 (en) Screen sharing system, screen sharing method, and program
US9973641B2 (en) Multi-function printer
JP7091606B2 (en) Terminals, character recognition systems, terminal control methods and programs
US11816294B2 (en) Image processing device, imaging device, method of controlling image processing device, and recording medium, with outputting image if accepting first action and with outputting distribution information of evaluation values if accepting second action
JP6778399B2 (en) Image reader, image forming device, image reading method and image reading program
US10270929B2 (en) Image processing apparatus, control method, and recording medium
JP7204514B2 (en) Image output device, its control method, and program
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN106033622B (en) Data acquisition and target object reconstruction method and device
JP2022184137A (en) Information processing apparatus, information processing method, and program
JP2014203119A (en) Input device, input processing method, and program
JPH10322629A (en) Image pickup device, image pickup system and storage medium
JP4298727B2 (en) Image information display system, image information display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200428