JP2021158560A - Display device and control method of the same - Google Patents

Display device and control method of the same Download PDF

Info

Publication number
JP2021158560A
JP2021158560A JP2020057791A JP2020057791A JP2021158560A JP 2021158560 A JP2021158560 A JP 2021158560A JP 2020057791 A JP2020057791 A JP 2020057791A JP 2020057791 A JP2020057791 A JP 2020057791A JP 2021158560 A JP2021158560 A JP 2021158560A
Authority
JP
Japan
Prior art keywords
finder
display device
setting
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020057791A
Other languages
Japanese (ja)
Inventor
誠 池田
Makoto Ikeda
誠 池田
雄資 白川
Yusuke Shirakawa
雄資 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020057791A priority Critical patent/JP2021158560A/en
Publication of JP2021158560A publication Critical patent/JP2021158560A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide a display device that eliminates the need to return image capture settings and display settings of an image displayed in a finder when observing a different subject.SOLUTION: A display device 100 includes a viewfinder 120, which displays an image acquired by imaging means 102, detection means 130, which detects that an object has left the viewfinder 120, and control means 112, which controls to change at least one of image capture settings and display settings of the image when an object has left the viewfinder 120.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザーが遠景などを拡大して見る際に使用する表示装置およびその制御方法に関し、特に接近検知に応じて表示部の表示状態を制御するものに関する。 The present invention relates to a display device used when a user magnifies a distant view or the like and a control method thereof, and particularly to a device that controls a display state of a display unit in response to approach detection.

像光を電気的な画像信号とする撮像部と、その撮像部で撮像された画像を表示させる表示部を備えた、いわゆるデジタル双眼鏡がある。デジタル双眼鏡は、比較的拡大倍率の高いレンズなどの光学系を有し、遠くの被写体を拡大して表示させて、ユーザーに見せるものである。画像信号にはデジタル処理を施すことができるので、例えば、画像の一部をデジタル的にズームしたり、暗い状況で撮像して得た画像を明るくして表示させたりする等の、各種画像処理が可能である。 There are so-called digital binoculars provided with an imaging unit that uses image light as an electrical image signal and a display unit that displays an image captured by the imaging unit. Digital binoculars have an optical system such as a lens with a relatively high magnification, and magnify and display a distant subject to show it to the user. Since the image signal can be digitally processed, various image processing such as digitally zooming a part of the image or brightening the image obtained by capturing the image in a dark situation is displayed. Is possible.

また、カメラや双眼鏡の表示部に表示する撮影画像の表示制御に関する技術を開示した従来技術として、例えば以下の技術がある。特許文献1では、接眼検知機能によって、離眼を検知するとファインダーの表示をオフにし、ファインダー外に設置された別の表示装置へ表示を切り換える技術が記載されている。 Further, as a conventional technique that discloses a technique relating to display control of a captured image displayed on a display unit of a camera or binoculars, for example, there are the following techniques. Patent Document 1 describes a technique of turning off the display of the finder when the eyepiece detection function detects eye loss and switching the display to another display device installed outside the finder.

特開2014−209712号公報Japanese Unexamined Patent Publication No. 2014-209712

ところで、観察対象を別の方向にある被写体へ変更する場合には、ユーザーは一時的に双眼鏡から眼を離し、全景を確認した上で、目標とする別の被写体を捕捉するために再び双眼鏡を覗く必要がある。その際、ズーム倍率などの撮像設定や表示設定が、前の被写体を観察したときの設定のまま保持されていると、視野が限定されるため、新たに被写体を捉えるのは困難である。そのため、ユーザーは視野を広くとるために設定を手動で変更する必要がある。しかしながら、特許文献1に開示された従来技術では、ユーザーがファインダーから眼を離すと、別の表示装置へ表示が切りかわるが、その際の撮像設定や表示設定は、ファインダーに表示されていた設定と同じになる。そのためユーザーは、観察する被写体を変えるたびに手動で表示設定を戻す手間が必要になってしまう。 By the way, when changing the observation target to a subject in a different direction, the user temporarily takes his eyes off the binoculars, checks the whole view, and then wears the binoculars again in order to capture another target subject. I need to look into it. At that time, if the imaging settings such as the zoom magnification and the display settings are held as they were when observing the previous subject, the field of view is limited, and it is difficult to capture a new subject. Therefore, the user needs to manually change the settings to get a wider field of view. However, in the prior art disclosed in Patent Document 1, when the user takes his eyes off the finder, the display is switched to another display device, but the imaging setting and the display setting at that time are the settings displayed on the finder. Will be the same as. Therefore, the user has to manually return the display setting every time the object to be observed is changed.

そこで、本発明の目的は、別の被写体を観測する際に、ファインダーに表示する画像の撮像設定や表示設定を戻す手間を省ける表示装置を提供することである。 Therefore, an object of the present invention is to provide a display device that saves the trouble of returning the imaging setting and the display setting of the image to be displayed in the finder when observing another subject.

上記目的を達成するために、本発明の表示装置は、撮像手段により取得された画像を表示するファインダーと、前記ファインダーから物体が離れたことを検知する検知手段と、前記ファインダーから物体が離れた場合、前記画像の撮像設定及び表示設定の少なくともいずれか1つを変更するように制御する制御手段と、を有することを特徴とする。 In order to achieve the above object, the display device of the present invention has a finder for displaying an image acquired by an imaging means, a detecting means for detecting that an object has been separated from the finder, and an object separated from the finder. In the case of the case, it is characterized by having a control means for controlling to change at least one of the imaging setting and the display setting of the image.

本発明によれば、別の被写体を観察する際に、ファインダーに表示する画像の撮像設定や表示設定を戻す手間を省ける表示装置を提供することができる。 According to the present invention, it is possible to provide a display device that saves the trouble of returning the imaging setting and the display setting of the image to be displayed in the finder when observing another subject.

本発明の実施形態に係る表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display device which concerns on embodiment of this invention. 第1の実施例に係るシステム制御部の処理を示すフローチャートである。It is a flowchart which shows the process of the system control part which concerns on 1st Embodiment. ファインダーに表示する画像を例示した図である。It is a figure exemplifying the image to be displayed in a finder. 第2の実施例に係る表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display device which concerns on 2nd Example. 第2の実施例に係るシステム制御部の処理を示すフローチャートである。It is a flowchart which shows the process of the system control part which concerns on 2nd Example. 第3の実施例に係る表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display device which concerns on 3rd Example. 第3の実施例に係るシステム制御部の処理を示すフローチャートである。It is a flowchart which shows the process of the system control part which concerns on 3rd Example. 追尾機能を使って観察した時の表示例を示す図である。It is a figure which shows the display example at the time of observation using the tracking function.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわる表示装置100の構成の一例を示している。本実施形態の表示装置100は、デジタル双眼鏡である。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 shows an example of the configuration of the display device 100 according to the embodiment of the present invention. The display device 100 of this embodiment is digital binoculars.

図1に示す構成において、レンズ系101は複数枚のレンズで構成され、レンズ駆動部によって駆動される。レンズ駆動部113は、レンズ系101を駆動してフォーカス、ズームを調整する。レンズ系101を介して得られた被写体像は撮像部102の撮像面に結像される。撮像部102は、CMOSセンサ、CCDセンサ等から構成され、被写体像を光電変換し、電気信号に変換することで画像データを画像処理部110へ出力する。画像処理部110は、撮像部102またはメモリ部111からのデータに対し、所定の画素補完、縮小といったリサイズ処理やホワイトバランス調整、ガンマ補正などの画像処理を行う。また、画像処理部110は、生成した画像を第1表示部120、第2表示部121へ出力する。メモリ部111は、DRAMやSRAM等を備えて構成される記憶手段である。ファインダー120は、第1表示部121と第2表示部から構成され、画像処理部110で生成した画像を表示する。なお、ファインダー120は、外光等の影響を低減するためのアイカップをさらに備えていてもよい。第1表示部120、第2表示部121は、例えばLCDやOLEDで実現されるEVF(Electronic View Finder)によって構成される。ユーザーは、例えば、第1表示部120の表示画像を左眼で観察し、第2表示部121の表示画像を右眼で観察する。接眼検知部130は、ユーザーによる表示装置100の使用状態を検出する。例えば、接眼検知部130は、赤外線センサなどを用いて、ファインダー120に対して、眼(物体)が近接しているか否かを検知する。物体が接近した場合は、接眼検知部130の投光部(図示せず)から投光した赤外線が反射して、赤外線近接センサの受光部(図示せず)に受光される。受光された赤外線の量によって、物体が接眼部からどの距離まで近づいているか(接眼距離)も判別することができる。なお、赤外線近接センサは一例であって、接眼検知部130には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。システム制御部112は、レンズ駆動部113、撮像部102、画像処理部110を制御する。また、システム制御部112は、接眼検知部130から出力される情報に基づいて、第1表示部120および第2表示部121の表示状態を制御する。 In the configuration shown in FIG. 1, the lens system 101 is composed of a plurality of lenses and is driven by a lens driving unit. The lens driving unit 113 drives the lens system 101 to adjust the focus and zoom. The subject image obtained through the lens system 101 is formed on the imaging surface of the imaging unit 102. The image pickup unit 102 is composed of a CMOS sensor, a CCD sensor, and the like, and outputs image data to the image processing unit 110 by photoelectrically converting a subject image and converting it into an electric signal. The image processing unit 110 performs resize processing such as predetermined pixel complementation and reduction, white balance adjustment, and image processing such as gamma correction on the data from the image pickup unit 102 or the memory unit 111. Further, the image processing unit 110 outputs the generated image to the first display unit 120 and the second display unit 121. The memory unit 111 is a storage means including a DRAM, an SRAM, or the like. The finder 120 is composed of a first display unit 121 and a second display unit, and displays an image generated by the image processing unit 110. The finder 120 may further include an eye cup for reducing the influence of external light and the like. The first display unit 120 and the second display unit 121 are configured by, for example, an EVF (Electronic View Finder) realized by an LCD or an OLED. For example, the user observes the display image of the first display unit 120 with the left eye and the display image of the second display unit 121 with the right eye. The eyepiece detection unit 130 detects the usage state of the display device 100 by the user. For example, the eyepiece detection unit 130 detects whether or not the eye (object) is in close proximity to the finder 120 by using an infrared sensor or the like. When an object approaches, the infrared rays projected from the light projecting unit (not shown) of the eyepiece detection unit 130 are reflected and received by the light receiving unit (not shown) of the infrared proximity sensor. From the amount of infrared rays received, it is possible to determine how close the object is from the eyepiece (eyepiece distance). The infrared proximity sensor is an example, and the eyepiece detection unit 130 may employ another sensor as long as it can detect the approach of an eye or an object that can be regarded as an eyepiece. The system control unit 112 controls the lens driving unit 113, the imaging unit 102, and the image processing unit 110. Further, the system control unit 112 controls the display state of the first display unit 120 and the second display unit 121 based on the information output from the eyepiece detection unit 130.

[実施例1]
以下、図2〜図3を参照して、本発明の第1の実施例による、表示装置100の動作について説明する。実施例1では、ユーザーが被写体を観察するために、ファインダー120を覗いている状態から一旦眼を離し、その後、別の被写体を観測するために再度ファインダー120を覗いた場合の動作について説明する。
[Example 1]
Hereinafter, the operation of the display device 100 according to the first embodiment of the present invention will be described with reference to FIGS. 2 to 3. In the first embodiment, the operation when the user takes his / her eyes off the state of looking into the finder 120 in order to observe the subject and then looks into the finder 120 again in order to observe another subject will be described.

図2は、システム制御部112で行われる処理を示すフローチャートである。ステップS201では、表示装置100の電源が投入されると、システム制御部112は、表示装置100の使用状態を検出する。具体的には、システム制御部112は、接眼検知部130から検知情報を取得し、取得した検知情報に基づいて、ファインダー120に対して眼(物体)が近接しているか否かを判定する。ステップS201において、接眼状態ではない、すなわち非接眼状態であると判定した場合には、ステップS201へ進む。一方、ステップS201において、接眼状態であると判定した場合は、ステップS202へ進む。ステップS202では、自動初期化設定がオンに設定されている場合、ズーム設定やフォーカス設定、トリミング設定などのフレーミングに関する設定(画像の表示設定や撮像設定)を初期化する。初期化する値は、固定値であっても良いし、ユーザーが初期値を予め設定しておけるようにしても良い。この初期値は、被写体を見つけ易くするために、撮像範囲がなるべく広くなるような設定が望ましい。ステップS203では、システム制御部112が、ライブビュー画像をファインダー120に表示するよう制御する。具体的には、レンズ系101を介して撮像部102により得られた撮像画像を、画像処理部110で画像処理してライブビュー画像を生成する。このとき、システム制御部112は、ステップS202で初期化した設定値で、レンズ駆動部113と画像処理部110を制御する。 FIG. 2 is a flowchart showing a process performed by the system control unit 112. In step S201, when the power of the display device 100 is turned on, the system control unit 112 detects the usage state of the display device 100. Specifically, the system control unit 112 acquires detection information from the eyepiece detection unit 130, and determines whether or not the eye (object) is close to the finder 120 based on the acquired detection information. If it is determined in step S201 that the eyepiece is not in the eyepiece state, that is, the eyepiece is not in the eyepiece state, the process proceeds to step S201. On the other hand, if it is determined in step S201 that the eyepiece is in the eyepiece state, the process proceeds to step S202. In step S202, when the automatic initialization setting is set to ON, settings related to framing (image display setting and imaging setting) such as zoom setting, focus setting, and trimming setting are initialized. The value to be initialized may be a fixed value, or the user may be able to set an initial value in advance. It is desirable that this initial value is set so that the imaging range is as wide as possible in order to make it easier to find the subject. In step S203, the system control unit 112 controls to display the live view image on the finder 120. Specifically, the captured image obtained by the imaging unit 102 via the lens system 101 is image-processed by the image processing unit 110 to generate a live view image. At this time, the system control unit 112 controls the lens driving unit 113 and the image processing unit 110 with the set values initialized in step S202.

図3(a)は、このときのライブビュー画像の表示例である。この時のフレーミング設定は、ステップS202で設定した初期値が設定されており、撮像画像の画角が広くなる設定を使用している。その後、フレーミング設定がそのままの状態で観察を続ける場合(ステップS204でNO)は、ステップS206へ進む。一方、ユーザーがフレーミングを行う場合(ステップS204でYES)は、ステップS205へ進み、ファインダー120を覗くことにより、ズーム設定、フォーカス設定、トリミング設定などのフレーミングを行う。 FIG. 3A is a display example of the live view image at this time. As the framing setting at this time, the initial value set in step S202 is set, and the setting that widens the angle of view of the captured image is used. After that, if the observation is continued with the framing setting as it is (NO in step S204), the process proceeds to step S206. On the other hand, when the user performs framing (YES in step S204), the process proceeds to step S205, and framing such as zoom setting, focus setting, and trimming setting is performed by looking into the finder 120.

図3(b)は、ユーザーが図3(a)中の被写体1を拡大して観察するために、ステップS205でズーム倍率などを調整してフレーミングを行った表示例である。ステップS206では、ステップS201と同様に、システム制御部112が、表示装置100の使用状態を検出する。ステップS206において、接眼状態であると判定した場合は、被写体の観察を継続していると判断できるため、ステップS204へ進む。一方、ステップS206において、接眼状態ではない、すなわち非接眼状態であると判定した場合には、被写体の観測を中断したと判断し、ステップS207へ進む。ステップS207では、システム制御部112が、ファインダー120の表示をオフするよう制御する。その後、ユーザーが別の被写体として、図3(a)中の被写体2を観察するため、再度ファインダー120を覗いた場合について説明する。ステップS201で接眼状態であると判定されると、ステップS202へ進む。ステップS202では、電源投入時と同様にフレーミングの初期値が設定され、ステップS203へ進む。 FIG. 3B is a display example in which the user adjusts the zoom magnification and the like in step S205 to perform framing in order to magnify and observe the subject 1 in FIG. 3A. In step S206, the system control unit 112 detects the usage state of the display device 100, as in step S201. If it is determined in step S206 that the eyepiece is in the eyepiece state, it can be determined that the observation of the subject is being continued, so the process proceeds to step S204. On the other hand, if it is determined in step S206 that the eyepiece is not in the eyepiece state, that is, in the non-eyepiece state, it is determined that the observation of the subject is interrupted, and the process proceeds to step S207. In step S207, the system control unit 112 controls to turn off the display of the finder 120. After that, a case where the user looks into the finder 120 again in order to observe the subject 2 in FIG. 3A as another subject will be described. If it is determined in step S201 that the eyepiece is in the eyepiece state, the process proceeds to step S202. In step S202, the initial value of framing is set as in the case of turning on the power, and the process proceeds to step S203.

このように、フレーミング設定の初期値が自動的に設定されるので、ステップS203では、ユーザーは前回観察した方向と、ほぼ同じ方向に表示装置100を向けるだけで、図3(a)とほぼ同じライブビュー画像を観ることができる。以降、被写体1を観察した場合と同様に、ユーザーが図3(a)中の被写体2を拡大して観察する場合(ステップS204でYES)は、ステップS205へ進み、ファインダー120を覗きながらフレーミングを行う。図3(c)は、ユーザーが図3(a)中の被写体2を拡大して観察するために、ステップS205でズーム倍率などを調整してフレーミングを行った表示例である。 In this way, since the initial value of the framing setting is automatically set, in step S203, the user simply points the display device 100 in the same direction as the previously observed direction, which is almost the same as in FIG. 3 (a). You can see the live view image. After that, when the user magnifies and observes the subject 2 in FIG. 3A (YES in step S204) as in the case of observing the subject 1, the process proceeds to step S205, and framing is performed while looking through the finder 120. conduct. FIG. 3C is a display example in which the user adjusts the zoom magnification and the like in step S205 to perform framing in order to magnify and observe the subject 2 in FIG. 3A.

以上の動作により、ファインダーから眼を離すことで、以前のフレーミング設定が自動的に初期化されるため、ユーザーが別の被写体を観察する際に、フレーミング設定を元に戻す手間が省ける。 With the above operation, when you take your eyes off the viewfinder, the previous framing settings are automatically initialized, so you can save the trouble of restoring the framing settings when the user observes another subject.

なお、上記接眼検知部130の近接センサにおいて、接眼状態と判定する距離の値は、任意の値であり、例えば設計者等が表示装置100に対し、予め適切な値を設定したり、適宜変更したりすることができる。また、使用者等からの指示に従い、適宜変更可能としてもよい。 In the proximity sensor of the eyepiece detection unit 130, the value of the distance determined to be the eyepiece state is an arbitrary value. For example, the designer or the like sets an appropriate value in advance for the display device 100 or changes it as appropriate. Can be done. In addition, it may be changed as appropriate according to the instruction from the user or the like.

[実施例2]
以下、図4〜図5を参照して、本発明の第2の実施例による、表示装置100の動作について説明する。第2の実施例は、ファインダー120から眼が離れてしまっても、一定時間内であればフレーミング設定を初期化しないよう制御する例である。
[Example 2]
Hereinafter, the operation of the display device 100 according to the second embodiment of the present invention will be described with reference to FIGS. 4 to 5. The second embodiment is an example of controlling so that the framing setting is not initialized within a certain period of time even if the eyes are separated from the finder 120.

図4は、実施例2の表示装置100の構成例である。図1に示す第1の実施例との違いは、タイマー431を追加した点と、タイマー431を追加したことによるシステム制御部412の処理が異なる点であり、その他、実施例1で説明したブロックと同じものについては、同一符号を用い説明を省略する。タイマー431は、各種時間を測定する。タイマー431は、例えば、接眼検知部130で非接眼状態を検出した時点からの経過時間を測定する。システム制御部412は、レンズ駆動部113、撮像部102、画像処理部110を制御する。また、システム制御部412は、接眼検知部130から出力される情報と、タイマー431から出力される情報に基づいて、第1表示部120および第2表示部121の表示状態を制御する。 FIG. 4 is a configuration example of the display device 100 of the second embodiment. The difference from the first embodiment shown in FIG. 1 is that the timer 431 is added and the processing of the system control unit 412 due to the addition of the timer 431 is different. In addition, the block described in the first embodiment The same reference numerals are used for the same ones as above, and the description thereof will be omitted. The timer 431 measures various times. The timer 431 measures, for example, the elapsed time from the time when the eyepiece detection unit 130 detects the non-eyepiece state. The system control unit 412 controls the lens driving unit 113, the imaging unit 102, and the image processing unit 110. Further, the system control unit 412 controls the display states of the first display unit 120 and the second display unit 121 based on the information output from the eyepiece detection unit 130 and the information output from the timer 431.

図5は、実施例2のシステム制御部412で行われる処理を示すフローチャートである。ステップS201〜S206は、第1の実施例と同様であるため、同一符号を用い説明を省略する。ステップS206で接眼状態ではない、すなわち非接眼状態であると判定した場合、ユーザーの眼がファインダー120から離れたと判断し、ステップS501へ進む。ステップS501において、システム制御部412は、ステップS206で非接眼状態であると判定した時点から、判定時間(T1)が経過するまでの間、接眼検知部130の検知結果に基づいて、接眼状態を検知したか否かを判定する。ここで、判定時間(T1)は、ファインダー120内にある第1表示部121、第2表示部122へのライブビュー画像の表示を停止するか否かを判定するために、予め設定された時間である。ステップS501において、非接眼状態が判定時間(T1)の間継続していると判定した場合には、観察を中断したと判断し、システム制御部412は、処理をステップS502へ進める。ステップS502では、システム制御部412が、ファインダー120へのライブビュー画像の表示を停止する。一方、ステップS501において、非接眼状態が判定時間(T1)の間継続していないと判定した場合には、一時的に眼が離れただけと判断し、システム制御部412は、処理をステップS204へ進める。 FIG. 5 is a flowchart showing a process performed by the system control unit 412 of the second embodiment. Since steps S201 to S206 are the same as those in the first embodiment, the same reference numerals are used and the description thereof will be omitted. If it is determined in step S206 that the eyepiece is not in the eyepiece state, that is, in the non-eyepiece state, it is determined that the user's eye is away from the finder 120, and the process proceeds to step S501. In step S501, the system control unit 412 determines the eyepiece state based on the detection result of the eyepiece detection unit 130 from the time when the non-eyepiece state is determined in step S206 until the determination time (T1) elapses. Determine if it has been detected. Here, the determination time (T1) is a preset time for determining whether or not to stop the display of the live view image on the first display unit 121 and the second display unit 122 in the finder 120. Is. If it is determined in step S501 that the non-eyepiece state continues for the determination time (T1), it is determined that the observation has been interrupted, and the system control unit 412 proceeds to the process in step S502. In step S502, the system control unit 412 stops displaying the live view image on the finder 120. On the other hand, if it is determined in step S501 that the non-eyepiece state has not continued for the determination time (T1), it is determined that the eyes have only temporarily separated, and the system control unit 412 performs the process in step S204. Proceed to.

以上のように、ファインダーから眼を離しても、フレーミング設定を初期化しない期間を設けることで、ユーザーが意図せずファインダーから眼を離してしまった場合や、一時的に眼を離した場合でも、観察を継続することができる。 As described above, by providing a period in which the framing settings are not initialized even if the user takes his / her eyes off the viewfinder, even if the user unintentionally takes his / her eyes off the viewfinder or temporarily takes his / her eyes off the viewfinder. , The observation can be continued.

なお、上記判定時間(T1)の値は、任意の値であり、例えば設計者等が表示装置100に対し、予め適切な値を設定したり、適宜変更したりすることができる。また、判定時間(T1)の値は、使用者等からの指示に従い、適宜変更可能としてもよい。 The value of the determination time (T1) is an arbitrary value, and for example, a designer or the like can set an appropriate value in advance for the display device 100 or change it as appropriate. Further, the value of the determination time (T1) may be appropriately changed according to an instruction from the user or the like.

[実施例3]
以下、図6〜図8を参照して、本発明の第3の実施例による、表示装置100の動作について説明する。第3の実施例は、被写体追尾機能を使用して観察した後で、再度観察を開始したとき、前回の被写体を見つけられた場合には、フレーミング設定を初期化しないようにする例である。
[Example 3]
Hereinafter, the operation of the display device 100 according to the third embodiment of the present invention will be described with reference to FIGS. 6 to 8. The third embodiment is an example in which the framing setting is not initialized when the previous subject is found when the observation is started again after observing using the subject tracking function.

図6は、実施例3の表示装置100の構成例である。図1に示す第1の実施例との違いは、被写体検出部601を追加した点と、被写体検出部601を追加したことによるシステム制御部612の処理が異なる点であり、その他、実施例1で説明したブロックと同じものについては、同一符号を用い説明を省略する。 FIG. 6 is a configuration example of the display device 100 of the third embodiment. The difference from the first embodiment shown in FIG. 1 is that the subject detection unit 601 is added and the processing of the system control unit 612 due to the addition of the subject detection unit 601 is different. For the same blocks as those described in the above, the same reference numerals are used and the description thereof will be omitted.

被写体検出部601は、画像メモリ部111の撮像範囲内の画像データから、被写体の色情報などを元に、被写体領域の位置や大きさを検出する。これをライブビューとして表示するサンプリングごとの画像データに対して連続的に行うことで被写体の動きを追尾することが可能となる。 The subject detection unit 601 detects the position and size of the subject area from the image data within the imaging range of the image memory unit 111 based on the color information of the subject and the like. By continuously performing this on the image data for each sampling displayed as a live view, it is possible to track the movement of the subject.

図7は、実施例3のシステム制御部612で行われる処理を示すフローチャートである。ステップS201〜S207は、第1の実施例と同様であるため、同一符号を用い説明を省略する。 FIG. 7 is a flowchart showing a process performed by the system control unit 612 of the third embodiment. Since steps S201 to S207 are the same as those in the first embodiment, the same reference numerals are used and the description thereof will be omitted.

ステップS701では、前回の観察時に追尾機能を使って観察していた被写体を撮像画像から検出する。ステップS701において、前回観察していた被写体を検出できなかった場合は、ステップS202で初期化したフレーミング設定のまま、ステップS204へ進む。一方、ステップS701で前回観察していた被写体を検出できた場合は、ステップS702へ進み、後述するステップS703で保存しておいたフレーミング設定を反映する。ステップS703では、ステップS206において、被写体の観察を中断したと判断した時のフレーミング設定を保存する。ステップS704では、被写体検出部601で検出した被写体情報を保存する。 In step S701, the subject observed by using the tracking function at the time of the previous observation is detected from the captured image. If the previously observed subject could not be detected in step S701, the process proceeds to step S204 with the framing settings initialized in step S202. On the other hand, if the subject previously observed in step S701 can be detected, the process proceeds to step S702 to reflect the framing setting saved in step S703 described later. In step S703, in step S206, the framing setting when it is determined that the observation of the subject is interrupted is saved. In step S704, the subject information detected by the subject detection unit 601 is saved.

図8に追尾機能を使って観察した時の表示例を示す。図8(a)は、前回の観察時に追尾機能を使って観察していたときの撮像範囲内の画像データの例である。図8(b)は、図8(a)の検出位置1に検出された被写体に対し、ファインダー内で図8(b)のように表示されるように、S204においてズーム設定やトリミング設定などのフレーミングを行った例である。図8(c)は、観察を再開したときに、S701において、前回追尾機能を使って観察していた被写体を検出位置2に検出できた場合の撮像画像データの例を示す。このとき、S702で前回保存しておいたフレーミング設定を反映すると、前回観察していたときと同様にファインダー内には、図8(b)のように表示される。 FIG. 8 shows a display example when observing using the tracking function. FIG. 8A is an example of image data within the imaging range when observing using the tracking function at the time of the previous observation. 8 (b) shows the subject detected at the detection position 1 in FIG. 8 (a), and the zoom setting, trimming setting, etc. are set in S204 so that the subject is displayed as shown in FIG. 8 (b) in the viewfinder. This is an example of framing. FIG. 8C shows an example of captured image data when the subject observed by using the tracking function last time can be detected at the detection position 2 in S701 when the observation is resumed. At this time, if the framing setting saved last time in S702 is reflected, it is displayed in the finder as shown in FIG. 8B as in the case of the previous observation.

以上の動作により、被写体の観察を中断した後で、再度同じ被写体を観察する際には、同じフレーミング設定で観察を再開することができる。 By the above operation, when the same subject is observed again after the observation of the subject is interrupted, the observation can be resumed with the same framing setting.

[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

例えば、実施例1〜3の表示装置では、表示装置内の撮像部で画像を取得していた。しかし、表示装置に撮像部の代わりに表示装置外と通信する通信部を設けて、その通信部を介して外部の撮像装置で撮影した画像を取得してもよい。 For example, in the display devices of Examples 1 to 3, an image was acquired by an imaging unit in the display device. However, the display device may be provided with a communication unit that communicates with the outside of the display device instead of the image pickup device, and an image taken by an external image pickup device may be acquired via the communication unit.

また、本発明は、デジタル双眼鏡以外のファインダーを有する表示装置に適用可能である。例えば、本発明は、EVFを有するデジタルカメラやヘッドマウントディスプレイに適用可能である。 Further, the present invention is applicable to a display device having a finder other than digital binoculars. For example, the present invention is applicable to digital cameras and head-mounted displays having an EVF.

100 表示装置
101 レンズ系
102 撮像部
110 画像処理部
111 メモリ部
112 システム制御部
113 レンズ駆動部
120 ファインダー
121 第1表示部
121 第2表示部
130 接眼検知部

100 Display device 101 Lens system 102 Imaging unit 110 Image processing unit 111 Memory unit 112 System control unit 113 Lens drive unit 120 Finder 121 First display unit 121 Second display unit 130 Eyepiece detection unit

Claims (12)

撮像手段により取得された画像を表示するファインダーと、
前記ファインダーから物体が離れたことを検知する検知手段と、
前記ファインダーから物体が離れた場合、前記画像の撮像設定及び表示設定の少なくともいずれか1つを変更するように制御する制御手段と、を有する
ことを特徴とする表示装置。
A viewfinder that displays the image acquired by the imaging means,
A detection means for detecting that an object has moved away from the finder,
A display device comprising: a control means for controlling so as to change at least one of an imaging setting and a display setting of the image when an object is separated from the finder.
前記制御手段は、前記ファインダーから物体が離れた場合、前記ファインダーから前記物体が離れる前に前記ファインダーに表示していた画像よりも画角が広い画像を前記ファインダーに表示するように制御する
ことを特徴とする請求項1に記載の表示装置。
When the object is separated from the finder, the control means controls the finder to display an image having a wider angle of view than the image displayed on the finder before the object is separated from the finder. The display device according to claim 1, wherein the display device is characterized.
前記制御手段は、ズーム設定を変更するように制御する
ことを特徴とする請求項1又は2に記載の表示装置。
The display device according to claim 1 or 2, wherein the control means is controlled so as to change the zoom setting.
前記制御手段は、フォーカス設定を変更するように制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 3, wherein the control means is controlled so as to change the focus setting.
前記制御手段は、トリミング設定を変更するように制御する
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 4, wherein the control means is controlled so as to change the trimming setting.
前記制御手段は、前記ファインダーから物体が離れた場合、前記撮像設定及び前記表示設定の少なくともいずれか1つを初期化するように制御する
ことを特徴とする請求項1乃至5のいずれか1項に記載の表示装置。
One of claims 1 to 5, wherein the control means controls to initialize at least one of the imaging setting and the display setting when the object is separated from the finder. The display device described in.
前記初期化の値は、予め設定した値である
ことを特徴とする請求項6に記載の表示装置。
The display device according to claim 6, wherein the initialization value is a preset value.
前記制御手段は、前記ファインダーから物体が予め設定した距離よりも長い距離、離れた場合、前記表示設定及び前記撮像設定の少なくともいずれか1つを変更する
ことを特徴とする請求項1乃至7のいずれか1項に記載の表示装置。
The control means according to claim 1 to 7, wherein when the object is separated from the finder by a distance longer than a preset distance, at least one of the display setting and the imaging setting is changed. The display device according to any one item.
前記制御手段は、前記ファインダーから物体が予め設定した時間よりも長い時間、離れた場合、前記表示設定及び前記撮像設定の少なくともいずれか1つを変更する
ことを特徴とする請求項1乃至8のいずれか1項に記載の表示装置。
The control means according to claim 1 to 8, wherein when the object is separated from the finder for a time longer than a preset time, at least one of the display setting and the imaging setting is changed. The display device according to any one item.
前記制御手段は、被写体を追尾する追尾機能を使っているときに前記ファインダーから物体が離れた場合、前記ファインダーから前記物体が離れる前に前記ファインダーに表示していた画像と画角が等しい画像を前記ファインダーに表示するように制御する
ことを特徴とする請求項1乃至9のいずれか1項に記載の表示装置。
When the object is separated from the finder while using the tracking function for tracking the subject, the control means obtains an image having the same angle of view as the image displayed on the finder before the object is separated from the finder. The display device according to any one of claims 1 to 9, wherein the display device is controlled so as to be displayed on the finder.
撮像手段により取得された画像をファインダーに表示するステップと、
前記ファインダーから物体が離れたことを検知するステップと、
前記ファインダーから物体が離れた場合、前記画像の撮像設定及び表示設定の少なくともいずれか1つを変更するように制御するステップと、を有する
ことを特徴とする表示装置の制御方法。
The step of displaying the image acquired by the imaging means in the viewfinder,
A step of detecting that an object has moved away from the finder,
A method for controlling a display device, which comprises a step of controlling to change at least one of an imaging setting and a display setting of the image when an object is separated from the finder.
請求項11に記載の表示装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the display device control method according to claim 11.
JP2020057791A 2020-03-27 2020-03-27 Display device and control method of the same Pending JP2021158560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020057791A JP2021158560A (en) 2020-03-27 2020-03-27 Display device and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020057791A JP2021158560A (en) 2020-03-27 2020-03-27 Display device and control method of the same

Publications (1)

Publication Number Publication Date
JP2021158560A true JP2021158560A (en) 2021-10-07

Family

ID=77918870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020057791A Pending JP2021158560A (en) 2020-03-27 2020-03-27 Display device and control method of the same

Country Status (1)

Country Link
JP (1) JP2021158560A (en)

Similar Documents

Publication Publication Date Title
JP5188071B2 (en) Focus adjustment device, imaging device, and focus adjustment method
JP4873762B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US11128805B2 (en) Zoom control device, zoom control method, control program, and imaging apparatus equipped with zoom control device
EP2065741A2 (en) Auto-focus apparatus, image- pickup apparatus, and auto- focus method
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2010187225A (en) Imaging apparatus and imaging method
JP6833498B2 (en) Imaging device, imaging method and computer program
JP2020022012A (en) Imaging device and control method thereof
US9955066B2 (en) Imaging apparatus and control method of imaging apparatus
JP5407373B2 (en) Imaging apparatus and program
JP5196768B2 (en) Imaging device
JPH089219A (en) Camera
JP2008076981A (en) Electronic camera
JP2013080996A (en) Imaging device and method of controlling the same
JP2012199637A (en) Imaging apparatus and control method therefor
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP5409201B2 (en) Focus detection apparatus and focus detection method
JP6032967B2 (en) IMAGING DEVICE, LENS DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP2021158560A (en) Display device and control method of the same
JP2014103489A (en) Imaging apparatus and control method thereof
JP6188455B2 (en) Control apparatus, imaging system, angle of view control method, program, and storage medium
JP2010282107A (en) Imaging apparatus and control method therefor
JP6594029B2 (en) Lens unit and control method thereof, imaging apparatus, camera system
JP2014164028A (en) Imaging apparatus and switching method of imaging parameter and program
JP2004354794A (en) Optical apparatus with imaging function

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240327