JP2012054841A - Image display device and method for controlling the same - Google Patents

Image display device and method for controlling the same Download PDF

Info

Publication number
JP2012054841A
JP2012054841A JP2010197140A JP2010197140A JP2012054841A JP 2012054841 A JP2012054841 A JP 2012054841A JP 2010197140 A JP2010197140 A JP 2010197140A JP 2010197140 A JP2010197140 A JP 2010197140A JP 2012054841 A JP2012054841 A JP 2012054841A
Authority
JP
Japan
Prior art keywords
image
display screen
unit
area
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010197140A
Other languages
Japanese (ja)
Inventor
Yasunari Fujii
康成 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010197140A priority Critical patent/JP2012054841A/en
Publication of JP2012054841A publication Critical patent/JP2012054841A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for enabling photography of the entire area or a desired partial area of an image.SOLUTION: An image taken by an imaging apparatus while a display screen displayed by an image display device is zoomed out to the maximum is obtained. Then, an area most similar to the image within the display screen is identified and the display screen is reduced into the size of the identified area and displayed at the position of the area.

Description

本発明は、表示制御技術に関するものである。   The present invention relates to a display control technique.

従来、撮像装置が有する距離測定装置からの情報に基づきズーム及びフォーカスを制御する技術が一般的であった(特許文献1)。また、撮像装置が蓄積した映像を合成することでズーム及びフォーカスを実現する技術が一般的であった(特許文献2)。また、あらかじめ撮像装置に入力しておいた距離に応じたズーム比率を算出することで、ズーム及びフォーカスを調整する技術が一般的であった(特許文献3)。   Conventionally, a technique for controlling zoom and focus based on information from a distance measuring device included in an imaging apparatus has been common (Patent Document 1). In addition, a technique for realizing zoom and focus by synthesizing videos accumulated by an imaging apparatus has been common (Patent Document 2). In addition, a technique for adjusting zoom and focus by calculating a zoom ratio according to a distance input in advance to the imaging apparatus has been common (Patent Document 3).

特開平11-155093号公報JP 11-155093 A 特開平07-181954号公報Japanese Unexamined Patent Publication No. 07-181954 特開2006-019852号公報JP 2006-019852 JP

ここで、テレビやプロジェクタ等の映像出力装置によって表示された映像の全体を、デジタルカメラなどの撮像装置を用いて撮影する場合を考える。撮像装置が映像位置に近すぎる場合、撮像装置のファインダ内に映像全体を納めようと撮像装置のズーム・パン・チルト・輝度等の調整機構を動作させても、これ以上ズームアウトができない、という状態に達することがある。これは、撮像装置が映像位置から遠すぎる場合も同様である。即ち、撮像装置の調整機能だけでは、映像全体を撮影するような調整ができない。また、映像全体だけでなく、映像中の所望の領域を撮影する場合も同様である。   Here, consider a case where an entire video displayed by a video output device such as a television or a projector is shot using an imaging device such as a digital camera. If the imaging device is too close to the image position, zooming out will not be possible even if the zoom / pan / tilt / brightness adjustment mechanism of the imaging device is operated to fit the entire image in the viewfinder of the imaging device. A state may be reached. This is the same when the imaging device is too far from the video position. That is, it is not possible to make adjustments such that the entire image is shot only with the adjustment function of the imaging device. The same applies to the case where a desired area in the video is shot as well as the entire video.

本発明は以上の問題に鑑みてなされたものであり、映像の全体や所望の部分領域を撮影可能にする為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for enabling photographing of the entire video or a desired partial region.

本発明の目的を達成するために、例えば、本発明の画像表示装置は以下の構成を備える。即ち、撮像装置と通信可能な画像表示装置であって、前記画像表示装置が表示する表示画面をこれ以上ズームアウトができない状態で前記撮像装置が撮像した撮像画像を取得する手段と、前記表示画面内で前記撮像画像と最も類似する領域を特定する特定手段と、前記表示画面を、前記特定手段が特定した領域のサイズに縮小して該領域の位置に表示する表示制御手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, an image display apparatus of the present invention comprises the following arrangement. That is, an image display device that is communicable with an imaging device, and means for acquiring a captured image captured by the imaging device in a state where the display screen displayed by the image display device cannot be zoomed out any more, and the display screen Specifying means for specifying an area most similar to the captured image, and display control means for reducing the size of the display screen to the size of the area specified by the specifying means and displaying the display screen at the position of the area. Features.

本発明の構成により、映像の全体や所望の部分領域を撮影することができる。   With the configuration of the present invention, the entire video or a desired partial area can be captured.

システムの構成例を示すブロック図。The block diagram which shows the structural example of a system. 撮像装置100の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an imaging apparatus 100. FIG. 映像出力装置200の構成例を示すブロック図。FIG. 2 is a block diagram illustrating a configuration example of a video output device 200. ルータ300の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of a router 300. 撮像装置100及び映像出力装置200のそれぞれの動作を示すフローチャート。5 is a flowchart showing operations of the imaging apparatus 100 and the video output apparatus 200. 撮像装置100及び映像出力装置200のそれぞれの動作を示すフローチャート。5 is a flowchart showing operations of the imaging apparatus 100 and the video output apparatus 200. 撮像装置100及び映像出力装置200のそれぞれの動作を示すフローチャート。5 is a flowchart showing operations of the imaging apparatus 100 and the video output apparatus 200. メッセージの構成例を示す図。The figure which shows the structural example of a message.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係るシステムは、図1に示す如く、プロジェクタ、液晶画面、CRT等の画像表示装置として機能する映像出力装置200と、ディジタルカメラ等の撮像機能を有する撮像装置100と、ルータ300と、で構成されている。映像出力装置200及び撮像装置100はルータ300に接続されており、互いにルータ300を介して通信可能な構成となっている。なお、映像出力装置200と撮像装置100との間のネットワークについては特定のネットワークに限定するものではなく、互いに通信可能であれば、如何なるネットワークを用いても良い。
[First Embodiment]
As shown in FIG. 1, the system according to this embodiment includes a video output device 200 that functions as an image display device such as a projector, a liquid crystal screen, and a CRT, an imaging device 100 that has an imaging function such as a digital camera, and a router 300. , Is composed of. The video output device 200 and the imaging device 100 are connected to a router 300 and are configured to communicate with each other via the router 300. The network between the video output device 200 and the imaging device 100 is not limited to a specific network, and any network may be used as long as it can communicate with each other.

本実施形態では、映像出力装置200は、壁面やスクリーンなどに映像を投影するプロジェクタであるものとして説明する。また、本実施形態では、撮像装置100と映像出力装置200とは別個の装置として説明する。しかし、映像出力装置200と撮像装置100とを一体化させて1つの装置としても良い。   In the present embodiment, the video output device 200 will be described as a projector that projects a video on a wall surface or a screen. In the present embodiment, the imaging device 100 and the video output device 200 will be described as separate devices. However, the video output device 200 and the imaging device 100 may be integrated into one device.

また、必要に応じた複数の映像出力装置200に各機能を分散しても良い。複数の映像出力装置200を用いる場合、互いに通信可能なようにそれぞれの映像出力装置200はLocal Area Network(LAN)等のネットワークに接続されている。この装置間で行われるメッセージによる通信は、Hypertext Transfer Protocol(http)で行われる。もしくはHypertext Transfer Protocol over Secure Socket Layer(https)で行われる。もしくはSimple Object Access Protocol(SOAP)で行われる。   Further, each function may be distributed to a plurality of video output devices 200 as necessary. When a plurality of video output devices 200 are used, the video output devices 200 are connected to a network such as a local area network (LAN) so that they can communicate with each other. Communication using messages between the devices is performed by Hypertext Transfer Protocol (http). Or it is performed by Hypertext Transfer Protocol over Secure Socket Layer (https). Or it is performed by Simple Object Access Protocol (SOAP).

次に、撮像装置100の構成例について、図2のブロック図を用いて説明する。CPU101は、ROM部110に格納されているコンピュータプログラムやデータを用いて、撮像装置100を構成する各部の動作制御を行う。   Next, a configuration example of the imaging apparatus 100 will be described using the block diagram of FIG. The CPU 101 performs operation control of each unit constituting the imaging apparatus 100 using a computer program and data stored in the ROM unit 110.

外界から受光した光は、レンズなどの光学系から成る画像入力部108を介して、CCD、CMOS等の撮像センサにより構成されている受像部102に入光される。受像部102は、この入光された光を電気信号に変換し、像を形成する。この像が撮像画像である。レンズズーム制御部107は、画像入力部108の光学系を制御し、ズームイン、ズームアウトを行う。   Light received from the outside world enters an image receiving unit 102 configured by an image sensor such as a CCD or CMOS via an image input unit 108 formed of an optical system such as a lens. The image receiving unit 102 converts the incident light into an electric signal to form an image. This image is a captured image. A lens zoom control unit 107 controls the optical system of the image input unit 108 to perform zoom in and zoom out.

表示部103は、タッチパネル形式の液晶画面で構成されており、受像部102が形成した像は、この液晶画面上に表示される。また、ユーザはこの液晶画面の表示画面上の任意の位置を自身の指などでもって指示することができる。表示部103は、この指示された位置をCPU101に通知するので、例えばユーザが表示画面上で2点を指示すると、表示部103はこの2点の位置をCPU101に通知するので、CPU101はこの2点を対向頂点とする矩形を設定することができる。   The display unit 103 includes a touch panel type liquid crystal screen, and an image formed by the image receiving unit 102 is displayed on the liquid crystal screen. Further, the user can specify an arbitrary position on the display screen of the liquid crystal screen with his / her finger or the like. Since the display unit 103 notifies the instructed position to the CPU 101, for example, when the user instructs two points on the display screen, the display unit 103 notifies the CPU 101 of the position of these two points. A rectangle with a point as the opposite vertex can be set.

ネットワークI/F(インターフェース)部104は、撮像装置100を上記のルータ300に接続する為のもので、撮像装置100はこのネットワークI/F部104を介してルータ300に接続されている映像出力装置200とのデータ通信を行う。   The network I / F (interface) unit 104 is for connecting the imaging device 100 to the router 300 described above, and the imaging device 100 outputs video that is connected to the router 300 via the network I / F unit 104. Data communication with the apparatus 200 is performed.

メッセージ受信部105は、映像出力装置200から送信されたメッセージ(後述)をネットワークI/F部104を介して受信する。メッセージ送信部106は、撮像装置100が生成したメッセージをネットワークI/F部104を介して映像出力装置200に送信する。   The message receiving unit 105 receives a message (described later) transmitted from the video output device 200 via the network I / F unit 104. The message transmission unit 106 transmits the message generated by the imaging device 100 to the video output device 200 via the network I / F unit 104.

操作部112は、CPU101に様々な操作指示を入力するためのボタン群により構成されている。図1ではその一例として、モード入力ボタン113、撮影用シャッターボタン114が示されている。モード入力ボタン113は、ズームインやズームアウトの指示を入力するためのボタンや、様々な撮像設定を指示するためのボタンで構成されている。撮影用シャッターボタン114は、これを押下することで撮像指示をCPU101に通知することができる。もちろん、操作部112を構成する各ボタンは何れもユーザが操作するためのものである。   The operation unit 112 includes a button group for inputting various operation instructions to the CPU 101. FIG. 1 shows a mode input button 113 and a photographing shutter button 114 as an example. The mode input button 113 includes a button for inputting an instruction for zooming in and zooming out, and a button for instructing various imaging settings. The imaging shutter button 114 can notify the CPU 101 of an imaging instruction by pressing this button. Of course, each button constituting the operation unit 112 is for the user to operate.

記憶部109は、CPU101が各種の処理を実行するために用いるワークエリアや、受像部102により形成された像のデータ等を一時的に記憶するためのエリアなどを有する。ROM部110には、CPU101が各種の処理を実行するために用いるコンピュータプログラムやデータ、撮像装置100の設定データ等が格納されている。フレーム座標算出部111、画像認識部115のそれぞれの動作については後述する。   The storage unit 109 includes a work area used for the CPU 101 to execute various processes, an area for temporarily storing data of an image formed by the image receiving unit 102, and the like. The ROM unit 110 stores computer programs and data used by the CPU 101 to execute various processes, setting data of the imaging apparatus 100, and the like. The operations of the frame coordinate calculation unit 111 and the image recognition unit 115 will be described later.

次に、映像出力装置200の構成例について、図3のブロック図を用いて説明する。CPU201は、ROM部207に格納されているコンピュータプログラムやデータを用いて、映像出力装置200を構成する各部の動作制御を行う。   Next, a configuration example of the video output device 200 will be described with reference to the block diagram of FIG. The CPU 201 performs operation control of each unit constituting the video output device 200 using a computer program and data stored in the ROM unit 207.

ネットワークI/F部202は、映像出力装置200を上記のルータ300に接続する為のもので、映像出力装置200はこのネットワークI/F部202を介してルータ300に接続されている撮像装置100とのデータ通信を行う。   The network I / F unit 202 is for connecting the video output device 200 to the router 300, and the video output device 200 is connected to the router 300 via the network I / F unit 202. Data communication with.

メッセージ受信部203は、撮像装置100から送信されたメッセージ(後述)をネットワークI/F部202を介して受信する。メッセージ送信部204は、映像出力装置200が生成したメッセージをネットワークI/F部202を介して撮像装置100に送信する。   The message receiving unit 203 receives a message (described later) transmitted from the imaging apparatus 100 via the network I / F unit 202. The message transmission unit 204 transmits the message generated by the video output device 200 to the imaging device 100 via the network I / F unit 202.

画像出力部206は、レンズなどの光学系や光源などにより構成されており、映像出力装置200が不図示のメモリ内に保持している画像を壁面やスクリーンなどに投影することで、この投影先の面に対して表示画面を表示(投影)する。レンズズーム制御部205は、この光学系におけるレンズを制御し、ズームアウトやズームイン、位置変更を行うことで、投影した表示画面の位置やサイズを変更する。   The image output unit 206 includes an optical system such as a lens and a light source. The image output unit 206 projects an image held in a memory (not shown) by the video output device 200 onto a wall surface or a screen. The display screen is displayed (projected) on the surface. The lens zoom control unit 205 controls the lens in the optical system, and changes the position and size of the projected display screen by performing zoom-out, zoom-in, and position change.

ROM部207には、CPU201が各種の処理を実行するために用いるコンピュータプログラムやデータが格納されている。画像比較部208は、画像同士の比較を行い、一方の画像内で他方の画像と最も類似する領域を求める処理を行う。   The ROM unit 207 stores computer programs and data used by the CPU 201 to execute various processes. The image comparison unit 208 performs a process of comparing the images and obtaining an area most similar to the other image in one image.

画像縮小率算出部209は、一方の画像に対する他方の画像の縮小率を求める。画像拡大率算出部211は、一方の画像に対する他方の画像の拡大率を求める。画像縮小移動距離算出部210、画像拡大移動距離算出部212は何れも、一方の画像の上下辺から他方の画像の上下辺までの距離、一方の画像の左右辺から他方の画像の左右辺までの距離、を求める。輝度制御部215は、画像における輝度を調整する。   The image reduction rate calculation unit 209 obtains the reduction rate of the other image with respect to one image. The image enlargement rate calculation unit 211 obtains the enlargement rate of the other image with respect to one image. The image reduction movement distance calculation unit 210 and the image enlargement movement distance calculation unit 212 are both distances from the upper and lower sides of one image to the upper and lower sides of the other image, and from the left and right sides of one image to the left and right sides of the other image. Find the distance. The luminance control unit 215 adjusts the luminance in the image.

次に、ルータ300の構成例について、図4のブロック図を用いて説明する。ネットワークI/F部301には、撮像装置100及び映像出力装置200が接続されている。CPU302は、ルータ300の動作制御を行う。RAM303には、CPU302が各種の処理を実行するために用いるワークエリアや、装置間の通信において一時的に記憶するためのデータを保持する為のエリアなどを有する。   Next, a configuration example of the router 300 will be described with reference to the block diagram of FIG. The network I / F unit 301 is connected to the imaging device 100 and the video output device 200. The CPU 302 controls the operation of the router 300. The RAM 303 has a work area used for the CPU 302 to execute various processes, an area for holding data for temporary storage in communication between apparatuses, and the like.

次に、撮像装置100及び映像出力装置200のそれぞれの動作(制御方法)について、図5のフローチャートを用いて説明する。撮像装置100の表示部103には、受像部102が形成した像が表示されており、ユーザはこの像を見ながらモード入力ボタン113を操作し、ズームイン、ズームアウト、明るさ調整等の操作指示を入力する。ここで、モード入力ボタン113を用いてズームアウトの指示を入力すると、この指示はCPU101に通知されるので、ステップS601では先ずCPU101は、レンズズーム制御部107を制御し、画像入力部108にズームアウトを実現させる。   Next, operations (control methods) of the imaging apparatus 100 and the video output apparatus 200 will be described with reference to the flowchart of FIG. An image formed by the image receiving unit 102 is displayed on the display unit 103 of the imaging apparatus 100. The user operates the mode input button 113 while viewing this image, and performs operation instructions such as zooming in, zooming out, and brightness adjustment. Enter. Here, when a zoom-out instruction is input using the mode input button 113, the instruction is notified to the CPU 101. Therefore, in step S601, the CPU 101 first controls the lens zoom control unit 107 to zoom into the image input unit 108. Realize out.

ここで、ズームアウトを続けると、これ以上ズームアウトができない状態(ズームアウト限界状態)に達する。レンズズーム制御部107はズームアウト限界状態を検知すると、その旨をCPU101に通知する。もちろん、ズームアウト限界状態を検知していない限りはズームアウトを続けることができる。   Here, when the zoom-out is continued, a state (zoom-out limit state) in which no further zoom-out is possible is reached. When the lens zoom control unit 107 detects the zoom-out limit state, the lens zoom control unit 107 notifies the CPU 101 to that effect. Of course, the zoom-out can be continued as long as the zoom-out limit state is not detected.

然るにCPU101がズームアウト限界状態を検知した場合には処理はステップS602を介してステップS603に進み、ズームアウト限界状態を検知していない場合には処理はステップS602を介してステップS601に戻る。ステップS603ではCPU101は、この時点で受像部102が形成した像を、映像出力装置200への送信対象である撮像画像として記憶部109に格納する。   However, when the CPU 101 detects the zoom-out limit state, the process proceeds to step S603 via step S602, and when the zoom-out limit state is not detected, the process returns to step S601 via step S602. In step S <b> 603, the CPU 101 stores the image formed by the image receiving unit 102 at this time in the storage unit 109 as a captured image to be transmitted to the video output apparatus 200.

ステップS604ではCPU101は、映像出力装置200に送信するメッセージ690を生成する。メッセージ690の構成例を図8(a)に示す。項目1として示されている領域には、送信元(撮像装置100)のアドレス(ここではIPアドレス)が格納される。項目2として示されている領域には、送信先(映像出力装置200)のアドレス(ここではIPアドレス)が格納される。項目3として示されている領域には、ズームアウト限界状態を示す値が格納される。項目4として示されている領域には、ステップS603で記憶部109に格納した像のデータ(撮像画像のデータ)が格納される。   In step S <b> 604, the CPU 101 generates a message 690 to be transmitted to the video output device 200. A configuration example of the message 690 is shown in FIG. In the area indicated as item 1, the address (IP address here) of the transmission source (imaging device 100) is stored. In the area indicated as item 2, the address (IP address here) of the transmission destination (video output device 200) is stored. In the area indicated as item 3, a value indicating the zoom-out limit state is stored. In the area indicated as item 4, the image data (captured image data) stored in the storage unit 109 in step S603 is stored.

然るにCPU101がこのような構成を有するメッセージ690を生成すると、ステップS605ではメッセージ送信部106は、このメッセージ690を、ネットワークI/F部104を介して映像出力装置200に送信する。   However, when the CPU 101 generates the message 690 having such a configuration, in step S605, the message transmission unit 106 transmits the message 690 to the video output device 200 via the network I / F unit 104.

ステップS611では、映像出力装置200のメッセージ受信部203は、このメッセージ690をネットワークI/F部202を介して受信(取得)する。ステップS612では、画像比較部208は、メッセージ690内の項目4として示されている領域に格納されている撮像画像を読み出し、映像出力装置200が保持している表示画面内で、この読み出した撮像画像と最も類似する領域(類似領域)を特定する。類似領域の特定技術については、周知の画像認識技術、マッチング処理技術等を用いればよい。   In step S611, the message receiving unit 203 of the video output device 200 receives (acquires) the message 690 via the network I / F unit 202. In step S612, the image comparison unit 208 reads the captured image stored in the area indicated as item 4 in the message 690, and reads the captured image on the display screen held by the video output device 200. An area most similar to the image (similar area) is specified. As a technique for specifying a similar region, a known image recognition technique, a matching processing technique, or the like may be used.

なお、映像出力装置200が保持している表示画面内で、この読み出した撮像画像と最も類似する領域を特定する際に、その類似度が閾値未満であれば、処理はステップS613を介してステップS617に進む。一方、類似度が閾値以上であれば、処理はステップS613を介してステップS614に進む。   Note that when the region most similar to the read captured image is specified in the display screen held by the video output device 200, if the similarity is less than the threshold value, the process goes to step S613. The process proceeds to S617. On the other hand, if the similarity is greater than or equal to the threshold, the process proceeds to step S614 via step S613.

ステップS614では、画像縮小率算出部209は、表示画面のサイズを分母とし、類似領域のサイズを分子とする分数値を縮小率として求める。ステップS615では画像縮小移動距離算出部210は、表示画面と類似領域との間の縮小移動距離を求める。縮小移動距離は、表示画面の上辺から類似領域の上辺までの距離x、表示画面の下辺から類似領域の下辺までの距離y、表示画面の右辺から類似領域の右辺までの距離z、表示画面の左辺から類似領域の左辺までの距離w、の情報を含む。   In step S614, the image reduction ratio calculation unit 209 obtains, as the reduction ratio, a fractional value with the display screen size as the denominator and the size of the similar area as the numerator. In step S615, the image reduction movement distance calculation unit 210 obtains a reduction movement distance between the display screen and the similar area. The reduction movement distance is the distance x from the upper side of the display screen to the upper side of the similar region, the distance y from the lower side of the display screen to the lower side of the similar region, the distance z from the right side of the display screen to the right side of the similar region, Information on the distance w from the left side to the left side of the similar region is included.

そしてステップS616ではCPU201はレンズズーム制御部107を制御し、投影されている表示画面内の上記類似領域内に、この表示画面がこの類似領域のサイズに縮小されて配置されるように、画像出力部206の光学系を制御する。即ち、投影されている表示画面を上記縮小率で縮小したものを縮小表示画面とする。このとき、縮小表示画面の上辺が表示画面の上辺から距離x下方、縮小表示画面の下辺が表示画面の下辺から距離y上方、縮小表示画面の右辺が表示画面の右辺から距離z左方、縮小表示画面の左辺が表示画面の左辺から距離w右方、に位置するようにする。   In step S616, the CPU 201 controls the lens zoom control unit 107 to output the image so that the display screen is reduced in size to the size of the similar region in the similar region in the projected display screen. The optical system of the unit 206 is controlled. That is, a reduced display screen is obtained by reducing the projected display screen at the reduction ratio. At this time, the upper side of the reduced display screen is a distance x below the upper side of the display screen, the lower side of the reduced display screen is a distance y above the lower side of the display screen, and the right side of the reduced display screen is a distance z left from the right side of the display screen. The left side of the display screen is positioned at a distance w to the right from the left side of the display screen.

なお、表示画面がスクリーンなどの面上に投影されるのではなく、モニタなどの画面上に直接表示されような場合には、このような光学系の制御は行わず、次のような表示制御を行うことになる。即ち、モニタが表示する表示画面内で撮像画像と最も類似する領域を類似領域として特定し、表示画面を、類似領域のサイズに縮小して類似領域の位置に表示する。   If the display screen is not projected onto a surface such as a screen but directly displayed on a screen such as a monitor, such optical system control is not performed and the following display control is performed. Will do. That is, an area most similar to the captured image in the display screen displayed on the monitor is specified as a similar area, and the display screen is reduced to the size of the similar area and displayed at the position of the similar area.

そして処理はステップS611に戻る。一方、ステップS617ではCPU201は、メッセージ691を生成する。メッセージ691の構成例を図8(b)に示す。項目1として示されている領域には、送信元(映像出力装置200)のアドレス(ここではIPアドレス)が格納される。項目2として示されている領域には、送信先(撮像装置100)のアドレス(ここではIPアドレス)が格納される。項目3として示されている領域には、画像比較の結果、類似領域が見つからなかったことを示すエラーIDが格納される。   Then, the process returns to step S611. On the other hand, in step S617, the CPU 201 generates a message 691. A configuration example of the message 691 is shown in FIG. In the area indicated as item 1, the address (IP address here) of the transmission source (video output device 200) is stored. In the area indicated as item 2, the address (IP address here) of the transmission destination (imaging device 100) is stored. The area indicated as item 3 stores an error ID indicating that a similar area was not found as a result of image comparison.

然るにCPU201がこのような構成を有するメッセージ691を生成すると、メッセージ送信部204は、このメッセージ691を、ネットワークI/F部202を介して撮像装置100に送信する。同様に、映像出力装置側のズームも限界点に達したときは、メッセージを映像入力装置側に発行する。そして処理はステップS611に戻る。   However, when the CPU 201 generates the message 691 having such a configuration, the message transmission unit 204 transmits the message 691 to the imaging apparatus 100 via the network I / F unit 202. Similarly, when the zoom on the video output device side reaches the limit point, a message is issued to the video input device side. Then, the process returns to step S611.

一方、ステップS606では、撮像装置100側のメッセージ受信部105は、映像出力装置200から送信されたこのメッセージ691を、ネットワークI/F部104を介して受信する。   On the other hand, in step S <b> 606, the message receiving unit 105 on the imaging device 100 side receives this message 691 transmitted from the video output device 200 via the network I / F unit 104.

[第2の実施形態]
本実施形態では、第1の実施形態と同じシステムを用いる。撮像装置100及び映像出力装置200のそれぞれの動作について、図6のフローチャートを用いて説明する。撮像装置100の表示部103には、受像部102が形成した像が表示されており、ユーザはこの像を見ながらモード入力ボタン113を操作し、ズームイン、ズームアウト、明るさ調整等の操作指示を入力する。ここで、モード入力ボタン113を用いてズームインの指示を入力すると、この指示はCPU101に通知されるので、ステップS701では先ずCPU101は、レンズズーム制御部107を制御し、画像入力部108にズームインを実現させる。
[Second Embodiment]
In the present embodiment, the same system as in the first embodiment is used. The operations of the imaging apparatus 100 and the video output apparatus 200 will be described using the flowchart of FIG. An image formed by the image receiving unit 102 is displayed on the display unit 103 of the imaging apparatus 100. The user operates the mode input button 113 while viewing this image, and performs operation instructions such as zooming in, zooming out, and brightness adjustment. Enter. Here, when a zoom-in instruction is input using the mode input button 113, this instruction is notified to the CPU 101. In step S 701, the CPU 101 first controls the lens zoom control unit 107 to zoom in the image input unit 108. make it happen.

ここで、ズームインを続けると、これ以上ズームインができない状態(ズームイン限界状態)に達する。レンズズーム制御部107はズームイン限界状態を検知すると、その旨をCPU101に通知する。もちろん、ズームイン限界状態を検知していない限りはズームインを続けることができる。   Here, when zooming in continues, it reaches a state (zoom-in limit state) where zoom-in cannot be performed any more. When the lens zoom control unit 107 detects the zoom-in limit state, the lens zoom control unit 107 notifies the CPU 101 to that effect. Of course, zooming in can be continued as long as the zoom-in limit state is not detected.

然るにCPU101がズームイン限界状態を検知した場合には処理はステップS702を介してステップS703に進み、ズームイン限界状態を検知していない場合には処理はステップS702を介してステップS701に戻る。ステップS703ではCPU101は、この時点で受像部102が形成した像を撮像画像として記憶部109に格納する。   However, if the CPU 101 detects the zoom-in limit state, the process proceeds to step S703 via step S702. If the zoom-in limit state is not detected, the process returns to step S701 via step S702. In step S703, the CPU 101 stores the image formed by the image receiving unit 102 at this time in the storage unit 109 as a captured image.

ステップS704ではCPU101は、ステップS703で記憶部109に格納した撮像画像を表示部103に表示し、表示部103の表示画面上における領域指定操作を受け付ける。上記の通り、ユーザは表示部103の表示画面上を指示して領域を指定することができる。従って、ステップS705でCPU101は、この指定操作を検知すると、この指定操作により指定された領域を示す領域情報(例えば指定領域の左上隅及び右下隅の座標位置)を生成する。   In step S704, the CPU 101 displays the captured image stored in the storage unit 109 in step S703 on the display unit 103, and accepts an area designation operation on the display screen of the display unit 103. As described above, the user can designate an area by instructing on the display screen of the display unit 103. Accordingly, in step S705, when the CPU 101 detects the designation operation, the CPU 101 generates area information (for example, coordinate positions of the upper left corner and the lower right corner of the designated area) indicating the area designated by the designation operation.

ステップS706ではCPU101は、映像出力装置200に送信するメッセージ790を生成する。メッセージ790の構成例を図8(c)に示す。項目1として示されている領域には、送信元(撮像装置100)のアドレス(ここではIPアドレス)が格納される。項目2として示されている領域には、送信先(映像出力装置200)のアドレス(ここではIPアドレス)が格納される。項目3として示されている領域には、ズームイン限界状態を示す値が格納される。項目4として示されている領域には、ステップS703で記憶部109に格納した撮像画像のデータが格納される。項目5として示されている領域には、ステップS705で生成した領域情報(フレーム座標)が格納されている。   In step S <b> 706, the CPU 101 generates a message 790 to be transmitted to the video output device 200. A configuration example of the message 790 is shown in FIG. In the area indicated as item 1, the address (IP address here) of the transmission source (imaging device 100) is stored. In the area indicated as item 2, the address (IP address here) of the transmission destination (video output device 200) is stored. In the area indicated as item 3, a value indicating the zoom-in limit state is stored. In the area indicated as item 4, the captured image data stored in the storage unit 109 in step S703 is stored. The area indicated as item 5 stores the area information (frame coordinates) generated in step S705.

然るにCPU101がこのような構成を有するメッセージ790を生成すると、ステップS707ではメッセージ送信部106は、このメッセージ790を、ネットワークI/F部104を介して映像出力装置200に送信する。   However, when the CPU 101 generates the message 790 having such a configuration, in step S707, the message transmission unit 106 transmits the message 790 to the video output device 200 via the network I / F unit 104.

ステップS709では、映像出力装置200のメッセージ受信部203は、このメッセージ790をネットワークI/F部202を介して受信する。ステップS710では、画像比較部208は、メッセージ790内の項目4として示されている領域に格納されている撮像画像において、項目5に格納されている領域情報が示す領域を特定する。そして画像比較部208は、この特定した領域内の画像を部分画像とし、映像出力装置200が保持している表示画面内で、この部分画像と最も類似する領域(類似領域)を特定する。類似領域の特定技術については、周知の画像認識技術、マッチング技術等を用いればよい。   In step S <b> 709, the message receiving unit 203 of the video output apparatus 200 receives this message 790 via the network I / F unit 202. In step S <b> 710, the image comparison unit 208 specifies an area indicated by the area information stored in the item 5 in the captured image stored in the area indicated as the item 4 in the message 790. Then, the image comparison unit 208 sets the image in the specified region as a partial image, and specifies a region (similar region) most similar to the partial image in the display screen held by the video output device 200. As a technique for specifying a similar region, a known image recognition technique, matching technique, or the like may be used.

なお、映像出力装置200が保持している表示画面内で、この部分画像と最も類似する領域を特定する際に、その類似度が閾値未満であれば、処理はステップS711を介してステップS715に進む。一方、類似度が閾値以上であれば、処理はステップS711を介してステップS712に進む。   Note that, when the region most similar to the partial image is specified in the display screen held by the video output device 200, if the similarity is less than the threshold, the process goes to step S715 via step S711. move on. On the other hand, if the similarity is greater than or equal to the threshold, the process proceeds to step S712 via step S711.

ステップS712では、画像拡大率算出部211は、表示画面のサイズを分子とし、類似領域のサイズを分母とする分数値を拡大率として求める。ステップS713では画像拡大移動距離算出部212は、表示画面と類似領域との間の拡大移動距離を求める。拡大移動距離は、表示画面の上辺から類似領域の上辺までの距離x、表示画面の下辺から類似領域の下辺までの距離y、表示画面の右辺から類似領域の右辺までの距離z、表示画面の左辺から類似領域の左辺までの距離w、の情報を含む。   In step S <b> 712, the image enlargement ratio calculation unit 211 obtains, as an enlargement ratio, a fractional value with the display screen size as the numerator and the size of the similar area as the denominator. In step S713, the image enlargement movement distance calculation unit 212 obtains the enlargement movement distance between the display screen and the similar area. The enlargement movement distance is the distance x from the upper side of the display screen to the upper side of the similar area, the distance y from the lower side of the display screen to the lower side of the similar area, the distance z from the right side of the display screen to the right side of the similar area, Information on the distance w from the left side to the left side of the similar region is included.

そしてステップS714ではCPU201はレンズズーム制御部107を制御して、類似領域内の画像を表示画面のサイズに拡大し、該拡大した画像を表示画面として表示するように、画像出力部206の光学系を制御する。即ち、投影されている表示画面の上辺から距離x下方を上辺、下辺から距離y上方を下辺、右辺から距離z左方を右辺、左辺から距離w右方を左辺、とする領域を上記拡大率で拡大したものを表示する。   In step S714, the CPU 201 controls the lens zoom control unit 107 to enlarge the image in the similar region to the size of the display screen and display the enlarged image as the display screen. To control. That is, the above-described enlargement ratio is a region in which the lower side is the upper side, the lower side is the upper side, the lower side is the upper side, the right side is the distance z, the left side is the right side, and the left side is the distance w. The enlarged image is displayed.

なお、表示画面がスクリーンなどの面上に投影されるのではなく、モニタなどの画面上に直接表示されような場合には、このような光学系の制御は行わず、次のような表示制御を行うことになる。即ち、モニタが表示する表示画面内で部分画像と最も類似する領域を類似領域として特定し、類似領域内の画像(類似画像)を表示画面のサイズに拡大し、拡大した類似画像を表示画面として表示する。   If the display screen is not projected onto a surface such as a screen but directly displayed on a screen such as a monitor, such optical system control is not performed and the following display control is performed. Will do. That is, an area most similar to the partial image in the display screen displayed by the monitor is specified as a similar area, an image (similar image) in the similar area is enlarged to the size of the display screen, and the enlarged similar image is used as the display screen. indicate.

そして処理はステップS709に戻る。一方、ステップS715ではCPU201は、メッセージ791を生成する。メッセージ791は上記のメッセージ691と同じである。CPU201がメッセージ791を生成すると、メッセージ送信部204は、このメッセージ791を、ネットワークI/F部202を介して撮像装置100に送信する。   Then, the process returns to step S709. On the other hand, in step S715, the CPU 201 generates a message 791. The message 791 is the same as the message 691 described above. When the CPU 201 generates the message 791, the message transmission unit 204 transmits this message 791 to the imaging apparatus 100 via the network I / F unit 202.

一方、ステップS708では、撮像装置100側のメッセージ受信部105は、映像出力装置200から送信されたこのメッセージ791を、ネットワークI/F部104を介して受信する。   On the other hand, in step S <b> 708, the message receiving unit 105 on the imaging device 100 side receives the message 791 transmitted from the video output device 200 via the network I / F unit 104.

[第3の実施形態]
本実施形態では、第1の実施形態と同じシステムを用いる。撮像装置100及び映像出力装置200のそれぞれの動作について、図7のフローチャートを用いて説明する。撮像装置100の表示部103には、受像部102が形成した像が表示されており、ユーザはこの像を見ながらモード入力ボタン113を操作し、ズームイン、ズームアウト、明るさ調整等の操作指示を入力する。ここで、モード入力ボタン113を用いて明るさ調整の指示を入力すると、この指示はCPU101に通知されるので、ステップS801では先ずCPU101は、この時点で受像部102が形成した像を撮像画像として画像認識部115に送出する。
[Third Embodiment]
In the present embodiment, the same system as in the first embodiment is used. The operations of the imaging apparatus 100 and the video output apparatus 200 will be described using the flowchart of FIG. An image formed by the image receiving unit 102 is displayed on the display unit 103 of the imaging apparatus 100. The user operates the mode input button 113 while viewing this image, and performs operation instructions such as zooming in, zooming out, and brightness adjustment. Enter. Here, when a brightness adjustment instruction is input using the mode input button 113, the instruction is notified to the CPU 101. In step S801, the CPU 101 first uses the image formed by the image receiving unit 102 at this time as a captured image. The image is sent to the image recognition unit 115.

ステップS802では画像認識部115はこの撮像画像を構成する各画素値を参照して、この撮像画像に白飛び/黒潰れが発生しているか否かをチェックする。係るチェックは周知の技術であるので、これについての説明は省略する。このチェックの結果、白飛び/黒潰れが発生している場合には処理はステップS804に進み、発生していない場合には本処理を終了する。   In step S802, the image recognizing unit 115 checks whether or not whiteout / blackout has occurred in the captured image with reference to each pixel value constituting the captured image. Since this check is a well-known technique, a description thereof will be omitted. As a result of this check, if whiteout / blackout has occurred, the process proceeds to step S804, and if not, this process ends.

ステップS804ではCPU101は、映像出力装置200に送信するメッセージ890を生成する。メッセージ890の構成例を図8(d)に示す。項目1として示されている領域には、送信元(撮像装置100)のアドレス(ここではIPアドレス)が格納される。項目2として示されている領域には、送信先(映像出力装置200)のアドレス(ここではIPアドレス)が格納される。項目3として示されている領域には、白飛び(撮像画像中の画素値がダイナミックアレンジの上限を上回っている)、黒潰れ(撮像画像中の画素値がダイナミックアレンジの下限を下回っている)の何れが発生しているのかを示すフラグが格納される。   In step S <b> 804, the CPU 101 generates a message 890 to be transmitted to the video output device 200. A configuration example of the message 890 is shown in FIG. In the area indicated as item 1, the address (IP address here) of the transmission source (imaging device 100) is stored. In the area indicated as item 2, the address (IP address here) of the transmission destination (video output device 200) is stored. In the area indicated as item 3, overexposure (the pixel value in the captured image is above the upper limit of the dynamic arrangement), blackout (the pixel value in the captured image is below the lower limit of the dynamic arrangement) A flag indicating which one of these has occurred is stored.

然るにCPU101がこのような構成を有するメッセージ890を生成すると、ステップS804ではメッセージ送信部106は、このメッセージ890を、ネットワークI/F部104を介して映像出力装置200に送信する。   However, when the CPU 101 generates the message 890 having such a configuration, in step S804, the message transmission unit 106 transmits this message 890 to the video output device 200 via the network I / F unit 104.

ステップS806では、映像出力装置200のメッセージ受信部203は、このメッセージ890をネットワークI/F部202を介して受信する。ステップS807では、輝度制御部215は、メッセージ890内の項目3として示されている領域に格納されているフラグを参照し、白飛び、黒潰れの何れが発生しているのかを特定する。そして輝度制御部215は、白飛びが発生している場合には、表示画面の輝度値を規定量だけ下げる。この規定量については特に限定するものではないが、例えば輝度値が取りうる範囲が0〜255の場合、1だけ下げる。一方、輝度制御部215は、黒潰れが発生している場合には、表示画面の輝度値を規定量だけ上げる。この規定量については特に限定するものではないが、例えば輝度値が取りうる範囲が0〜255の場合、1だけ上げる。   In step S <b> 806, the message receiving unit 203 of the video output apparatus 200 receives this message 890 via the network I / F unit 202. In step S807, the brightness control unit 215 refers to the flag stored in the area indicated as the item 3 in the message 890, and specifies whether whiteout or blackout occurs. Then, the brightness control unit 215 reduces the brightness value of the display screen by a specified amount when whiteout occurs. The specified amount is not particularly limited. For example, when the range of luminance values is 0 to 255, the specified amount is decreased by one. On the other hand, the luminance control unit 215 increases the luminance value of the display screen by a specified amount when blackout occurs. Although the specified amount is not particularly limited, for example, when the range that the luminance value can take is 0 to 255, it is increased by 1.

ステップS808ではCPU201は、メッセージ891を生成する。メッセージ891は上記のメッセージ691と同じ構成であるが、項目3として示される領域には、上記の輝度値の上げ下げにエラーが生じた場合に、その旨を示す情報をエラーIDとして格納する。然るにこのメッセージ891の生成及び送信は必須ではない。CPU201がメッセージ891を生成すると、メッセージ送信部204は、このメッセージ891を、ネットワークI/F部202を介して撮像装置100に送信する。   In step S808, the CPU 201 generates a message 891. The message 891 has the same configuration as the message 691 described above, but in the area indicated as the item 3, when an error occurs in the increase / decrease of the luminance value, information indicating that is stored as an error ID. However, the generation and transmission of this message 891 is not essential. When the CPU 201 generates the message 891, the message transmission unit 204 transmits the message 891 to the imaging device 100 via the network I / F unit 202.

そしてステップS805では撮像装置100のメッセージ受信部105は、映像出力装置200から送信されたこのメッセージ891を、ネットワークI/F部104を介して受信する。   In step S <b> 805, the message receiving unit 105 of the imaging apparatus 100 receives the message 891 transmitted from the video output apparatus 200 via the network I / F unit 104.

なお、上記の各実施形態は適宜組み合わせても良い。即ち、第1の実施形態と第2の実施形態とを組み合わせると、第1の実施形態で説明したズームアウトに係る技術と第2の実施形態で説明したズームインに係る技術とを有する撮像装置を実現できる。また更にこれに第3の実施形態に係る明るさ調整の技術を組み合わせると、第1の実施形態で説明したズームアウトに係る技術と第2の実施形態で説明したズームインに係る技術と第3の実施形態で説明した明るさ調整の技術とを有する撮像装置を実現できる。   The above embodiments may be combined as appropriate. That is, when the first embodiment and the second embodiment are combined, an imaging apparatus having the zoom-out technique described in the first embodiment and the zoom-in technique described in the second embodiment is obtained. realizable. Further, when combined with the brightness adjustment technique according to the third embodiment, the zoom-out technique described in the first embodiment, the zoom-in technique described in the second embodiment, and the third technique. An imaging apparatus having the brightness adjustment technique described in the embodiment can be realized.

<効果>
前述した各実施形態によれば、次のような様々な効果を奏することができる。先ず、近距離/遠距離でこれ以上ズーム撮影できない状態となってしまった場合における撮像装置のズームを、映像出力装置のズームで支援することで撮影することが可能となる。また、映像出力装置の輝度と撮像装置100の撮影条件とを連動させることで適切な露光条件で撮影することが可能になる。
<Effect>
According to each embodiment mentioned above, there can exist the following various effects. First, it becomes possible to take a picture by assisting the zoom of the image pickup apparatus with the zoom of the video output apparatus when the zoom photographing at the short distance / far distance cannot be performed any more. In addition, it is possible to shoot under appropriate exposure conditions by linking the luminance of the video output device and the shooting conditions of the imaging device 100.

このように、前述した各実施形態で解決可能なケースには、例えば、会議資料を投影したホワイトボードを撮影しようとする場面において、全体が収まりきらないケースが該当する。また、遊園地のアトラクションで、プロジェクタ投影されたキャラクター画像(アニメキャラクター、恐竜など)と、人物との記念撮影する場面も該当する。また、写真館や結婚披露宴等で、プロジェクタ投影された新郎新婦の幼児期写真と新郎新婦とを一つの被写体として撮影する場面も該当する。そこでは、一緒に撮影する被写体に多様な大小高低差があり、適正な大きさに変更できないケースが該当する。   As described above, a case that can be solved in each of the above-described embodiments includes, for example, a case where the whole cannot be accommodated in a scene where a whiteboard on which conference materials are projected is to be photographed. In addition, a scene where a character image (an anime character, a dinosaur, etc.) projected by a projector and a person is photographed at an amusement park attraction is also applicable. In addition, a scene where an infant photo of the bride and groom projected by the projector and the bride and groom are photographed as one subject in a photo studio or a wedding reception is also applicable. In this case, there are various cases in which subjects to be photographed together have various sizes and height differences, and the size cannot be changed to an appropriate size.

また、プロジェクタ機能付きデジタルカメラで、プロジェクタ投影しながら、なおかつカメラ撮影もしたい場面においてカメラ撮影のために立ち位置調整できないような制約があるケースも該当する。また、プロジェクタの投影輝度と被写体の明るさが合わないと双方がきれいに写らないケースも該当する。   In addition, there is a case in which a digital camera with a projector function has a restriction that the standing position cannot be adjusted for camera shooting in a scene where the projector is projected and the camera shooting is desired. In addition, there is a case where the projector brightness and the brightness of the subject do not match, and the two cannot be captured clearly.

このように、1台のカメラから各周辺機材のコントロールが可能となるため、機材操作に明るくないスタッフが、1人で撮影可能となる。また、路上設置・出前出張することが可能な、移動型撮影スタジオビジネスが実現できる。これにより、設備費用のかかる大掛かりな写真館よりも初期コストのかからない写真館レベルの高品位な写真をユーザに提供できる新規参入ベンチャーのビジネスモデルを確立できる。   As described above, since it is possible to control each peripheral device from one camera, a staff member who is not bright in the operation of the device can shoot by one person. In addition, a mobile photography studio business that can be installed on the road and traveled on the road can be realized. As a result, it is possible to establish a business model of a new entry venture that can provide users with high-quality photos at a photo studio level that does not require an initial cost compared to a large photo studio that requires equipment costs.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (5)

撮像装置と通信可能な画像表示装置であって、
前記画像表示装置が表示する表示画面をこれ以上ズームアウトができない状態で前記撮像装置が撮像した撮像画像を取得する手段と、
前記表示画面内で前記撮像画像と最も類似する領域を特定する特定手段と、
前記表示画面を、前記特定手段が特定した領域のサイズに縮小して該領域の位置に表示する表示制御手段と
を備えることを特徴とする画像表示装置。
An image display device capable of communicating with an imaging device,
Means for acquiring a captured image captured by the imaging device in a state where the display screen displayed by the image display device cannot be zoomed out any more;
A specifying means for specifying a region most similar to the captured image in the display screen;
An image display device comprising: display control means for reducing the display screen to the size of the area specified by the specifying means and displaying the display screen at the position of the area.
前記特定手段は、前記表示画面内で前記撮像画像とマッチング処理を行うことで、前記表示画面内で前記撮像画像と最も類似する領域を特定することを特徴とする請求項1に記載の画像表示装置。   The image display according to claim 1, wherein the specifying unit specifies a region most similar to the captured image in the display screen by performing a matching process with the captured image in the display screen. apparatus. 更に、
前記画像表示装置が表示する表示画面をこれ以上ズームインができない状態で前記撮像装置が撮像した撮像画像において、設定された領域内の画像を部分画像として取得する手段と、
前記表示画面内で前記部分画像と最も類似する領域を類似領域として特定する手段と、
前記類似領域内の画像を前記表示画面のサイズに拡大し、該拡大した類似画像を前記表示画面として表示する表示制御手段と
を備えることを特徴とする請求項1又は2に記載の画像表示装置。
Furthermore,
Means for acquiring an image in a set area as a partial image in a captured image captured by the imaging device in a state where the display screen displayed by the image display device cannot be zoomed in any more;
Means for specifying a region most similar to the partial image in the display screen as a similar region;
3. The image display device according to claim 1, further comprising: a display control unit that enlarges an image in the similar region to a size of the display screen and displays the enlarged similar image as the display screen. .
前記画像表示装置は前記撮像装置と一体化されていることを特徴とする請求項1乃至3の何れか1項に記載の画像表示装置。   The image display device according to claim 1, wherein the image display device is integrated with the imaging device. 撮像装置と通信可能な画像表示装置の制御方法であって、
前記画像表示装置の取得手段が、前記画像表示装置が表示する表示画面をこれ以上ズームアウトができない状態で前記撮像装置が撮像した撮像画像を取得する工程と、
前記画像表示装置の特定手段が、前記表示画面内で前記撮像画像と最も類似する領域を特定する特定工程と、
前記画像表示装置の表示制御手段が、前記表示画面を、前記特定工程で特定した領域のサイズに縮小して該領域の位置に表示する表示制御手段と
を備えることを特徴とする画像表示装置の制御方法。
An image display device control method capable of communicating with an imaging device,
The acquisition means of the image display device acquires a captured image captured by the imaging device in a state where the display screen displayed by the image display device cannot be zoomed out any more;
A specifying step in which the specifying unit of the image display device specifies a region most similar to the captured image in the display screen;
The display control means of the image display device comprises display control means for reducing the display screen to the size of the area specified in the specifying step and displaying the display screen at the position of the area. Control method.
JP2010197140A 2010-09-02 2010-09-02 Image display device and method for controlling the same Withdrawn JP2012054841A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010197140A JP2012054841A (en) 2010-09-02 2010-09-02 Image display device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010197140A JP2012054841A (en) 2010-09-02 2010-09-02 Image display device and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2012054841A true JP2012054841A (en) 2012-03-15

Family

ID=45907699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010197140A Withdrawn JP2012054841A (en) 2010-09-02 2010-09-02 Image display device and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2012054841A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023217081A1 (en) * 2022-05-10 2023-11-16 北京字跳网络技术有限公司 Element control method and apparatus for information input page, device, and medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023217081A1 (en) * 2022-05-10 2023-11-16 北京字跳网络技术有限公司 Element control method and apparatus for information input page, device, and medium

Similar Documents

Publication Publication Date Title
US9679394B2 (en) Composition determination device, composition determination method, and program
US9282242B2 (en) Method and electric device for taking panoramic photograph
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
US8638372B2 (en) Image capture unit with changeable image capture direction
US8908916B2 (en) Control apparatus, control method, and program to search for a subject and automatically perform image-recording
WO2015143841A1 (en) Mobile terminal and shooting method thereof
JP2010010883A (en) Image processor and image processing method
JP6141137B2 (en) REMOTE CONTROL DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE AND ITS CONTROL METHOD, SYSTEM, AND PROGRAM
KR102072731B1 (en) Photographing apparatus, method for controlling the same, and computer-readable storage medium
JP2011217103A (en) Compound eye photographing method and apparatus
JP2022128489A (en) Image capture device
JP5499754B2 (en) Imaging device
CN105210362B (en) Image adjusting apparatus, image adjusting method, and image capturing apparatus
JP2016534609A (en) A device for taking pictures with low illumination that can be connected to a mobile phone type device
WO2022037215A1 (en) Camera, display device and camera control method
JP2012054841A (en) Image display device and method for controlling the same
JP6992829B2 (en) Image processing system, image processing method and program
JP2005308777A (en) Photographing apparatus and its program
JP2018046415A (en) Display control device, display control method, and program
JP2014064061A (en) Imaging apparatus and control method thereof
JP2017041778A (en) Imaging apparatus, moving picture formation method and program
JP5098917B2 (en) Composition determination apparatus, composition determination method, and program
JP2013115656A (en) Photographing apparatus
JP6705477B2 (en) Image processing system, image processing method and program
TWI389556B (en) Image capture system and image capture method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131105