JP2012120003A - Imaging device, imaging device control method, and control program of the same - Google Patents

Imaging device, imaging device control method, and control program of the same Download PDF

Info

Publication number
JP2012120003A
JP2012120003A JP2010268966A JP2010268966A JP2012120003A JP 2012120003 A JP2012120003 A JP 2012120003A JP 2010268966 A JP2010268966 A JP 2010268966A JP 2010268966 A JP2010268966 A JP 2010268966A JP 2012120003 A JP2012120003 A JP 2012120003A
Authority
JP
Japan
Prior art keywords
frame
imaging
unit
frame candidate
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010268966A
Other languages
Japanese (ja)
Inventor
Takashi Tachikawa
孝 立河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010268966A priority Critical patent/JP2012120003A/en
Publication of JP2012120003A publication Critical patent/JP2012120003A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device which has functions of detecting the shape of a frame for identifying a range to be imaged and imaging the range to be imaged identified by the frame, and to provide an imaging device control method and a control program of the same.SOLUTION: An imaging device 100 of this invention comprises: imaging means 101 which executes imaging and generates image data; frame candidate detection means 102 which detects, from the image data generated by the imaging means 101, the shape of a frame candidate identifying the range to be imaged; and control means 103 which controls the imaging means to image the range to be imaged identified by the frame candidate detected by the frame candidate detection means.

Description

本発明は撮影装置、撮影装置における制御方法及びその制御プログラムに関するものであり、特にカメラ撮影の際に撮影範囲を特定する技術に関する。   The present invention relates to a photographing apparatus, a control method in the photographing apparatus, and a control program therefor, and particularly relates to a technique for specifying a photographing range at the time of camera photographing.

カメラの付加価値を高めるために、様々な技術が提案されている。特許文献1においては、カメラにフレーミング(撮影範囲の決定)手段を設けることにより、使用者が違和感を覚えずに自然な感覚で撮影できるカメラの技術が開示されている。特許文献2においては、使用者が複数の被写体を指定することにより、複数の被写体が含まれた状態でズーム倍率が最大になるように制御して撮影をするデジタルカメラの技術が開示されている。   Various techniques have been proposed to increase the added value of cameras. Japanese Patent Application Laid-Open No. 2004-228561 discloses a camera technique that allows a user to take a picture with a natural feeling without feeling uncomfortable by providing a framing (determining the shooting range) means to the camera. Japanese Patent Application Laid-Open No. 2004-228561 discloses a digital camera technology that performs shooting by controlling the zoom magnification to be maximized in a state in which a plurality of subjects are included by a user specifying a plurality of subjects. .

また、特許文献3においては、人物を目標サイズで撮影するために自動でフレーミングを実行する機能を搭載したデジタルカメラの技術が開示されている。特許文献4においては、使用者が指定した被写体を自動的に追従して、被写体を撮影することが可能なデジタルカメラの技術が開示されている。   Patent Document 3 discloses a technique of a digital camera equipped with a function of automatically performing framing in order to photograph a person at a target size. Patent Document 4 discloses a digital camera technique that can automatically track a subject designated by a user and photograph the subject.

特開2005−121838号公報JP 2005-121838 A 特開2005−269153号公報JP 2005-269153 A 特開2007−228007号公報JP 2007-228007 A 特開2009−117960号公報JP 2009-117960 A

しかしながら、特許文献1〜4に開示された技術では、使用者が、室内の窓から外の景色を撮影するような場合、使用者自身が窓枠内に撮影範囲を合わせるように撮影装置の位置や角度等を調整する必要がある。このため、撮影に手間がかかる恐れがある。また、使用者が撮影範囲を特定することも容易ではない。   However, in the techniques disclosed in Patent Documents 1 to 4, when the user captures an outside scene from the indoor window, the position of the image capturing device is adjusted so that the user adjusts the capturing range within the window frame. It is necessary to adjust the angle and so on. For this reason, there is a possibility that it takes time and effort to shoot. In addition, it is not easy for the user to specify the shooting range.

本発明は、このような問題点を解決するためになされたものであり、撮影範囲の特定機能に優れた撮影装置、撮影装置における制御方法及びその制御プログラムを提供することを目的とする。   The present invention has been made to solve such problems, and an object of the present invention is to provide a photographing apparatus excellent in a photographing range specifying function, a control method in the photographing apparatus, and a control program therefor.

本発明にかかる撮影装置は、撮影を実行し、画像データを生成する撮像手段と、前記撮像手段により生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出するフレーム候補検出手段と、前記フレーム候補検出手段により検出された前記フレーム候補が特定する撮影範囲を撮影するように前記撮像手段を制御する制御手段を備える。   An imaging apparatus according to the present invention executes imaging and generates image data, and frame candidate detection means for detecting a shape of a frame candidate for specifying an imaging range from the image data generated by the imaging means And control means for controlling the imaging means so as to take an image of a shooting range specified by the frame candidate detected by the frame candidate detection means.

本発明にかかる撮影装置の制御方法は、撮影データを処理して画像データを生成するステップと、生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出するステップと、前記フレーム候補が特定する撮影範囲を撮影するように撮影装置を制御するステップを備える。   The method for controlling a photographing apparatus according to the present invention includes a step of processing photographing data to generate image data, a step of detecting a shape of a frame candidate for specifying a photographing range from the generated image data, and the frame candidate The step of controlling the photographing apparatus so as to photograph the photographing range specified by.

本発明にかかる撮影装置の制御プログラムは、撮影データを処理して画像データを生成する処理と、生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出する処理と、前記フレーム候補が特定する撮影範囲を撮影するように撮影装置を制御する処理を撮影装置に実行させる。   A control program for an image capturing apparatus according to the present invention includes: a process for processing image data to generate image data; a process for detecting a shape of a frame candidate for specifying an image capturing range from the generated image data; and the frame candidate The imaging apparatus is caused to execute processing for controlling the imaging apparatus so as to capture the imaging range specified by.

本発明により、撮影範囲の特定機能に優れた撮影装置、撮影装置における制御方法及びその制御プログラムを提供することができる。   According to the present invention, it is possible to provide a photographing apparatus excellent in a photographing range specifying function, a control method in the photographing apparatus, and a control program thereof.

実施の形態1にかかる撮影装置の全体構成例を示すブロック図である。1 is a block diagram illustrating an example of an overall configuration of a photographing apparatus according to a first embodiment. 実施の形態2にかかる撮影装置の全体構成例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of an overall configuration of a photographing apparatus according to a second embodiment. 実施の形態2にかかる撮影装置によって撮影範囲を特定する処理を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining processing for specifying a photographing range by the photographing apparatus according to the second embodiment; 実施の形態3にかかる撮影装置の全体構成例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of an overall configuration of a photographing apparatus according to a third embodiment. 実施の形態3にかかる撮影装置によって撮影範囲を特定する処理を説明するための第1の説明図である。FIG. 10 is a first explanatory diagram for explaining processing for specifying a photographing range by the photographing apparatus according to the third embodiment; 実施の形態3にかかる撮影装置によって撮影範囲を特定する処理を説明するための第2の説明図である。FIG. 10 is a second explanatory diagram for explaining a process of specifying a photographing range by the photographing apparatus according to the third embodiment. 実施の形態3にかかる撮影装置によって撮影範囲を特定する処理を説明するための第3の説明図である。FIG. 10 is a third explanatory diagram for explaining processing for specifying an imaging range by the imaging apparatus according to the third embodiment; 実施の形態3にかかる撮影装置によって撮影範囲を特定する処理を説明するための第4の説明図である。FIG. 10 is a fourth explanatory diagram for explaining processing for specifying a photographing range by the photographing apparatus according to the third embodiment; 実施の形態4にかかる撮影装置によって撮影範囲を特定する処理を説明するための第1の説明図である。FIG. 10A is a first explanatory diagram for explaining processing for specifying a photographing range by the photographing apparatus according to the fourth embodiment; 実施の形態4にかかる撮影装置によって撮影範囲を特定する処理を説明するための第2の説明図である。FIG. 10 is a second explanatory diagram for explaining a process of specifying a photographing range by the photographing apparatus according to the fourth embodiment. 実施の形態4にかかる撮影装置によって撮影範囲を特定する処理を説明するための第3の説明図である。FIG. 10 is a third explanatory diagram for explaining processing for specifying a photographing range by the photographing apparatus according to the fourth embodiment;

実施の形態1
以下、図面を参照して本発明の実施の形態1について説明する。図1は、本実施形態における、撮影装置100の全体構成例を示すブロック図である。撮影装置100は、撮像手段101、フレーム候補検出手段102、制御手段103を備える。撮影装置100は、撮影機能を有する装置であり、例えばカメラ、デジタルカメラ、カメラ撮影機能を有する携帯端末(携帯電話、携帯情報端末、スマートフォン等)、メガネ型のディスプレイを有するカメラである。
Embodiment 1
Embodiment 1 of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating an example of the overall configuration of the imaging apparatus 100 according to the present embodiment. The imaging apparatus 100 includes an imaging unit 101, a frame candidate detection unit 102, and a control unit 103. The photographing apparatus 100 is an apparatus having a photographing function, for example, a camera, a digital camera, a portable terminal (such as a mobile phone, a portable information terminal, a smartphone) having a camera photographing function, or a camera having a glasses-type display.

撮像手段101は、静止画又は動画を撮影する機能を有し、例えばCCD、CMOS等の撮像素子(イメージセンサ)を備える。撮像手段101では、入射した撮影範囲の映像光を光学レンズにより撮像素子に集光する。撮像素子は、集光した映像光を撮影データに変換する。撮像手段101は、撮影データを画像データに変換し、これをフレーム候補検出手段102及び制御手段103に出力する。撮像手段101は、例えばCPU(Central Processing Unit)等のプロセッサを備えている。   The imaging unit 101 has a function of capturing a still image or a moving image, and includes an imaging element (image sensor) such as a CCD or a CMOS. In the image pickup unit 101, the incident image light in the shooting range is condensed on the image pickup element by an optical lens. The image sensor converts the condensed video light into photographing data. The imaging unit 101 converts the captured data into image data, and outputs the image data to the frame candidate detection unit 102 and the control unit 103. The imaging unit 101 includes a processor such as a CPU (Central Processing Unit).

フレーム候補検出手段102は、撮像手段101により生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出する機能を有する。フレーム候補検出手段102は、制御手段103にそのフレーム候補が特定する撮影範囲のデータを出力する。この撮影範囲のデータは、画像データ中において撮影範囲を特定する座標情報でもよいし、撮影範囲の画像データでもよい。撮影範囲が特定可能なデータであれば、他のデータでもよい。なお、フレーム候補検出手段102は、例えばCPU等のプロセッサを備えている。   The frame candidate detection unit 102 has a function of detecting the shape of the frame candidate that specifies the shooting range from the image data generated by the imaging unit 101. The frame candidate detection unit 102 outputs data of the shooting range specified by the frame candidate to the control unit 103. The data of the shooting range may be coordinate information for specifying the shooting range in the image data, or may be image data of the shooting range. Other data may be used as long as the shooting range can be specified. Note that the frame candidate detection means 102 includes a processor such as a CPU, for example.

フレーム候補検出手段102におけるフレーム候補の形状の検出について、さらに説明する。フレーム候補検出手段102は、画像データの特徴を抽出し、四角や丸、多角形などの閉じられた領域を認識して、フレーム候補となる形状を検出する機能を有する。この機能により、フレーム候補検出手段102は、例えば窓枠、額縁等を検出することができる。   The detection of the shape of the frame candidate in the frame candidate detection unit 102 will be further described. The frame candidate detection unit 102 has a function of extracting features of image data, recognizing a closed region such as a square, a circle, or a polygon, and detecting a shape as a frame candidate. With this function, the frame candidate detection unit 102 can detect, for example, a window frame, a frame, and the like.

あるいは、フレーム候補検出手段102は、仮想的な閉じられた領域を、フレーム候補となる形状として認識してもよい。「仮想的な閉じられた領域」の一例として、親指と人差し指とを両手ともL字形の形状(同じ手の親指と人差し指との成す角を略直角にした形状)にし、右手の親指と左手の親指、右手の人差指と左手の人差指を略平行に配置するような状態が考えられる。この場合、フレーム候補検出手段102は、両手の親指と人差し指の形状によって、仮想的な矩形を認識する。また、仮想的なフレームを描く手の動作により、その仮想的なフレームをフレーム候補となる形状として、認識する機能を有してもよい。なお、フレーム候補検出手段102は、画像データと予め記憶されたフレームのパターンとを比較することにより、フレーム候補の形状を検出してもよい。   Alternatively, the frame candidate detection unit 102 may recognize a virtual closed region as a shape that is a frame candidate. As an example of “virtual closed region”, both the thumb and forefinger are L-shaped (the angle between the thumb and forefinger of the same hand is substantially perpendicular), and the thumb and left hand of the right hand It is conceivable that the thumb, the right index finger and the left index finger are arranged substantially in parallel. In this case, the frame candidate detection means 102 recognizes a virtual rectangle based on the shape of the thumb and index finger of both hands. Further, it may have a function of recognizing the virtual frame as a frame candidate shape by the action of a hand drawing a virtual frame. The frame candidate detection means 102 may detect the shape of the frame candidate by comparing the image data with a prestored frame pattern.

制御手段103は、撮像手段101、フレーム候補検出手段102を制御する。例えば、制御手段103は、フレーム候補検出手段102からフレーム候補が特定する撮影範囲のデータを取得した場合、撮像手段101に対し、その特定の撮影範囲のみを撮影するように制御する指示を出力する。当該制御の具体例として、制御手段103は、ズーム、撮像手段101の方向(撮像手段101がレンズ等を有する場合にはレンズの方向)の制御をする。なお、撮像手段101が光学ズーム機能を搭載する場合、特定の撮影範囲が撮像素子になるべく大きく写るように、制御手段103はズーム倍率を自動調整する。ただし、撮像手段101がデジタルズーム機能を搭載する場合、制御手段103は撮影の画像データとして利用するトリミング範囲を特定の撮影範囲と設定することにより、特定の撮影範囲のみが撮影されるように制御する。また、制御手段103は、特定の撮影範囲が明瞭に撮影されるように、撮像手段101を制御して、オートフォーカスを実行させるようにしてもよい。   The control unit 103 controls the imaging unit 101 and the frame candidate detection unit 102. For example, when the control unit 103 acquires the data of the shooting range specified by the frame candidate from the frame candidate detection unit 102, the control unit 103 outputs an instruction to control the imaging unit 101 so that only the specific shooting range is shot. . As a specific example of the control, the control unit 103 controls the zoom and the direction of the imaging unit 101 (or the direction of the lens when the imaging unit 101 includes a lens). When the image pickup unit 101 is equipped with an optical zoom function, the control unit 103 automatically adjusts the zoom magnification so that a specific shooting range is as large as possible in the image pickup device. However, when the image pickup unit 101 is equipped with a digital zoom function, the control unit 103 sets a trimming range used as image data for shooting as a specific shooting range so that only a specific shooting range is shot. . In addition, the control unit 103 may control the imaging unit 101 to execute autofocus so that a specific imaging range is clearly captured.

また、制御手段103は、撮像手段101から画像データを取得し、それを保存する記憶手段を内部に有する。制御手段103は、例えば、撮影装置100内のCPU、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される。CPUは、ROMに記憶されているプログラムやRAMにロードされた各種のアプリケーションプログラムを読み込むことにより、撮影装置100を制御する。ROMには、撮影装置100を制御するための各種プログラムが記憶されている。RAMには、CPUが各種の処理を実行する上で必要なデータが適宜記憶される。なお、ROMではなく、他の不揮発性メモリを用いてもよい。   Further, the control means 103 has storage means for acquiring image data from the imaging means 101 and storing it. The control unit 103 includes, for example, a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like in the photographing apparatus 100. The CPU controls the photographing apparatus 100 by reading a program stored in the ROM and various application programs loaded in the RAM. Various programs for controlling the photographing apparatus 100 are stored in the ROM. The RAM appropriately stores data necessary for the CPU to execute various processes. Note that other non-volatile memory may be used instead of the ROM.

以下、使用者が撮影装置100を用いて撮影する際の、撮影装置100の各部の処理について説明する。まず制御手段103は、使用者の指示に応じて、撮像手段101に撮影の指示を出力する。撮像手段101は、当該指示に応じ、撮影を実行し、撮影データを変換して画像データを生成する。撮像手段101は、当該画像データをフレーム候補検出手段102及び制御手段103に出力する。   Hereinafter, processing of each unit of the photographing apparatus 100 when the user performs photographing using the photographing apparatus 100 will be described. First, the control unit 103 outputs an imaging instruction to the imaging unit 101 in accordance with a user instruction. In response to the instruction, the imaging unit 101 performs shooting, converts the shooting data, and generates image data. The imaging unit 101 outputs the image data to the frame candidate detection unit 102 and the control unit 103.

フレーム候補検出手段102は、撮像手段101が生成した画像データから、撮影範囲を特定するフレーム候補の形状を検出する。フレーム候補検出手段102は、画像データからフレーム候補の形状を検出した場合に、制御手段103にそのフレーム候補が特定する撮影範囲のデータを出力する。制御手段103は、その特定された撮影範囲を撮影するように、撮像手段101を制御する。制御手段103が撮像手段101を制御する具体例については、前述の通りである。   The frame candidate detection unit 102 detects the shape of the frame candidate that specifies the shooting range from the image data generated by the imaging unit 101. When the frame candidate detection unit 102 detects the shape of the frame candidate from the image data, the frame candidate detection unit 102 outputs data of the shooting range specified by the frame candidate to the control unit 103. The control unit 103 controls the imaging unit 101 so as to capture the specified imaging range. A specific example in which the control unit 103 controls the imaging unit 101 is as described above.

以上、本実施の形態にかかる撮影装置によれば、撮影範囲を特定するフレームの形状を検出し、当該フレームが特定する撮影範囲を撮影することができるので、使用者は容易に撮影範囲を特定することができる。   As described above, according to the imaging apparatus according to the present embodiment, the shape of the frame specifying the imaging range can be detected and the imaging range specified by the frame can be captured, so that the user can easily specify the imaging range. can do.

実施の形態2
以下、図面を参照して本発明の実施の形態2について説明する。なお、実施の形態1と同様の点については、適宜説明を省略する。図2は、本実施形態における、撮影装置100の全体構成例を示すブロック図である。撮影装置100は、フレーム候補検出手段102、制御手段103、カメラ手段104、画像処理手段105、表示データ生成手段106、表示手段107、撮影範囲選択手段108を備える。撮影装置100の具体例は、実施の形態1と同様であり、説明を省略する。なお、カメラ手段104及び画像処理手段105は、実施の形態1の撮像手段101に対応する。
Embodiment 2
The second embodiment of the present invention will be described below with reference to the drawings. Note that the description of the same points as in the first embodiment will be omitted as appropriate. FIG. 2 is a block diagram illustrating an example of the overall configuration of the imaging apparatus 100 in the present embodiment. The imaging apparatus 100 includes a frame candidate detection unit 102, a control unit 103, a camera unit 104, an image processing unit 105, a display data generation unit 106, a display unit 107, and an imaging range selection unit 108. A specific example of the imaging apparatus 100 is the same as that of the first embodiment, and a description thereof will be omitted. The camera unit 104 and the image processing unit 105 correspond to the imaging unit 101 of the first embodiment.

フレーム候補検出手段102は、実施の形態1と同様の処理をする。なお、本実施形態において、フレーム候補検出手段102は、複数のフレーム候補を検出することが可能である。   The frame candidate detection means 102 performs the same processing as in the first embodiment. In the present embodiment, the frame candidate detection unit 102 can detect a plurality of frame candidates.

制御手段103は、フレーム候補検出手段102、カメラ手段104、画像処理手段105、表示手段107、撮影範囲選択手段108を制御する。制御手段103は、カメラ手段104のズーム又は撮影方向等を制御するカメラ制御手段112のほか、画像処理手段105から画像データを取得し、それを保存する記憶手段113を内部に有する。また、制御手段103は、撮影範囲選択手段108からの情報に応じて、フレーム候補検出手段102にて検出された複数の撮影範囲の候補から、撮影範囲を選択する。カメラ制御手段112は、その選択された撮影範囲のみが撮影されるように、自動的にカメラ手段104のズーム、撮影方向等を制御する。   The control unit 103 controls the frame candidate detection unit 102, the camera unit 104, the image processing unit 105, the display unit 107, and the shooting range selection unit 108. The control unit 103 includes a storage unit 113 that acquires image data from the image processing unit 105 and stores it, in addition to the camera control unit 112 that controls the zoom or shooting direction of the camera unit 104. Further, the control unit 103 selects a shooting range from a plurality of shooting range candidates detected by the frame candidate detection unit 102 in accordance with the information from the shooting range selection unit 108. The camera control unit 112 automatically controls the zoom, shooting direction, and the like of the camera unit 104 so that only the selected shooting range is shot.

また、制御手段103は、フレーム候補検出手段102から、検出されたフレーム候補を特定するのに必要な座標データを取得する。制御手段103は、検出されたフレーム候補の各々について枠を示すデータを生成し、そのデータを対応するフレーム候補の座標データと共に、表示データ生成手段106に出力する。制御手段103の具体的な構成例については、実施の形態1と同様であり、説明を省略する。   In addition, the control unit 103 acquires coordinate data necessary for specifying the detected frame candidate from the frame candidate detection unit 102. The control means 103 generates data indicating a frame for each detected frame candidate, and outputs the data to the display data generation means 106 together with the coordinate data of the corresponding frame candidate. A specific configuration example of the control unit 103 is the same as that of the first embodiment, and a description thereof will be omitted.

カメラ手段104は、静止画又は動画を撮影する機能を有しており、センサ手段110、レンズ手段111を備えている。センサ手段110は撮像素子であり、例えばCCD、CMOS等である。レンズ手段111は、光学レンズ及びその駆動系を備えている。レンズ手段111の備える光学レンズが撮影範囲の映像をセンサ手段110の備える撮像素子に集光することにより、カメラ手段104は撮影データを取得する。   The camera unit 104 has a function of capturing a still image or a moving image, and includes a sensor unit 110 and a lens unit 111. The sensor means 110 is an image sensor, such as a CCD or CMOS. The lens unit 111 includes an optical lens and its drive system. When the optical lens provided in the lens unit 111 condenses the image of the shooting range on the image sensor provided in the sensor unit 110, the camera unit 104 acquires the shooting data.

画像処理手段105は、カメラ手段104から出力された撮影データを変換処理して、画像データを生成する。画像処理手段105にて生成された画像データは、フレーム候補検出手段102、制御手段103及び表示データ生成手段106に出力される。   The image processing unit 105 converts the photographic data output from the camera unit 104 to generate image data. The image data generated by the image processing unit 105 is output to the frame candidate detection unit 102, the control unit 103, and the display data generation unit 106.

表示データ生成手段106は、画像処理手段105から出力された画像データ、制御手段103から出力されたフレーム候補の枠のデータ及び対応する座標データに基づいて、表示手段107で表示するための画像の表示データを生成する。つまり、表示データ生成手段106は、画像処理手段105から出力された画像データにおいて、撮影範囲又は撮影範囲候補(フレーム又はフレーム候補)の位置が枠で示された画像の表示データを生成する。表示データ生成手段106は合成した画像の表示データを表示手段107へ出力する。表示データ生成手段106は、例えばCPU、ROM、RAM等を備えた、IC(Integrated Circuit)で構成される。   Based on the image data output from the image processing unit 105, the frame candidate frame data output from the control unit 103, and the corresponding coordinate data, the display data generation unit 106 displays an image to be displayed on the display unit 107. Generate display data. That is, the display data generation unit 106 generates display data of an image in which the position of the shooting range or shooting range candidate (frame or frame candidate) is indicated by a frame in the image data output from the image processing unit 105. The display data generation unit 106 outputs the display data of the synthesized image to the display unit 107. The display data generation unit 106 is configured by an IC (Integrated Circuit) including, for example, a CPU, a ROM, a RAM, and the like.

表示手段107は、表示データ生成手段106により生成された表示データに基づいて画像を表示する。表示手段107は、具体的には液晶ディスプレイ等の表示デバイスである。   The display unit 107 displays an image based on the display data generated by the display data generation unit 106. The display means 107 is specifically a display device such as a liquid crystal display.

撮影範囲選択手段108は、使用者によって操作され、表示手段107に表示された複数の撮影範囲候補に係る画像のいずれかにより、任意の撮影範囲候補を選択入力するデバイスである。撮影範囲選択手段108の具体例として、携帯電話等に設けられる4方向のキー、アナログポインティングデバイスのように使用者による自由な方向移動が可能な入力デバイス、使用者の音声を認識することが可能なデバイスが考えられる。   The imaging range selection unit 108 is a device that is operated by the user and selectively inputs an arbitrary imaging range candidate based on any of the plurality of imaging range candidates displayed on the display unit 107. Specific examples of the shooting range selection means 108 include four-directional keys provided on a mobile phone, an input device that can be freely moved by the user, such as an analog pointing device, and the user's voice can be recognized. Devices are possible.

以下、図3を用いて、本実施形態における撮影装置100のフレームの選択処理を説明する。特に図3では、使用者が室内から窓枠の外の風景を撮影する場合の、撮影範囲について示している。当初(フレーミング開始時)の撮影範囲200は、2つの窓の窓枠201、202を含む室内の壁である。また、窓枠201、202により区画される窓を通して、使用者は室外の風景を見ることができる。本例では、窓枠202に係る窓からは、木とベンチがある風景(撮影範囲203の風景)を見ることができる。   Hereinafter, with reference to FIG. 3, a frame selection process of the imaging apparatus 100 according to the present embodiment will be described. In particular, FIG. 3 shows a shooting range when the user takes a picture outside the window frame from the room. The initial imaging range 200 (at the start of framing) is an indoor wall including window frames 201 and 202 of two windows. In addition, the user can see the outdoor scenery through the windows defined by the window frames 201 and 202. In this example, a landscape with a tree and a bench (scenery in the shooting range 203) can be seen from the window related to the window frame 202.

使用者が当初の撮影範囲200を撮影する際には、カメラ手段104は当初の撮影範囲200を逐次更新して撮影し、当初の撮影範囲200の撮影データを画像処理手段105に出力する。画像処理手段105は撮影データを処理して画像データを生成し、表示データ生成手段106に出力する。表示データ生成手段106は表示手段107に画像データを出力することにより、表示手段107は当初の撮影範囲200の画像データを逐次更新して表示する。以下、この表示状態をプレビュー状態とも記載する。   When the user shoots the initial shooting range 200, the camera unit 104 sequentially updates and shoots the initial shooting range 200, and outputs the shooting data of the initial shooting range 200 to the image processing unit 105. The image processing unit 105 processes the shooting data to generate image data, and outputs the image data to the display data generation unit 106. The display data generation means 106 outputs the image data to the display means 107, so that the display means 107 sequentially updates and displays the image data of the initial photographing range 200. Hereinafter, this display state is also referred to as a preview state.

この際にフレーム候補検出手段102は、画像処理手段105より入力された画像データから、撮影範囲を特定するフレーム候補の形状として窓枠201、202を検出する。フレーム候補検出手段102は、制御手段103に、それらのフレーム候補(窓枠201、202)を特定するのに必要な座標データを出力する。   At this time, the frame candidate detection unit 102 detects the window frames 201 and 202 as the shape of the frame candidate for specifying the shooting range from the image data input from the image processing unit 105. The frame candidate detection means 102 outputs the coordinate data necessary for specifying these frame candidates (window frames 201 and 202) to the control means 103.

制御手段103は、フレーム候補検出手段102が出力した座標データに基づき、フレーム候補の枠等のデータを生成して、座標データと共に表示データ生成手段106に出力する。本例では、制御手段103は、窓枠201、202内が撮影範囲であることを明示するため、フレーム候補の枠となる赤枠のデータを生成し、窓枠201、202の座標データと共に表示データ生成手段106に出力する。なお、窓枠201のフレーム候補の枠のデータは窓枠201の座標データと関連付けられて、窓枠202のフレーム候補の枠のデータは窓枠202の座標データと関連付けられて表示データ生成手段106に出力される。制御手段103は、赤枠でなく他の色の枠のデータを生成してもよい。また、枠のデータではなく、矢印などの目印となるデータを生成してもよい。   Based on the coordinate data output from the frame candidate detection unit 102, the control unit 103 generates data such as a frame candidate frame and outputs the frame candidate data to the display data generation unit 106 together with the coordinate data. In this example, the control means 103 generates data of a red frame that is a frame candidate frame and clearly displays it together with the coordinate data of the window frames 201 and 202 in order to clearly indicate that the window frames 201 and 202 are within the shooting range. The data is output to the data generation means 106. The frame candidate frame data of the window frame 201 is associated with the coordinate data of the window frame 201, and the frame candidate frame data of the window frame 202 is associated with the coordinate data of the window frame 202, and the display data generation unit 106. Is output. The control means 103 may generate data for a frame of another color instead of the red frame. Further, instead of the frame data, data serving as a mark such as an arrow may be generated.

表示データ生成手段106は、制御手段103が出力したフレーム候補の枠等のデータ及び座標データと、画像処理手段105が出力した当初の撮影範囲200の画像データから、当初の撮影範囲200において窓枠201、202の位置を示す表示データを生成する。表示データ生成手段106は、その表示データを表示手段107に出力する。表示手段107は、表示データ生成手段106が生成した画像を表示する。本例において、表示データ生成手段106が生成する表示データは、図3の当初の撮影範囲200中に窓枠201、202が赤枠で表示された画像データである。つまり、表示手段107は、当初の撮影範囲200中に窓枠201、202が赤枠で表示された画像を表示する。使用者は、表示手段107を視認した際、窓枠201、202が赤枠で表示されていることで、撮影範囲候補が窓枠201、202内であることが明確に認識できる。   The display data generation unit 106 uses the window candidate frame data and coordinate data output from the control unit 103 and the image data of the initial shooting range 200 output from the image processing unit 105 to display a window frame in the initial shooting range 200. Display data indicating the positions of 201 and 202 is generated. The display data generation unit 106 outputs the display data to the display unit 107. The display unit 107 displays the image generated by the display data generation unit 106. In this example, the display data generated by the display data generation means 106 is image data in which the window frames 201 and 202 are displayed with a red frame in the initial shooting range 200 of FIG. That is, the display unit 107 displays an image in which the window frames 201 and 202 are displayed with a red frame in the initial shooting range 200. When the user visually recognizes the display unit 107, the window frames 201 and 202 are displayed in red, so that the user can clearly recognize that the photographing range candidate is within the window frames 201 and 202.

使用者は、表示手段107に表示された画像を視認して、撮影範囲選択手段108を操作し、撮影範囲のフレームとして窓枠202を選択する。例えば、撮影装置100は携帯端末、表示手段107は液晶ディスプレイ、撮影範囲選択手段108は4方向のキー等を含む各種キーである。その場合、液晶ディスプレイには、当初の撮影範囲200中に窓枠201、202が赤枠で表示された画像が表示される。使用者は、4方向のキー等を用いて、窓枠201、202に係る画像の中から、窓枠202に係る画像を選択する。これにより、使用者は撮影範囲として、窓枠202内(撮影範囲203)を選択する。   The user visually recognizes the image displayed on the display unit 107, operates the shooting range selection unit 108, and selects the window frame 202 as a frame of the shooting range. For example, the photographing apparatus 100 is a portable terminal, the display unit 107 is a liquid crystal display, and the photographing range selection unit 108 is various keys including four-direction keys. In that case, the liquid crystal display displays an image in which the window frames 201 and 202 are displayed with a red frame in the initial photographing range 200. The user selects an image related to the window frame 202 from images related to the window frames 201 and 202 by using four-direction keys or the like. Thereby, the user selects the inside of the window frame 202 (shooting range 203) as the shooting range.

使用者の操作により、撮影範囲選択手段108は、撮影範囲203を撮影範囲として選択するための情報を、制御手段103に出力する。制御手段103は、撮影範囲選択手段108から出力された情報に基づき、カメラ制御手段112によってカメラ手段104を制御する。具体的には、カメラ制御手段112は、撮影範囲203がセンサ手段110に対して最も大きく撮像されるように、レンズ手段111における光学ズーム倍率、レンズの向き等の調整をする。以上の処理により、使用者は窓枠202内の風景(撮影範囲203)を撮影することができる。   By the user's operation, the shooting range selection unit 108 outputs information for selecting the shooting range 203 as the shooting range to the control unit 103. The control unit 103 controls the camera unit 104 by the camera control unit 112 based on the information output from the shooting range selection unit 108. Specifically, the camera control unit 112 adjusts the optical zoom magnification, the lens orientation, and the like in the lens unit 111 so that the imaging range 203 is captured most greatly with respect to the sensor unit 110. Through the above processing, the user can take a picture of the landscape (shooting range 203) in the window frame 202.

この際、制御手段103は、使用者が撮影範囲のフレームとして窓枠202を選択したことを受け、表示手段107に表示される画像を変化させる。使用者が窓枠202を選択する前には、表示手段107は、当初の撮影範囲200中に、窓枠201、202が赤枠で表示された画像を表示していた。しかし、使用者が窓枠202を選択した後には、表示手段107には、当初の撮影範囲200中に窓枠202は濃い赤枠で表示され、窓枠201は薄い赤枠で表示されるように、制御手段103は制御をする。つまり、制御手段103は、窓枠201について薄い赤枠のデータを生成し、それを窓枠201の座標データと関連付けて表示データ生成手段106に出力する。同様に、制御手段103は窓枠201について濃い赤枠のデータを生成し、それを窓枠202の座標データと関連付けて表示データ生成手段106に出力する。表示データ生成手段106は、この出力されたデータに基づき、前述と同様に表示手段107で表示するための画像の表示データを生成し、表示手段107はその表示データに基づいて画像を生成する。以上により、表示手段107には、当初の撮影範囲200中において窓枠202は濃い赤枠で表示され、窓枠201は薄い赤枠で表示された画像が表示される。なお、窓枠201は赤ではなく、白色、黄色など、他の色の枠で表示されてもよい。あるいは、表示手段107は上下に分けられ、上の画面には当初の撮影範囲200が表示され、下の画面には撮影範囲203が表示されるようになっていてもよい。以上のように表示される画像は、使用者が選択した撮影範囲に応じて、適宜変化する。   At this time, the control unit 103 changes the image displayed on the display unit 107 in response to the user selecting the window frame 202 as the frame of the shooting range. Before the user selects the window frame 202, the display unit 107 displays an image in which the window frames 201 and 202 are displayed with a red frame in the initial shooting range 200. However, after the user selects the window frame 202, the display means 107 displays the window frame 202 in a dark red frame and the window frame 201 in a light red frame in the initial shooting range 200. In addition, the control means 103 performs control. That is, the control unit 103 generates thin red frame data for the window frame 201 and outputs the data to the display data generation unit 106 in association with the coordinate data of the window frame 201. Similarly, the control unit 103 generates dark red frame data for the window frame 201, associates it with the coordinate data of the window frame 202, and outputs it to the display data generation unit 106. The display data generation unit 106 generates display data of an image to be displayed on the display unit 107 based on the output data, and the display unit 107 generates an image based on the display data. As described above, the display unit 107 displays an image in which the window frame 202 is displayed with a dark red frame and the window frame 201 is displayed with a light red frame in the initial photographing range 200. Note that the window frame 201 may be displayed in a frame of another color such as white or yellow instead of red. Alternatively, the display unit 107 may be divided into an upper part and a lower part, and the upper photographing area 200 may be displayed on the upper screen, and the photographing area 203 may be displayed on the lower screen. The image displayed as described above changes as appropriate according to the shooting range selected by the user.

以上で説明したように、本実施の形態にかかる撮影装置によれば、自動で窓枠等のフレーム候補を判定し、フレームが特定する撮影範囲が最大となるように撮影を制御することができる。これにより、使用者は容易にフレーミングが実行できる効果を奏する。また、当該撮影装置は、表示手段、撮影範囲選択手段を設け、表示手段には複数の撮影範囲候補に係る画像を表示する。使用者はこの画像を見て撮影範囲選択手段を操作することで、撮影範囲候補のうち、所望の撮影範囲を選択することができる。   As described above, according to the imaging apparatus according to the present embodiment, it is possible to automatically determine a frame candidate such as a window frame and to control imaging so that the imaging range specified by the frame is maximized. . As a result, the user can easily perform framing. In addition, the photographing apparatus includes a display unit and a photographing range selection unit, and displays images related to a plurality of photographing range candidates on the display unit. The user can select a desired shooting range among the shooting range candidates by operating the shooting range selection unit while viewing this image.

一般に、デジタルカメラや、携帯電話機などのカメラ撮影機能を有する携帯端末では、使用者は撮影の際にファインダーや液晶画面などの表示装置を利用して、その表示装置により、視認可能な範囲を撮影範囲又は撮影範囲の目安として決定する。使用者が、表示装置から視認可能な範囲の一部のみを撮影する場合、使用者は自分自身で撮影範囲を変更、又は調整する制御をする。例えば、使用者はカメラの向きの調整、撮影位置の移動、又は、光学式ズーム、デジタル式ズーム等を用いて撮影範囲を拡大又は縮小といった調整をして、所望の撮影範囲を撮影するような制御をする。例えば、使用者が、室内、あるいは電車の中から、窓に映る外の景色のみを撮影するような場合である。   Generally, in a portable terminal having a camera photographing function such as a digital camera or a mobile phone, a user uses a display device such as a finder or a liquid crystal screen at the time of photographing, and shoots a visible range by the display device. It is determined as an indication of the range or shooting range. When the user captures only a part of the range that is visible from the display device, the user performs control to change or adjust the imaging range by himself / herself. For example, the user may shoot a desired shooting range by adjusting the camera direction, moving the shooting position, or adjusting the shooting range using optical zoom, digital zoom, or the like. Take control. For example, the user may shoot only the outside scenery reflected in the window from the room or on the train.

しかしながら、そのような場合、使用者が、窓枠が映らないように、撮影範囲(窓に映る景色)を最大にするようなフレーミングを手動で行う調整は、手間がかかる恐れがある。時には、カメラにズーム機能が無い、又はカメラがズーム可能な範囲で所望の撮影範囲を撮影できない等、調整が困難な場合も考えられる。また、使用者がメガネ型のディスプレイ等を通して周囲の風景を視認しながら、その一部を撮影するような場合には、周囲の確認のために最適な視認範囲と、所望の撮影範囲とに差が有り、撮影範囲を決定することが困難であることも考えられる。以上のような場合、シャッターチャンスを逃すといったように、使用者は撮影ができない可能性がある。   However, in such a case, it may be troublesome for the user to manually perform framing to maximize the shooting range (scenery reflected in the window) so that the window frame is not reflected. In some cases, it may be difficult to make adjustments, for example, the camera does not have a zoom function, or a desired shooting range cannot be shot within a range that the camera can zoom. In addition, when a user shoots a part of the scenery while visually recognizing the surrounding scenery through a glasses-type display, etc., the difference between the optimum viewing range for checking the surroundings and the desired shooting range. Therefore, it may be difficult to determine the shooting range. In such cases, the user may not be able to take a picture, such as missing a photo opportunity.

使用者は、本実施の形態にかかる撮影装置を用いることで、以上のフレーミングに伴う困難さを伴わずに、撮影をすることが可能になる。   By using the imaging apparatus according to the present embodiment, the user can take an image without the difficulty associated with the above framing.

なお、本実施の形態では、撮影範囲には窓枠は入らないものとしたが、制御手段103は窓枠202の内部の範囲(撮影範囲203)及び窓枠202が撮影範囲として、センサ手段110に対して最も大きく撮像されるように制御してもよい。つまり、使用者は窓枠202を撮影範囲の端に含むように、窓枠202内の風景画像を撮影できるようにしてもよい。また、画像処理手段105から制御手段103に画像データが出力されるのではなく、同様の画像データがフレーム候補検出手段102から制御手段103に出力されるとしてもよい。   In this embodiment, the window frame is not included in the shooting range. However, the control unit 103 uses the sensor frame 110 as the shooting range within the window frame 202 (shooting range 203) and the window frame 202 as the shooting range. May be controlled so that the largest image is captured. That is, the user may be able to take a landscape image in the window frame 202 so that the window frame 202 is included at the end of the shooting range. Further, instead of outputting image data from the image processing unit 105 to the control unit 103, similar image data may be output from the frame candidate detection unit 102 to the control unit 103.

実施の形態3
以下、図面を参照して本発明の実施の形態3について説明する。図4は、撮影装置100の全体構成例を示すブロック図である。図4(a)に係る撮影装置100は、図2に係る撮影装置100におけるフレーム候補検出手段102を、フレームパターン比較手段109に置き換えたものである。図4(a)に係る撮影装置100のその他の各部の構成は、図2に係る撮影装置100と同様であるため、説明を省略する。
Embodiment 3
The third embodiment of the present invention will be described below with reference to the drawings. FIG. 4 is a block diagram illustrating an example of the overall configuration of the image capturing apparatus 100. The imaging apparatus 100 according to FIG. 4A is obtained by replacing the frame candidate detection unit 102 in the imaging apparatus 100 according to FIG. The configuration of each other part of the imaging apparatus 100 according to FIG. 4A is the same as that of the imaging apparatus 100 according to FIG.

以下、フレームパターン比較手段109について説明する。フレームパターン比較手段109は、画像データの特徴を検出し、記憶されたフレームのパターンデータと比較することにより、フレーム候補を検出する機能を有する。その他の機能は、フレーム候補検出手段102と同様である。フレームパターン比較手段109は、図4(b)に示す通り、画像データ特徴検出手段114、フレーム検出パターンデータ記憶手段115、比較手段116を備えている。   Hereinafter, the frame pattern comparison unit 109 will be described. The frame pattern comparison unit 109 has a function of detecting a frame candidate by detecting the feature of the image data and comparing it with the stored pattern data of the frame. Other functions are the same as those of the frame candidate detection unit 102. The frame pattern comparison unit 109 includes an image data feature detection unit 114, a frame detection pattern data storage unit 115, and a comparison unit 116, as shown in FIG.

画像データ特徴検出手段114は、画像処理手段105から入力された画像データより、画像の特徴を検出する。画像データ特徴検出手段114が検出可能な画像の特徴は、丸、四角あるいはその他の多角形等の閉じられた領域の他、仮想的な閉じられた領域も含む。後者の形状の詳細については後述する。検出した画像の特徴に係る画像データ(以下、画像特徴データとも記す)は、比較手段116に出力される。   The image data feature detection unit 114 detects image features from the image data input from the image processing unit 105. Image features that can be detected by the image data feature detection unit 114 include a virtual closed region in addition to a closed region such as a circle, square, or other polygon. Details of the latter shape will be described later. Image data relating to the detected image features (hereinafter also referred to as image feature data) is output to the comparison means 116.

フレーム検出パターンデータ記憶手段115には、カメラ撮影の撮影範囲を決定するフレームのパターンデータが記憶されている。このパターンデータは、撮影装置100に元々記憶されていてもよいし、使用者が記憶させるようにしてもよい。フレーム検出パターンデータ記憶手段115は、比較手段116の要求に応じて、記憶されたフレームの情報を比較手段116に出力する。   The frame detection pattern data storage means 115 stores frame pattern data that determines the shooting range of camera shooting. This pattern data may be originally stored in the photographing apparatus 100 or may be stored by the user. The frame detection pattern data storage unit 115 outputs the stored frame information to the comparison unit 116 in response to a request from the comparison unit 116.

比較手段116は、画像データ特徴検出手段114から出力された画像特徴データと、フレーム検出パターンデータ記憶手段115から出力されたフレームのパターンデータとを比較し、画像特徴データの中にフレームのパターンデータと類似な形状があるか否かを判定する。換言すれば、比較手段116は、画像処理手段105から出力された画像データ内に、フレーム検出パターンデータ記憶手段115に記憶されているデータと類似の形状があるか否かを判定する。類似の形状があった場合、比較手段116はその形状をフレーム候補の形状と判定し、制御手段103にそのフレーム候補を特定するための座標データを出力する。   The comparison unit 116 compares the image feature data output from the image data feature detection unit 114 with the frame pattern data output from the frame detection pattern data storage unit 115, and the frame pattern data is included in the image feature data. It is determined whether or not there is a similar shape. In other words, the comparison unit 116 determines whether or not the image data output from the image processing unit 105 has a shape similar to the data stored in the frame detection pattern data storage unit 115. When there is a similar shape, the comparison unit 116 determines that the shape is a frame candidate shape, and outputs coordinate data for specifying the frame candidate to the control unit 103.

フレームパターン比較手段109は、以上の構成により、画像データの特徴を検出し、記憶されたフレームのパターンデータと比較することにより、フレーム候補を検出する。なお、画像データ特徴検出手段114、比較手段116は例えばCPU等のプロセッサを備え、フレーム検出パターンデータ記憶手段115は例えばROM等のメモリを備えている。   With the above configuration, the frame pattern comparison unit 109 detects the feature of the image data, and detects the frame candidate by comparing it with the stored pattern data of the frame. The image data feature detection unit 114 and the comparison unit 116 include a processor such as a CPU, and the frame detection pattern data storage unit 115 includes a memory such as a ROM.

図5を用いて、フレームパターン比較手段109が検出する、「仮想的な閉じられた領域」について説明する。図5は、本実施形態における、撮影装置100が撮影範囲を特定する処理を説明するための第1の説明図である。図5(a)、(b)は、人がカメラ手段104の撮影方向において、左手301、右手302の親指と人差し指とを前述のL字形の形状にして、右手と左手の人差指同士、右手と左手の親指同士を略平行に配置している状態を示している。(なお、右手は手の平が手前になり、左手は手の甲が手前である。)フレームパターン比較手段109は、左手301、右手302の親指と人差し指の形状により、図5(a)、(b)において、仮想的な矩形303、304を認識する。仮想的な矩形303、304の内側は、撮影範囲305、306として、撮影装置100で撮影される。   The “virtual closed region” detected by the frame pattern comparison unit 109 will be described with reference to FIG. FIG. 5 is a first explanatory diagram for describing processing in which the photographing apparatus 100 specifies a photographing range in the present embodiment. 5 (a) and 5 (b) show that in the shooting direction of the camera means 104, the left hand 301 and the thumb of the right hand 302 and the forefinger have the above-mentioned L-shape, and the right and left index fingers, The state which has arrange | positioned the thumbs of the left hand substantially parallel is shown. (Note that the palm of the right hand is in front and the back of the hand is in front of the left hand.) The frame pattern comparing means 109 is shown in FIGS. 5 (a) and 5 (b) depending on the shape of the thumb and index finger of the left hand 301 and right hand 302. The virtual rectangles 303 and 304 are recognized. The insides of the virtual rectangles 303 and 304 are photographed by the photographing apparatus 100 as photographing ranges 305 and 306.

カメラ手段104が、図5(a)に示された左手301、右手302の形状を撮影する場合について、各部の処理を述べる。その場合、撮影に係る画像データは、画像処理手段105から画像データ特徴検出手段114に出力される。   When the camera unit 104 captures the shape of the left hand 301 and the right hand 302 shown in FIG. In that case, the image data relating to shooting is output from the image processing means 105 to the image data feature detection means 114.

画像データ特徴検出手段114は、画像処理手段105から入力された画像データにより、図5に示された左手301及び右手302の親指と人差し指の形状を、画像特徴データとして検出する。この画像特徴データは、比較手段116に出力される。   The image data feature detection unit 114 detects the shapes of the thumb and index finger of the left hand 301 and the right hand 302 shown in FIG. 5 as image feature data based on the image data input from the image processing unit 105. This image feature data is output to the comparison means 116.

比較手段116は、出力された画像特徴データと、フレーム検出パターンデータ記憶手段115から出力されたフレームのパターンデータとを比較する。フレーム検出パターンデータ記憶手段115には、図5(a)に示した形状と類似の両手の形状が、フレーム検出パターンデータとして記憶されている。比較手段116は、フレーム検出パターンデータ記憶手段115に記憶されたパターンデータを元に、図5(a)に示した両手の形状が、「仮想的な閉じられた領域」を示す形状であると判定する。   The comparison unit 116 compares the output image feature data with the frame pattern data output from the frame detection pattern data storage unit 115. The frame detection pattern data storage unit 115 stores the shape of both hands similar to the shape shown in FIG. 5A as frame detection pattern data. Based on the pattern data stored in the frame detection pattern data storage unit 115, the comparison unit 116 indicates that the shape of both hands shown in FIG. 5A is a shape indicating a “virtual closed region”. judge.

また、フレーム検出パターンデータ記憶手段115には、左手301及び右手302の形状及び位置により設定される、仮想的な矩形の位置及び大きさを決定するパラメータ等のデータが記憶されている。比較手段116は、そのデータをフレーム検出パターンデータ記憶手段115から取得することにより、仮想的な矩形303を認識する。比較手段116は仮想的な矩形303の内部(撮影範囲305)を撮影範囲候補として、その範囲を示す座標データ(矩形303の座標データ)を制御手段103に出力する。以降、制御手段103が実行する制御は実施の形態1、2と同様である。以上から、撮影装置100は、撮影範囲305を撮影することができる。   The frame detection pattern data storage unit 115 stores data such as parameters for determining the position and size of a virtual rectangle set by the shape and position of the left hand 301 and the right hand 302. The comparison unit 116 recognizes the virtual rectangle 303 by acquiring the data from the frame detection pattern data storage unit 115. The comparison unit 116 outputs the coordinate data indicating the range (coordinate data of the rectangle 303) to the control unit 103, with the inside of the virtual rectangle 303 (the shooting range 305) as a shooting range candidate. Thereafter, the control executed by the control means 103 is the same as in the first and second embodiments. As described above, the imaging apparatus 100 can capture the imaging range 305.

なお、比較手段116は、仮想的な矩形の位置を決定するパラメータに基づいて、仮想的な矩形の角及び辺を決定することにより、仮想的な矩形を認識する。比較手段116は、例えば以下のように、仮想的な矩形を認識する。図5(a)においては、フレームパターン比較手段109は、左手301の人差し指の先からの延長線を仮想的な矩形の第1の辺と設定する。この第1の辺は、仮想的な矩形303の下の辺に相当する。また、フレームパターン比較手段109は、左手の親指に接するような、人差し指からの法線を設定する。この法線を、仮想的な矩形の第2の辺と設定する。この第2の辺は、仮想的な矩形303の左の辺に相当する。また、第1の辺及び第2の辺が交わる箇所を、仮想的な矩形の第1の角と設定する。この第1の角は、仮想的な矩形303の左下の角である。以上のようにして、フレームパターン比較手段109は、左手301において、仮想的な矩形の角及び辺を決定する。フレームパターン比較手段109は、右手302においても、同様の設定を行い、仮想的な矩形の角及び辺を決定する。このようにして、比較手段116は仮想的な矩形の対角及び両辺を決定することにより、仮想的な矩形303を認識する。なお、撮影装置100は、水平を検出する水準器のようなものを備えている場合、手の位置が水平から多少傾いていても、仮想的な矩形(撮影範囲)の底辺が水平になるように自動補正することが可能である。   The comparison unit 116 recognizes the virtual rectangle by determining the corners and sides of the virtual rectangle based on the parameters for determining the position of the virtual rectangle. The comparison unit 116 recognizes a virtual rectangle as follows, for example. In FIG. 5A, the frame pattern comparison unit 109 sets an extension line from the tip of the index finger of the left hand 301 as the first side of the virtual rectangle. This first side corresponds to the lower side of the virtual rectangle 303. Further, the frame pattern comparison unit 109 sets a normal line from the index finger so as to touch the thumb of the left hand. This normal is set as the second side of the virtual rectangle. This second side corresponds to the left side of the virtual rectangle 303. Further, the location where the first side and the second side intersect is set as the first corner of the virtual rectangle. This first corner is the lower left corner of the virtual rectangle 303. As described above, the frame pattern comparison unit 109 determines the corners and sides of the virtual rectangle in the left hand 301. The frame pattern comparison unit 109 performs the same setting for the right hand 302 and determines the corners and sides of the virtual rectangle. In this way, the comparison unit 116 recognizes the virtual rectangle 303 by determining the diagonal and both sides of the virtual rectangle. In addition, when the imaging device 100 includes a level like a level detector, even if the position of the hand is slightly inclined from the horizontal, the bottom of the virtual rectangle (imaging range) is horizontal. It is possible to correct automatically.

以上により、使用者が撮影範囲を決定する際、カメラ手段104が撮影する風景中に窓枠のような閉じられた領域を示すフレーム候補が存在しなくても、使用者等の両手で撮影範囲を示すことにより、撮影範囲を決定することが可能となる。   As described above, when the user determines the shooting range, even if there is no frame candidate indicating a closed area such as a window frame in the scene captured by the camera unit 104, the shooting range can be obtained with both hands of the user or the like. By indicating this, it is possible to determine the shooting range.

なお、撮影時のフレーム候補の検出において、左手301、右手302の位置関係は固定されなくともよく、左手301、右手302の位置は図5(a)から(b)のように変化してもよい。その場合、比較手段116は変化した左手301、右手302の位置関係に基づいて、フレーム候補を仮想的な矩形304と判定する。比較手段116は、仮想的な矩形304の内部(撮影範囲306)を撮影範囲候補として、その範囲を示す座標データを制御手段103に出力する。以上の処理により、撮影装置100は仮想的な矩形304の内側を、撮影範囲306として撮影することができる。   In the detection of frame candidates at the time of shooting, the positional relationship between the left hand 301 and the right hand 302 may not be fixed, and the positions of the left hand 301 and the right hand 302 may be changed as shown in FIGS. 5A to 5B. Good. In that case, the comparison unit 116 determines the frame candidate as a virtual rectangle 304 based on the changed positional relationship between the left hand 301 and the right hand 302. The comparison unit 116 sets the inside of the virtual rectangle 304 (shooting range 306) as a shooting range candidate and outputs coordinate data indicating the range to the control unit 103. With the above processing, the image capturing apparatus 100 can image the inside of the virtual rectangle 304 as the image capturing range 306.

また、図6を用いて、フレームパターン比較手段109が検出する、「仮想的な閉じられた領域」について説明する。図6は、本実施形態における、撮影装置100が撮影範囲を特定する処理を説明するための第2の説明図である。図6は、人がカメラ手段104の撮影方向において、左手301の親指と人差し指とをL字形の形状にしている状態を示している。フレームパターン比較手段109は、このような左手301の形状から、以下の通り、仮想的な矩形をフレーム候補として検出する。これにより、使用者は、仮想的な矩形の内側の撮影範囲307を、撮影範囲として撮影することができる。   Further, the “virtual closed region” detected by the frame pattern comparison unit 109 will be described with reference to FIG. FIG. 6 is a second explanatory diagram for describing processing in which the photographing apparatus 100 specifies a photographing range in the present embodiment. FIG. 6 shows a state in which a person has an L-shaped shape of the thumb and index finger of the left hand 301 in the shooting direction of the camera means 104. The frame pattern comparison means 109 detects a virtual rectangle as a frame candidate from the shape of the left hand 301 as follows. As a result, the user can shoot the shooting range 307 inside the virtual rectangle as the shooting range.

ここで、カメラ手段104が、図6(a)に示された左手301の形状を撮影した場合の、各部の処理について述べる。その場合、撮影に係る画像データは、画像処理手段105から画像データ特徴検出手段114に出力される。   Here, the processing of each unit when the camera unit 104 captures the shape of the left hand 301 shown in FIG. 6A will be described. In that case, the image data relating to shooting is output from the image processing means 105 to the image data feature detection means 114.

画像データ特徴検出手段114は、画像処理手段105から入力された画像データより、図5に示された、左手301の親指と人差し指とがL字形の形状である状態を、画像特徴データとして検出する。この画像特徴データは、比較手段116に出力される。   The image data feature detection unit 114 detects, as image feature data, the state in which the thumb and index finger of the left hand 301 are in an L shape as shown in FIG. 5 from the image data input from the image processing unit 105. . This image feature data is output to the comparison means 116.

比較手段116は、出力された画像特徴データと、フレーム検出パターンデータ記憶手段115から出力されたフレームのパターンデータとを比較する。フレーム検出パターンデータ記憶手段115には、図6(a)に示した形状と類似の左手の形状が、フレーム検出パターンデータとして記憶されている。比較手段116は、フレーム検出パターンデータ記憶手段115に記憶されたパターンデータを元に、図6(a)に示した形状が、「仮想的な閉じられた領域」が示された形状であると判定する。   The comparison unit 116 compares the output image feature data with the frame pattern data output from the frame detection pattern data storage unit 115. The frame detection pattern data storage means 115 stores a left hand shape similar to the shape shown in FIG. 6A as frame detection pattern data. Based on the pattern data stored in the frame detection pattern data storage unit 115, the comparison unit 116 indicates that the shape shown in FIG. 6A is a shape in which a “virtual closed region” is shown. judge.

また、フレーム検出パターンデータ記憶手段115には、左手301の形状により設定される、仮想的な矩形の位置及び大きさを決定するパラメータ等のデータが記憶されている。比較手段116は、そのデータをフレーム検出パターンデータ記憶手段115から取得することにより、仮想的な矩形(撮影範囲307の輪郭部)を設定し、それをフレーム候補として検出する。以降、比較手段116、制御手段103は、前述と同様の処理を行う。以上から、撮影装置100は、撮影範囲307を撮影することができる。   The frame detection pattern data storage unit 115 stores data such as parameters for determining the position and size of a virtual rectangle set according to the shape of the left hand 301. The comparison unit 116 obtains the data from the frame detection pattern data storage unit 115, thereby setting a virtual rectangle (contour part of the shooting range 307) and detecting it as a frame candidate. Thereafter, the comparison unit 116 and the control unit 103 perform the same processing as described above. From the above, the photographing apparatus 100 can photograph the photographing range 307.

なお、比較手段116は、図5と仮想的な矩形の位置を決定するパラメータに基づいて、仮想的な矩形の角及び辺を決定することにより、仮想的な矩形を認識する。比較手段116は、例えば以下のように、仮想的な矩形を設定する。図6(a)においては、フレームパターン比較手段109は、左手301の人差し指の先からの延長線を仮想的な矩形の第1の辺と設定する。この第1の辺は、仮想的な矩形の下の辺に相当する。また、フレームパターン比較手段109は、左手の親指に接するような、人差し指からの法線を設定する。この法線を、仮想的な矩形の第2の辺と設定する。この第2の辺は、仮想的な矩形の左の辺に相当する。また、第1の辺及び第2の辺が交わる箇所を、仮想的な矩形の第1の角と設定する。この第1の角は、仮想的な矩形の左下の角である。以上のようにして、フレームパターン比較手段109は仮想的な矩形の角及び辺を決定する。前述と同様、撮影装置100は、水平を検出する水準器のようなものを備えている場合、手の位置が水平から多少傾いていても、仮想的な矩形(撮影範囲)の底辺が水平になるように自動補正することが可能である。   The comparison unit 116 recognizes the virtual rectangle by determining the corners and sides of the virtual rectangle based on FIG. 5 and parameters for determining the position of the virtual rectangle. The comparison unit 116 sets a virtual rectangle as follows, for example. In FIG. 6A, the frame pattern comparison unit 109 sets an extension line from the tip of the index finger of the left hand 301 as the first side of the virtual rectangle. This first side corresponds to the lower side of the virtual rectangle. Further, the frame pattern comparison unit 109 sets a normal line from the index finger so as to touch the thumb of the left hand. This normal is set as the second side of the virtual rectangle. This second side corresponds to the left side of the virtual rectangle. Further, the location where the first side and the second side intersect is set as the first corner of the virtual rectangle. This first corner is the lower left corner of the virtual rectangle. As described above, the frame pattern comparison unit 109 determines the corners and sides of the virtual rectangle. As described above, when the imaging apparatus 100 includes a level like a level detector, even if the position of the hand is slightly inclined from the horizontal, the bottom of the virtual rectangle (imaging range) is horizontal. It is possible to automatically correct so that

フレームパターン比較手段109はその後、フレーム検出パターンデータ記憶手段115に記憶されたパラメータを用いて、第1の辺及び第2の辺の長さを決定することにより、仮想的な矩形を設定する。図6(a)では、仮想的な矩形の横方向の長さを、左手301の人差し指の長さの1.2倍としている。また縦方向の長さは、左手301の親指の先から人差し指に引いた垂線の長さの1.4倍としている。以上のようにして、フレームパターン比較手段109は仮想的な矩形の角及び二辺の位置及び長さが決定することにより、仮想的な矩形を認識する。   Thereafter, the frame pattern comparison unit 109 sets a virtual rectangle by determining the lengths of the first side and the second side using the parameters stored in the frame detection pattern data storage unit 115. In FIG. 6A, the horizontal length of the virtual rectangle is 1.2 times the length of the index finger of the left hand 301. The length in the vertical direction is 1.4 times the length of the perpendicular drawn from the tip of the thumb of the left hand 301 to the index finger. As described above, the frame pattern comparison unit 109 recognizes the virtual rectangle by determining the corners of the virtual rectangle and the positions and lengths of the two sides.

なお、以上のように使用者が決定した当初の撮影範囲を、キー操作、音声認識による操作等により、使用者が任意に拡大縮小等変形させることはもちろん可能である。例えば、図6(b)では、使用者は図6(a)で設定された撮影範囲307を拡大して、撮影範囲308にしている。これにより、使用者は撮影装置100が撮影する撮影範囲を拡大することができる。   Of course, the user can arbitrarily enlarge or reduce the original shooting range determined by the user as described above by key operation, voice recognition operation, or the like. For example, in FIG. 6B, the user expands the shooting range 307 set in FIG. As a result, the user can expand the imaging range that the imaging apparatus 100 captures.

使用者が当初の撮影範囲を変形させる場合に、使用者は撮影範囲を示す手とは別の手を用いて、指を開く、閉じるなどのジェスチャーをすることにより、撮影範囲を変形するようにしてもよい。その場合、フレーム検出パターンデータ記憶手段115には、指を開く、閉じる等の各々のジェスチャーと、前記の仮想的な矩形の拡大縮小などの変形操作との関係が対応付けられて記憶されている。   When the user changes the initial shooting range, the user changes the shooting range by using a hand other than the hand indicating the shooting range to perform a gesture such as opening or closing a finger. May be. In that case, the frame detection pattern data storage means 115 stores the relationship between each gesture such as opening and closing a finger and the above-described deformation operation such as enlargement / reduction of the virtual rectangle in association with each other. .

図7は、本実施形態における、撮影装置100が撮影範囲を特定する処理を説明するための第3の説明図である。図7では、使用者が右手で行うジェスチャーの一例を示している。図7(a)において、使用者は右手309の人差し指を、撮影範囲307の外側において、左下から右上に移動させる動作を行う。比較手段116は画像データから右手309のその動作を認識し、フレーム検出パターンデータ記憶手段115から、その動作に対応付けられた処理を行う。この場合、フレーム検出パターンデータ記憶手段115は、「右手の人差し指を、左下から右上に移動させる動作」と、仮想的な矩形における縦の長さ及び横の長さを右方向に広げるように変形する動作とを、対応付けて記憶している。比較手段116はフレーム検出パターンデータ記憶手段115からその情報を取得し、図7(b)に示された仮想的な矩形(撮影範囲308の輪郭部)を、フレーム候補として検出する。以上のようにして、使用者は、撮影範囲307を撮影範囲308に変更することができる。なお、右手309は、撮影範囲の外側でなく、内側でジェスチャーを行うようにしてもよい。   FIG. 7 is a third explanatory diagram for describing processing in which the photographing apparatus 100 specifies the photographing range in the present embodiment. FIG. 7 shows an example of a gesture performed by the user with the right hand. In FIG. 7A, the user performs an operation of moving the index finger of the right hand 309 from the lower left to the upper right outside the imaging range 307. The comparison unit 116 recognizes the movement of the right hand 309 from the image data, and performs processing associated with the movement from the frame detection pattern data storage unit 115. In this case, the frame detection pattern data storage means 115 is modified so as to expand the vertical length and horizontal length of the virtual rectangle in the right direction as “the movement of moving the index finger of the right hand from the lower left to the upper right”. Are stored in association with each other. The comparison unit 116 acquires the information from the frame detection pattern data storage unit 115, and detects a virtual rectangle (contour portion of the shooting range 308) shown in FIG. 7B as a frame candidate. As described above, the user can change the shooting range 307 to the shooting range 308. Note that the right hand 309 may perform a gesture inside instead of outside the shooting range.

図6、7においては、フレームパターン比較手段109は左手301の形状を用いてフレーム候補を検出する旨を説明したが、右手302の形状を用いてフレーム候補を検出するようにしてもよい。   6 and 7, it has been described that the frame pattern comparison unit 109 detects the frame candidate using the shape of the left hand 301, but the frame candidate may be detected using the shape of the right hand 302.

さらに、図8に示すように、フレームパターン比較手段109は、仮想的なフレームを描く手の動作に基づいて、その仮想的なフレームをフレーム候補の形状として認識するようにしてもよい。図8は、本実施形態における、撮影装置100が撮影範囲を特定する処理を説明するための第5の説明図である。図8では、使用者の左手401の人差指の指先が、カメラ手段104の撮影方向において、仮想的な楕円402を描いている様子を示されている。このとき、フレーム検出パターンデータ記憶手段115には、「指先でフレームを描く動作」により描かれた仮想的なフレームは、比較手段116によりフレーム候補として認識される、といった情報が記憶されている。比較手段116は、フレーム検出パターンデータ記憶手段115からその情報を取得することにより、左手401の人差指の指先が描く仮想的な楕円402をフレーム候補の形状として認識する。以上により、使用者は左手401の人差指の指先で仮想的な楕円402を描くことにより、仮想的な楕円402の内側を、撮影範囲403として指定することが可能になる。もちろん、使用者は、指先以外の手の部分を用いて、仮想的なフレームを描いてもよい。   Further, as shown in FIG. 8, the frame pattern comparison unit 109 may recognize the virtual frame as the shape of the frame candidate based on the motion of the hand drawing the virtual frame. FIG. 8 is a fifth explanatory diagram for describing processing in which the photographing apparatus 100 specifies the photographing range in the present embodiment. FIG. 8 shows a state where the fingertip of the index finger of the left hand 401 of the user draws a virtual ellipse 402 in the shooting direction of the camera unit 104. At this time, the frame detection pattern data storage unit 115 stores information such that a virtual frame drawn by “the operation of drawing a frame with a fingertip” is recognized as a frame candidate by the comparison unit 116. The comparison unit 116 acquires the information from the frame detection pattern data storage unit 115, thereby recognizing a virtual ellipse 402 drawn by the fingertip of the index finger of the left hand 401 as a frame candidate shape. As described above, the user can designate the inside of the virtual ellipse 402 as the imaging range 403 by drawing the virtual ellipse 402 with the fingertip of the index finger of the left hand 401. Of course, the user may draw a virtual frame using a part of the hand other than the fingertip.

以上の実施の形態3に示した撮影装置100は、デジタルカメラ、カメラ機能を有する携帯端末等に用いることができる。また撮影装置100は、メガネ型のディスプレイ等を通して周囲の風景を視認しながらカメラ撮影をする装置への応用が、特に有用と考えられる。このタイプの装置は、視界が狭くなることによる事故等を防止するために、ディスプレイからの視野(周囲の確認のために最適な視認範囲)は広いほうが望ましい。しかし、カメラ撮影の際、使用者の所望の撮影範囲は、その視野内の一部である場合が多いと考えられる。この場合、周囲の確認のために最適な視認範囲と、所望の撮影範囲とに差が有り、撮影範囲を決定することが困難になり得る。この場合に使用者は、実施の形態3に示した撮影装置100で、手で図5〜8のように撮影範囲を決定することにより、ディスプレイからの視野を広く確保しつつ、容易にフレーミングをすることができる。   The imaging device 100 described in Embodiment 3 can be used for a digital camera, a portable terminal having a camera function, and the like. Further, it is considered that the photographing apparatus 100 is particularly useful when applied to an apparatus that performs camera photographing while visually recognizing surrounding scenery through a glasses-type display or the like. In this type of device, it is desirable that the field of view from the display (the optimum viewing range for confirming the surroundings) is wide in order to prevent accidents and the like due to a narrow field of view. However, it is considered that the user's desired shooting range is often a part of the field of view during camera shooting. In this case, there is a difference between the optimum viewing range for checking the surroundings and the desired shooting range, and it may be difficult to determine the shooting range. In this case, the user can easily perform framing while ensuring a wide field of view from the display by manually determining the shooting range as shown in FIGS. 5 to 8 with the shooting apparatus 100 shown in the third embodiment. can do.

なお、フレーム検出パターンデータ記憶手段115が記憶するフレーム検出パターンデータは、手に限るものではなく、同様の形状認識が可能な形状であればどのようなものでも応用できる。また、フレーム検出パターンデータは複数記憶することも可能であり、状況に応じて、使用者が使用するフレーム検出パターンデータを切替えるといった応用も可能である。   The frame detection pattern data stored in the frame detection pattern data storage unit 115 is not limited to the hand, and any shape can be applied as long as the same shape recognition is possible. Also, a plurality of frame detection pattern data can be stored, and an application such as switching the frame detection pattern data used by the user according to the situation is possible.

以上のように、フレーム検出パターンデータ記憶手段115が撮影範囲検出のための形状のパターンデータを記憶することにより、フレームパターン比較手段109は、そのパターンと似た形状が画像データ中にある場合に、それにより特定される範囲を撮影範囲と認識することができる。   As described above, the frame detection pattern data storage unit 115 stores the pattern data of the shape for detecting the shooting range, so that the frame pattern comparison unit 109 allows the image data to have a shape similar to the pattern. The range specified thereby can be recognized as the shooting range.

実施の形態4
以下、図面を参照して本発明の実施の形態4について説明する。なお、撮影装置100の全体構成は実施の形態2と同様であり、説明を省略する。本実施の形態に係る撮影装置100は、カメラが撮影する画像データの形状と、実施の形態2で使用者が選択した撮影範囲との形状が一致しない場合に、制御手段103が撮影範囲を適宜調整するような撮影装置の技術である。
Embodiment 4
Embodiment 4 of the present invention will be described below with reference to the drawings. Note that the overall configuration of the photographing apparatus 100 is the same as that of the second embodiment, and a description thereof will be omitted. In the photographing apparatus 100 according to the present embodiment, when the shape of the image data photographed by the camera does not match the shape of the photographing range selected by the user in the second embodiment, the control unit 103 appropriately sets the photographing range. This is a technique of the photographing apparatus that adjusts.

図9を用いて、撮影する画像データの形状について説明する。図9は、実施の形態4にかかる撮影装置によって、撮影範囲を特定する処理を説明するための第1の説明図である。カメラが撮影する画像データは、慣習上、又は表示デバイスの形状への最適化、撮像素子形状等の要因から、縦横の比率が縦2:横3、縦3:横4もしくは縦9:横16の矩形となることが一般的である。前者の画像データの比率501は図9(a)に、後者の画像データの比率502は図9(b)に示されている。   The shape of image data to be photographed will be described with reference to FIG. FIG. 9 is a first explanatory diagram for explaining processing for specifying an imaging range by the imaging device according to the fourth embodiment. The image data captured by the camera has a vertical / horizontal ratio of vertical 2: horizontal 3, vertical 3: horizontal 4 or vertical 9: horizontal 16 due to customary factors, optimization to the shape of the display device, image sensor shape, and the like. It is common that it becomes a rectangle. The former image data ratio 501 is shown in FIG. 9A, and the latter image data ratio 502 is shown in FIG. 9B.

しかしながら、撮影範囲は、前述の通り、フレーム候補の検出等によって決定される。この場合、決定された撮影範囲は、縦2:横3、縦3:横4もしくは縦9:横16等の比率とならないことがある。例えば、図9(c)では、決定された矩形の撮影範囲503は、縦横の比率が縦3:横4とはなっていない。(図9(c)中の、ドットで示された範囲の矩形では、縦横の比率が縦3:横4となっている。)   However, as described above, the shooting range is determined by detecting frame candidates and the like. In this case, the determined shooting range may not have a ratio of vertical 2: horizontal 3, vertical 3: horizontal 4, vertical 9: horizontal 16, or the like. For example, in FIG. 9C, the determined rectangular shooting range 503 does not have a vertical / horizontal ratio of 3: 3. (In the rectangle in the range indicated by the dots in FIG. 9C, the aspect ratio is 3: 4.)

このような場合、本実施の形態に係る撮影装置100は、フレーム検出等に基づいて決定された撮影範囲503を修正して、前述のような縦横の比率になるように撮影範囲を修正する。例えば、制御手段103は図9(c)において、撮影範囲が撮影範囲503であり、縦3:横4の画像データの比率になっていないことを検出した場合、制御手段103は、縦3:横4の比率になるように、撮影範囲を修正後の撮影範囲504に自動調整する。その上で、修正後の撮影範囲504を撮影するように、カメラ手段104を制御する。以上のようにして、使用者は図9(d)に示されたような、修正後の撮影範囲504を、自動的に撮影することができる。つまり、撮影されて記憶手段113に記憶された画像データは、修正後の撮影範囲504を撮影範囲としている。   In such a case, the imaging apparatus 100 according to the present embodiment corrects the imaging range 503 determined based on frame detection or the like, and corrects the imaging range so that the aspect ratio is as described above. For example, in the case where the control unit 103 detects that the shooting range is the shooting range 503 in FIG. 9C and the ratio of the vertical 3: horizontal 4 image data is not reached, the control unit 103 sets the vertical 3: The shooting range is automatically adjusted to the corrected shooting range 504 so that the horizontal ratio is 4. After that, the camera unit 104 is controlled so that the corrected shooting range 504 is shot. As described above, the user can automatically shoot the corrected shooting range 504 as shown in FIG. 9D. That is, the image data that has been shot and stored in the storage unit 113 has the corrected shooting range 504 as the shooting range.

なお、図9(c)、(d)においては、画像データの比率が縦3:横4である場合について説明したが、制御手段103は、同様にして縦2:横3、縦9:横16の比率やその他の所望のサイズに撮影範囲を修正することも出来る。   In FIGS. 9C and 9D, the case where the ratio of the image data is vertical 3: horizontal 4 has been described. However, the control unit 103 similarly performs vertical 2: horizontal 3, vertical 9: horizontal. The shooting range can be modified to a ratio of 16 or any other desired size.

図10、11では、フレーム検出等によって決定された撮影範囲が矩形ではなく、他の形状である場合に、制御手段103が行う撮影範囲の修正について説明する。図10、11は、実施の形態4にかかる撮影装置によって、撮影範囲を特定する処理を説明するための第2、第3の説明図である。   10 and 11, correction of the shooting range performed by the control unit 103 when the shooting range determined by frame detection or the like is not a rectangle but another shape will be described. 10 and 11 are second and third explanatory diagrams for explaining processing for specifying a shooting range by the shooting device according to the fourth embodiment.

図10(a)は、撮影装置100の当初の撮影範囲600中に、楕円形の窓枠601が含まれていることを示している。図10(a)において、フレーム候補検出手段102により窓枠601がフレーム候補として検出され、使用者は、窓枠601内を撮影するように操作を実行する。図10(b)は、以上のように撮影範囲が決定された場合、制御手段103が自動的に撮影範囲を修正することを示している。修正後の撮影範囲602は、制御手段103によって決定された撮影範囲である。修正後の撮影範囲602は矩形であり、前述の修正後の撮影範囲504と同様、縦横の長さの比率は、一般的な画像データの比率である。   FIG. 10A shows that an oval window frame 601 is included in the initial shooting range 600 of the shooting apparatus 100. In FIG. 10A, the window candidate detection unit 102 detects the window frame 601 as a frame candidate, and the user performs an operation so that the inside of the window frame 601 is photographed. FIG. 10B shows that when the shooting range is determined as described above, the control unit 103 automatically corrects the shooting range. The corrected shooting range 602 is a shooting range determined by the control means 103. The corrected shooting range 602 is a rectangle, and the ratio of length to width is the ratio of general image data, like the corrected shooting range 504 described above.

使用者の操作により窓枠601内の範囲が撮影範囲として決定された場合、制御手段103内のカメラ制御手段112は、修正後の撮影範囲602が窓枠601内で最も大きく撮影されるように、カメラ手段104を制御する。具体的には、カメラ制御手段112はズーム倍率、カメラの向き等を制御する。このようにして、使用者は手動で撮影範囲の修正を行うことなく、図10(c)に示された通り、修正後の撮影範囲602を撮影範囲として、撮影をすることができる。   When the range in the window frame 601 is determined as the shooting range by the user's operation, the camera control unit 112 in the control unit 103 causes the corrected shooting range 602 to be shot the largest in the window frame 601. The camera means 104 is controlled. Specifically, the camera control unit 112 controls the zoom magnification, the direction of the camera, and the like. In this way, the user can shoot with the corrected shooting range 602 as the shooting range, as shown in FIG. 10C, without manually correcting the shooting range.

以上、図10のように、フレーム候補が一般的なカメラ撮影で使用される矩形ではない異形の場合においても、実際に撮影する撮影範囲を、決定された撮影範囲内で最大となるように制御手段103は制御を実行する。これにより、撮影装置100は、適切なフレーミングで撮影をすることが可能となる。   As described above, even when the frame candidate is a non-rectangular shape used in general camera shooting as shown in FIG. 10, the actual shooting range is controlled so as to be the maximum within the determined shooting range. The means 103 executes control. Thereby, the imaging device 100 can perform imaging with appropriate framing.

また、図11では、同様の制御手段103の制御により、修正後の撮影範囲が、決定されたフレーム候補の枠内を最大に表示するように制御された状態を示している。図11(a)は、図10(a)と同じ図であり、説明を省略する。   Further, FIG. 11 shows a state in which the corrected shooting range is controlled to be displayed within the determined frame candidate maximum by the control of the similar control unit 103. FIG. 11A is the same as FIG. 10A, and a description thereof is omitted.

図11(b)は、フレーム候補検出手段102により、窓枠601がフレーム候補として検出され、使用者により、窓枠601が特定する撮影範囲でのカメラ撮影が実行された際の、撮影範囲を示す図である。その場合、制御手段103は、カメラ制御手段112の制御により、修正後の撮影範囲603が、窓枠601内の景色を全て含み、かつ窓枠601内の景色が最大で含まれるように、カメラ手段104を制御する。修正後の撮影範囲603は矩形であり、前述のような一般的な縦横の比率である。このようにして、使用者は手動で撮影範囲の修正を行うことなく、図11(c)に示された通り、修正後の撮影範囲603を撮影範囲として撮影を行うことができる。   FIG. 11B shows the shooting range when the frame candidate detection unit 102 detects the window frame 601 as a frame candidate and the user performs camera shooting in the shooting range specified by the window frame 601. FIG. In that case, the control unit 103 controls the camera control unit 112 so that the corrected shooting range 603 includes all the scenery in the window frame 601 and includes the scenery in the window frame 601 at the maximum. The means 104 is controlled. The corrected shooting range 603 is rectangular, and has a general aspect ratio as described above. In this way, the user can perform shooting using the corrected shooting range 603 as the shooting range as shown in FIG. 11C without manually correcting the shooting range.

なお、制御手段103は修正後の撮影範囲603を撮影した後、図11(d)のように、選択されたフレーム候補内の画像範囲のみを自動でトリミングし、記憶手段113に保存することも可能である。さらに、制御手段103は修正後の撮影範囲603が表示手段107に表示されるような処理を行ってもよい。これは図9の修正後の撮影範囲504、図10の修正後の撮影範囲602についても同様である。   Note that the control unit 103 may automatically trim only the image range within the selected frame candidate and store the image in the storage unit 113 as illustrated in FIG. 11D after shooting the corrected shooting range 603. Is possible. Further, the control unit 103 may perform processing such that the corrected shooting range 603 is displayed on the display unit 107. The same applies to the corrected shooting range 504 in FIG. 9 and the corrected shooting range 602 in FIG.

以上、実施の形態4においては、使用者は撮影後、画像データをトリミングする等の後加工処理を行うことなく、撮影を行うことができる。   As described above, in the fourth embodiment, after shooting, the user can perform shooting without performing post-processing such as trimming image data.

なお、実施の形態1〜4で説明した本発明の適用にあたっては、撮影装置100には光学ファインダーよりも、電子ビューファインダー(Electronic View Finder, EVF)や液晶ディスプレイ等の電子式ファインダーを用いることにより、使用者はより好適に撮影ができると考えられる。特に使用者が近接撮影を行う場合には、撮影装置100の撮影用レンズの中心と、使用者の視野の中心がずれることによる視差(パララックス)が生じるため、前述の電子式ファインダーを使う方が望ましいと考えられる。例えば、実施の形態2のように、使用者等が手を用いてフレームを示すような動作をする場合、撮影装置100の近傍に使用者の手があることが想定される。その場合に、前述の視差により、使用者が行う手の動作を、撮影装置100が正確に検知できるかが問題となりうる。このような場合に、前述の電子式ファインダーがより好適と考えられる。   In the application of the present invention described in the first to fourth embodiments, an electronic viewfinder (EVF) or an electronic viewfinder such as a liquid crystal display is used for the photographing apparatus 100 rather than an optical viewfinder. Therefore, it is considered that the user can shoot more suitably. In particular, when the user performs close-up shooting, a parallax is generated due to a shift in the center of the shooting lens of the shooting apparatus 100 and the center of the user's field of view, so the above-described electronic viewfinder is used. Is considered desirable. For example, as in the second embodiment, when the user or the like performs an operation such as showing a frame using his / her hand, it is assumed that the user's hand is in the vicinity of the photographing apparatus 100. In that case, it may be a problem whether the photographing apparatus 100 can accurately detect the hand movement performed by the user due to the above-described parallax. In such a case, the above-described electronic viewfinder is considered more suitable.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、撮像手段(カメラ手段)は撮影装置内に無く、外部にあってもよい。また、外部に保存された、もしくは外部からリアルタイムに送られてくる画像、動画データなどを編集する目的で本発明を応用することも可能である。例えば、編集装置へ画像、動画データ等を画像データとして入力し、編集装置は入力された画像データ中において、実施の形態に示した手法と同様にフレーム候補を検出することにより、編集後の撮影範囲を決定するといった例が考えられる。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the image pickup means (camera means) may be provided outside the image pickup apparatus. In addition, the present invention can be applied for the purpose of editing images, moving image data, etc. stored externally or sent from outside in real time. For example, an image, moving image data, or the like is input to the editing device as image data, and the editing device detects a frame candidate in the input image data in the same manner as the method described in the embodiment, so that shooting after editing is performed. An example of determining the range is conceivable.

また、実施の形態3において、手を用いた閉じられた形状をカメラ手段104が検出した場合でも、フレームパターン比較手段109は、その閉じられた形状をフレーム候補として検出するようにしてもよい。「手を用いた閉じられた形状」の例として、複数の指を用いた、丸、四角等の形状が、一例として考えられる。   In the third embodiment, even when the camera unit 104 detects a closed shape using a hand, the frame pattern comparison unit 109 may detect the closed shape as a frame candidate. As an example of the “closed shape using the hand”, a shape such as a circle or a square using a plurality of fingers is considered as an example.

実施の形態3において、フレームパターン比較手段109は、手の形状もしくは動作を検知した場合、フレーム検出パターンデータ記憶手段115に記憶されたパターンデータに基づき、手の形状もしくは動作に係るフレーム候補として検知した。この場合、制御手段103は、他にフレーム候補を検知しても、手の形状もしくは動作に係るフレーム候補に係る撮影範囲を自動的に撮影するように、カメラ手段104を制御するようにしてもよい。   In the third embodiment, the frame pattern comparison unit 109 detects a hand shape or motion as a frame candidate related to the hand shape or motion based on the pattern data stored in the frame detection pattern data storage unit 115. did. In this case, the control unit 103 may control the camera unit 104 so as to automatically shoot a shooting range related to the frame candidate related to the shape or movement of the hand even if another frame candidate is detected. Good.

また、実施の形態2〜4において、フレーム候補検出手段102(フレームパターン比較手段109)がフレーム候補を複数検出するような場合、使用者は撮影範囲において、手でフレーム候補となる部分を指示することにより、使用者がフレームを選択するようにしてもよい。例えば、図3において、使用者はカメラ手段104に対して、窓枠202を指差す動作を行うことにより、制御手段103は、窓枠202がフレームとして選択されていることを検出して、撮影範囲203を撮影範囲とした撮影をするように撮影装置100を制御する。   In the second to fourth embodiments, when the frame candidate detection unit 102 (frame pattern comparison unit 109) detects a plurality of frame candidates, the user manually indicates a portion that is a frame candidate in the shooting range. Thus, the user may select a frame. For example, in FIG. 3, when the user performs an operation of pointing the window frame 202 to the camera unit 104, the control unit 103 detects that the window frame 202 is selected as a frame and performs shooting. The photographing apparatus 100 is controlled so as to perform photographing with the range 203 as the photographing range.

また、実施の形態1〜4において、撮影装置100が窓枠中の風景を撮影するような場合に、制御手段103は、以下のような判定を行って、窓枠を撮影範囲として、撮影を制御してもよい。撮影装置100と窓枠中の風景にある被写体との距離と、撮影装置100と窓枠との距離とは、異なる。そこで、窓枠に対するピントと、被写体に対するピントが異なることを、制御手段103はカメラ手段104を制御して検出する。また、フレーム候補検出手段102より、窓枠の形状がフレーム候補であるといった情報が制御手段103に出力される。以上の情報に基づき、制御手段103は、フレーム候補となっているのは窓枠であると判定し、カメラ手段104を制御して、窓枠内を撮影範囲とした撮影をするように制御する。なお、この制御手段103の撮影制御は、制御手段103が、フレーム候補が窓枠であることを判定した際に自動的になされてもよいし、表示手段等により使用者に撮影モード切り替えを通知して、使用者がこの撮影制御を行うか否かを決定するようにしてもよい。   In the first to fourth embodiments, when the photographing apparatus 100 photographs a landscape in the window frame, the control unit 103 performs the following determination, and performs shooting using the window frame as a photographing range. You may control. The distance between the photographing apparatus 100 and the subject in the landscape in the window frame is different from the distance between the photographing apparatus 100 and the window frame. Therefore, the control unit 103 controls the camera unit 104 to detect that the focus on the window frame is different from the focus on the subject. Further, the frame candidate detection unit 102 outputs information indicating that the window frame shape is a frame candidate to the control unit 103. Based on the above information, the control means 103 determines that the frame candidate is the window frame, and controls the camera means 104 to control the photographing within the window frame. . Note that the shooting control of the control unit 103 may be automatically performed when the control unit 103 determines that the frame candidate is a window frame, or notifies the user of switching of the shooting mode by a display unit or the like. Then, the user may determine whether to perform this shooting control.

100 撮影装置
101 撮像手段
102 フレーム候補検出手段
103 制御手段
104 カメラ手段
105 画像処理手段
106 表示データ生成手段
107 表示手段
108 撮影範囲選択手段
109 フレームパターン比較手段
110 センサ手段
111 レンズ手段
112 カメラ制御手段
113 記憶手段
114 画像データ特徴検出手段
115 フレーム検出パターンデータ記憶手段
116 比較手段
200 当初の撮影範囲
201、202 窓枠
203 撮影範囲
301 左手
302 右手
303、304 仮想的な矩形
305、306、307、308 撮影範囲
309 右手
401 左手
402 仮想的な楕円
403 撮影範囲
501、502 画像データの比率
503 撮影範囲
504 修正後の撮影範囲
600 撮影範囲
601 窓枠
602、603 修正後の撮影範囲
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Imaging means 102 Frame candidate detection means 103 Control means 104 Camera means 105 Image processing means 106 Display data generation means 107 Display means 108 Imaging range selection means 109 Frame pattern comparison means 110 Sensor means 111 Lens means 112 Camera control means 113 Storage means 114 Image data feature detection means 115 Frame detection pattern data storage means 116 Comparison means 200 Initial shooting range 201, 202 Window frame 203 Shooting range 301 Left hand 302 Right hand 303, 304 Virtual rectangles 305, 306, 307, 308 Range 309 Right hand 401 Left hand 402 Virtual ellipse 403 Shooting range 501, 502 Image data ratio 503 Shooting range 504 Corrected shooting range 600 Shooting range 601 Window frames 602, 603 Corrected shooting range

Claims (9)

撮影を実行し、画像データを生成する撮像手段と、
前記撮像手段により生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出するフレーム候補検出手段と、
前記フレーム候補検出手段により検出された前記フレーム候補が特定する撮影範囲を撮影するように前記撮像手段を制御する制御手段と、
を備える撮影装置。
Imaging means for performing imaging and generating image data;
Frame candidate detection means for detecting the shape of a frame candidate for specifying a shooting range from the image data generated by the imaging means;
Control means for controlling the imaging means so as to shoot an imaging range specified by the frame candidate detected by the frame candidate detection means;
An imaging device comprising:
前記撮影装置は、
前記画像データ及び前記フレーム候補に基づいて、前記画像データにおいて前記フレーム候補の位置を示す表示データを生成する表示データ生成手段と、
前記表示データ生成手段により生成された表示データに基づいて画像を表示する表示手段と、
前記表示手段に表示された前記画像を使用者が選択可能な撮影範囲選択手段と、を更に備え、
前記制御手段は、選択された前記画像に係る前記フレーム候補が特定する撮影範囲を撮影するように前記撮像手段を制御する、
請求項1に記載の撮影装置。
The imaging device
Display data generating means for generating display data indicating the position of the frame candidate in the image data based on the image data and the frame candidate;
Display means for displaying an image based on the display data generated by the display data generating means;
A photographing range selecting means that allows a user to select the image displayed on the display means;
The control unit controls the imaging unit to shoot a shooting range specified by the frame candidate related to the selected image;
The imaging device according to claim 1.
前記フレーム候補検出手段は、複数の前記フレーム候補を検出することが可能であり、
前記制御手段は、複数の前記フレーム候補の中から選択された前記フレーム候補が特定する撮影範囲を撮影するように前記撮像手段を制御する、
請求項2に記載の撮影装置。
The frame candidate detection means is capable of detecting a plurality of the frame candidates,
The control means controls the imaging means so as to capture an imaging range specified by the frame candidate selected from the plurality of frame candidates;
The imaging device according to claim 2.
前記フレーム候補検出手段は、前記画像データから、手の形状又は動作を検出して、当該手の形状又は動作に基づいて前記フレーム候補の形状を認識する、
請求項1〜3に記載の撮影装置。
The frame candidate detection means detects the shape or movement of the hand from the image data, and recognizes the shape of the frame candidate based on the shape or movement of the hand.
The imaging device according to claim 1.
前記フレーム候補検出手段は、前記手の形状に基づいて仮想的な矩形の角及び辺を決定することにより、当該仮想的な矩形を閉じられた領域として前記フレーム候補の形状を認識する、
請求項4に記載の撮影装置。
The frame candidate detection means recognizes the shape of the frame candidate as a closed region by determining the corners and sides of the virtual rectangle based on the shape of the hand,
The imaging device according to claim 4.
前記フレーム候補検出手段は、手の動作をジェスチャーとして認識し、当該ジェスチャーに基づいて、認識する前記フレーム候補の形状を変化させる、
請求項4又は5に記載の撮影装置。
The frame candidate detecting means recognizes the movement of the hand as a gesture, and changes the shape of the recognized frame candidate based on the gesture.
The imaging device according to claim 4 or 5.
前記フレーム候補検出手段は、仮想的なフレームを描く手の動作に基づいて、当該仮想的なフレームを前記フレーム候補の形状として認識する、
請求項4〜6に記載の撮影装置。
The frame candidate detection means recognizes the virtual frame as the shape of the frame candidate based on the motion of a hand drawing a virtual frame.
The imaging device according to claim 4.
撮影データを処理して画像データを生成するステップと、
生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出するステップと、
前記フレーム候補が特定する撮影範囲を撮影するように撮影装置を制御するステップと、
を備える撮影装置の制御方法。
Processing image data to generate image data;
Detecting a shape of a frame candidate for specifying a shooting range from the generated image data;
Controlling the photographing device to photograph the photographing range specified by the frame candidate;
A method for controlling an imaging apparatus comprising:
撮影データを処理して画像データを生成する処理と、
生成された画像データから、撮影範囲を特定するフレーム候補の形状を検出する処理と、
前記フレーム候補が特定する撮影範囲を撮影するように撮影装置を制御する処理と、
を撮影装置に実行させる撮影装置の制御プログラム。
Processing image data to generate image data;
A process of detecting the shape of a frame candidate for specifying a shooting range from the generated image data;
A process for controlling the photographing device to photograph the photographing range specified by the frame candidate;
An imaging device control program that causes the imaging device to execute the above.
JP2010268966A 2010-12-02 2010-12-02 Imaging device, imaging device control method, and control program of the same Pending JP2012120003A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010268966A JP2012120003A (en) 2010-12-02 2010-12-02 Imaging device, imaging device control method, and control program of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010268966A JP2012120003A (en) 2010-12-02 2010-12-02 Imaging device, imaging device control method, and control program of the same

Publications (1)

Publication Number Publication Date
JP2012120003A true JP2012120003A (en) 2012-06-21

Family

ID=46502344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010268966A Pending JP2012120003A (en) 2010-12-02 2010-12-02 Imaging device, imaging device control method, and control program of the same

Country Status (1)

Country Link
JP (1) JP2012120003A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012235225A (en) * 2011-04-28 2012-11-29 Olympus Imaging Corp Imaging apparatus and image data recording method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012235225A (en) * 2011-04-28 2012-11-29 Olympus Imaging Corp Imaging apparatus and image data recording method

Similar Documents

Publication Publication Date Title
US8831282B2 (en) Imaging device including a face detector
JP5136669B2 (en) Image processing apparatus, image processing method, and program
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
EP3544286B1 (en) Focusing method, device and storage medium
JPWO2008012905A1 (en) Authentication apparatus and authentication image display method
JP2013070164A (en) Imaging device and imaging method
JP2009117975A (en) Image pickup apparatus and method
JP5880135B2 (en) Detection apparatus, detection method, and program
JP2013183306A (en) Imaging apparatus, imaging method, and program
JP5233727B2 (en) Electronic camera
TWI693828B (en) Image-capturing device and method for operating the same
WO2018196854A1 (en) Photographing method, photographing apparatus and mobile terminal
JP2013017218A (en) Image processing device, image processing method, and program
JP6693071B2 (en) Imaging device, imaging control method, and program
JP2011095984A (en) Image display apparatus
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2015023294A (en) Moving image processing apparatus and moving image processing method
US20120127349A1 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2012235257A (en) Photographing device
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP2010187145A (en) Image processing apparatus and method, and program
US20140028894A1 (en) Digital photographing apparatus and method of controlling same
JP2012120003A (en) Imaging device, imaging device control method, and control program of the same