JP2014200034A - Image capturing device, image capturing method, image capturing program, and mobile communication terminal - Google Patents

Image capturing device, image capturing method, image capturing program, and mobile communication terminal Download PDF

Info

Publication number
JP2014200034A
JP2014200034A JP2013075145A JP2013075145A JP2014200034A JP 2014200034 A JP2014200034 A JP 2014200034A JP 2013075145 A JP2013075145 A JP 2013075145A JP 2013075145 A JP2013075145 A JP 2013075145A JP 2014200034 A JP2014200034 A JP 2014200034A
Authority
JP
Japan
Prior art keywords
image
capture
image data
information processing
frequency distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013075145A
Other languages
Japanese (ja)
Other versions
JP6119380B2 (en
Inventor
公平 徹
Toru Kimihira
徹 公平
洋一 藤森
Yoichi Fujimori
洋一 藤森
由紀 正能
Yuki Shono
由紀 正能
正勝 東條
Masakatsu Tojo
正勝 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013075145A priority Critical patent/JP6119380B2/en
Publication of JP2014200034A publication Critical patent/JP2014200034A/en
Application granted granted Critical
Publication of JP6119380B2 publication Critical patent/JP6119380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make photographing easy.SOLUTION: An identifying unit 121 identifies a region where a color in an image indicated by image data obtained by an imaging element 110 is included in a prescribed range and that borders with an end of the image. A calculation unit 122 calculates frequency distribution of pixels included in the region identified by the identifying unit 121 in a first direction of the image, and in a second direction intersecting with the first direction. A determination unit 123 determines a capturing range based on the frequency distribution calculated by the calculation unit 122. A capturing unit 124 stores image data indicating an image in the capturing range determined by the determination unit 123 in the image indicated by the image data obtained by the imaging element 110 in a storage unit 130 at prescribed capture timing.

Description

本発明は、画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末に関する。   The present invention relates to an image capturing device, an image capturing method, an image capturing program, and a mobile communication terminal.

近年、撮像素子の進歩により、高画素数の撮像素子が携帯通信端末等にも搭載されている。携帯通信端末等には、携帯性の観点等から光学ズーム機能が搭載されていないこともある。光学ズーム機能が搭載されていない携帯通信端末等において、たとえば、レンズの焦点距離が広角側に固定され、高画素数を活かして画像データ上で構図を切り出す技術(デジタルズーム)が知られている。   In recent years, with the advancement of image sensors, image sensors with a large number of pixels have been mounted on portable communication terminals and the like. A mobile communication terminal or the like may not have an optical zoom function from the viewpoint of portability. In a mobile communication terminal or the like that is not equipped with an optical zoom function, for example, a technique (digital zoom) is known in which the focal length of a lens is fixed on the wide-angle side and a composition is cut out on image data by utilizing a high number of pixels.

また、車載カメラを用いて画像の2値化を行い、水平垂直、垂直方向のヒストグラムから車を認識する技術が知られている(たとえば、下記特許文献1参照。)。また、印刷物のX方向Y方向のヒストグラム形状からプリンタの搬送機構が傾いて設置されているかどうかを判定する技術が知られている(たとえば、下記特許文献2参照。)。また、撮影者の指輪を基準にフレーミングを行う技術が知られている(たとえば、下記特許文献3参照。)。   In addition, a technique is known in which an image is binarized using an in-vehicle camera, and a vehicle is recognized from horizontal and vertical histograms (see, for example, Patent Document 1 below). In addition, a technique for determining whether or not the conveyance mechanism of the printer is installed tilted from the histogram shape in the X direction and Y direction of the printed material is known (for example, see Patent Document 2 below). In addition, a technique for performing framing based on a photographer's ring is known (see, for example, Patent Document 3 below).

特開2005−090974号公報JP-A-2005-090974 特開2011−148149号公報JP 2011-148149 A 特開2000−101898号公報JP 2000-101898 A

しかしながら、上述した従来技術では、フレーミングの際に特定の指輪を要するなど、撮影が容易ではないという問題がある。   However, the above-described conventional technique has a problem that photographing is not easy, for example, a specific ring is required for framing.

1つの側面では、本発明は、撮影の容易化を図ることができる画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末を提供することを目的とする。   In one aspect, an object of the present invention is to provide an image capturing device, an image capturing method, an image capturing program, and a mobile communication terminal capable of facilitating photographing.

上述した課題を解決し、目的を達成するため、本発明の一側面によれば、撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定し、特定した前記領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出し、算出した前記度数分布に基づく取込範囲を決定し、所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの決定した前記取込範囲の画像を示す画像データを記憶装置に記憶させる画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末が提案される。   In order to solve the above-described problems and achieve the object, according to one aspect of the present invention, a region of a predetermined color in an image indicated by image data obtained by an image sensor and at an end of the image is displayed. A contact area is specified, a frequency distribution in a first direction in the image of a pixel included in the specified area and a second direction intersecting the first direction is calculated, and a capture range based on the calculated frequency distribution is calculated. An image capturing device for storing image data indicating an image in the determined capture range among images represented by the image data obtained by the image sensor at a predetermined capture timing, and storing the image data in a storage device. An image capture method, an image capture program, and a mobile communication terminal are proposed.

本発明の一側面によれば、撮影の容易化を図ることができるという効果を奏する。   According to one aspect of the present invention, it is possible to facilitate shooting.

図1−1は、実施の形態にかかる画像取込装置および撮影装置の構成の一例を示す図である。FIG. 1-1 is a diagram illustrating an example of a configuration of an image capturing device and a photographing device according to an embodiment. 図1−2は、図1−1に示した画像取込装置および撮影装置における信号の流れの一例を示す図である。1-2 is a diagram illustrating an example of a signal flow in the image capturing device and the imaging device illustrated in FIG. 1-1. 図2は、撮影装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the photographing apparatus. 図3−1は、静止時画像の取込処理の一例を示すフローチャート(その1)である。FIG. 3A is a flowchart (part 1) illustrating an example of a still image capturing process. 図3−2は、静止時画像の取込処理の一例を示すフローチャート(その2)である。FIG. 3B is a flowchart (part 2) illustrating an example of a still image capturing process. 図4は、指領域の特定処理の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of finger area specifying processing. 図5は、フレーミング操作の検出処理の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a framing operation detection process. 図6−1は、取込フレーム[n]の決定処理(左手用)の一例を示すフローチャートである。FIG. 6A is a flowchart illustrating an example of the determination process (for the left hand) of the capture frame [n]. 図6−2は、取込フレーム[n]の決定処理(右手用)の一例を示すフローチャートである。FIG. 6B is a flowchart illustrating an example of the determination process (for the right hand) of the capture frame [n]. 図7は、取込操作の検出処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the detection process of the capture operation. 図8−1は、指領域の特定の一例を示す図(その1)である。FIG. 8A is a diagram (part 1) illustrating an example of specifying a finger region. 図8−2は、指領域の特定の一例を示す図(その2)である。FIG. 8B is a diagram (part 2) illustrating an example of specifying a finger region. 図8−3は、指領域の特定の一例を示す図(その3)である。FIG. 8C is a diagram (part 3) illustrating an example of specifying the finger area; 図8−4は、指領域の特定の一例を示す図(その4)である。FIG. 8D is a diagram (part 4) illustrating an example of specifying a finger region; 図9は、取込フレームの決定の一例を示す図である。FIG. 9 is a diagram illustrating an example of determination of a capture frame. 図10は、取込フレームの決定の別の例を示す図である。FIG. 10 is a diagram illustrating another example of determination of a capture frame. 図11は、取込操作の検出(左手用)の一例を示す図である。FIG. 11 is a diagram illustrating an example of detection of the capture operation (for the left hand). 図12は、取込操作の検出(右手用)の一例を示す図である。FIG. 12 is a diagram illustrating an example of detection of the capture operation (for the right hand). 図13は、取込フレームの決定の他の例を示す図である。FIG. 13 is a diagram illustrating another example of determination of a capture frame. 図14は、撮影者による取込操作の具体例を示す図である。FIG. 14 is a diagram illustrating a specific example of the capturing operation performed by the photographer. 図15は、親指による取込操作の検出処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of detection processing of a capture operation with a thumb. 図16は、親指による取込操作の検出の一例を示す図である。FIG. 16 is a diagram illustrating an example of detection of a capture operation with a thumb. 図17は、動画像の取込処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of a moving image capturing process.

以下に図面を参照して、本発明にかかる画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末の実施の形態を詳細に説明する。   Exemplary embodiments of an image capturing device, an image capturing method, an image capturing program, and a mobile communication terminal according to the present invention will be described below in detail with reference to the drawings.

(実施の形態)
(実施の形態にかかる画像取込装置および撮影装置の構成)
図1−1は、実施の形態にかかる画像取込装置および撮影装置の構成の一例を示す図である。図1−2は、図1−1に示した画像取込装置および撮影装置における信号の流れの一例を示す図である。図1−1,図1−2に示すように、実施の形態にかかる撮影装置100は、撮像素子110と、画像取込装置120と、記憶装置130と、を備える。
(Embodiment)
(Configuration of image capturing device and photographing device according to embodiment)
FIG. 1-1 is a diagram illustrating an example of a configuration of an image capturing device and a photographing device according to an embodiment. 1-2 is a diagram illustrating an example of a signal flow in the image capturing device and the imaging device illustrated in FIG. 1-1. As illustrated in FIGS. 1-1 and 1-2, the imaging apparatus 100 according to the embodiment includes an imaging element 110, an image capturing device 120, and a storage device 130.

撮像素子110は、光を電気信号に変換する電子部品であり、入射光を受光する単位画素が二次元状に複数配置された固体撮像素子である。撮像素子110は、入射光に応じた画像データを画像取込装置120へ出力する。記憶装置130は、撮像素子110によって得られた画像データが示す画像のうちの、画像取込装置120によって取り込まれた画像を示す画像データを記憶する。   The image sensor 110 is an electronic component that converts light into an electrical signal, and is a solid-state image sensor in which a plurality of unit pixels that receive incident light are arranged two-dimensionally. The image sensor 110 outputs image data corresponding to the incident light to the image capturing device 120. The storage device 130 stores image data indicating an image captured by the image capturing device 120 among images represented by image data obtained by the image sensor 110.

画像取込装置120は、特定部121と、算出部122と、決定部123と、取込部124と、を備える。撮像素子110から出力された画像データは、特定部121および取込部124へ入力される。   The image capturing device 120 includes a specifying unit 121, a calculating unit 122, a determining unit 123, and a capturing unit 124. The image data output from the image sensor 110 is input to the specifying unit 121 and the capturing unit 124.

特定部121は、撮像素子110から出力された画像データが示す画像のうちの所定の領域を特定する。特定部121は、特定した領域を算出部122へ通知する。特定部121により特定される所定の領域は、所定の色の領域であって、画像の端部に接する領域である。所定の色は、たとえば人間の指の色(たとえば肌色)に該当する範囲であって、たとえば赤、緑、青の各輝度の範囲や色相、彩度、明度等の範囲によって規定することができる。これにより、画像のうちの指が写った領域を特定することができる。また、画像の端部に接する領域を特定することにより、画像データが示す画像のうちの、撮影者の指が写った領域を特定することができる。   The specifying unit 121 specifies a predetermined region in the image indicated by the image data output from the image sensor 110. The specifying unit 121 notifies the calculating unit 122 of the specified area. The predetermined area specified by the specifying unit 121 is an area of a predetermined color and is an area in contact with the edge of the image. The predetermined color is, for example, a range corresponding to the color of a human finger (for example, skin color), and can be defined by, for example, a range of brightness of red, green, and blue, or a range of hue, saturation, brightness, and the like. . Thereby, the area | region where the finger | toe was reflected among the images can be specified. In addition, by specifying the area in contact with the edge of the image, it is possible to specify the area in which the photographer's finger is captured in the image indicated by the image data.

算出部122は、特定部121から通知された領域に含まれる画素の、画像の第1方向および第2方向における度数分布を算出する。第1方向および第2方向は互いに交差(たとえば直交)する方向である。たとえば、第1方向は画像の縦方向であり、第2方向は画像の横方向である。算出部122は、算出した各度数分布を決定部123へ通知する。   The calculating unit 122 calculates the frequency distribution in the first direction and the second direction of the image of the pixels included in the region notified from the specifying unit 121. The first direction and the second direction are directions that intersect (for example, orthogonal to) each other. For example, the first direction is the vertical direction of the image, and the second direction is the horizontal direction of the image. The calculation unit 122 notifies the determination unit 123 of each calculated frequency distribution.

決定部123は、算出部122から通知された各度数分布に基づいて、撮像素子110から出力される画像データが示す画像のうちの記憶装置130への取込範囲を決定する。決定部123は、決定した取込範囲を取込部124へ通知する。   The determination unit 123 determines the capture range of the image indicated by the image data output from the image sensor 110 into the storage device 130 based on each frequency distribution notified from the calculation unit 122. The determining unit 123 notifies the capturing unit 124 of the determined capture range.

取込部124は、所定の取込タイミングにおいて、撮像素子110から出力された画像データが示す画像のうちの、決定部123から通知された取込範囲の画像を示す画像データを生成する。そして、取込部124は、生成した画像データを記憶装置130に記憶する。これにより、撮像素子110から出力された画像データが示す画像のうちの、撮影者の指が写った領域に基づいて決定した取込範囲の画像を取り込むことができる。   The capture unit 124 generates image data indicating an image in the capture range notified from the determination unit 123 among the images represented by the image data output from the image sensor 110 at a predetermined capture timing. Then, the capturing unit 124 stores the generated image data in the storage device 130. As a result, it is possible to capture an image in the capture range determined based on the region where the photographer's finger is captured in the image indicated by the image data output from the image sensor 110.

これにより、撮影者は、撮像素子110の前(撮像素子110によって撮像される位置)に出した指の形状や位置等によってフレーミングを行うことができる。このため、撮影の容易化を図ることができる。   Thereby, the photographer can perform framing by the shape and position of the finger placed in front of the image sensor 110 (position taken by the image sensor 110). For this reason, photographing can be facilitated.

たとえば、スマートフォン等に搭載された撮像装置においては、本体のタッチパネルに対するタッチ操作等によって構図決定を行うことも考えられる。しかしながら、この場合はタッチ操作による本体のブレ等に起因して構図決定が困難な場合がある。これに対して、画像取込装置120を用いることにより、撮影装置に対して直接タッチ操作等をしなくてもフレーミングを行うことが可能になるため、構図決定の容易化を図ることができる。   For example, in an imaging device mounted on a smartphone or the like, it may be possible to determine the composition by a touch operation on the touch panel of the main body. However, in this case, composition determination may be difficult due to a shake of the main body due to a touch operation. On the other hand, by using the image capturing device 120, it is possible to perform framing without directly touching the photographing device or the like, so that composition determination can be facilitated.

<度数分布に基づく取込範囲の決定の例>
また、決定部123は、第1方向の度数分布のピーク位置および第2方向の度数分布における第2方向の最大値に基づく位置と、第2方向の最大値より正側の位置と、を検出し、検出結果に基づいて取込範囲を決定する第1決定処理を行ってもよい。これにより、たとえば右側を正方向とすると、撮影者が撮影装置100の前に出した左手によって作られた左下に凸のL字型による取込範囲を決定することができる。このため、より直感的な操作によって取込範囲を決定することができる。
<Example of determination of capture range based on frequency distribution>
The determination unit 123 detects a position based on the peak position of the frequency distribution in the first direction and the maximum value in the second direction in the frequency distribution in the second direction, and a position on the positive side of the maximum value in the second direction. Then, a first determination process for determining the capture range based on the detection result may be performed. Thereby, for example, when the right side is the forward direction, the capturing range of the L-shaped convex left lower made by the left hand that the photographer put out in front of the photographing apparatus 100 can be determined. For this reason, the capture range can be determined by a more intuitive operation.

また、決定部123は、第1方向の度数分布のピーク位置および第2方向の度数分布における第2方向の最小値に基づく位置と、第2方向の最小値より負側の位置と、を検出し、検出結果に基づいて取込範囲を決定する第2決定処理を行ってもよい。これにより、たとえば右側を正方向とすると、撮影者が撮影装置100の前に出した右手によって作られた右下に凸のL字型による取込範囲を決定することができる。このため、より直感的な操作によって取込範囲を決定することができる。   Further, the determination unit 123 detects a position based on the peak position of the frequency distribution in the first direction and the minimum value in the second direction in the frequency distribution in the second direction, and a position on the negative side of the minimum value in the second direction. And you may perform the 2nd determination process which determines the taking-in range based on a detection result. As a result, for example, when the right side is the forward direction, it is possible to determine the L-shaped capturing range that is formed by the right hand that the photographer put out in front of the photographing apparatus 100 and has a convex shape on the lower right. For this reason, the capture range can be determined by a more intuitive operation.

また、決定部123は、画像データが示す画像における特定された領域の第2方向の位置を判定(右または左)し、判定結果に基づいて第1決定処理および第2決定処理を切り替えてもよい。これにより、撮影者は、右手と左手のうちの任意の手によって取込範囲を指定することが可能になり、より利便性を向上させることができる。   Further, the determination unit 123 determines the position in the second direction of the specified region in the image indicated by the image data (right or left), and switches between the first determination process and the second determination process based on the determination result. Good. Thus, the photographer can specify the capture range with any of the right hand and the left hand, and can further improve convenience.

<指の動きによる取込操作>
また、画像取込装置120が静止画像を取り込む場合に、取込部124による画像の取込タイミングを、算出部122から通知された度数分布の所定の変化が検出されたタイミングとしてもよい。これにより、撮影者は、撮影装置100の前に出した指の動きによって取込操作を行うことができる。このため、撮影の容易化を図ることができる。
<Acquisition operation by finger movement>
Further, when the image capturing device 120 captures a still image, the capturing timing of the image by the capturing unit 124 may be a timing when a predetermined change in the frequency distribution notified from the calculating unit 122 is detected. Thereby, the photographer can perform the capturing operation by the movement of the finger taken out in front of the photographing apparatus 100. For this reason, photographing can be facilitated.

たとえば、取込部124による画像の取込タイミングは、第1方向の度数分布の所定のピーク位置の数が変化したタイミングとしてもよい。または、取込部124による画像の取込タイミングは、第1方向の度数分布の所定のピーク位置と、第1方向の度数分布における第1方向の最小値または最大値と、の差異の所定の変化が検出されたタイミングとしてもよい。これにより、撮影者が撮影装置100の前に出した指を曲げる等の動作によって画像を取り込むことができる。このため、より直感的な操作によって取込を指示することができる。   For example, the image capturing timing by the capturing unit 124 may be a timing at which the number of predetermined peak positions in the frequency distribution in the first direction changes. Alternatively, the image capture timing by the capture unit 124 may be a predetermined difference between a predetermined peak position of the frequency distribution in the first direction and a minimum value or maximum value in the first direction of the frequency distribution in the first direction. It may be the timing when the change is detected. Thereby, an image can be captured by an operation such as bending a finger taken out in front of the photographing apparatus 100 by the photographer. For this reason, capture can be instructed by a more intuitive operation.

たとえば、シャッターボタンの押下や、デジタルカメラに設けられたタッチパネルに対するタッチ操作等によって取込操作を行うことも考えられるが、この場合はシャッターボタンの押下やタッチ操作によって取込画像のブレ(手ブレ)が大きくなる場合がある。これに対して、画像取込装置120を用いることにより、シャッターボタンの押下やタッチ操作等をしなくても取込操作を行うことが可能になるため、取込画像のブレを抑えることができる。また、フレーミングおよび取込操作を、撮影者の指の動きによってスムーズに行うことができる。   For example, the capture operation may be performed by pressing the shutter button or touching the touch panel provided on the digital camera. In this case, the captured image may be blurred (blurred) by pressing or touching the shutter button. ) May increase. On the other hand, by using the image capture device 120, it is possible to perform the capture operation without pressing the shutter button or performing a touch operation, so that it is possible to suppress blurring of the captured image. . Further, the framing and capture operations can be smoothly performed by the movement of the photographer's finger.

<その他の取込操作>
ただし、取込部124による画像の取込タイミングは、上記のタイミングに限らず、たとえば、撮影者による特定の発声を検出したタイミングや、タッチ操作等によって取り込みが指示されてから一定時間が経過したタイミング等とすることもできる。これにより、構図決定の容易化を図りつつ、取込画像のブレを抑えることができる。
<Other import operations>
However, the capture timing of the image by the capture unit 124 is not limited to the above timing, and for example, a certain time has elapsed since the capture of the specific utterance by the photographer or the capture operation was instructed. Timing can also be used. Thereby, it is possible to suppress blurring of the captured image while facilitating composition determination.

また、取込部124による画像の取込タイミングは、シャッターボタンの押下や、デジタルカメラに設けられたタッチパネルに対するタッチ操作等が行われた時としてもよい。この場合も、構図決定の容易化を図ることができる。   The image capture timing by the capture unit 124 may be when a shutter button is pressed or a touch operation on a touch panel provided in the digital camera is performed. Also in this case, composition determination can be facilitated.

<動画像の取込>
また、画像取込装置120が動画像を取り込む場合は、取込部124による画像の取込タイミングを、動画像のフレームレートに応じた周期的な取込タイミングとしてもよい。これにより、撮影者は、撮像素子110の前に出した指の形状等によってフレーミングを行いつつ動画撮影を行うことができる。このため、撮影の容易化を図ることができる。
<Capture video>
When the image capturing device 120 captures a moving image, the capturing timing of the image by the capturing unit 124 may be a periodic capturing timing corresponding to the frame rate of the moving image. As a result, the photographer can take a moving image while performing framing according to the shape of the finger placed in front of the image sensor 110. For this reason, photographing can be facilitated.

たとえば、スマートフォン等に搭載された撮像装置においては、撮影装置に設けられたタッチパネルに対するタッチ操作等によって構図決定を行うことも考えられる。しかしながら、この場合は、動画像の撮影中にタッチ操作等によってフレーミングを行うと、取り込む動画像のブレ(手ブレ)が大きくなる場合がある。これに対して、画像取込装置120を用いることにより、撮影装置へのタッチ操作等をしなくてもフレーミングを行いつつ動画撮影を行うことが可能になるため、動画像のブレを抑えることができる。   For example, in an imaging device mounted on a smartphone or the like, it may be possible to determine the composition by a touch operation or the like on a touch panel provided in the imaging device. However, in this case, if framing is performed by a touch operation or the like during shooting of a moving image, the moving image to be captured (blurring) may increase. On the other hand, by using the image capture device 120, it is possible to perform moving image shooting while performing framing without performing a touch operation or the like on the shooting device, so that motion image blurring can be suppressed. it can.

(撮影装置のハードウェア構成)
図2は、撮影装置のハードウェア構成の一例を示す図である。図1−1,図1−2に示した撮影装置100は、たとえば図2に示す移動通信端末200に適用することができる。移動通信端末200は、通信装置201と、情報処理装置202と、対物レンズ203と、撮像素子204と、画像バッファメモリ205と、表示装置206と、記憶装置207と、入力インターフェース208と、を備えている。
(Hardware configuration of the imaging device)
FIG. 2 is a diagram illustrating an example of a hardware configuration of the photographing apparatus. The imaging apparatus 100 shown in FIGS. 1-1 and 1-2 can be applied to, for example, the mobile communication terminal 200 shown in FIG. The mobile communication terminal 200 includes a communication device 201, an information processing device 202, an objective lens 203, an image sensor 204, an image buffer memory 205, a display device 206, a storage device 207, and an input interface 208. ing.

通信装置201は、たとえば、無線によって移動通信端末200の外部との間で通信を行う通信インターフェースである。通信装置201は、情報処理装置202によって制御される。通信装置201による通信には、たとえば、3GPP(3rd Generation Partnership Project)に規定されたセルラ通信やWLAN(Wireless Local Area Network:無線構内通信網)の通信等、各種の通信方式を適用することができる。   The communication device 201 is a communication interface that performs communication with the outside of the mobile communication terminal 200 by radio, for example. The communication device 201 is controlled by the information processing device 202. For communication by the communication device 201, various communication methods such as cellular communication defined in 3GPP (3rd Generation Partnership Project) and communication of WLAN (Wireless Local Area Network) can be applied. .

情報処理装置202は、移動通信端末200の全体の制御を司る。また、情報処理装置202は対物レンズ203の制御を行う。対物レンズ203の制御には、たとえば絞り制御やフォーカス制御等がある。また、情報処理装置202は、撮像素子204によって得られた画像データに基づく取込処理を行う。情報処理装置202は、たとえばCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の電気回路によって実現することができる。   The information processing apparatus 202 governs overall control of the mobile communication terminal 200. In addition, the information processing apparatus 202 controls the objective lens 203. Examples of control of the objective lens 203 include aperture control and focus control. In addition, the information processing apparatus 202 performs a capture process based on the image data obtained by the image sensor 204. The information processing apparatus 202 can be realized by an electric circuit such as a CPU (Central Processing Unit) and an FPGA (Field Programmable Gate Array).

対物レンズ203は、移動通信端末200の外部の映像を撮像素子204に結像させる。対物レンズ203は、たとえばズーム機能のない単焦点レンズであってもよい。   The objective lens 203 forms an image outside the mobile communication terminal 200 on the image sensor 204. The objective lens 203 may be a single focus lens without a zoom function, for example.

撮像素子204は、対物レンズ203によって結像した映像を画像データに変換する。撮像素子204には、たとえばCCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)等を用いることができる。   The image sensor 204 converts a video image formed by the objective lens 203 into image data. For example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like can be used for the imaging element 204.

画像バッファメモリ205は、情報処理装置202による画像処理のワークエリアとして使用される。たとえば、画像バッファメモリ205には、撮像素子204によって得られた画像データ等が記憶される。画像バッファメモリ205には、たとえばRAM(Random Access Memory)を用いることができる。   The image buffer memory 205 is used as a work area for image processing by the information processing apparatus 202. For example, the image buffer memory 205 stores image data obtained by the image sensor 204 and the like. As the image buffer memory 205, for example, a RAM (Random Access Memory) can be used.

表示装置206は、情報処理装置202からの制御により、移動通信端末200のユーザに対して画像等を表示する。   The display device 206 displays an image or the like for the user of the mobile communication terminal 200 under the control of the information processing device 202.

記憶装置207は、情報処理装置202からの制御により、画像データ等を記憶する。記憶装置207は、たとえば、磁気ディスクやフラッシュメモリなどの不揮発メモリを用いることができる。また、記憶装置207は、メモリーカード等、移動通信端末200に対して着脱可能な外部メモリであってもよい。また、記憶装置207は、移動通信端末200を動作させる各種のプログラムが記憶されていてもよい。記憶装置207に記憶されたプログラムは、画像バッファメモリ205などのメモリにロードされて情報処理装置202によって実行される。   The storage device 207 stores image data and the like under the control of the information processing device 202. As the storage device 207, for example, a non-volatile memory such as a magnetic disk or a flash memory can be used. The storage device 207 may be an external memory that can be attached to and detached from the mobile communication terminal 200, such as a memory card. The storage device 207 may store various programs for operating the mobile communication terminal 200. The program stored in the storage device 207 is loaded into a memory such as the image buffer memory 205 and executed by the information processing device 202.

入力インターフェース208は、ユーザからの操作入力を受け付ける入力デバイスである。たとえば、入力インターフェース208は、キー(たとえばキーボード)やリモコンなどによって実現することができる。また、タッチパネルなどによって表示装置206および入力インターフェース208を実現してもよい。   The input interface 208 is an input device that receives an operation input from a user. For example, the input interface 208 can be realized by a key (for example, a keyboard) or a remote controller. Further, the display device 206 and the input interface 208 may be realized by a touch panel or the like.

図1−1,図1−2に示した撮像素子110は、たとえば撮像素子204によって実現することができる。図1−1,図1−2に示した画像取込装置120は、たとえば情報処理装置202によって実現することができる。図1−1,図1−2に示した記憶装置130は、たとえば記憶装置207によって実現することができる。   The image sensor 110 illustrated in FIGS. 1-1 and 1-2 can be realized by the image sensor 204, for example. The image capturing device 120 illustrated in FIGS. 1-1 and 1-2 can be realized by the information processing device 202, for example. The storage device 130 illustrated in FIGS. 1-1 and 1-2 can be realized by the storage device 207, for example.

(情報処理装置による処理)
図3−1および図3−2は、静止時画像の取込処理の一例を示すフローチャートである。図2に示した情報処理装置202は、静止時画像を取り込む場合に、たとえば図3−1,図3−2に示す各ステップを実行する。
(Processing by information processing device)
FIGS. 3A and 3B are flowcharts illustrating an example of a still image capturing process. The information processing apparatus 202 illustrated in FIG. 2 executes, for example, each step illustrated in FIGS. 3-1 and 3-2 when capturing a still image.

<フレーミング操作の検出>
まず、情報処理装置202は、図3−1に示すように、撮像素子204からの画像データを取得する(ステップS301)。つぎに、情報処理装置202は、ステップS301によって取得した画像データが示す画像を表示装置206によって表示する(ステップS302)。つぎに、情報処理装置202は、ステップS301によって取得した画像データが示す画像に含まれる、撮影者の指が写った指領域の特定処理を行う(ステップS303)。指領域の特定処理については後述する(たとえば図4参照)。
<Detection of framing operation>
First, the information processing apparatus 202 acquires image data from the image sensor 204 as illustrated in FIG. 3A (step S301). Next, the information processing apparatus 202 displays the image indicated by the image data acquired in step S301 on the display device 206 (step S302). Next, the information processing apparatus 202 performs a finger region specifying process in which the photographer's finger is included, which is included in the image indicated by the image data acquired in step S301 (step S303). The finger region specifying process will be described later (see, for example, FIG. 4).

つぎに、情報処理装置202は、ステップS303による特定処理によって特定した指領域に基づく、撮影者によるフレーミング操作の検出処理を行う(ステップS304)。撮影者によるフレーミング操作は、移動通信端末200の対物レンズ203の前に出した撮影者の指の位置や形状等に基づく操作である。フレーミング操作の検出処理については後述する(たとえば図5参照)。   Next, the information processing apparatus 202 performs a framing operation detection process by the photographer based on the finger area specified by the specifying process in step S303 (step S304). The framing operation by the photographer is an operation based on the position, shape, etc. of the photographer's finger placed in front of the objective lens 203 of the mobile communication terminal 200. The detection process of the framing operation will be described later (see, for example, FIG. 5).

つぎに、情報処理装置202は、ステップS304による検出結果に基づいて、撮影者によるフレーミング操作があったか否かを判断する(ステップS305)。フレーミング操作がなかった場合(ステップS305:No)は、情報処理装置202は、ステップS301へ戻る。これにより、取込可能な画像をリアルタイムに表示するライブビューを行いつつ、撮影者によるフレーミング操作を待つことができる。   Next, the information processing apparatus 202 determines whether or not there has been a framing operation by the photographer based on the detection result in step S304 (step S305). When there is no framing operation (step S305: No), the information processing apparatus 202 returns to step S301. Accordingly, it is possible to wait for a framing operation by the photographer while performing a live view in which a captureable image is displayed in real time.

<取込フレームの決定>
ステップS305において、フレーミング操作があった場合(ステップS305:Yes)は、撮影者がフレーミング操作を開始したと判断することができる。この場合は、情報処理装置202は、第1タイマを起動する(ステップS306)。第1タイマは、たとえば情報処理装置202が実行するソフトウェア上で実現され、第1タイマの起動時からの経過時間を計時するタイマである。
<Determination of capture frame>
If there is a framing operation in step S305 (step S305: Yes), it can be determined that the photographer has started the framing operation. In this case, the information processing apparatus 202 starts the first timer (step S306). The first timer is realized by, for example, software executed by the information processing apparatus 202, and is a timer that measures an elapsed time since the start of the first timer.

また、情報処理装置202は、カウンタnに「1」を格納する(ステップS307)。カウンタnは、たとえば画像バッファメモリ205等に記憶される情報である。ステップS306とステップS307の順序は逆であってもよい。   Further, the information processing apparatus 202 stores “1” in the counter n (step S307). The counter n is information stored in the image buffer memory 205 or the like, for example. The order of step S306 and step S307 may be reversed.

つぎに、情報処理装置202は、ステップS308へ移行する。ステップS308〜S310は、ステップS301〜S303と同様である。ステップS310のつぎに、情報処理装置202は、ステップS310による特定処理によって特定した指領域に基づく取込フレーム[n]の決定処理を行う(ステップS311)。取込フレーム[n]は、撮像素子204によって得られた画像データが示す画像のうちの、記憶装置207に取り込む範囲である。取込フレーム[n]の決定処理については後述する(たとえば図6−1,図6−2参照)。   Next, the information processing apparatus 202 proceeds to step S308. Steps S308 to S310 are the same as steps S301 to S303. Subsequent to step S310, the information processing apparatus 202 performs a process of determining the captured frame [n] based on the finger area specified by the specifying process in step S310 (step S311). The capture frame [n] is a range to be captured in the storage device 207 in the image indicated by the image data obtained by the image sensor 204. The determination process of the fetch frame [n] will be described later (see, for example, FIGS. 6-1 and 6-2).

つぎに、情報処理装置202は、表示装置206によって、ステップS308で取得した画像データが示す画像上に、ステップS311によって決定された取込フレーム[n]を表示する(ステップS312)。これにより、撮影者は、自身の現在のフレーミング操作によって決定された取込フレーム[n]を認識することができる。   Next, the information processing apparatus 202 causes the display device 206 to display the captured frame [n] determined in step S311 on the image indicated by the image data acquired in step S308 (step S312). Thus, the photographer can recognize the captured frame [n] determined by his / her current framing operation.

つぎに、情報処理装置202は、今回のステップS311によって決定された取込フレーム[n]が、前回のステップS311によって決定された取込フレーム[n−1]と同一か否かを判断する(ステップS313)。取込フレーム[n]が取込フレーム[n−1]と同一でない場合(ステップS313:No)は、撮影者がフレーミング操作を変化させたと判断することができる。この場合は、情報処理装置202は、第1タイマを再起動し(ステップS314)、ステップS316へ移行する。   Next, the information processing apparatus 202 determines whether or not the capture frame [n] determined in the current step S311 is the same as the capture frame [n−1] determined in the previous step S311 ( Step S313). When the captured frame [n] is not the same as the captured frame [n−1] (step S313: No), it can be determined that the photographer has changed the framing operation. In this case, the information processing apparatus 202 restarts the first timer (step S314), and proceeds to step S316.

ステップS313において、取込フレーム[n]が取込フレーム[n−1]と同一である場合(ステップS313:Yes)は、撮影者がフレーミング操作を変化させていないと判断することができる。この場合は、情報処理装置202は、カウンタnをインクリメント(+1)する(ステップS315)。   In step S313, when the captured frame [n] is the same as the captured frame [n-1] (step S313: Yes), it can be determined that the photographer has not changed the framing operation. In this case, the information processing apparatus 202 increments (+1) the counter n (step S315).

つぎに、情報処理装置202は、第1タイマによる計時時間が第1閾値を超えたか否かを判断する(ステップS316)。計時時間が第1閾値を超えていない場合(ステップS316:No)は、撮影者がフレーミング操作を固定してから一定時間が経過していないと判断することができる。この場合は、情報処理装置202は、ステップS308へ戻る。これにより、撮影者がフレーミング操作を固定してから一定時間が経過するまで待つことができる。   Next, the information processing apparatus 202 determines whether the time measured by the first timer has exceeded the first threshold (step S316). If the measured time does not exceed the first threshold (step S316: No), it can be determined that a certain time has not elapsed since the photographer fixed the framing operation. In this case, the information processing apparatus 202 returns to step S308. Thereby, it is possible to wait until a certain time elapses after the photographer fixes the framing operation.

<取込タイミングにおける取込>
ステップS316において、計時時間が第1閾値を超えた場合(ステップS316:Yes)は、撮影者がフレーミング操作を固定してから一定時間が経過したと判断することができる。この場合は、情報処理装置202は、図3−2に示すステップS317へ移行する(符号A)。
<Capture at import timing>
In step S316, when the measured time exceeds the first threshold (step S316: Yes), it can be determined that a certain time has elapsed since the photographer fixed the framing operation. In this case, the information processing apparatus 202 proceeds to step S317 illustrated in FIG. 3-2 (reference A).

すなわち、情報処理装置202は、取込フレームが現在の取込フレーム[n]に決定したことを撮影者へ通知する(ステップS317)。ステップS317の通知は、たとえば、移動通信端末200に設けたスピーカ等によって音声によって行ってもよいし、ステップS312によって表示した取込フレーム[n]の部分を強調表示すること等によって行ってもよい。   That is, the information processing apparatus 202 notifies the photographer that the capture frame is determined to be the current capture frame [n] (step S317). The notification in step S317 may be performed by voice using a speaker or the like provided in the mobile communication terminal 200, or may be performed by highlighting the portion of the captured frame [n] displayed in step S312. .

つぎに、情報処理装置202は、第2タイマを起動する(ステップS318)。第2タイマは、たとえば情報処理装置202が実行するソフトウェア上で実現され、第2タイマの起動時からの経過時間を計時するタイマである。つぎに、情報処理装置202は、撮影者による取込操作の検出処理を行う(ステップS319)。取込操作の検出処理については後述する(たとえば図7参照)。   Next, the information processing apparatus 202 starts the second timer (step S318). The second timer is realized by, for example, software executed by the information processing apparatus 202, and is a timer that measures an elapsed time since the start of the second timer. Next, the information processing apparatus 202 performs a capturing operation detection process by the photographer (step S319). The detection process of the capturing operation will be described later (see, for example, FIG. 7).

つぎに、情報処理装置202は、ステップS319による検出結果に基づいて、取込操作があったか否かを判断する(ステップS320)。取込操作がなかった場合(ステップS320:No)は、情報処理装置202は、第2タイマによる計時時間が第2閾値を超えたか否かを判断する(ステップS321)。計時時間が第2閾値を超えていない場合(ステップS321:No)は、情報処理装置202は、ステップS320へ戻る。   Next, the information processing apparatus 202 determines whether or not there has been a capture operation based on the detection result in step S319 (step S320). When there is no capture operation (step S320: No), the information processing apparatus 202 determines whether the time measured by the second timer has exceeded the second threshold (step S321). If the measured time does not exceed the second threshold (step S321: No), the information processing apparatus 202 returns to step S320.

ステップS321において、計時時間が第2閾値を超えた場合(ステップS321:Yes)は、情報処理装置202は、取込フレームが決定されてから一定時間以上、撮影者による取込操作がなかったと判断することができる。この場合は、情報処理装置202は、図3−1に示したステップS301へ戻り(符号B)、フレーミング操作の検出からやり直す。   In step S321, when the measured time exceeds the second threshold (step S321: Yes), the information processing apparatus 202 determines that there has been no capture operation by the photographer for a predetermined time or more after the capture frame is determined. can do. In this case, the information processing apparatus 202 returns to step S301 illustrated in FIG. 3A (reference numeral B) and starts again from the detection of the framing operation.

ステップS320において、取込操作があった場合(ステップS320:Yes)は、情報処理装置202は、撮像素子204からの画像データを取得する(ステップS322)。つぎに、情報処理装置202は、ステップS322によって取得した画像データのうちの、現在の取込フレーム[n]内の画像を示す画像データを記憶装置207に記憶させる(ステップS323)。これにより、撮像素子204によって得られた画像データが示す画像のうちの撮影者がフレーミング操作によって指定した範囲の画像を示す画像データを記憶装置207に取り込むことができる。   In step S320, if there is a capture operation (step S320: Yes), the information processing apparatus 202 acquires image data from the image sensor 204 (step S322). Next, the information processing apparatus 202 causes the storage device 207 to store image data indicating an image in the current captured frame [n] among the image data acquired in step S322 (step S323). As a result, image data indicating an image in a range designated by the photographer through a framing operation among images indicated by image data obtained by the image sensor 204 can be taken into the storage device 207.

また、情報処理装置202は、ステップS322によって取得した画像データのうちの、取込フレーム[n]内の画像を表示装置206によって表示し(ステップS324)、一連の処理を終了する。ステップS324により、撮影者は、取り込まれた画像データの内容を確認することができる。   Further, the information processing apparatus 202 displays an image in the captured frame [n] of the image data acquired in step S322 by the display apparatus 206 (step S324), and ends a series of processes. By step S324, the photographer can confirm the content of the captured image data.

(指領域の特定処理)
図4は、指領域の特定処理の一例を示すフローチャートである。図3−1に示したステップS303,S310において、情報処理装置202は、指領域の特定処理としてたとえば図4に示す各ステップを実行する。まず、情報処理装置202は、撮像素子204によって得られた画像データが示す画像の各画素について、色が所定範囲(たとえば肌色)に含まれるか否かを判定する(ステップS401)。
(Finger area identification process)
FIG. 4 is a flowchart illustrating an example of finger area specifying processing. In steps S303 and S310 illustrated in FIG. 3A, the information processing apparatus 202 executes, for example, each step illustrated in FIG. 4 as the finger region specifying process. First, the information processing apparatus 202 determines whether or not the color is included in a predetermined range (for example, skin color) for each pixel of the image indicated by the image data obtained by the image sensor 204 (step S401).

つぎに、情報処理装置202は、ステップS401による判定結果に基づいて、画像データが示す画像のうちの色が所定範囲に含まれると判定した画素が連続する領域を抽出する(ステップS402)。つぎに、情報処理装置202は、ステップS402によって抽出した各領域のうちの、画像データが示す画像の端部に接する領域を指領域として特定し(ステップS403)、一連の特定処理を終了する。   Next, the information processing apparatus 202 extracts a region in which pixels determined to include a color within the predetermined range in the image indicated by the image data based on the determination result in step S401 (step S402). Next, the information processing apparatus 202 identifies, as a finger region, a region that touches the edge of the image indicated by the image data among the regions extracted in step S402 (step S403), and ends a series of identifying processes.

(フレーミング操作の検出処理)
図5は、フレーミング操作の検出処理の一例を示すフローチャートである。図3−1に示したステップS304において、情報処理装置202は、フレーミング操作の検出処理としてたとえば図5に示す各ステップを実行する。まず、情報処理装置202は、画像データが示す画像における指領域のY軸方向およびX軸方向の度数分布を算出する(ステップS501)。
(Framing operation detection process)
FIG. 5 is a flowchart illustrating an example of a framing operation detection process. In step S304 illustrated in FIG. 3A, the information processing apparatus 202 executes, for example, each step illustrated in FIG. 5 as the framing operation detection process. First, the information processing apparatus 202 calculates the frequency distribution in the Y-axis direction and the X-axis direction of the finger region in the image indicated by the image data (step S501).

つぎに、情報処理装置202は、ステップS501によって算出したY軸方向の度数分布におけるピーク位置を検出する(ステップS502)。また、情報処理装置202は、ステップS501によって算出したX軸方向の度数分布におけるピーク位置を検出する(ステップS503)。ピーク位置は、たとえば、分布方向に対して度数が増加から減少に転じる分布位置である。たとえば、ピーク位置は、分布方向の変化に対する度数の微分値を算出することによって検出することができる。   Next, the information processing apparatus 202 detects a peak position in the frequency distribution in the Y-axis direction calculated in step S501 (step S502). Further, the information processing apparatus 202 detects the peak position in the frequency distribution in the X-axis direction calculated in step S501 (step S503). The peak position is, for example, a distribution position where the frequency changes from increasing to decreasing with respect to the distribution direction. For example, the peak position can be detected by calculating the differential value of the frequency with respect to the change in the distribution direction.

つぎに、情報処理装置202は、ステップS502,S503による検出結果に基づいて、Y軸方向およびX軸方向の各度数分布においてピーク位置の数が1であるか否かを判断する(ステップS504)。Y軸方向の度数分布およびX軸方向の度数分布の少なくとも一方においてピーク位置の数が1でない場合(ステップS504:No)は、情報処理装置202は、対物レンズ203の前に出した撮影者の指によるフレーミング操作がなかったと判定し(ステップS505)、一連の検出処理を終了する。   Next, the information processing apparatus 202 determines whether the number of peak positions is 1 in each frequency distribution in the Y-axis direction and the X-axis direction based on the detection results in steps S502 and S503 (step S504). . In the case where the number of peak positions is not 1 in at least one of the frequency distribution in the Y-axis direction and the frequency distribution in the X-axis direction (step S504: No), the information processing apparatus 202 displays the photographer's image taken out before the objective lens 203. It is determined that there has been no framing operation with a finger (step S505), and the series of detection processes is terminated.

ステップS504において、Y軸方向およびX軸方向の各度数分布においてピーク位置の数が1である場合(ステップS504:Yes)は、L字型の指領域が検出されたと判断することができる。この場合は、情報処理装置202は、対物レンズ203の前に出した撮影者の指によるフレーミング操作があったと判定し(ステップS506)、一連の検出処理を終了する。   In step S504, when the number of peak positions is 1 in each frequency distribution in the Y-axis direction and the X-axis direction (step S504: Yes), it can be determined that an L-shaped finger region has been detected. In this case, the information processing apparatus 202 determines that there has been a framing operation by the photographer's finger that is put out in front of the objective lens 203 (step S506), and ends a series of detection processing.

(取込フレーム[n]の決定処理)
図6−1は、取込フレーム[n]の決定処理(左手用)の一例を示すフローチャートである。図3−1に示したステップS311において、情報処理装置202は、取込フレーム[n]の決定処理としてたとえば図6−1に示す各ステップを実行する。図6−1については、撮影者が左手の指を対物レンズ203の前に出してフレーミング操作を行う場合について説明する。
(Fetching frame [n] determination process)
FIG. 6A is a flowchart illustrating an example of the determination process (for the left hand) of the capture frame [n]. In step S <b> 311 illustrated in FIG. 3A, the information processing apparatus 202 executes, for example, each step illustrated in FIG. 6A as the determination process of the captured frame [n]. With respect to FIG. 6A, a case where the photographer performs a framing operation by placing the finger of the left hand in front of the objective lens 203 will be described.

まず、情報処理装置202は、撮像素子204によって得られた画像データが示す画像における指領域のY軸方向およびX軸方向の度数分布を算出する(ステップS601)。つぎに、情報処理装置202は、ステップS601によって算出したY軸方向の度数分布におけるY軸方向の最大値Ymを検出する(ステップS602)。また、情報処理装置202は、ステップS601によって算出したX軸方向の度数分布におけるX軸方向の最大値Xmを検出する(ステップS603)。   First, the information processing apparatus 202 calculates the frequency distribution in the Y-axis direction and the X-axis direction of the finger region in the image indicated by the image data obtained by the image sensor 204 (step S601). Next, the information processing apparatus 202 detects the maximum value Ym in the Y-axis direction in the frequency distribution in the Y-axis direction calculated in step S601 (step S602). Further, the information processing apparatus 202 detects the maximum value Xm in the X-axis direction in the frequency distribution in the X-axis direction calculated in step S601 (step S603).

つぎに、情報処理装置202は、ステップS601によって算出したY軸方向の度数分布におけるピーク位置Yp1を検出する(ステップS604)。つぎに、情報処理装置202は、取込フレームのY軸方向の長さYLTmaxをYm−Yp1により算出する(ステップS605)。YmはステップS602により検出された最大値である。Yp1はステップS604により検出されたピーク位置である。   Next, the information processing apparatus 202 detects the peak position Yp1 in the frequency distribution in the Y-axis direction calculated in step S601 (step S604). Next, the information processing apparatus 202 calculates the length YLTmax in the Y-axis direction of the capture frame by Ym−Yp1 (step S605). Ym is the maximum value detected in step S602. Yp1 is the peak position detected in step S604.

つぎに、情報処理装置202は、取込フレームの対角座標を算出する(ステップS606)。たとえば、情報処理装置202は、ステップS602〜S605の各結果に基づいて、(Xm,Yp1)および(Xm+(N*YLTmax),Ym)を取込フレームの対角座標として算出する。Nは取込フレームのY軸方向の長さに対するX軸方向の長さの比率(アスペクト比)である。つぎに、情報処理装置202は、取込フレーム[n]を、ステップS606により算出した対角座標に基づく範囲に決定し(ステップS607)、一連の決定処理を終了する。   Next, the information processing apparatus 202 calculates diagonal coordinates of the capture frame (step S606). For example, the information processing apparatus 202 calculates (Xm, Yp1) and (Xm + (N * YLTmax), Ym) as diagonal coordinates of the captured frame based on the results of steps S602 to S605. N is the ratio (aspect ratio) of the length in the X-axis direction to the length in the Y-axis direction of the capture frame. Next, the information processing apparatus 202 determines the captured frame [n] as a range based on the diagonal coordinates calculated in step S606 (step S607), and ends a series of determination processes.

図6−2は、取込フレーム[n]の決定処理(右手用)の一例を示すフローチャートである。図3−1に示したステップS311において、情報処理装置202は、取込フレーム[n]の決定処理としてたとえば図6−2に示す各ステップを実行してもよい。図6−2については、撮影者が右手の指を対物レンズ203の前に出してフレーミング操作を行う場合について説明する。   FIG. 6B is a flowchart illustrating an example of the determination process (for the right hand) of the capture frame [n]. In step S311 illustrated in FIG. 3A, the information processing apparatus 202 may execute, for example, the steps illustrated in FIG. 6B as the determination process of the captured frame [n]. FIG. 6B illustrates a case where the photographer performs a framing operation by placing the finger of the right hand in front of the objective lens 203.

図6−2に示すように、撮影者が右手の指によりフレーミング操作を行う場合は、ステップS603において、情報処理装置202は、ステップS601によって算出したX軸方向の度数分布におけるX軸方向の最小値Xminを検出する。また、情報処理装置202は、ステップS606において、(Xmin,Yp1)および(Xmin−(N*YLTmax),Ym)を取込フレームの対角座標として算出する。   As illustrated in FIG. 6B, when the photographer performs the framing operation with the finger of the right hand, in step S603, the information processing apparatus 202 determines the minimum in the X axis direction in the frequency distribution in the X axis direction calculated in step S601. The value Xmin is detected. In step S606, the information processing apparatus 202 calculates (Xmin, Yp1) and (Xmin− (N * YLTmax), Ym) as diagonal coordinates of the captured frame.

(取込操作の検出処理)
図7は、取込操作の検出処理の一例を示すフローチャートである。図3−2に示したステップS319において、情報処理装置202は、取込操作の検出処理としてたとえば図7に示す各ステップを実行する。まず、情報処理装置202は、撮像素子204からの画像データを取得する(ステップS701)。
(Detection processing of import operation)
FIG. 7 is a flowchart illustrating an example of the detection process of the capture operation. In step S319 illustrated in FIG. 3B, the information processing apparatus 202 executes, for example, each step illustrated in FIG. First, the information processing apparatus 202 acquires image data from the image sensor 204 (step S701).

つぎに、情報処理装置202は、ステップS701によって取得した画像データが示す画像に含まれる、撮影者の指が写った指領域の特定処理を行う(ステップS702)。ステップS702による指領域の特定処理は、たとえば図4に示した特定処理によって実現することができる。つぎに、情報処理装置202は、ステップS701によって取得した画像データが示す画像における指領域のY軸方向およびX軸方向の度数分布を算出する(ステップS703)。   Next, the information processing apparatus 202 performs a finger region specifying process in which the photographer's finger is included, which is included in the image indicated by the image data acquired in step S701 (step S702). The finger region specifying process in step S702 can be realized by, for example, the specifying process shown in FIG. Next, the information processing apparatus 202 calculates the frequency distribution in the Y-axis direction and the X-axis direction of the finger region in the image indicated by the image data acquired in step S701 (step S703).

つぎに、情報処理装置202は、ステップS703によって算出したY軸方向の度数分布におけるピーク位置を検出する(ステップS704)。つぎに、情報処理装置202は、ステップS704によって検出したY軸方向の度数分布におけるピーク位置の数が2であるか否かを判断する(ステップS705)。Y軸方向の度数分布におけるピーク位置の数が2でない場合(ステップS705:No)は、情報処理装置202は、撮影者による取込操作がなかったと判定し(ステップS706)、一連の検出処理を終了する。   Next, the information processing apparatus 202 detects a peak position in the frequency distribution in the Y-axis direction calculated in step S703 (step S704). Next, the information processing apparatus 202 determines whether or not the number of peak positions in the frequency distribution in the Y-axis direction detected in step S704 is 2 (step S705). If the number of peak positions in the frequency distribution in the Y-axis direction is not 2 (step S705: No), the information processing apparatus 202 determines that there is no capture operation by the photographer (step S706), and a series of detection processes is performed. finish.

ステップS705において、Y軸方向の度数分布におけるピーク位置の数が2である場合(ステップS705:Yes)は、情報処理装置202は、ステップS703によって算出したX軸方向の度数分布におけるピーク位置を検出する(ステップS707)。つぎに、情報処理装置202は、ステップS707によって検出したX軸方向の度数分布におけるピーク位置の数が1であるか否かを判断する(ステップS708)。X軸方向の度数分布におけるピーク位置の数が1でない場合(ステップS708:No)は、情報処理装置202は、ステップS706へ移行する。   In step S705, when the number of peak positions in the frequency distribution in the Y-axis direction is 2 (step S705: Yes), the information processing apparatus 202 detects the peak position in the frequency distribution in the X-axis direction calculated in step S703. (Step S707). Next, the information processing apparatus 202 determines whether or not the number of peak positions in the frequency distribution in the X-axis direction detected in step S707 is 1 (step S708). If the number of peak positions in the frequency distribution in the X-axis direction is not 1 (step S708: No), the information processing apparatus 202 proceeds to step S706.

ステップS708において、X軸方向の度数分布におけるピーク位置の数が1である場合(ステップS708:Yes)は、情報処理装置202は、ステップS709へ移行する。すなわち、情報処理装置202は、ステップS704によって検出したY軸方向の度数分布における2つのピーク位置Yp1,Yp2(Yp1<Yp2)を取得する(ステップS709)。   In step S708, when the number of peak positions in the frequency distribution in the X-axis direction is 1 (step S708: Yes), the information processing apparatus 202 proceeds to step S709. That is, the information processing apparatus 202 acquires two peak positions Yp1 and Yp2 (Yp1 <Yp2) in the frequency distribution in the Y-axis direction detected in step S704 (step S709).

つぎに、情報処理装置202は、ステップS709によって取得したピーク位置Yp1,Yp2に基づいて、ピーク位置Yp1に対するピーク位置Yp2の比率Yp2/Yp1が所定比率より小さいか否かを判断する(ステップS710)。比率Yp2/Yp1が所定比率より小さくない場合(ステップS710:No)は、情報処理装置202は、ステップS706へ移行する。   Next, the information processing apparatus 202 determines whether or not the ratio Yp2 / Yp1 of the peak position Yp2 to the peak position Yp1 is smaller than a predetermined ratio based on the peak positions Yp1 and Yp2 acquired in step S709 (step S710). . If the ratio Yp2 / Yp1 is not smaller than the predetermined ratio (step S710: No), the information processing apparatus 202 proceeds to step S706.

ステップS710において、比率Yp2/Yp1が所定比率より小さい場合(ステップS710:Yes)は、撮影者が一方の指先を曲げたと判断することができる。この場合は、情報処理装置202は、撮影者による取込操作があったと判定し(ステップS711)、一連の検出処理を終了する。   In step S710, when the ratio Yp2 / Yp1 is smaller than the predetermined ratio (step S710: Yes), it can be determined that the photographer has bent one fingertip. In this case, the information processing apparatus 202 determines that there has been a capture operation by the photographer (step S711), and ends a series of detection processes.

(指領域の特定)
つぎに、撮影者が左手の指を対物レンズ203の前に出してフレーミング操作を行う場合における指領域の特定の具体例について説明する。以下、便宜上、画像データが示す画面の左下を原点(0,0)とし、X軸右側を正方向、Y軸上側を正方向として説明する。
(Finger area identification)
Next, a specific example of the finger region in the case where the photographer performs a framing operation with the left hand finger placed in front of the objective lens 203 will be described. Hereinafter, for convenience, the lower left of the screen indicated by the image data is defined as the origin (0, 0), the right side of the X axis is the positive direction, and the upper side of the Y axis is the positive direction.

図8−1〜図8−4は、指領域の特定の一例を示す図である。まず、図8−1に示すように、撮像素子204によって画像800を示す画像データが得られたとする。画像800は表示装置206によって表示される(ライブビュー)。図8−1に示す例では、画像800には被写体領域801〜806が含まれている。   8A to 8D are diagrams illustrating an example of specifying the finger region. First, as shown in FIG. 8A, it is assumed that image data indicating an image 800 is obtained by the image sensor 204. The image 800 is displayed by the display device 206 (live view). In the example illustrated in FIG. 8A, the image 800 includes subject areas 801 to 806.

また、画像800のうちの被写体領域801,803,805の部分のみが肌色であるとする。また、被写体領域801は、撮影者の指が写った部分である。情報処理装置202は、画像800の各画素について、各色の輝度(R,G,B)が所定範囲(R1,G1,B1)〜(R2,G2,B2)に含まれるか否かを判定することにより、色が肌色であるか否かを判定する。たとえば、情報処理装置202は、画像800の各画素について、肌色である画素を「1」とし、肌色でない画素を「0」とする二値化を行う。   Further, it is assumed that only the subject areas 801, 803, and 805 in the image 800 are flesh-colored. The subject area 801 is a portion where the photographer's finger is captured. The information processing apparatus 202 determines whether or not the luminance (R, G, B) of each color is included in a predetermined range (R1, G1, B1) to (R2, G2, B2) for each pixel of the image 800. Thus, it is determined whether or not the color is a skin color. For example, the information processing apparatus 202 binarizes each pixel of the image 800 by setting a skin color pixel to “1” and a non-skin color pixel to “0”.

そして、情報処理装置202は、「1」の画素が連続する領域を抽出することにより、図8−2に示すように、肌色の画素が連続する領域である被写体領域801,803,805を抽出することができる。   Then, the information processing apparatus 202 extracts subject regions 801, 803, and 805, which are regions in which skin-colored pixels are continuous, by extracting a region in which “1” pixels are continuous, as illustrated in FIG. can do.

つぎに、情報処理装置202は、抽出した被写体領域801,803,805のうちの、画像800の端部に接する領域を指領域として特定する。たとえば、情報処理装置202は、図8−3に示すように、被写体領域801,803,805のうちの、画像800の端部に接する被写体領域801を特定する。   Next, the information processing apparatus 202 identifies, as a finger region, a region that touches the end of the image 800 among the extracted subject regions 801, 803, and 805. For example, as illustrated in FIG. 8C, the information processing apparatus 202 identifies a subject area 801 that is in contact with the end of the image 800 among the subject areas 801, 803, and 805.

また、情報処理装置202は、「1」の画素が連続し、かつ画像800の端部に接する領域を直接特定してもよい。たとえば、情報処理装置202は、画像800の原点(0,0)をスタート地点とし、以下のように画像800の画素を順次走査して点をつないでいく手法を用いることにより対象物の外形の形状(輪郭)を抽出することができる。   In addition, the information processing apparatus 202 may directly specify a region in which “1” pixels are continuous and in contact with the edge of the image 800. For example, the information processing apparatus 202 uses the method of starting the origin (0, 0) of the image 800 as a start point and sequentially scanning the pixels of the image 800 to connect the points as follows. The shape (contour) can be extracted.

(1)画像800の境界上の未追跡の1画素を探し、あればその1画素を始点として記録し、なければ終了する。 (1) Search for one untracked pixel on the boundary of the image 800. If there is one pixel, the one pixel is recorded as the start point.

(2)記録した始点の画素の周囲を反時計まわりに探索して境界上の1画素を特定し、特定した1画素をマーク済み(境界)とする。 (2) A search is made counterclockwise around the recorded start point pixel to identify one pixel on the boundary, and the identified one pixel is marked (boundary).

(3)特定した1画素が始点に一致していなければ(2)へ戻り、一致していたら(1)へ戻って新しい境界の始点を探す。 (3) If the specified pixel does not match the start point, the process returns to (2). If they match, the process returns to (1) to search for the start point of a new boundary.

そして、情報処理装置202は、図8−4に示すように、被写体領域801,803,805のうちの、特定した被写体領域801以外の被写体領域803,805をマスキングする。これにより、画像800に含まれる指領域として被写体領域801を得ることができる。   Then, as illustrated in FIG. 8D, the information processing apparatus 202 masks subject areas 803 and 805 other than the identified subject area 801 among the subject areas 801, 803, and 805. Thereby, a subject area 801 can be obtained as a finger area included in the image 800.

(取込フレームの決定)
つぎに、撮影者が左手の指を対物レンズ203の前に出してフレーミング操作を行う場合における取込フレームの決定(たとえば図6−1参照)の具体例について説明する。
(Determination of capture frame)
Next, a specific example of determination of a capture frame (see, for example, FIG. 6-1) when the photographer performs a framing operation with the left finger placed in front of the objective lens 203 will be described.

図9は、取込フレームの決定の一例を示す図である。図9において、図8−4に示した部分と同様の部分については同一の符号を付して説明を省略する。また、Y軸方向ヒストグラム910は、指領域として特定した被写体領域801におけるY軸方向の度数(Y軸画素累積数)分布を示すヒストグラムである。X軸方向ヒストグラム920は、指領域として特定した被写体領域801におけるX軸方向の度数(X軸画素累積数)分布を示すヒストグラムである。   FIG. 9 is a diagram illustrating an example of determination of a capture frame. 9, the same parts as those shown in FIG. 8-4 are denoted by the same reference numerals, and the description thereof is omitted. The Y-axis direction histogram 910 is a histogram showing the frequency (Y-axis pixel cumulative number) distribution in the Y-axis direction in the subject area 801 specified as the finger area. The X-axis direction histogram 920 is a histogram showing the frequency (X-axis pixel cumulative number) distribution in the X-axis direction in the subject region 801 specified as the finger region.

最大値Ymは、Y軸方向ヒストグラム910が示すY軸方向の度数分布におけるY軸方向の最大値である。ピーク位置Yp1は、Y軸方向ヒストグラム910が示すY軸方向の度数分布における、度数が最大のピーク位置である。YLTmaxは、最大値Ymとピーク位置Yp1との差分である。   The maximum value Ym is the maximum value in the Y-axis direction in the frequency distribution in the Y-axis direction indicated by the Y-axis direction histogram 910. The peak position Yp1 is a peak position with the maximum frequency in the frequency distribution in the Y-axis direction indicated by the Y-axis direction histogram 910. YLTmax is a difference between the maximum value Ym and the peak position Yp1.

最大値Xmは、X軸方向ヒストグラム920が示すX軸方向の度数分布におけるX軸方向の最大値である。ピーク位置Xp1は、X軸方向ヒストグラム920が示すX軸方向の度数分布における、度数が最大のピーク位置である。   The maximum value Xm is the maximum value in the X-axis direction in the frequency distribution in the X-axis direction indicated by the X-axis direction histogram 920. The peak position Xp1 is a peak position with the maximum frequency in the frequency distribution in the X-axis direction indicated by the X-axis direction histogram 920.

情報処理装置202は、画像800のうちの座標911,912を、取込フレームの対角座標として算出する。座標911は(Xm,Yp1)である。座標912は(Xm+(N*YLTmax),Ym)である。Nは取込フレームのY軸方向の長さに対するX軸方向の長さの比率(アスペクト比)である。そして、情報処理装置202は、座標911,912を対角座標とする取込フレーム913を取込範囲として決定する。   The information processing apparatus 202 calculates coordinates 911 and 912 in the image 800 as diagonal coordinates of the captured frame. The coordinates 911 are (Xm, Yp1). The coordinates 912 are (Xm + (N * YLTmax), Ym). N is the ratio (aspect ratio) of the length in the X-axis direction to the length in the Y-axis direction of the capture frame. Then, the information processing apparatus 202 determines the capture frame 913 having the coordinates 911 and 912 as diagonal coordinates as the capture range.

つぎに、撮影者が右手の指を対物レンズ203の前に出してフレーミング操作を行う場合における取込フレームの決定(たとえば図6−2参照)の具体例について説明する。   Next, a specific example of determination of a capture frame (see, for example, FIG. 6-2) when the photographer performs a framing operation by putting the finger of the right hand in front of the objective lens 203 will be described.

図10は、取込フレームの決定の別の例を示す図である。図10において、図9に示した部分と同様の部分については同一の符号を付して説明を省略する。   FIG. 10 is a diagram illustrating another example of determination of a capture frame. In FIG. 10, the same parts as those shown in FIG.

最小値Xminは、X軸方向ヒストグラム920が示すX軸方向の度数分布におけるX軸方向の最小値である。撮影者が右手の指を対物レンズ203の前に出してフレーミング操作を行う場合は、情報処理装置202は、たとえば、図10に示す画像800のうちの座標911,912を、取込フレームの対角座標として算出する。座標911は(Xmin,Yp1)である。座標912は(Xmin−(N*YLTmax),Ym)である。そして、情報処理装置202は、座標911,912を対角座標とする取込フレーム913を取込範囲として決定する。   The minimum value Xmin is the minimum value in the X-axis direction in the frequency distribution in the X-axis direction indicated by the X-axis direction histogram 920. When the photographer puts his right hand finger in front of the objective lens 203 and performs a framing operation, the information processing apparatus 202 uses, for example, coordinates 911 and 912 in the image 800 shown in FIG. Calculate as angular coordinates. The coordinates 911 are (Xmin, Yp1). The coordinates 912 are (Xmin− (N * YLTmax), Ym). Then, the information processing apparatus 202 determines the capture frame 913 having the coordinates 911 and 912 as diagonal coordinates as the capture range.

また、情報処理装置202は、撮影者がフレーミング操作を左手および右手のいずれかによって行っているかを判定してもよい。そして、情報処理装置202は、左右の判定結果に応じて、図6−1,図9に示した左手用の決定処理と、図6−2,図10に示した右手用の決定処理と、のいずれかを行う。   Further, the information processing apparatus 202 may determine whether the photographer performs the framing operation with the left hand or the right hand. Then, the information processing apparatus 202 determines the left-hand determination process illustrated in FIGS. 6A and 6B and the right-hand determination process illustrated in FIGS. Do one of the following.

たとえば、情報処理装置202は、最小値Xminが、画像800のX軸方向の長さXFramaxの半分より小さければ、撮影者がフレーミング操作を左手によって行っていると判断し、図6−1,図9に示した左手用の決定処理を行う。一方、情報処理装置202は、最小値Xminが、画像800のX軸方向の長さXFramaxの半分より大きければ、撮影者がフレーミング操作を右手によって行っていると判断し、図6−2,図10に示した右手用の決定処理を行う。これにより、撮影者が左右いずれの手によってフレーミング操作を行っても取込フレームの決定処理を行うことができる。   For example, if the minimum value Xmin is smaller than half the length XFramax in the X-axis direction of the image 800, the information processing apparatus 202 determines that the photographer is performing the framing operation with the left hand, and FIGS. The left-hand determination process shown in FIG. On the other hand, if the minimum value Xmin is larger than half of the length XFramax in the X-axis direction of the image 800, the information processing apparatus 202 determines that the photographer is performing the framing operation with the right hand, and FIG. The right-hand determination process shown in FIG. Thereby, even if the photographer performs the framing operation with either the left or right hand, the determination process of the captured frame can be performed.

ただし、撮影者がフレーミング操作を左手および右手のいずれかによって行っているかの判定についてはこれに限らず、各種の判定方法を用いることができる。たとえば、X軸方向ヒストグラム920におけるX=0の度数と、X軸方向ヒストグラム920におけるX=XFramaxの度数と、の比較に基づいて判定を行ってもよい。   However, the determination of whether the photographer performs the framing operation with either the left hand or the right hand is not limited to this, and various determination methods can be used. For example, the determination may be made based on a comparison between the frequency of X = 0 in the X-axis direction histogram 920 and the frequency of X = XFramax in the X-axis direction histogram 920.

(取込操作の検出)
つぎに、撮影者が左手の指を対物レンズ203の前に出して取込操作を行う場合における取込操作の検出(たとえば図7参照)の具体例について説明する。
(Detection of capture operation)
Next, a specific example of the capture operation detection (for example, see FIG. 7) when the photographer performs the capture operation with his / her left hand in front of the objective lens 203 will be described.

図11は、取込操作の検出(左手用)の一例を示す図である。図11において、図9に示した部分と同様の部分については同一の符号を付して説明を省略する。図11に示すように、撮影者は、写真を取り込みたいタイミングにおいて人差し指を曲げる。これにより、Y軸方向ヒストグラム910には2つのピーク位置Yp1,Yp2が生じる。   FIG. 11 is a diagram illustrating an example of detection of the capture operation (for the left hand). In FIG. 11, the same parts as those shown in FIG. As shown in FIG. 11, the photographer bends the index finger at the timing when the photograph is desired to be captured. As a result, two peak positions Yp1 and Yp2 are generated in the Y-axis direction histogram 910.

情報処理装置202は、Y軸方向ヒストグラム910において2つのピーク位置Yp1,Yp2が検出されると、ピーク位置Yp1に対するピーク位置Yp2の比率Yp2/Yp1が所定比率より小さいか否かを判断する。そして、情報処理装置202は、比率Yp2/Yp1が所定比率より小さい場合に撮影者による取込操作があったと判定する。これにより、撮影者が指先を曲げることにより、画像データの取込を行うことができる。   When the two peak positions Yp1 and Yp2 are detected in the Y-axis direction histogram 910, the information processing apparatus 202 determines whether or not the ratio Yp2 / Yp1 of the peak position Yp2 to the peak position Yp1 is smaller than a predetermined ratio. Then, the information processing apparatus 202 determines that the capturing operation has been performed by the photographer when the ratio Yp2 / Yp1 is smaller than the predetermined ratio. Thus, the image data can be taken in when the photographer bends the fingertip.

また、撮影者が人差し指を曲げると最大値Ymが小さくなる。このため、情報処理装置202は、所定期間内の最大値Ymの減少量が所定値を超えた場合に取込操作があったと判定してもよい。または、情報処理装置202は、ピーク位置Yp1に対する最大値Ymの比率Ym/Yp1が所定比率より小さい場合に取込操作があったと判定してもよい。これにより、ピーク位置Yp2を検出しなくても取込操作を検出することができる。   Further, when the photographer bends the index finger, the maximum value Ym decreases. For this reason, the information processing apparatus 202 may determine that a capture operation has been performed when the amount of decrease in the maximum value Ym within a predetermined period exceeds a predetermined value. Alternatively, the information processing apparatus 202 may determine that the capture operation has been performed when the ratio Ym / Yp1 of the maximum value Ym to the peak position Yp1 is smaller than a predetermined ratio. Thereby, the capture operation can be detected without detecting the peak position Yp2.

つぎに、撮影者が右手の指を対物レンズ203の前に出して取込操作を行う場合における取込操作の検出の具体例について説明する。   Next, a specific example of the detection of the capture operation when the photographer performs the capture operation with the right hand finger placed in front of the objective lens 203 will be described.

図12は、取込操作の検出(右手用)の一例を示す図である。図12において、図11に示した部分と同様の部分については同一の符号を付して説明を省略する。図12に示すように、撮影者は、写真を取り込みたいタイミングにおいて右手の人差し指を曲げる。これにより、Y軸方向ヒストグラム910には2つのピーク位置Yp1,Yp2が生じる。   FIG. 12 is a diagram illustrating an example of detection of the capture operation (for the right hand). In FIG. 12, the same parts as those shown in FIG. As shown in FIG. 12, the photographer bends the index finger of the right hand at the timing when the photograph is desired to be captured. As a result, two peak positions Yp1 and Yp2 are generated in the Y-axis direction histogram 910.

この場合も、情報処理装置202は、Y軸方向ヒストグラム910において2つのピーク位置Yp1,Yp2が検出されると、ピーク位置Yp1に対するピーク位置Yp2の比率Yp2/Yp1が所定比率より小さいか否かを判断する。そして、情報処理装置202は、比率Yp2/Yp1が所定比率より小さい場合に撮影者による取込操作があったと判定する。これにより、撮影者が右手の指先を曲げることにより、画像データの取込を行うことができる。   Also in this case, when two peak positions Yp1 and Yp2 are detected in the Y-axis direction histogram 910, the information processing apparatus 202 determines whether or not the ratio Yp2 / Yp1 of the peak position Yp2 to the peak position Yp1 is smaller than a predetermined ratio. to decide. Then, the information processing apparatus 202 determines that the capturing operation has been performed by the photographer when the ratio Yp2 / Yp1 is smaller than the predetermined ratio. As a result, the photographer can capture the image data by bending the fingertip of the right hand.

また、撮影者が人差し指を曲げると最大値Ymが小さくなる。このため、情報処理装置202は、所定期間内の最大値Ymの減少量が所定値を超えた場合に取込操作があったと判定してもよい。または、情報処理装置202は、ピーク位置Yp1に対する最大値Ymの比率Ym/Yp1が所定比率より小さい場合に取込操作があったと判定してもよい。これにより、ピーク位置Yp2を検出しなくても取込操作を検出することができる。   Further, when the photographer bends the index finger, the maximum value Ym decreases. For this reason, the information processing apparatus 202 may determine that a capture operation has been performed when the amount of decrease in the maximum value Ym within a predetermined period exceeds a predetermined value. Alternatively, the information processing apparatus 202 may determine that the capture operation has been performed when the ratio Ym / Yp1 of the maximum value Ym to the peak position Yp1 is smaller than a predetermined ratio. Thereby, the capture operation can be detected without detecting the peak position Yp2.

(取込フレームの決定の他の例)
つぎに、撮影者が左手の指を対物レンズ203の前に出してフレーミング操作を行う場合における取込フレームの決定の別の具体例について説明する。
(Other examples of determination of capture frame)
Next, another specific example of the determination of the capture frame when the photographer performs the framing operation with the left hand finger in front of the objective lens 203 will be described.

図13は、取込フレームの決定の他の例を示す図である。図13において、図9に示した部分と同様の部分については同一の符号を付して説明を省略する。図13に示すように、情報処理装置202は、座標911を(Xp1,Yp1)によって算出し、座標912を(Xp1+(N*YLTmax),Ym)によって算出してもよい。これにより、撮影者の指によって指示されるL字形状の部分が取込フレーム913の左下の角と一致し、撮影者はより直感的にフレーミング操作を行うことができる。   FIG. 13 is a diagram illustrating another example of determination of a capture frame. In FIG. 13, the same parts as those shown in FIG. As illustrated in FIG. 13, the information processing apparatus 202 may calculate the coordinates 911 by (Xp1, Yp1) and the coordinates 912 by (Xp1 + (N * YLTmax), Ym). Thereby, the L-shaped portion designated by the photographer's finger matches the lower left corner of the capture frame 913, and the photographer can perform the framing operation more intuitively.

また、撮影者が左手の指を対物レンズ203の前に出してフレーミング操作を行う場合においても同様である。たとえば図10において、情報処理装置202は、座標911を(Xp1,Yp1)によって算出し、座標912を(Xp1+(N*YLTmax),Ym)によって算出してもよい。これにより、撮影者の指によって指示されるL字形状の部分が取込フレーム913の左下の角と一致し、撮影者はより直感的にフレーミング操作を行うことができる。   The same applies to the case where the photographer performs the framing operation by putting the finger of the left hand in front of the objective lens 203. For example, in FIG. 10, the information processing apparatus 202 may calculate the coordinates 911 by (Xp1, Yp1) and calculate the coordinates 912 by (Xp1 + (N * YLTmax), Ym). Thereby, the L-shaped portion designated by the photographer's finger matches the lower left corner of the capture frame 913, and the photographer can perform the framing operation more intuitively.

つぎに、この場合の撮影者による取込操作の具体例について説明する。   Next, a specific example of the capturing operation by the photographer in this case will be described.

図14は、撮影者による取込操作の具体例を示す図である。図14において、図11に示した部分と同様の部分については同一の符号を付して説明を省略する。たとえば図13に示したように、座標911を(Xp1,Yp1)によって算出し、座標912を(Xp1+(N*YLTmax),Ym)によって算出する場合は、撮影者は、画像を取り込みたいタイミングにおいて、たとえば左手を左側へずらしてから人差し指を曲げる。これにより、被写体領域801の曲げた指先の部分が取込フレーム913に含まれてしまうことを回避することができる。   FIG. 14 is a diagram illustrating a specific example of the capturing operation performed by the photographer. In FIG. 14, the same parts as those shown in FIG. For example, as shown in FIG. 13, in the case where the coordinates 911 are calculated by (Xp1, Yp1) and the coordinates 912 are calculated by (Xp1 + (N * YLTmax), Ym), the photographer is at a timing at which he wants to capture an image. For example, move your left finger to the left and then bend your index finger. Thereby, it is possible to avoid the bent fingertip portion of the subject area 801 being included in the capture frame 913.

(取込フレームの決定のさらに他の例)
また、たとえば図13において、情報処理装置202は、座標911を(Xp1+Xoffset,Yp1+Yoffset)によって算出し、座標912を(Xp1+(N*YLTmax)+Xoffset,Ym+Yoffset)によって算出してもよい。
(Still another example of determination of capture frame)
For example, in FIG. 13, the information processing apparatus 202 may calculate the coordinates 911 by (Xp1 + Xoffset, Yp1 + Yoffset) and calculate the coordinates 912 by (Xp1 + (N * YLTmax) + Xoffset, Ym + Yoffset).

これにより、撮影者の指によって指示されるL字形状に対してXoffsetだけX軸の正方向に、YoffsetだけY軸の正方向にずれた位置が取込フレーム913の左下の角と一致する。このため、撮影者はより直感的にフレーミング操作を行うことができるとともに、フレーミング操作の後、左手をずらさずに人差し指を曲げても、被写体領域801の曲げた指先の部分が取込フレーム913に含まれることを回避することができる。   As a result, a position shifted by Xoffset in the positive direction of the X axis and by Yoffset in the positive direction of the Y axis with respect to the L shape indicated by the photographer's finger coincides with the lower left corner of the capture frame 913. For this reason, the photographer can perform the framing operation more intuitively, and even after the framing operation, even if the index finger is bent without shifting the left hand, the bent fingertip portion of the subject area 801 is captured in the capture frame 913. Inclusion can be avoided.

また、取込操作を、親指に対して人差し指をさらに開いたり、傾けたりする操作としてもよい。この場合も、被写体領域801の曲げた指先の部分が取込フレーム913に含まれることを回避することができる。   In addition, the capture operation may be an operation of further opening or tilting the index finger with respect to the thumb. Also in this case, it can be avoided that the bent fingertip portion of the subject area 801 is included in the capture frame 913.

(親指による取込操作)
つぎに、撮影者の親指による取込操作について説明する。
(Uptake operation with thumb)
Next, an operation for taking in with the photographer's thumb will be described.

(取込操作の検出処理)
図15は、親指による取込操作の検出処理の一例を示すフローチャートである。図3−2に示したステップS319において、情報処理装置202は、取込操作の検出処理としてたとえば図15に示す各ステップを実行してもよい。図15に示すステップS1501〜S1504は、図7に示したステップS701〜S704と同様である。
(Detection processing of import operation)
FIG. 15 is a flowchart illustrating an example of detection processing of a capture operation with a thumb. In step S319 illustrated in FIG. 3B, the information processing apparatus 202 may execute, for example, each step illustrated in FIG. 15 as the capture operation detection process. Steps S1501 to S1504 shown in FIG. 15 are the same as steps S701 to S704 shown in FIG.

ステップS1504のつぎに、情報処理装置202は、ステップS1504によって検出したY軸方向の度数分布におけるピーク位置の数が1であるか否かを判断する(ステップS1505)。Y軸方向の度数分布におけるピーク位置の数が1でない場合(ステップS1505:No)は、情報処理装置202は、撮影者による取込操作がなかったと判定し(ステップS1506)、一連の検出処理を終了する。   Following step S1504, the information processing apparatus 202 determines whether the number of peak positions in the frequency distribution in the Y-axis direction detected in step S1504 is 1 (step S1505). If the number of peak positions in the frequency distribution in the Y-axis direction is not 1 (step S1505: No), the information processing apparatus 202 determines that there is no capture operation by the photographer (step S1506), and a series of detection processes is performed. finish.

ステップS1505において、Y軸方向の度数分布におけるピーク位置の数が1である場合(ステップS1505:Yes)は、情報処理装置202は、ステップS1503によって算出したX軸方向の度数分布におけるピーク位置を検出する(ステップS1507)。つぎに、情報処理装置202は、ステップS1507によって検出したX軸方向の度数分布におけるピーク位置の数が2であるか否かを判断する(ステップS1508)。X軸方向の度数分布におけるピーク位置の数が2でない場合(ステップS1508:No)は、情報処理装置202は、ステップS1506へ移行する。   When the number of peak positions in the frequency distribution in the Y-axis direction is 1 in step S1505 (step S1505: Yes), the information processing apparatus 202 detects the peak position in the frequency distribution in the X-axis direction calculated in step S1503. (Step S1507). Next, the information processing apparatus 202 determines whether the number of peak positions in the frequency distribution in the X-axis direction detected in step S1507 is 2 (step S1508). When the number of peak positions in the frequency distribution in the X-axis direction is not 2 (step S1508: No), the information processing apparatus 202 proceeds to step S1506.

ステップS1508において、X軸方向の度数分布におけるピーク位置の数が2である場合(ステップS1508:Yes)は、情報処理装置202は、ステップS1509へ移行する。すなわち、情報処理装置202は、ステップS1507によって検出したX軸方向の度数分布における2つのピーク位置Xp1,Xp2(Xp1<Xp2)を取得する(ステップS1509)。   In step S1508, when the number of peak positions in the frequency distribution in the X-axis direction is 2 (step S1508: Yes), the information processing apparatus 202 proceeds to step S1509. That is, the information processing apparatus 202 acquires two peak positions Xp1 and Xp2 (Xp1 <Xp2) in the frequency distribution in the X-axis direction detected in step S1507 (step S1509).

つぎに、情報処理装置202は、ステップS1509によって取得したピーク位置Xp1,Xp2に基づいて、ピーク位置Xp1に対するピーク位置Xp2の比率Xp2/Xp1が所定比率より小さいか否かを判断する(ステップS1510)。比率Xp2/Xp1が所定比率より小さくない場合(ステップS1510:No)は、情報処理装置202は、ステップS1506へ移行する。   Next, the information processing apparatus 202 determines whether or not the ratio Xp2 / Xp1 of the peak position Xp2 to the peak position Xp1 is smaller than a predetermined ratio based on the peak positions Xp1 and Xp2 acquired in step S1509 (step S1510). . When the ratio Xp2 / Xp1 is not smaller than the predetermined ratio (step S1510: No), the information processing apparatus 202 proceeds to step S1506.

ステップS1510において、比率Xp2/Xp1が所定比率より小さい場合(ステップS1510:Yes)は、撮影者が一方の指先を曲げたと判断することができる。この場合は、情報処理装置202は、撮影者による取込操作があったと判定し(ステップS1511)、一連の検出処理を終了する。   In step S1510, if the ratio Xp2 / Xp1 is smaller than the predetermined ratio (step S1510: Yes), it can be determined that the photographer has bent one fingertip. In this case, the information processing apparatus 202 determines that there has been a capture operation by the photographer (step S1511), and ends a series of detection processes.

(親指による取込操作の検出)
つぎに、親指による取込操作の検出の具体例について説明する。
(Detection of capture operation with thumb)
Next, a specific example of detection of the capture operation with the thumb will be described.

図16は、親指による取込操作の検出の一例を示す図である。図16において、図9に示した部分と同様の部分については同一の符号を付して説明を省略する。図16に示すように、撮影者は、写真を取り込みたいタイミングにおいて親指を曲げる。これにより、X軸方向ヒストグラム920には2つのピーク位置Xp1,Xp2が生じる。   FIG. 16 is a diagram illustrating an example of detection of a capture operation with a thumb. In FIG. 16, the same parts as those shown in FIG. As shown in FIG. 16, the photographer bends his thumb at a timing when he / she wants to capture a photograph. As a result, two peak positions Xp1 and Xp2 are generated in the X-axis direction histogram 920.

情報処理装置202は、X軸方向ヒストグラム920において2つのピーク位置Xp1,Xp2が検出されると、ピーク位置Xp1に対するピーク位置Xp2の比率Xp2/Xp1が所定比率より小さいか否かを判断する。そして、情報処理装置202は、比率Xp2/Xp1が所定比率より小さい場合に撮影者による取込操作があったと判定する。これにより、撮影者が親指を曲げることにより、画像データの取込を行うことができる。   When the two peak positions Xp1 and Xp2 are detected in the X-axis direction histogram 920, the information processing apparatus 202 determines whether or not the ratio Xp2 / Xp1 of the peak position Xp2 to the peak position Xp1 is smaller than a predetermined ratio. Then, the information processing apparatus 202 determines that the capturing operation has been performed by the photographer when the ratio Xp2 / Xp1 is smaller than the predetermined ratio. Thereby, image data can be taken in when the photographer bends the thumb.

また、撮影者が親指を曲げると最大値Xmが小さくなる。このため、情報処理装置202は、所定期間内の最大値Xmの減少量が所定値を超えた場合に取込操作があったと判定してもよい。または、情報処理装置202は、ピーク位置Xp1に対する最大値Xmの比率Xm/Xp1が所定比率より小さい場合に取込操作があったと判定してもよい。これにより、ピーク位置Xp2を検出しなくても取込操作を検出することができる。   Further, when the photographer bends the thumb, the maximum value Xm decreases. For this reason, the information processing apparatus 202 may determine that the capture operation has been performed when the reduction amount of the maximum value Xm within the predetermined period exceeds the predetermined value. Alternatively, the information processing apparatus 202 may determine that the capture operation has been performed when the ratio Xm / Xp1 of the maximum value Xm with respect to the peak position Xp1 is smaller than a predetermined ratio. Thereby, the capture operation can be detected without detecting the peak position Xp2.

(動画への適用)
つぎに、撮影装置100の動画への適用例を説明する。
(Apply to video)
Next, an application example of the photographing apparatus 100 to a moving image will be described.

(動画像の取込処理)
図17は、動画像の取込処理の一例を示すフローチャートである。図2に示した情報処理装置202は、動画像を取り込む場合にたとえば図17に示す各ステップを実行する。
(Video capture processing)
FIG. 17 is a flowchart illustrating an example of a moving image capturing process. The information processing apparatus 202 illustrated in FIG. 2 executes, for example, each step illustrated in FIG. 17 when capturing a moving image.

図17に示すステップS1701〜S1704は、図3−1に示したステップS301〜S304と同様である。ステップS1704のつぎに、情報処理装置202は、ステップS1704による検出結果に基づいて、撮影者によるフレーミング操作があったか否かを判断する(ステップS1705)。フレーミング操作がなかった場合(ステップS1705:No)は、ステップS1701によって取得した画像データを記憶装置207に記憶させ(ステップS1706)、ステップS1701へ戻る。   Steps S1701 to S1704 shown in FIG. 17 are the same as steps S301 to S304 shown in FIG. After step S1704, the information processing apparatus 202 determines whether or not a framing operation has been performed by the photographer based on the detection result in step S1704 (step S1705). If there is no framing operation (step S1705: No), the image data acquired in step S1701 is stored in the storage device 207 (step S1706), and the process returns to step S1701.

ステップS1705において、フレーミング操作があった場合(ステップS1705:Yes)は、情報処理装置202は、ステップS1703による特定処理によって特定した指領域に基づく取込フレームの決定処理を行う(ステップS1707)。ステップS1707の決定処理は、たとえば図6−1,図6−2に示した決定処理によって実現することができる。   In step S1705, when there is a framing operation (step S1705: Yes), the information processing apparatus 202 performs an acquisition frame determination process based on the finger area identified by the identification process in step S1703 (step S1707). The determination process in step S1707 can be realized, for example, by the determination process illustrated in FIGS. 6-1 and 6-2.

つぎに、情報処理装置202は、ステップS1701によって取得した画像データのうちの、ステップS1707によって決定された取込フレーム内の画像を示す画像データを記憶装置207に記憶させる(ステップS1708)。表示装置206によって、ステップS1701で取得した画像データが示す画像上に、ステップS1707によって決定された取込フレームを表示する(ステップS1709)。   Next, the information processing apparatus 202 causes the storage device 207 to store image data indicating an image in the captured frame determined in step S1707 among the image data acquired in step S1701 (step S1708). The capture frame determined in step S1707 is displayed on the image indicated by the image data acquired in step S1701 by the display device 206 (step S1709).

つぎに、情報処理装置202は、動画撮影を終了するか否かを判断する(ステップS1710)。動画撮影を終了するか否かの判断は、たとえば入力インターフェース208によって撮影者からの終了指示を受け付けたか否かを判定することによって行うことができる。動画撮影を終了すると判断した場合(ステップS1710:Yes)は、情報処理装置202は、一連の処理を終了する。   Next, the information processing apparatus 202 determines whether or not to finish moving image shooting (step S1710). The determination as to whether or not to end the moving image shooting can be performed by determining whether or not an end instruction from the photographer has been received through the input interface 208, for example. When it is determined that moving image shooting is to be ended (step S1710: Yes), the information processing apparatus 202 ends a series of processes.

ステップS1710において、動画撮影を終了しないと判断した場合(ステップS1710:No)は、情報処理装置202は、ステップS1701へ戻る。このとき、情報処理装置202は、動画像のフレームレートに応じたつぎの取込周期となるまで待機してからステップS1701へ戻ってもよい。   If it is determined in step S1710 that moving image shooting is not to be ended (step S1710: No), the information processing apparatus 202 returns to step S1701. At this time, the information processing apparatus 202 may return to step S1701 after waiting until the next capture period corresponding to the frame rate of the moving image is reached.

また、動画像の取込処理は上記の各ステップに限らない。たとえば、情報処理装置202は、フレーミング操作が一度検出されると、つぎにフレーミング操作が検出されるまで取込フレームを固定してもよい。   The moving image capturing process is not limited to the above steps. For example, once the framing operation is detected, the information processing apparatus 202 may fix the capture frame until the next framing operation is detected.

また、情報処理装置202は、たとえば取込フレーム内に人物の顔が含まれていた場合に、人物の顔の位置の変化に対して取込フレームの位置を追従させてもよい。これにより、狙った人をフレームアウトさせずに撮影し続けることができる。   Further, for example, when a human face is included in the capture frame, the information processing apparatus 202 may cause the position of the capture frame to follow the change in the position of the human face. Thereby, it is possible to continue photographing without aiming out the target person.

以上説明したように、画像取込装置、画像取込方法、画像取込プログラムおよび移動通信端末によれば、撮影の容易化を図ることができる。   As described above, according to the image capturing device, the image capturing method, the image capturing program, and the mobile communication terminal, it is possible to facilitate photographing.

また、たとえば撮影者の指輪を基準にフレーミングを行う技術に比べて、撮影のたびに特定の指輪を装着しなくてもフレーミングを行うことができるため、利便性を向上させることができる。   Further, for example, as compared with a technique of performing framing on the basis of a photographer's ring, framing can be performed without wearing a specific ring every time photographing is performed, so that convenience can be improved.

なお、本実施の形態で説明した画像取込方法は、たとえば、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネット等のネットワークを介して配布されてもよい。   Note that the image capturing method described in the present embodiment can be realized, for example, by executing a prepared program on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be distributed via a network such as the Internet.

上述した実施の形態に関し、さらに以下の付記を開示する。   The following additional notes are disclosed with respect to the embodiment described above.

(付記1)撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定する特定部と、
前記特定部によって特定された領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出する算出部と、
前記算出部によって算出された前記度数分布に基づく取込範囲を決定する決定部と、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの前記決定部によって決定された取込範囲の画像を示す画像データを記憶装置に記憶させる取込部と、
を備えることを特徴とする画像取込装置。
(Additional remark 1) The specific part which specifies the area | region which is the area | region of the predetermined color among the images which the image data obtained by the image pick-up element shows, and touches the edge part of the said image,
A calculating unit that calculates a frequency distribution in a first direction and a second direction intersecting the first direction of the image included in the region specified by the specifying unit;
A determination unit that determines a capture range based on the frequency distribution calculated by the calculation unit;
A capture unit that stores, in a storage device, image data indicating an image in the capture range determined by the determination unit among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing device comprising:

(付記2)前記決定部は、前記第1方向の度数分布のピーク位置および前記第2方向の度数分布における前記第2方向の最大値に基づく位置と、前記第2方向の最大値より正側の位置と、によって前記取込範囲を決定することを特徴とする付記1に記載の画像取込装置。 (Additional remark 2) The said determination part is a positive side from the peak position of the frequency distribution of the said 1st direction, the position based on the maximum value of the said 2nd direction in the frequency distribution of the said 2nd direction, and the maximum value of the said 2nd direction. The image capture device according to appendix 1, wherein the capture range is determined by the position of the image.

(付記3)前記決定部は、前記第1方向の度数分布のピーク位置および前記第2方向の度数分布における前記第2方向の最小値に基づく位置と、前記第2方向の最小値より負側の位置と、によって前記取込範囲を決定することを特徴とする付記1に記載の画像取込装置。 (Additional remark 3) The said determination part is a negative side rather than the minimum value of the said 2nd direction and the position based on the peak value of the frequency distribution of the said 1st direction, and the minimum value of the said 2nd direction in the frequency distribution of the said 2nd direction The image capture device according to appendix 1, wherein the capture range is determined by the position of the image.

(付記4)前記決定部は、
前記第1方向の度数分布のピーク位置および前記第2方向の度数分布における前記第2方向の最大値に基づく位置と、前記第2方向の最大値より正側の位置と、によって前記取込範囲を決定する第1決定処理と、
前記第1方向の度数分布のピーク位置および前記第2方向の度数分布における前記第2方向の最小値に基づく位置と、前記第2方向の最小値より負側の位置と、によって前記取込範囲を決定する第2決定処理と、
を実行可能であり、前記画像における前記領域の前記第2方向の位置を判定し、判定結果に基づいて前記第1決定処理および前記第2決定処理を切り替えることを特徴とする付記1に記載の画像取込装置。
(Supplementary note 4)
The capture range by a position based on the peak position of the frequency distribution in the first direction and the maximum value in the second direction in the frequency distribution in the second direction, and a position on the positive side of the maximum value in the second direction. A first determination process for determining
The capture range according to a peak position of the frequency distribution in the first direction and a position based on the minimum value in the second direction in the frequency distribution in the second direction and a position on the negative side of the minimum value in the second direction. A second determination process for determining
The supplementary note 1 is characterized in that: a position in the second direction of the region in the image is determined, and the first determination process and the second determination process are switched based on a determination result. Image capture device.

(付記5)静止画像を取り込む画像取込装置であって、
前記所定の取込タイミングは、前記算出部によって算出された度数分布の所定の変化が検出されたタイミングである、
ことを特徴とする付記1〜4のいずれか一つに記載の画像取込装置。
(Appendix 5) An image capturing device for capturing a still image,
The predetermined capture timing is a timing at which a predetermined change in the frequency distribution calculated by the calculation unit is detected.
The image capturing device according to any one of Appendices 1 to 4, wherein

(付記6)前記所定の取込タイミングは、前記第1方向の度数分布の所定のピーク位置の数が変化したタイミングであることを特徴とする付記5に記載の画像取込装置。 (Additional remark 6) The said predetermined capture timing is a timing when the number of the predetermined peak positions of the frequency distribution of the said 1st direction changed, The image capture apparatus of Additional remark 5 characterized by the above-mentioned.

(付記7)前記所定の取込タイミングは、前記第1方向の度数分布の所定のピーク位置と、前記第1方向の度数分布における前記第1方向の最小値または最大値と、の差異の所定の変化が検出されたタイミングであることを特徴とする付記5に記載の画像取込装置。 (Supplementary Note 7) The predetermined capture timing is a predetermined difference between a predetermined peak position of the frequency distribution in the first direction and a minimum value or a maximum value in the first direction in the frequency distribution in the first direction. 6. The image capturing device according to appendix 5, wherein the change is detected at a timing.

(付記8)動画像を取り込む画像取込装置であって、
前記所定の取込タイミングは周期的なタイミングである、
ことを特徴とする付記1〜4のいずれか一つに記載の画像取込装置。
(Appendix 8) An image capturing device for capturing a moving image,
The predetermined capture timing is a periodic timing.
The image capturing device according to any one of Appendices 1 to 4, wherein

(付記9)撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定し、
特定した前記領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出し、
算出した前記度数分布に基づく取込範囲を決定し、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの決定した前記取込範囲の画像を示す画像データを記憶装置に記憶させる、
ことを特徴とする画像取込方法。
(Additional remark 9) The area | region which is the area | region of the predetermined color among the images which the image data obtained by the image pick-up element shows, and contact | connects the edge part of the said image,
Calculating a frequency distribution in a first direction and a second direction intersecting the first direction in the image of pixels included in the identified region;
Determine the capture range based on the calculated frequency distribution,
Storing, in a storage device, image data indicating an image of the determined capture range among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing method characterized by the above.

(付記10)コンピュータに、
撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定し、
特定した前記領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出し、
算出した前記度数分布に基づく取込範囲を決定し、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの決定した前記取込範囲の画像を示す画像データを記憶装置に記憶させる、
処理を実行させることを特徴とする画像取込プログラム。
(Appendix 10)
An area of a predetermined color in an image indicated by image data obtained by an image sensor, which is in contact with an edge of the image,
Calculating a frequency distribution in a first direction and a second direction intersecting the first direction in the image of pixels included in the identified region;
Determine the capture range based on the calculated frequency distribution,
Storing, in a storage device, image data indicating an image of the determined capture range among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing program for executing processing.

(付記11)撮像素子と、
記憶装置と、
前記撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定する特定部と、
前記特定部によって特定された領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出する算出部と、
前記算出部によって算出された前記度数分布に基づく取込範囲を決定する決定部と、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの前記決定部によって決定された取込範囲の画像を示す画像データを前記記憶装置に記憶させる取込部と、
を備えることを特徴とする移動通信端末。
(Appendix 11) Image sensor;
A storage device;
A specifying unit that specifies a region of a predetermined color in an image indicated by image data obtained by the image sensor and is in contact with an end of the image;
A calculating unit that calculates a frequency distribution in a first direction and a second direction intersecting the first direction of the image included in the region specified by the specifying unit;
A determination unit that determines a capture range based on the frequency distribution calculated by the calculation unit;
A capture unit that stores, in the storage device, image data indicating an image in the capture range determined by the determination unit among images represented by the image data obtained by the imaging element at a predetermined capture timing;
A mobile communication terminal comprising:

(付記12)撮像素子によって得られた画像データが示す画像のうちの指が写った領域であって前記画像の端部に接する領域を特定する特定部と、
前記特定部によって特定された領域に基づく取込範囲を決定する決定部と、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの前記決定部によって決定された取込範囲の画像を示す画像データを記憶装置に記憶させる取込部と、
を備えることを特徴とする画像取込装置。
(Additional remark 12) The specific part which specifies the area | region where the finger | toe was image | photographed among the images which the image data obtained by the image pick-up element showed, and touched the edge part of the said image,
A determination unit that determines a capture range based on the area specified by the specification unit;
A capture unit that stores, in a storage device, image data indicating an image in the capture range determined by the determination unit among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing device comprising:

100 撮影装置
110,204 撮像素子
120 画像取込装置
121 特定部
122 算出部
123 決定部
124 取込部
130,207 記憶装置
200 移動通信端末
201 通信装置
202 情報処理装置
203 対物レンズ
205 画像バッファメモリ
206 表示装置
208 入力インターフェース
800 画像
801〜806 被写体領域
910 Y軸方向ヒストグラム
911,912 座標
913 取込フレーム
920 X軸方向ヒストグラム
DESCRIPTION OF SYMBOLS 100 Image pick-up apparatus 110,204 Image pick-up element 120 Image capture device 121 Identification part 122 Calculation part 123 Determination part 124 Capture part 130,207 Storage device 200 Mobile communication terminal 201 Communication apparatus 202 Information processing apparatus 203 Objective lens 205 Image buffer memory 206 Display device 208 Input interface 800 Image 801 to 806 Subject area 910 Y-axis direction histogram 911, 912 Coordinates 913 Capture frame 920 X-axis direction histogram

Claims (7)

撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定する特定部と、
前記特定部によって特定された領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出する算出部と、
前記算出部によって算出された前記度数分布に基づく取込範囲を決定する決定部と、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの前記決定部によって決定された取込範囲の画像を示す画像データを記憶装置に記憶させる取込部と、
を備えることを特徴とする画像取込装置。
A specifying unit that specifies a region of a predetermined color in an image indicated by image data obtained by an image sensor and is in contact with an end of the image;
A calculating unit that calculates a frequency distribution in a first direction and a second direction intersecting the first direction of the image included in the region specified by the specifying unit;
A determination unit that determines a capture range based on the frequency distribution calculated by the calculation unit;
A capture unit that stores, in a storage device, image data indicating an image in the capture range determined by the determination unit among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing device comprising:
静止画像を取り込む画像取込装置であって、
前記所定の取込タイミングは、前記算出部によって算出された度数分布の所定の変化が検出されたタイミングである、
ことを特徴とする請求項1に記載の画像取込装置。
An image capturing device that captures still images,
The predetermined capture timing is a timing at which a predetermined change in the frequency distribution calculated by the calculation unit is detected.
The image capturing device according to claim 1.
動画像を取り込む画像取込装置であって、
前記所定の取込タイミングは周期的なタイミングである、
ことを特徴とする請求項1に記載の画像取込装置。
An image capturing device for capturing a moving image,
The predetermined capture timing is a periodic timing.
The image capturing device according to claim 1.
撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定し、
特定した前記領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出し、
算出した前記度数分布に基づく取込範囲を決定し、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの決定した前記取込範囲の画像を示す画像データを記憶装置に記憶させる、
ことを特徴とする画像取込方法。
An area of a predetermined color in an image indicated by image data obtained by an image sensor, which is in contact with an edge of the image,
Calculating a frequency distribution in a first direction and a second direction intersecting the first direction in the image of pixels included in the identified region;
Determine the capture range based on the calculated frequency distribution,
Storing, in a storage device, image data indicating an image of the determined capture range among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing method characterized by the above.
コンピュータに、
撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定し、
特定した前記領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出し、
算出した前記度数分布に基づく取込範囲を決定し、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの決定した前記取込範囲の画像を示す画像データを記憶装置に記憶させる、
処理を実行させることを特徴とする画像取込プログラム。
On the computer,
An area of a predetermined color in an image indicated by image data obtained by an image sensor, which is in contact with an edge of the image,
Calculating a frequency distribution in a first direction and a second direction intersecting the first direction in the image of pixels included in the identified region;
Determine the capture range based on the calculated frequency distribution,
Storing, in a storage device, image data indicating an image of the determined capture range among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing program for executing processing.
撮像素子と、
記憶装置と、
前記撮像素子によって得られた画像データが示す画像のうちの所定の色の領域であって前記画像の端部に接する領域を特定する特定部と、
前記特定部によって特定された領域に含まれる画素の前記画像における第1方向および前記第1方向と交差する第2方向における度数分布を算出する算出部と、
前記算出部によって算出された前記度数分布に基づく取込範囲を決定する決定部と、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの前記決定部によって決定された取込範囲の画像を示す画像データを前記記憶装置に記憶させる取込部と、
を備えることを特徴とする移動通信端末。
An image sensor;
A storage device;
A specifying unit that specifies a region of a predetermined color in an image indicated by image data obtained by the image sensor and is in contact with an end of the image;
A calculating unit that calculates a frequency distribution in a first direction and a second direction intersecting the first direction of the image included in the region specified by the specifying unit;
A determination unit that determines a capture range based on the frequency distribution calculated by the calculation unit;
A capture unit that stores, in the storage device, image data indicating an image in the capture range determined by the determination unit among images represented by the image data obtained by the imaging element at a predetermined capture timing;
A mobile communication terminal comprising:
撮像素子によって得られた画像データが示す画像のうちの指が写った領域であって前記画像の端部に接する領域を特定する特定部と、
前記特定部によって特定された領域に基づく取込範囲を決定する決定部と、
所定の取込タイミングにおいて、前記撮像素子によって得られた画像データが示す画像のうちの前記決定部によって決定された取込範囲の画像を示す画像データを記憶装置に記憶させる取込部と、
を備えることを特徴とする画像取込装置。
A specifying unit that specifies a region in which a finger is captured in an image indicated by image data obtained by an image sensor and is in contact with an end of the image;
A determination unit that determines a capture range based on the area specified by the specification unit;
A capture unit that stores, in a storage device, image data indicating an image in the capture range determined by the determination unit among images represented by the image data obtained by the imaging element at a predetermined capture timing;
An image capturing device comprising:
JP2013075145A 2013-03-29 2013-03-29 Image capturing device, image capturing method, image capturing program, and mobile communication terminal Active JP6119380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013075145A JP6119380B2 (en) 2013-03-29 2013-03-29 Image capturing device, image capturing method, image capturing program, and mobile communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013075145A JP6119380B2 (en) 2013-03-29 2013-03-29 Image capturing device, image capturing method, image capturing program, and mobile communication terminal

Publications (2)

Publication Number Publication Date
JP2014200034A true JP2014200034A (en) 2014-10-23
JP6119380B2 JP6119380B2 (en) 2017-04-26

Family

ID=52356698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013075145A Active JP6119380B2 (en) 2013-03-29 2013-03-29 Image capturing device, image capturing method, image capturing program, and mobile communication terminal

Country Status (1)

Country Link
JP (1) JP6119380B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000101898A (en) * 1998-09-21 2000-04-07 Fuji Photo Film Co Ltd Electronic camera
JP2010206673A (en) * 2009-03-05 2010-09-16 Brother Ind Ltd Head-mounted display device, image control method, and image control program
JP2012235225A (en) * 2011-04-28 2012-11-29 Olympus Imaging Corp Imaging apparatus and image data recording method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000101898A (en) * 1998-09-21 2000-04-07 Fuji Photo Film Co Ltd Electronic camera
JP2010206673A (en) * 2009-03-05 2010-09-16 Brother Ind Ltd Head-mounted display device, image control method, and image control program
JP2012235225A (en) * 2011-04-28 2012-11-29 Olympus Imaging Corp Imaging apparatus and image data recording method

Also Published As

Publication number Publication date
JP6119380B2 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
US9678657B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium providing a touch panel display user interface
US10222903B2 (en) Display control apparatus and control method thereof
US8934040B2 (en) Imaging device capable of setting a focus detection region and imaging method for imaging device
US20120275648A1 (en) Imaging device and imaging method and program
JP6799475B2 (en) Imaging device and its control method
JP2007093967A (en) Photographing apparatus
KR20120022512A (en) Electronic camera, image processing apparatus, and image processing method
US8902344B2 (en) Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
JP2011188297A (en) Electronic zoom apparatus, electronic zoom method, and program
KR20170063388A (en) Electronic device and method for controlling the same
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
JP2015126326A (en) Electronic apparatus and image processing method
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
US10120496B2 (en) Display control apparatus and control method thereof
JP2011223294A (en) Imaging apparatus
JP5370555B2 (en) Imaging apparatus, imaging method, and program
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
US9088762B2 (en) Image capturing apparatus and control method thereof
JP2011193066A (en) Image sensing device
CN112653841B (en) Shooting method and device and electronic equipment
CN113873160B (en) Image processing method, device, electronic equipment and computer storage medium
CN107105158B (en) Photographing method and mobile terminal
JP6119380B2 (en) Image capturing device, image capturing method, image capturing program, and mobile communication terminal
CN110121030B (en) Method for storing shot image and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R150 Certificate of patent or registration of utility model

Ref document number: 6119380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350