JP2015148880A - Electronic device and password management program - Google Patents
Electronic device and password management program Download PDFInfo
- Publication number
- JP2015148880A JP2015148880A JP2014020397A JP2014020397A JP2015148880A JP 2015148880 A JP2015148880 A JP 2015148880A JP 2014020397 A JP2014020397 A JP 2014020397A JP 2014020397 A JP2014020397 A JP 2014020397A JP 2015148880 A JP2015148880 A JP 2015148880A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- display
- objects
- password
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、電子機器、及びパスワード管理プログラムに関する。 The present invention relates to an electronic device and a password management program.
携帯電話や携帯情報端末などの電子機器の一例として、静止画や動画などの画像を表示する表示部と、使用者が操作可能な操作部と、使用者の操作に応じて表示部の動作を制御する処理部とを有する構成が知られている。このような構成においては、電子機器の各種動作を制限するため、必要に応じてパスワードが設定される。 As an example of an electronic device such as a mobile phone or a portable information terminal, a display unit that displays an image such as a still image or a moving image, an operation unit that can be operated by a user, and an operation of the display unit according to a user operation. A configuration having a processing unit to be controlled is known. In such a configuration, a password is set as necessary to limit various operations of the electronic device.
この場合、使用者は、パスワードとして、例えば数字や英記号などの文字列を設定し、操作部を介して設定した文字列を打ち込むことにより、パスワードを入力することができる。しかしながら、このようなパスワードは、名前や生年月日など、使用者固有の文字列が選択される傾向があり、パスワードを盗用される可能性が指摘されている。 In this case, the user can input a password by setting a character string such as numerals or English symbols as a password and inputting the set character string via the operation unit. However, such passwords tend to select user-specific character strings such as names and dates of birth, and it has been pointed out that passwords may be stolen.
これに対して、例えば特許文献1に記載のように、複数の単位領域に区画されたパスワード入力領域がタッチパネルの画面に設けられ、所定の単位領域を1つ1つ所定の順序でタッチしていくことで、タッチ操作の順序をパスワードとして入力することが開示されている。 On the other hand, as described in Patent Document 1, for example, password input areas divided into a plurality of unit areas are provided on the touch panel screen, and predetermined unit areas are touched one by one in a predetermined order. It is disclosed that the order of touch operations is input as a password.
しかしながら、特許文献1の構成では、タッチパネルの画面に使用者の指紋の跡が残った場合、パスワードが推定されやすいという問題がある。 However, the configuration of Patent Document 1 has a problem that a password is easily estimated when a fingerprint of a user remains on the touch panel screen.
以上のような事情に鑑み、本発明は、パスワードの推定が困難であり、高いセキュリティを確保することが可能な電子機器、及びパスワード管理プログラムを提供することを目的とする。 In view of the circumstances as described above, it is an object of the present invention to provide an electronic device and a password management program that are difficult to estimate a password and can ensure high security.
本発明の第1態様によれば、画像を表示する表示部と、使用者が画像に対応して操作可能な操作部と、少なくとも使用者の操作に応じて表示部に所定動作を行わせる処理部と、合焦位置を複数位置に変更可能であり複数の合焦位置に亘ってオブジェクトが設けられるパスワード入力用画像を表示部に表示させる表示制御部と、表示部に表示された複数のオブジェクトから、操作部を介して選択可能な複数のオブジェクトを抽出する抽出部と、操作部を介してオブジェクトが選択される場合に、オブジェクトのそれぞれについて、選択されるオブジェクトと該オブジェクトの選択順序とを対応付けた情報を、所定動作のロック又はロック解除のパスワードとして入力する入力部とを備える電子機器が提供される。 According to the first aspect of the present invention, a display unit that displays an image, an operation unit that can be operated by a user corresponding to the image, and a process that causes the display unit to perform a predetermined operation in accordance with at least a user operation. A display control unit for displaying a password input image on which the focus position can be changed to a plurality of positions and an object is provided over the plurality of focus positions, and a plurality of objects displayed on the display unit An extraction unit that extracts a plurality of objects that can be selected through the operation unit, and when an object is selected through the operation unit, for each object, the object to be selected and the selection order of the object An electronic device is provided that includes an input unit that inputs the associated information as a password for locking or unlocking a predetermined operation.
本発明の第2態様によれば、画像を表示する表示部と、使用者が画像に応じて操作可能な操作部とを備え、少なくとも使用者の操作に応じて表示部に所定動作を行わせる電子機器の制御装置に、合焦位置を複数位置に変更可能であり複数の合焦位置に亘ってオブジェクトが設けられるパスワード入力用画像を表示部に表示させる処理と、表示部に表示された複数のオブジェクトから、操作部を介して選択可能な複数のオブジェクトを抽出する処理と、操作部を介してオブジェクトが選択される場合に、オブジェクトのそれぞれについて、選択されるオブジェクトと該オブジェクトの選択順序とを対応付けた情報を、所定動作のロック又はロック解除のパスワードとして入力する処理とを実行させるパスワード管理プログラムが提供される。 According to the second aspect of the present invention, a display unit that displays an image and an operation unit that a user can operate according to the image are provided, and at least the display unit performs a predetermined operation according to the user's operation. A process for causing the control device of the electronic device to change the in-focus position to a plurality of positions and displaying an image for password input in which an object is provided over the plurality of in-focus positions on the display unit, and a plurality of displayed on the display unit A plurality of objects that can be selected from the object via the operation unit, and when an object is selected via the operation unit, for each object, the selected object and the selection order of the object, A password management program is provided for executing a process of inputting information associated with the password as a password for locking or unlocking a predetermined operation.
本発明の態様によれば、パスワードの推定が困難であり、高いセキュリティを確保することが可能な電子機器、及びパスワード管理プログラムを提供することができる。 According to the aspects of the present invention, it is difficult to estimate a password, and an electronic device and a password management program that can ensure high security can be provided.
以下、図面を参照して、本発明の実施の形態を説明する。
図1(a)及び(b)は、電子機器の一例である情報端末100の構成を示す図である。
図1(a)及び(b)に示すように、情報端末100は、筐体101と、表示部102と、操作部103と、制御装置CONTとを有している。情報端末100としては、例えば携帯電話や携帯情報端末などが挙げられる。
Embodiments of the present invention will be described below with reference to the drawings.
1A and 1B are diagrams illustrating a configuration of an information terminal 100 that is an example of an electronic device.
As shown in FIGS. 1A and 1B, the information terminal 100 includes a housing 101, a display unit 102, an operation unit 103, and a control device CONT. Examples of the information terminal 100 include a mobile phone and a mobile information terminal.
筐体101は、例えば矩形の板状に形成されており、表示部102、操作部103及び制御装置CONTを収容する。筐体101は、例えば使用者が片手で保持できる寸法に形成されている。 The housing 101 is formed in, for example, a rectangular plate shape, and houses the display unit 102, the operation unit 103, and the control device CONT. The casing 101 is formed in a size that can be held by a user with one hand, for example.
表示部102は、筐体101の板面側に配置されており、液晶パネルや有機ELパネルなどの表示パネルを有している。表示部102は、制御装置CONTの制御により、静止画や動画などの画像を表示可能である。 The display unit 102 is disposed on the plate surface side of the housing 101 and includes a display panel such as a liquid crystal panel or an organic EL panel. The display unit 102 can display images such as still images and moving images under the control of the control device CONT.
操作部103は、表示部102の表示面に配置されたタッチパネル103aを有する。タッチパネル103aは、使用者が触れることにより、制御装置CONTに対して操作信号を入力する。タッチパネル103aとしては、例えば、静電容量方式の接触センサが用いられるが、静電容量方式に代えて、電磁誘導方式、赤外線方式、表面弾性波方式、抵抗膜方式、マトリクス・スイッチ方式、などとしてもよい。また、タッチパネル103aとして、例えば、同時に複数個所の接触を検出することができる多点入力可能な、所謂マルチタッチパネル方式としてもよい。 The operation unit 103 includes a touch panel 103 a disposed on the display surface of the display unit 102. The touch panel 103a inputs an operation signal to the control device CONT when the user touches it. As the touch panel 103a, for example, a capacitance type contact sensor is used. Instead of the capacitance method, an electromagnetic induction method, an infrared method, a surface acoustic wave method, a resistance film method, a matrix switch method, etc. Also good. Further, as the touch panel 103a, for example, a so-called multi-touch panel system that can detect multiple contacts at the same time and can input multiple points may be used.
操作部103としてタッチパネル103aが用いられることにより、使用者が表示部102に表示される画像に対応して操作可能となっている。なお、操作部103としては、タッチパネル103aに限られず、例えばアイセンサなどを用いてもよい。この場合、使用者の目の位置に応じて制御装置CONTに対して操作信号が入力される。 By using the touch panel 103 a as the operation unit 103, the user can operate corresponding to the image displayed on the display unit 102. The operation unit 103 is not limited to the touch panel 103a, and for example, an eye sensor may be used. In this case, an operation signal is input to the control device CONT according to the position of the user's eyes.
制御装置CONTは、処理部104と、表示制御部105と、抽出部106と、入力部107と、記憶部108とを有している。 The control device CONT includes a processing unit 104, a display control unit 105, an extraction unit 106, an input unit 107, and a storage unit 108.
処理部104は、少なくとも使用者の操作に応じて表示部102に所定動作を行わせる。所定動作としては、例えば記憶部108に記憶されたプログラムを実行する動作や、記憶部108に記憶された画像を表示部102に表示させる動作、各種演算を行う動作などが挙げられる。 The processing unit 104 causes the display unit 102 to perform a predetermined operation in accordance with at least a user operation. Examples of the predetermined operation include an operation of executing a program stored in the storage unit 108, an operation of displaying an image stored in the storage unit 108 on the display unit 102, and an operation of performing various calculations.
例えば、処理部104は、使用者が情報端末100の各種動作をロックする場合やロックを解除する場合に、使用者にパスワードを入力させるための動作を行わせる。処理部104は、記憶部108に記憶されたパスワード管理プログラムに基づいてこの動作を行わせる。パスワード管理プログラムについては、後述する。 For example, the processing unit 104 causes the user to input a password when the user locks or unlocks various operations of the information terminal 100. The processing unit 104 causes this operation to be performed based on the password management program stored in the storage unit 108. The password management program will be described later.
表示制御部105は、表示部102の表示を制御する。表示制御部105は、例えば処理部104の動作に応じて、記憶部108に記憶された画像を選択して表示部102に表示させる。例えば、表示部105は、使用者にパスワードを入力させる際に、パスワード入力用画像を表示部102に表示させる。 The display control unit 105 controls display on the display unit 102. For example, according to the operation of the processing unit 104, the display control unit 105 selects an image stored in the storage unit 108 and causes the display unit 102 to display the image. For example, the display unit 105 causes the display unit 102 to display a password input image when the user inputs a password.
ここで、パスワード入力用画像について説明する。図2は、パスワード入力用画像Pを示す図である。
図2に示すように、パスワード入力用画像Pは、使用者にパスワードを入力させる際に用いられる画像である。パスワード入力用画像Pは、例えば後述のライトフィールドカメラ(図9等参照)によって取得されるライトフィールド(光線空間)の情報に基づいて生成された画像である。このパスワード入力用画像Pは、図2に示すように、合焦位置を複数の位置(合焦位置P1〜P5)に変更可能である。合焦位置P1〜合焦位置P5は、撮影位置からの距離が近い順に配列されている。したがって、合焦位置P1は撮影位置に最も近く、合焦位置P5は撮影位置に最も遠い。
Here, the password input image will be described. FIG. 2 is a diagram showing the password input image P. As shown in FIG.
As shown in FIG. 2, the password input image P is an image used when the user inputs a password. The password input image P is an image generated based on information on a light field (light space) acquired by, for example, a light field camera (see FIG. 9 or the like) described later. As shown in FIG. 2, the password input image P can change the focus position to a plurality of positions (focus positions P1 to P5). The in-focus position P1 to the in-focus position P5 are arranged in order of increasing distance from the shooting position. Therefore, the focus position P1 is closest to the shooting position, and the focus position P5 is farthest from the shooting position.
パスワード入力用画像Pには、被写体としての複数のオブジェクトOが含まれている。なお、これらのオブジェクトOについては、例えばライトフィールドカメラ等によって撮影された画像の被写体を採用してもよい。また、撮像された画像にオブジェクトOを加えてもよいし、撮像された画像から被写体を削除してもよい。 The password input image P includes a plurality of objects O as subjects. For these objects O, for example, subjects of images taken by a light field camera or the like may be employed. Further, the object O may be added to the captured image, or the subject may be deleted from the captured image.
パスワード入力用画像Pには、例えば5つの合焦位置P1〜P5のそれぞれについてオブジェクトOが含まれている。合焦位置P1には、星形O11、星形O12、ハート形O13及び金網O14の4つのオブジェクトOが配置されている。合焦位置P2には、人物O21及び人物O22の2つのオブジェクトOが配置されている。合焦位置P3には、樹木O31のオブジェクトOが配置されている。合焦位置P4には、樹木(2本)O41、家屋O42及び樹木(1本)O43の3つのオブジェクトOが配置されている。合焦位置P5には、山O51及び森林O52の2つのオブジェクトOが配置されている。 For example, the password input image P includes an object O for each of the five in-focus positions P1 to P5. Four objects O of a star shape O11, a star shape O12, a heart shape O13, and a wire mesh O14 are arranged at the focus position P1. Two objects O, a person O21 and a person O22, are arranged at the in-focus position P2. The object O of the tree O31 is arranged at the focus position P3. Three objects O, which are a tree (two) O41, a house O42, and a tree (one) O43, are arranged at the in-focus position P4. Two objects O, a mountain O51 and a forest O52, are arranged at the in-focus position P5.
図3(a)〜(e)は、表示部102に表示されるパスワード入力用画像Pの例を示す図である。図3(a)〜(e)に示すように、パスワード入力用画像Pは、各合焦位置P1〜P5に配置される各オブジェクトOが重なった状態で表示される。 3A to 3E are diagrams showing examples of password input images P displayed on the display unit 102. FIG. As shown in FIGS. 3A to 3E, the password input image P is displayed in a state where the objects O arranged at the in-focus positions P1 to P5 overlap each other.
図3(a)は、合焦位置P1に焦点を合わせたときのパスワード入力用画像Pの表示例を示している。図3(a)に示すように、表示部102には、合焦位置P1に配置される星形O11、星形O12、ハート形O13及び金網O14の各オブジェクトOが鮮明に表示されている。また、表示部102には、合焦位置P2〜P5に配置される他のオブジェクトOについては画質が粗い状態で表示されている。合焦位置P2〜P5に配置されるオブジェクトOは、合焦位置P1からの距離が離れるほど粗くなるように表示される。 FIG. 3A shows a display example of the password input image P when the focus position P1 is focused. As shown in FIG. 3A, the display unit 102 clearly displays the objects O, which are the star shape O11, the star shape O12, the heart shape O13, and the wire mesh O14, which are arranged at the in-focus position P1. On the display unit 102, the other objects O arranged at the in-focus positions P2 to P5 are displayed with a coarse image quality. The object O arranged at the focus positions P2 to P5 is displayed so as to become coarser as the distance from the focus position P1 increases.
図3(b)は、合焦位置P2に焦点を合わせたときの画像Pの表示例を示している。図3(b)に示すように、表示部102には、合焦位置P2に配置される人物O21及び人物O22の各オブジェクトOが鮮明に表示されている。また、表示部102には、合焦位置P1、P3〜P5に配置される他のオブジェクトOについては画質が粗い状態で表示されている。合焦位置P1、P3〜P5に配置されるオブジェクトOは、合焦位置P2からの距離が離れるほど粗くなるように表示される。 FIG. 3B shows a display example of the image P when the focal point is focused on the in-focus position P2. As shown in FIG. 3B, the display unit 102 clearly displays the objects O21 and O22 arranged at the in-focus position P2. On the display unit 102, the other objects O arranged at the in-focus positions P1, P3 to P5 are displayed in a state where the image quality is rough. The object O arranged at the focus positions P1, P3 to P5 is displayed so as to become coarser as the distance from the focus position P2 increases.
図3(c)は、合焦位置P3に焦点を合わせたときの画像Pの表示例を示している。図3(c)に示すように、表示部102には、合焦位置P3に配置される樹木O31のオブジェクトが鮮明に表示されている。また、表示部102には、合焦位置P1、P2、P4、P5に配置される他のオブジェクトについては画質が粗い状態で表示されている。合焦位置P1、P2、P4、P5に配置されるオブジェクトは、合焦位置P3からの距離が離れるほど粗くなるように表示される。 FIG. 3C shows a display example of the image P when the focal point is focused on the in-focus position P3. As shown in FIG. 3C, the object of the tree O31 arranged at the in-focus position P3 is clearly displayed on the display unit 102. On the display unit 102, other objects arranged at the focus positions P1, P2, P4, and P5 are displayed in a state where the image quality is coarse. The objects arranged at the focus positions P1, P2, P4, and P5 are displayed so as to become coarser as the distance from the focus position P3 increases.
図3(d)は、合焦位置P4に焦点を合わせたときの画像Pの表示例を示している。図3(d)に示すように、表示部102には、合焦位置P4に配置される樹木(2本)O41、家屋O42及び樹木(1本)O43の各オブジェクトが鮮明に表示されている。また、表示部102には、合焦位置P1〜P3、P5に配置される他のオブジェクトについては画質が粗い状態で表示されている。合焦位置P1〜P3、P5に配置されるオブジェクトは、合焦位置P4からの距離が離れるほど粗くなるように表示される。 FIG. 3D shows a display example of the image P when the focal point is focused on the in-focus position P4. As shown in FIG. 3D, the display unit 102 clearly displays the objects of the tree (two) O41, the house O42, and the tree (one) O43 arranged at the in-focus position P4. . On the display unit 102, other objects arranged at the focus positions P1 to P3 and P5 are displayed in a state where the image quality is coarse. The objects arranged at the focus positions P1 to P3 and P5 are displayed so as to become coarser as the distance from the focus position P4 increases.
図3(e)は、合焦位置P5に焦点を合わせたときの画像Pの表示例を示している。図3(e)に示すように、表示部102には、合焦位置P5に配置される山O51及び森林O52の各オブジェクトが鮮明に表示されている。また、表示部102には、合焦位置P1〜P4に配置される他のオブジェクトについては画質が粗い状態で表示されている。合焦位置P1〜P4に配置されるオブジェクトは、合焦位置P5からの距離が離れるほど粗くなるように表示される。 FIG. 3E shows a display example of the image P when the focus is set at the in-focus position P5. As shown in FIG. 3E, the display unit 102 clearly displays each object of the mountain O51 and the forest O52 arranged at the in-focus position P5. On the display unit 102, other objects arranged at the in-focus positions P1 to P4 are displayed in a state where the image quality is rough. The objects arranged at the focus positions P1 to P4 are displayed so as to become coarser as the distance from the focus position P5 increases.
続いて、図1(b)に示す抽出部106は、表示部102に表示されたパスワード入力用画像Pの複数のオブジェクトOから、操作部103を介して選択可能な複数のオブジェクトOを抽出する。抽出部106は、オブジェクトOの選択が行われる毎に、抽出するオブジェクトOを変更する。 Subsequently, the extraction unit 106 illustrated in FIG. 1B extracts a plurality of objects O that can be selected via the operation unit 103 from the plurality of objects O of the password input image P displayed on the display unit 102. . The extraction unit 106 changes the object O to be extracted every time the object O is selected.
また、抽出部106は、表示部102に表示されているパスワード入力用画像Pの合焦位置を基準として、所定範囲内の合焦位置に含まれるオブジェクトOを抽出する。本実施形態では、所定範囲内の合焦位置として、例えば表示部102に表示の合焦位置を含むと共に、この合焦位置に対して2つ隣の合焦位置までを含み、3つ以上隣の合焦位置は含まないこととする。 Further, the extraction unit 106 extracts the object O included in the focus position within a predetermined range with reference to the focus position of the password input image P displayed on the display unit 102. In the present embodiment, as the in-focus position within the predetermined range, for example, the display unit 102 includes the in-focus position displayed, and includes up to two adjacent in-focus positions with respect to the in-focus position. The in-focus position is not included.
図4(a)は、合焦位置と抽出部106によって抽出されるオブジェクトOとの関係を示す表である。図4(a)に示す表の縦欄は、表示部102に表示されたパスワード入力用画像Pが合焦されている位置である。図4に示す表の横欄は、抽出部106によって抽出されるか否かの対象となる合焦位置である。 FIG. 4A is a table showing the relationship between the in-focus position and the object O extracted by the extraction unit 106. The vertical column of the table shown in FIG. 4A is a position where the password input image P displayed on the display unit 102 is focused. The horizontal column of the table shown in FIG. 4 is the in-focus position to be extracted by the extraction unit 106.
図4(a)に示すように、パスワード入力用画像Pが合焦位置P1で合焦されている場合、抽出部106は、合焦位置P1〜P3に配置されるオブジェクトOを抽出する。また、合焦位置P4、P5に配置されるオブジェクトOを抽出しない。この場合、合焦位置P1〜P3に配置されるオブジェクトOは操作部103によって選択可能となり、合焦位置P4、P5に配置に配置されるオブジェクトOは操作部103によって選択不可能となる。 As shown in FIG. 4A, when the password input image P is focused at the focus position P1, the extraction unit 106 extracts the object O arranged at the focus positions P1 to P3. Further, the object O arranged at the focus positions P4 and P5 is not extracted. In this case, the object O arranged at the focus positions P1 to P3 can be selected by the operation unit 103, and the object O arranged at the focus positions P4 and P5 cannot be selected by the operation unit 103.
また、パスワード入力用画像Pが合焦位置P2で合焦されている場合、抽出部106は、合焦位置P1〜P4に配置されるオブジェクトOを抽出する。また、合焦位置P5に配置されるオブジェクトOを抽出しない。この場合、合焦位置P1〜P4に配置されるオブジェクトOは操作部103によって選択可能となり、合焦位置P5に配置に配置されるオブジェクトOは操作部103によって選択不可能となる。 Further, when the password input image P is focused at the focus position P2, the extraction unit 106 extracts the object O arranged at the focus positions P1 to P4. Further, the object O arranged at the in-focus position P5 is not extracted. In this case, the object O arranged at the focus positions P1 to P4 can be selected by the operation unit 103, and the object O arranged at the focus position P5 cannot be selected by the operation unit 103.
また、パスワード入力用画像Pが合焦位置P3で合焦されている場合、抽出部106は、合焦位置P1〜P5に配置されるオブジェクトOを抽出する。この場合、合焦位置P1〜P5に配置されるすべてのオブジェクトOは操作部103によって選択可能となる。 In addition, when the password input image P is focused at the focus position P3, the extraction unit 106 extracts the objects O arranged at the focus positions P1 to P5. In this case, all the objects O arranged at the focus positions P1 to P5 can be selected by the operation unit 103.
また、パスワード入力用画像Pが合焦位置P4で合焦されている場合、抽出部106は、合焦位置P2〜P5に配置されるオブジェクトOを抽出する。また、合焦位置P1に配置されるオブジェクトOを抽出しない。この場合、合焦位置P2〜P5に配置されるオブジェクトOは操作部103によって選択可能となり、合焦位置P1に配置に配置されるオブジェクトOは操作部103によって選択不可能となる。 When the password input image P is focused at the focus position P4, the extraction unit 106 extracts the object O arranged at the focus positions P2 to P5. Further, the object O arranged at the in-focus position P1 is not extracted. In this case, the object O arranged at the focus positions P2 to P5 can be selected by the operation unit 103, and the object O arranged at the focus position P1 cannot be selected by the operation unit 103.
また、パスワード入力用画像Pが合焦位置P5で合焦されている場合、抽出部106は、合焦位置P3〜P5に配置されるオブジェクトOを抽出する。また、合焦位置P1、P2に配置されるオブジェクトOを抽出しない。この場合、合焦位置P3〜P5に配置されるオブジェクトOは操作部103によって選択可能となり、合焦位置P1、P2に配置に配置されるオブジェクトOは操作部103によって選択不可能となる。 When the password input image P is focused at the focus position P5, the extraction unit 106 extracts the object O arranged at the focus positions P3 to P5. Further, the object O arranged at the focus positions P1 and P2 is not extracted. In this case, the object O arranged at the focus positions P3 to P5 can be selected by the operation unit 103, and the object O arranged at the focus positions P1 and P2 cannot be selected by the operation unit 103.
また、抽出部106は、複数のオブジェクトOを1つのオブジェクトOとして抽出することができる。例えば、抽出部106は、属性の共通する複数のオブジェクトOを1つのオブジェクトOとして抽出する。図4(b)は、オブジェクトOの属性と、その属性に属するオブジェクトOとの対応関係を示す表である。 Further, the extraction unit 106 can extract a plurality of objects O as one object O. For example, the extraction unit 106 extracts a plurality of objects O having common attributes as one object O. FIG. 4B is a table showing the correspondence between the attributes of the object O and the objects O belonging to the attribute.
図4(b)に示すように、抽出部106は、オブジェクトOを、例えばシンボルマーク(以下、属性(ア)と表記する)、人物(以下、属性(イ)と表記する)、人工物(以下、属性(ウ)と表記する)、自然物(以下、属性(エ)と表記する)、風景(以下、属性(オ)と表記する)、といった属性に分類することができる。 As shown in FIG. 4 (b), the extraction unit 106 uses, for example, a symbol mark (hereinafter referred to as attribute (A)), a person (hereinafter referred to as attribute (I)), an artifact ( Hereinafter, it can be classified into attributes such as an attribute (c)), a natural object (hereinafter abbreviated as attribute (d)), and a landscape (hereinafter abbreviated as attribute (e)).
属性(ア)には、例えば上記の星形O11、O12やハート形O13などが含まれる。属性(イ)には、例えば上記の人物O21、O22などが含まれる。属性(ウ)には、例えば上記の金網O14や家屋O42などが含まれる。属性(エ)には、例えば上記の樹木O31、O41、O43や森林O52などが含まれる。属性(オ)には、例えば上記の山O51などが含まれる。なお、抽出部106は、上記のような属性ごとではなく、同一の合焦位置に含まれる複数のオブジェクトOを1つのオブジェクトOとして抽出してもよい。この場合、各オブジェクトOは、合焦位置P1〜P5に対応したオブジェクトとなる。 The attribute (a) includes, for example, the above-mentioned star shapes O11, O12, heart shape O13, and the like. The attribute (a) includes, for example, the above-described persons O21 and O22. The attribute (c) includes, for example, the above-described wire mesh O14 and house O42. The attribute (d) includes, for example, the above trees O31, O41, O43, forest O52, and the like. The attribute (e) includes, for example, the above mountain O51. Note that the extraction unit 106 may extract a plurality of objects O included in the same in-focus position as one object O instead of each attribute as described above. In this case, each object O is an object corresponding to the in-focus positions P1 to P5.
入力部107は、操作部103を介してオブジェクトOが選択される場合に、オブジェクトOのそれぞれについて、選択されるオブジェクトOと該オブジェクトOの選択順序とを対応付けた情報を、所定動作のロック又はロック解除のパスワードとして入力する。 When the object O is selected via the operation unit 103, the input unit 107 locks information regarding the selected object O and the selection order of the object O with respect to each of the objects O in a predetermined operation lock. Or enter it as the unlock password.
記憶部108は、パスワード入力用画像Pのデータを記憶する。記憶部108は、上記の処理部104、表示制御部105、抽出部106、入力部107で行われる各処理に関するプログラムやデータなどを記憶する。このようなプログラムとして、上記のパスワード管理プログラム等が挙げられる。 The storage unit 108 stores data of the password input image P. The storage unit 108 stores programs, data, and the like related to the processes performed by the processing unit 104, the display control unit 105, the extraction unit 106, and the input unit 107. Examples of such a program include the above-described password management program.
パスワード管理プログラムは、合焦位置を複数位置(合焦位置P1〜P5)に変更可能であり複数の合焦位置に亘ってオブジェクトOが設けられるパスワード入力用画像Pを表示部102に表示させる表示処理と、表示部102に表示された複数のオブジェクトOから、操作部103を介して選択可能な複数のオブジェクトOを抽出する抽出処理と、操作部103を介してオブジェクトOが選択される場合に、オブジェクトOのそれぞれについて、選択されるオブジェクトOと該オブジェクトOの選択順序とを対応付けた情報を、所定動作のロック又はロック解除のパスワードとして入力する入力処理とを制御装置CONTに行わせる。パスワード管理プログラムは、上記の表示処理を表示制御部105に行わせる。また、パスワード管理プログラムは、上記の抽出処理を抽出部106に行わせる。また、パスワード管理プログラムは、上記の入力処理を入力部107に行わせる。 The password management program can change the focus position to a plurality of positions (focus positions P1 to P5), and display the password input image P on which the object O is provided over the plurality of focus positions on the display unit 102. Processing, extraction processing for extracting a plurality of objects O that can be selected from the plurality of objects O displayed on the display unit 102 via the operation unit 103, and when an object O is selected via the operation unit 103 For each of the objects O, the control device CONT performs an input process of inputting information associating the selected object O with the selection order of the object O as a password for locking or unlocking a predetermined operation. The password management program causes the display control unit 105 to perform the above display process. Further, the password management program causes the extraction unit 106 to perform the above extraction process. Further, the password management program causes the input unit 107 to perform the above input processing.
次に、上記のように構成された情報端末100の動作を説明する。本実施形態では、情報端末100の各種動作をロックするためのパスワードを設定する場合、又は、パスワードによって上記ロックを解除する場合に、使用者にパスワードを入力させる動作を例に挙げて説明する。 Next, the operation of the information terminal 100 configured as described above will be described. In the present embodiment, an operation for allowing a user to input a password when setting a password for locking various operations of the information terminal 100 or when releasing the lock by a password will be described as an example.
図5は、パスワードを入力させる動作を示すフローチャートである。図6(a)〜(m)は、パスワードを入力させる動作において表示部102の表示状態を示す図である。以下、図5及び図6を用いて説明する。 FIG. 5 is a flowchart showing an operation for inputting a password. 6A to 6M are diagrams showing the display state of the display unit 102 in the operation of inputting a password. Hereinafter, a description will be given with reference to FIGS. 5 and 6.
まず、図5に示すように、使用者にパスワードを入力させる場合、制御装置CONTは、表示制御部105により、パスワード入力用画像Pを表示部102に表示させる(ステップS01)。この動作により、図6(a)に示すように、表示部102には、パスワード入力用画像Pの初期画面が表示される。初期画面では、パスワード入力用画像Pは、合焦位置P2で合焦されている。 First, as shown in FIG. 5, when the user inputs a password, the control device CONT causes the display control unit 105 to display the password input image P on the display unit 102 (step S01). By this operation, the initial screen of the password input image P is displayed on the display unit 102 as shown in FIG. On the initial screen, the password input image P is focused at the focus position P2.
次に、制御装置CONTは、抽出部106により、表示部102に表示された複数のオブジェクトOから、操作部103を介して選択可能な複数のオブジェクトOを抽出させる(ステップS02)。この場合、パスワード入力用画像Pが合焦位置P2で合焦されて表示部102に表示されているため、抽出部106は、図4(a)の表を用いて説明したように、合焦位置P1〜P4に配置されるオブジェクトOを抽出する。また、抽出部106は、合焦位置P5に配置されるオブジェクトOを抽出しない。これにより、合焦位置P1〜P4に配置されるオブジェクトOは操作部103によって選択可能となり、合焦位置P5に配置に配置されるオブジェクトOは操作部103によって選択不可能となる。なお、パスワード入力用画像Pは、合焦位置P2に合焦された状態で表示部102に表示されている。したがって、合焦位置P1又はP3に配置されるオブジェクトOは、粗くなった状態で表示されている。本実施形態では、このように粗く表示されるオブジェクトOについても選択可能となっている。 Next, the control unit CONT causes the extraction unit 106 to extract a plurality of objects O that can be selected via the operation unit 103 from the plurality of objects O displayed on the display unit 102 (step S02). In this case, since the password input image P is focused on the focus position P2 and displayed on the display unit 102, the extraction unit 106 focuses as described with reference to the table of FIG. The object O arranged at the positions P1 to P4 is extracted. Further, the extraction unit 106 does not extract the object O placed at the in-focus position P5. Thereby, the object O arranged at the in-focus positions P1 to P4 can be selected by the operation unit 103, and the object O arranged in the arrangement at the in-focus position P5 cannot be selected by the operation unit 103. Note that the password input image P is displayed on the display unit 102 in a state of being focused on the focus position P2. Therefore, the object O arranged at the focus position P1 or P3 is displayed in a rough state. In the present embodiment, it is possible to select the object O displayed roughly as described above.
次に、制御装置CONTは、例えば処理部104により、使用者に最初のオブジェクトOを選択するように指示する(ステップS03)。この場合、処理部104は、例えばタッチパネル103aによってオブジェクトOを選択させる旨の内容を、表示部102に表示させてもよい。 Next, the control device CONT instructs the user to select the first object O, for example, by the processing unit 104 (step S03). In this case, the processing unit 104 may cause the display unit 102 to display content indicating that the object O is selected by the touch panel 103a, for example.
制御装置CONTは、使用者によりオブジェクトOの選択が行われたか否かを判断する(ステップS04)。制御装置CONTは、オブジェクトOの選択が行われていないと判断した場合(ステップS04のNO)、再度ステップS3に戻り、オブジェクトOの入力が行われたか否かを繰り返し判断する。 The control device CONT determines whether the user has selected the object O (step S04). If the control device CONT determines that the object O is not selected (NO in step S04), the control device CONT returns to step S3 again and repeatedly determines whether or not the object O has been input.
オブジェクトOの選択が行われたと判断した場合(ステップS04のYES)、制御装置CONTは、選択されたオブジェクトOの内容と、選択された順序とを記憶部108に記憶させて、次の動作に移る。本実施形態では、図6(b)に示すように、使用者によって例えば星形O11が選択されることとする。使用者によって星形O11が選択された場合、制御装置CONTは、選択された星形O11の合焦位置P1でパスワード入力用画像Pを合焦させて表示部102に表示させる(ステップS05)。これにより、図6(c)に示すように、パスワード入力用画像Pの合焦位置は、合焦位置P2から合焦位置P1に切り替わる。 If it is determined that the object O has been selected (YES in step S04), the control device CONT stores the contents of the selected object O and the order of selection in the storage unit 108 for the next operation. Move. In the present embodiment, as shown in FIG. 6B, for example, the star O11 is selected by the user. When the star O11 is selected by the user, the control device CONT focuses the password input image P at the focus position P1 of the selected star O11 and displays it on the display unit 102 (step S05). Accordingly, as shown in FIG. 6C, the focus position of the password input image P is switched from the focus position P2 to the focus position P1.
次に、制御装置CONTは、抽出部106により、表示部102に表示された複数のオブジェクトOから、操作部103を介して選択可能な複数のオブジェクトOを抽出させる(ステップS06)。このように、抽出部106は、オブジェクトOの選択が行われる毎に、抽出するオブジェクトOを変更する。 Next, the control unit CONT causes the extraction unit 106 to extract a plurality of objects O that can be selected via the operation unit 103 from the plurality of objects O displayed on the display unit 102 (step S06). Thus, the extraction unit 106 changes the object O to be extracted every time the object O is selected.
この場合、パスワード入力用画像Pが合焦位置P1で合焦されて表示部102に表示されているため、抽出部106は、図4(a)の表を用いて説明したように、合焦位置P1〜P3に配置されるオブジェクトOを抽出する。また、抽出部106は、合焦位置P4、P5に配置されるオブジェクトOを抽出しない。これにより、合焦位置P1〜P3に配置されるオブジェクトOは操作部103によって選択可能となり、合焦位置P4、P5に配置に配置されるオブジェクトOは操作部103によって選択不可能となる。 In this case, since the password input image P is focused on the focus position P1 and displayed on the display unit 102, the extraction unit 106 focuses as described with reference to the table of FIG. The object O arranged at the positions P1 to P3 is extracted. Further, the extraction unit 106 does not extract the object O arranged at the focus positions P4 and P5. Thereby, the object O arranged at the focusing positions P1 to P3 can be selected by the operation unit 103, and the object O arranged at the focusing positions P4 and P5 cannot be selected by the operation unit 103.
次に、制御装置CONTは、例えば処理部104により、使用者に次のオブジェクトOを選択するかオブジェクトOの選択を完了するかを選ぶように指示する(ステップS07)。この場合、処理部104は、例えばタッチパネル103aによってオブジェクトOを選択する旨の内容を表示部102に表示させると共に、タッチパネル103aによってオブジェクトOの選択を完了する旨のボタンを押すように表示部102に表示させる。 Next, the control device CONT instructs the user to select whether to select the next object O or the selection of the object O, for example, by the processing unit 104 (step S07). In this case, for example, the processing unit 104 causes the display unit 102 to display the content indicating that the object O is selected by the touch panel 103a, and presses the button indicating that the selection of the object O is completed using the touch panel 103a. Display.
制御装置CONTは、使用者によりオブジェクトOの選択が行われたか否かを判断する(ステップS08)。制御装置CONTは、オブジェクトOの選択が行われていないと判断した場合(ステップS08のNO)、オブジェクトOの選択が完了されたか否かを判断する(ステップS09)。オブジェクトOの選択が完了されていないと判断した場合(ステップS09のNO)、再度ステップS08及びステップS09を繰り返す。 The control device CONT determines whether the user has selected the object O (step S08). When determining that the object O has not been selected (NO in step S08), the control device CONT determines whether or not the selection of the object O has been completed (step S09). If it is determined that the selection of the object O has not been completed (NO in step S09), steps S08 and S09 are repeated again.
制御装置CONTは、オブジェクトOの選択が行われたと判断した場合(ステップS04のYES)、ステップS05からステップ07の処理を繰り返し行わせる。本実施形態では、図6(d)〜図6(m)に示すように、パスワードを6回選択する場合を例に挙げて説明する。この場合、まず図6(d)に示すように、使用者により2つ目のオブジェクトOとして、例えばハート形O13が選択される。使用者によってハート形O13が選択された場合、制御装置CONTは、選択されたハート形O13の合焦位置P1でパスワード入力用画像Pを合焦させて表示部102に表示させる。これにより、図6(e)に示すように、パスワード入力用画像Pの合焦位置は、合焦位置P1のまま変わらない。 If the control device CONT determines that the object O has been selected (YES in step S04), the control device CONT repeatedly performs the processing from step S05 to step 07. In the present embodiment, as shown in FIGS. 6D to 6M, a case where a password is selected six times will be described as an example. In this case, first, as shown in FIG. 6D, for example, a heart shape O13 is selected as the second object O by the user. When the heart shape O13 is selected by the user, the control device CONT focuses the password input image P at the focus position P1 of the selected heart shape O13 and displays it on the display unit 102. Accordingly, as shown in FIG. 6E, the focus position of the password input image P remains the focus position P1.
その後、制御装置CONTは、上記同様にステップS06〜ステップ07の動作を行わせる。そして、図6(f)に示すように、使用者により3つ目のオブジェクトOとして、例えば樹木O31が選択される。使用者によって樹木O31が選択された場合、制御装置CONTは、選択された樹木O31の合焦位置P3でパスワード入力用画像Pを合焦させて表示部102に表示させる。これにより、図6(g)に示すように、パスワード入力用画像Pの合焦位置は、合焦位置P1から合焦位置P3に変更される。 Thereafter, the control device CONT performs the operations of Steps S06 to 07 as described above. Then, as shown in FIG. 6F, for example, a tree O31 is selected as the third object O by the user. When the tree O31 is selected by the user, the control device CONT focuses the password input image P at the focus position P3 of the selected tree O31 and displays it on the display unit 102. Accordingly, as shown in FIG. 6G, the focus position of the password input image P is changed from the focus position P1 to the focus position P3.
その後、図6(h)、図6(j)、図6(l)に示すように、使用者により、4つ目のオブジェクトOとして家屋O42、5つめのオブジェクトOとして森林O52、6つ目のオブジェクトOとして樹木O41が選択される。この場合、制御装置CONTは、図6(i)、図6(k)、図6(m)に示すように、表示制御部105により、それぞれ家屋O42の合焦位置P4、森林O52の合焦位置P5、樹木O41の合焦位置P4に、合焦位置を変更して表示部102に表示させる。 Thereafter, as shown in FIG. 6 (h), FIG. 6 (j), and FIG. 6 (l), the user uses the house O42 as the fourth object O, the forest O52 as the fifth object O, and the sixth object O. Tree O41 is selected as the object O. In this case, as shown in FIG. 6 (i), FIG. 6 (k), and FIG. 6 (m), the control device CONT uses the display control unit 105 to focus the focus position P4 of the house O42 and the focus of the forest O52, respectively. The focus position is changed to the position P5 and the focus position P4 of the tree O41 and displayed on the display unit 102.
そして、使用者が6つ目のオブジェクトOを選択した後、ステップS09において、選択完了のボタンを押した場合、制御装置CONTは、入力部107により、6つのオブジェクトOのそれぞれについて、選択されるオブジェクトOと該オブジェクトOの選択順序とを対応付けた情報を、パスワードとして入力する(ステップS10)。これにより、パスワードの入力が完了する。 Then, after the user selects the sixth object O, when the selection completion button is pressed in step S09, the control unit CONT is selected for each of the six objects O by the input unit 107. Information associating the object O with the selection order of the object O is input as a password (step S10). Thereby, the input of the password is completed.
なお、上記操作により、図6(c)〜図6(m)に示すように、表示部102(タッチパネル103a)の表面のうち、選択したオブジェクトOに該当する箇所には、使用者の指紋の跡F1〜F6が残される。しかしながら、指紋の跡F1〜F6を見ただけでは、合焦位置P1〜P5のどの位置に配置されたオブジェクトOを選択したかを判別できないため、パスワードを正確に推定することは困難である。また、オブジェクトOを選択するルール自体を記憶するのではなく、設定したルールに合致したパスワード入力用画像PからオブジェクトOを選択するので、使用者が覚えやすく、忘れにくい。 As a result of the above operation, as shown in FIGS. 6C to 6M, the portion of the surface of the display unit 102 (touch panel 103a) corresponding to the selected object O is printed with the user's fingerprint. Traces F1 to F6 are left. However, it is difficult to accurately estimate the password because it is not possible to determine which position of the focus positions P1 to P5 has selected the object O simply by looking at the fingerprint marks F1 to F6. Further, since the rule for selecting the object O is not stored, but the object O is selected from the password input image P that matches the set rule, the user can easily remember and forget it.
以上のように、本実施形態では、合焦位置を複数位置(合焦位置P1〜P5)に変更可能であり複数の合焦位置P1〜P5に亘ってオブジェクトOが設けられるパスワード入力用画像Pを表示部102に表示させ、表示部102に表示された複数のオブジェクトOから、操作部103を介して選択可能な複数のオブジェクトOを抽出し、操作部103を介してオブジェクトOが選択される場合に、オブジェクトOのそれぞれについて、選択されるオブジェクトOと該オブジェクトOの選択順序とを対応付けた情報を、所定動作のロック又はロック解除のパスワードとして入力するため、パスワードの推定が困難となる。これにより、高いセキュリティを確保することが可能な情報端末100を提供することができる。 As described above, in the present embodiment, the focus input position P can be changed to a plurality of positions (focus positions P1 to P5), and the object O is provided over the plurality of focus positions P1 to P5. Is displayed on the display unit 102, a plurality of selectable objects O are extracted from the plurality of objects O displayed on the display unit 102 through the operation unit 103, and the object O is selected through the operation unit 103. In this case, for each object O, information that associates the selected object O with the selection order of the object O is input as a password for locking or unlocking a predetermined operation, making it difficult to estimate the password. . Thereby, the information terminal 100 which can ensure high security can be provided.
また、本実施形態において、抽出部106がオブジェクトOを属性(ア)〜(オ)などの属性に分類するため、例えばパスワードを解除する場合、パスワードとして設定されたオブジェクトOの属性と同一の属性を使用者が選択することにより、異なるオブジェクトOを選択してもパスワードを解除できるように設定することができる。したがって、従来のようにパスワード入力用画像Pが必ずしも単一の構成でなくてもよく、パスワード入力用画像Pに同一属性のオブジェクトOが存在し、そのオブジェクトOが解除用のパスワードとして入力可能な状態であればよい。 In the present embodiment, since the extraction unit 106 classifies the object O into attributes (A) to (E), for example, when canceling a password, the same attribute as the attribute of the object O set as the password is used. Can be set so that the password can be released even if a different object O is selected. Therefore, the password input image P does not necessarily have a single configuration as in the prior art, and an object O having the same attribute exists in the password input image P, and the object O can be input as a password for cancellation. Any state is acceptable.
この場合、表示制御部105は、情報端末100が保有している複数のオブジェクトOからこのような条件に合致するオブジェクトOをランダムな位置で表示させればよい。これにより、表示部102(タッチパネル103a)上における使用者の選択位置及び選択順序は、オブジェクトOの位置の変化と、各合焦位置P1〜P5に配置されるオブジェクトOの距離と、オブジェクトOの属性情報との組み合わせによって、数多くのパターンを取りうる。このため、同じパスワードを解除する場合であっても、同一の選択位置及び選択順序になる可能性は極めて低い。よって、パスワードを解除する際の使用者の選択順序を他人が見て繰り返しただけでは、パスワードを解除することができない。このため、情報端末100の強固なロックを実現することができる。 In this case, the display control unit 105 may display the object O that satisfies such a condition at a random position from the plurality of objects O held by the information terminal 100. Thereby, the selection position and selection order of the user on the display unit 102 (touch panel 103a) are the change in the position of the object O, the distance of the object O arranged at each of the focus positions P1 to P5, and the object O. Many patterns can be taken in combination with attribute information. For this reason, even when the same password is canceled, the possibility of having the same selection position and selection order is extremely low. Therefore, the password cannot be released only by others seeing and repeating the user's selection order when releasing the password. For this reason, the information terminal 100 can be firmly locked.
<第2実施形態>
次に、本発明の第2実施形態を説明する。
本実施形態では、電子機器の例として、上記のパスワード入力用画像Pを取得する手段であるライトフィールドカメラ1について説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described.
In the present embodiment, a light field camera 1 that is a means for acquiring the password input image P will be described as an example of an electronic device.
図7は、撮像装置の一例であるライトフィールドカメラ1における光学系部分の概略構成を示す断面図である。なお、図7において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図7は、ライトフィールドカメラ1における光学系部分を光軸を含む面で切断したときの断面図である。 FIG. 7 is a cross-sectional view illustrating a schematic configuration of an optical system portion in a light field camera 1 which is an example of an imaging apparatus. In FIG. 7, the right direction (optical axis direction) of the paper surface is the X-axis, the upward direction of the paper surface orthogonal to the X-axis is the Z-axis, and the direction from the back of the paper surface orthogonal to the X-axis and Z-axis is the front direction. Is the Y axis. FIG. 7 is a cross-sectional view when the optical system portion in the light field camera 1 is cut along a plane including the optical axis.
本実施形態のライトフィールドカメラ1は、三次元空間の光線集合であるライトフィールド(光線空間)の情報を取得し、取得したライトフィールドの情報に基づいて画像を生成する。以下の説明では、ライトフィールドの情報を光線情報という。ライトフィールドカメラ1の代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラ1はリフォーカスカメラとも呼ばれる。 The light field camera 1 of the present embodiment acquires information on a light field (light space) that is a light ray set in a three-dimensional space, and generates an image based on the acquired information on the light field. In the following description, the light field information is referred to as light ray information. A typical function of the light field camera 1 is a refocus function for generating an image whose focal length is changed by post-processing after shooting. Therefore, the light field camera 1 is also called a refocus camera.
本実施形態のライトフィールドカメラ1は、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図7には、ライトフィールドカメラ1における光学系部分以外の構成である撮像素子20についても示している。 The light field camera 1 of the present embodiment includes a photographing optical system (imaging optical system) 11 and a microlens array 12 as its optical system part. FIG. 7 also shows the image sensor 20 that is a configuration other than the optical system portion in the light field camera 1.
撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図7に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。 The photographing optical system 11 is a single focus lens composed of a plurality of lens groups. The photographing optical system 11 forms an image of a light beam from the subject in the vicinity of its focal plane (imaging plane). Further, the photographing optical system 11 includes an aperture stop (not shown) that controls an aperture value (F value) during photographing. Since the aperture value can be changed by reconstructing the image after shooting, the aperture diameter of the aperture stop may be fixed. As shown in FIG. 7, a microlens array 12 and an image sensor 20 are sequentially arranged near the focal plane of the photographing optical system 11.
マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図7に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。 The microlens array 12 has a configuration in which a plurality of microlenses (positive lenses) having positive power are two-dimensionally arranged. In the microlens array 12 shown in FIG. 7, only three microlenses are arranged in the Z-axis direction, but actually, a large number of microlenses are arranged in the Z-axis direction and the Y-axis direction.
撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary
Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
The image pickup device 20 is disposed on the rear side of the microlens array 12 (opposite side of the photographing optical system 11) with a slight gap. The image sensor 20 receives light beams that have passed through the microlenses of the microlens array 12 by a plurality of photoelectric conversion elements, and photoelectrically converts the light beams received by the photoelectric conversion elements to generate a plurality of pixel signals. The plurality of photoelectric conversion elements are arranged in a matrix, and each photoelectric conversion element forms a pixel. In the present embodiment, the image sensor 20 is a CCD (Charge Coupled Device) or CMOS (Complementary).
It consists of a two-dimensional solid-state image sensor such as a metal-oxide semiconductor).
図7の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。 In the example shown in the partially enlarged view of FIG. 7, a plurality of pixels are arranged on the rear side of each of the plurality of microlenses 12a, 12b, and 12c. Specifically, three pixels 21a, 21b, 21c are arranged on the rear side of the micro lens 12a, three pixels 22a, 22b, 22c are arranged on the rear side of the micro lens 12b, and on the rear side of the micro lens 12c. Three pixels 23a, 23b, and 23c are arranged.
3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図7の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図8参照)。 Three pixels 21a, 21b, and 21c are pixels 21 corresponding to the microlens 12a, three pixels 22a, 22b, and 22c are pixels 22 corresponding to the microlens 12b, and three pixels 23a, 23b, and 23c are microscopic. This is a pixel 23 corresponding to the lens 12c. In the partially enlarged view of FIG. 7, three pixels are shown as pixels corresponding to each of the microlenses 12a, 12b, and 12c, but actually, a large number of pixels are arranged in the Z-axis direction and the Y-axis direction ( (See FIG. 8 described later).
次に、図7を参照してライトフィールドカメラ1によるライトフィールドの取得について簡単に説明する。図7において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。 Next, acquisition of a light field by the light field camera 1 will be briefly described with reference to FIG. In FIG. 7, it is assumed that the subject at the position A is focused on the position of the microlens array 12 by the photographing optical system 11. The light beam from the point A1 on the subject passes through the partial region 11a on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21c of the image sensor 20. Further, another light ray from the point A1 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21b of the imaging device 20. Further, another light ray from the point A1 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21a of the imaging device 20.
同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。 Similarly, the light beam from the point A2 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22c of the image sensor 20. Further, another ray from the point A2 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22b of the image sensor 20. Further, another light ray from the point A2 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22a of the imaging device 20.
さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。 Further, the light beam from the point A3 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23c of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23b of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23a of the image sensor 20. As described above, the light beam from the subject at the position A is received by the pixels of the image sensor 20 located on the rear side of the microlenses 12a, 12b, and 12c, whereby the brightness and the traveling direction are acquired as light beam information. The
マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。 Of the three pixels corresponding to the microlenses 12a, 12b, and 12c, the image generated by the pixel signals of the lower pixels 21c, 22c, and 23c is an image of light rays that have passed through the partial region 11a. In addition, the image generated by the pixel signals of the middle pixels 21b, 22b, and 23b is an image of light rays that have passed through the partial region 11b. Further, the image generated by the pixel signals of the upper pixels 21a, 22a, and 23a is an image of light rays that have passed through the partial region 11c. For example, when the number of pixels corresponding to each microlens is N, N reconstructed images configured by arranging pixel values of pixels located at the same position with respect to the microlens are configured to have the photographic optical system 11 N stereo image groups acquired by dividing into partial regions are formed.
図8は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図8では図7のX軸方向から撮像素子20を観察した様子を示す。図8に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図8に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。 FIG. 8 is a diagram for explaining the pixel array and the incident area of the image sensor 20. 8 shows a state where the image sensor 20 is observed from the X-axis direction of FIG. In the image sensor 20 shown in FIG. 8, a region where pixels are arranged is referred to as a pixel region 200. In the pixel region 200, for example, 10 million or more pixels are arranged in a matrix. The circular area in the pixel area 200 is an area where light rays that have passed through one microlens are incident. Accordingly, a plurality of circular regions are formed for each of the plurality of microlenses. These regions are referred to as incident regions 201, 202. For example, 586 × 440 microlenses are arranged. However, such an arrangement number is an example, and a larger or smaller number may be used. In the example shown in FIG. 8, the diameter of one microlens is 13 pixels. However, the number of pixels is not limited to this.
上述したように、ライトフィールドカメラ1は、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図8に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。 As described above, the light field camera 1 extracts and reconstructs pixel values of pixels at the same position in the incident area (the same position in the Y-axis direction and the Z-axis direction in the incident area) from all the microlenses. . The reconstructed image group obtained in this way corresponds to an image group in which a subject is observed from different partial areas of the photographing optical system 11. Therefore, these reconstructed image groups have parallax according to the position of the partial region and the distance to the subject. For example, as shown in FIG. 8, a reconstructed image composed of pixel values of pixels of each microlens located at the same position as the pixel 201a in the incident area 201 and each micro located at the same position as the pixel 201b in the incident area 201 It has parallax with the reconstructed image composed of pixel values of the lens pixels.
図9は、ライトフィールドカメラ1の構成を示すブロック図である。図9に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、音声出力部65、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図7において説明したため、図9においては説明を省略する。 FIG. 9 is a block diagram showing a configuration of the light field camera 1. The light field camera 1 shown in FIG. 9 includes an imaging unit 10, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, an audio output unit 65, and a system control unit 70. The imaging unit 10 includes a photographing optical system 11, a microlens array 12, a drive control unit 13, an imaging element 20, and a drive unit 21. Since the photographing optical system 11 and the microlens array 12 have been described with reference to FIG. 7, the description thereof is omitted in FIG.
撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータを画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。 For example, a Bayer array color filter array is disposed on the imaging surface of the imaging element 20. The image sensor 20 makes the light beam that has passed through the photographing optical system 11 and the microlens array 12 enter. The image sensor 20 photoelectrically converts an incident light beam to generate a pixel signal of each pixel of an analog signal. In the imaging unit 10, an amplifier (not shown) amplifies the pixel signal of each pixel of the analog signal with a predetermined gain factor (amplification factor). Further, an A / D converter (not shown) converts the pixel signal of each pixel of the analog signal amplified by the amplifier into the pixel signal of each pixel of the digital signal. Then, the imaging unit 10 outputs RAW data including pixel signals of each pixel of the digital signal to the image processing unit 30. The light ray information acquired by the light field camera 1 is specified by RAW data output from the imaging unit 10.
駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。 The drive control unit 13 performs aperture stop drive control based on control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the aperture stop included in the photographing optical system 11. The drive unit 21 is a control circuit that controls driving of the image sensor 20 under imaging conditions set based on an instruction signal from the system control unit 70. Examples of imaging conditions include exposure time (shutter speed), frame rate, gain, and the like.
ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。 Here, the exposure time refers to the time from when the photoelectric conversion element of the image sensor 20 starts to accumulate after the start of charge accumulation according to incident light. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of the frame rate is represented by fps (Frames Per Second). The gain refers to a gain factor (amplification factor) of an amplifier that amplifies the pixel signal. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a photographic film standard established by ISO and represents how much light the photographic film can record. However, generally, ISO sensitivity is also used when expressing the sensitivity of the image sensor 20. In this case, the ISO sensitivity is a value representing the ability of the image sensor 20 to capture light.
画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、ライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。 The image processing unit 30 performs various kinds of image processing on the RAW data including the pixel signal of each pixel, and generates image data in a predetermined file format (for example, JPEG format). The image data generated by the image processing unit 30 includes image data of still images, moving images, and live view images. The live view image is an image displayed on the display unit 50 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50. The live view image is used for the user to confirm the image of the subject imaged by the imaging unit 10. The live view image is also called a through image or a preview image.
画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像処理部30は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。 The image processing unit 30 uses the work memory 40 as a work space to generate image data set at an arbitrary focal length by performing predetermined image processing on RAW data composed of pixel signals of each pixel. Specifically, the image processing unit 30 generates image data set at an arbitrary focal length by performing the following image processing.
図10は、画像の再構成を説明する図である。図10に示すように、画像処理部30は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像処理部30は、抽出した画素値を並べ直して再構成画像データ400aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。 FIG. 10 is a diagram for explaining image reconstruction. As shown in FIG. 10, the image processing unit 30 has pixel values (values indicated by pixel signals) of the pixels 201a, 202a... At the same position with respect to the respective incident areas 201, 202. To extract. The image processing unit 30 rearranges the extracted pixel values to generate reconstructed image data 400a. When the number of pixels corresponding to each of the incident areas 201, 202... Is N, N reconstructed image data are generated.
画像処理部30は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像処理部30は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像処理部30は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像処理部30は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像処理部30は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。 The image processing unit 30 translates the N reconstructed image data groups by a predetermined amount in accordance with a predetermined focal length. Then, the image processing unit 30 adds and averages the N reconstructed image data groups after the parallel movement. Thereby, image data set to a predetermined focal length is generated. Since the image of the subject existing at a depth corresponding to the amount of movement is aligned, a sharp contour image is formed. An image of a subject that does not exist at a depth corresponding to the amount of movement is blurred. The image processing described above is an example, and the image processing unit 30 may generate image data set at an arbitrary focal length by executing image processing different from the image processing described above. For example, the image processing unit 30 calculates a light beam acquired by each pixel of the image sensor 20 by performing a predetermined calculation. Then, the image processing unit 30 generates image data set to a predetermined focal length by projecting the calculated light beam onto a virtual image plane set to a predetermined focal length.
本実施形態においては、画像処理部30は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。 In the present embodiment, the image processing unit 30 has a focal position (focal point) such as image data focused on the foremost subject, image data focused on the farthest subject, and image data focused on a subject at an intermediate position. A plurality of image data having different distances are generated.
画像処理部30は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像処理部30は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。 The image processing unit 30 performs various types of image processing on image data set at an arbitrary focus using the work memory 40 as a work space. For example, the image processing unit 30 generates RGB image data by performing color signal processing (tone correction) on a signal obtained by the Bayer array. The image processing unit 30 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image data. Further, the image processing unit 30 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary.
画像処理部30は、画像データから一又は複数の被写体を検出する。本実施形態では、画像処理部30は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。なお、画像処理部30は、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行ってもよい。また、画像処理部30は、移動する被写体(移動被写体)に対しては、時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、画像処理部30は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。 The image processing unit 30 detects one or more subjects from the image data. In the present embodiment, the image processing unit 30 detects the subject by specifying the boundary of the subject region based on the contrast and color change between the bright and dark portions in the image data. Note that the image processing unit 30 may detect a subject of a human subject using a known face detection function. Further, the image processing unit 30 may detect a moving subject by comparing a plurality of pieces of image data obtained in time series for a moving subject (moving subject). In addition to the face detection, the image processing unit 30 may detect a human body included in the image data as a subject as described in, for example, Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940). .
また、画像処理部30は、検出した各被写体までの距離(焦点距離)を検出(算出)する。例えば、画像処理部30は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体の視差を検出し、検出した視差に基づいて各被写体までの距離を算出する。 Further, the image processing unit 30 detects (calculates) a distance (focal length) to each detected subject. For example, the image processing unit 30 detects the parallax of each subject in a plurality of reconstructed image data (for example, reconstructed image data composed of pixel values of pixels at two specific positions in the incident region), and uses the detected parallax. Based on this, the distance to each subject is calculated.
画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。また、画像処理部30は、検出した被写体のサイズ及び画像データ中の位置を画素単位で示す位置データを記録部60に出力する。また、画像処理部30は、検出した各被写体までの距離を示す距離データを記録部60に出力する。 The image processing unit 30 outputs the generated image data to the recording unit 60. In addition, the image processing unit 30 outputs the generated image data to the display unit 50. In addition, the image processing unit 30 outputs position data indicating the detected size of the subject and the position in the image data in units of pixels to the recording unit 60. In addition, the image processing unit 30 outputs distance data indicating the detected distance to each subject to the recording unit 60.
ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。 The work memory 40 temporarily stores RAW data, image data, and the like when image processing by the image processing unit 30 is performed. The display unit 50 displays an image captured by the imaging unit 10 and various information. The display unit 50 includes a display screen 51 configured by, for example, a liquid crystal display panel. The image displayed on the display unit 50 includes a still image, a moving image, and a live view image.
操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。音声出力部65は、システム制御部70からの指示信号に基づいてスピーカから音声出力を実行する。 The operation unit 55 includes a release switch (a switch that is pressed when shooting a still image), a moving image switch (a switch that is pressed when shooting a moving image), various operation switches, and the like that are operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in a recording medium mounted in the card slot. The recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory. The audio output unit 65 performs audio output from the speaker based on the instruction signal from the system control unit 70.
システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。システム制御部70は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。 The system control unit 70 controls the overall processing and operation of the light field camera 1. The system control unit 70 has a CPU (Central Processing Unit). The system control unit 70 performs control to output the image data generated by the image processing unit 30 to the display unit 50 and display an image (live view image, still image, moving image) on the display screen 51 of the display unit 50. . Further, the system control unit 70 performs control to read out the image data recorded in the recording unit 60 and output the image data to the display unit 50 and display an image on the display screen 51 of the display unit 50.
また、システム制御部70は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、システム制御部70は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。また、システム制御部70は、画像処理部30で生成された画像データを記録部60に出力させて、記録部60に画像データを記録させる制御を行う。また、システム制御部70は、画像処理部30で検出された各被写体の位置データ及び距離データを記録部60に出力させて、被写体ごとに画像データと位置データ及び距離データとを対応付けて記録部60に記録させる制御を行う。なお、システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。 In addition, the system control unit 70 instructs the predetermined imaging conditions in order to perform imaging with predetermined imaging conditions (exposure time, frame rate, gain, etc.) on the imaging surface (pixel area 200) of the imaging device 20. A signal is output to the drive unit 21. The system control unit 70 also instructs the image processing unit 30 to execute image processing with predetermined control parameters (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate). The instruction signal is output to the image processing unit 30. Further, the system control unit 70 controls the recording unit 60 to record the image data by causing the recording unit 60 to output the image data generated by the image processing unit 30. Further, the system control unit 70 causes the recording unit 60 to output the position data and distance data of each subject detected by the image processing unit 30, and records the image data, the position data, and the distance data in association with each subject. Control for recording in the unit 60 is performed. In addition to the above control, the system control unit 70 also performs control such as adjustment of the aperture diameter of the aperture stop provided in the photographing optical system 11.
上記のように構成されたライトフィールドカメラ1が、更に第1実施形態に記載の表示制御部105、抽出部106、入力部107に対応する構成を有する構成であってもよい。この場合、ライトフィールドカメラ1にパスワードを入力する場合、上記実施形態で説明した手法によってパスワードを入力することができる。これにより、パスワードの推定が困難であり、高いセキュリティを確保することが可能な情報端末100を提供することができる。また、ライトフィールドカメラ1の各部に対応する構成が情報端末100に搭載されてもよい。 The light field camera 1 configured as described above may further have a configuration corresponding to the display control unit 105, the extraction unit 106, and the input unit 107 described in the first embodiment. In this case, when a password is input to the light field camera 1, the password can be input by the method described in the above embodiment. Thereby, it is difficult to estimate the password, and the information terminal 100 that can ensure high security can be provided. A configuration corresponding to each part of the light field camera 1 may be mounted on the information terminal 100.
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
例えば、上記第1実施形態では、パスワード入力用画像Pに配置されるオブジェクトOが、表示部102上で固定位置に配置された構成を例に挙げて説明したが、これに限定されるものではない。例えば、予め設定されたパスワードを入力する場合において、表示制御部105は、表示部102におけるオブジェクトOの表示位置を変更して表示させてもよい。
The technical scope of the present invention is not limited to the above-described embodiment, and appropriate modifications can be made without departing from the spirit of the present invention.
For example, in the first embodiment, the object O arranged in the password input image P has been described as an example of the configuration in which the object O is arranged at a fixed position on the display unit 102. However, the present invention is not limited to this. Absent. For example, when inputting a preset password, the display control unit 105 may change and display the display position of the object O on the display unit 102.
このとき、表示制御部105は、複数のオブジェクトOが設定された順序(所定順序)で選択可能となるように、表示位置を変更させる。つまり、次に選ぶべきオブジェクトOが、抽出部106によって抽出されない位置には配置されないように、オブジェクトOの表示位置を変更させる。これにより、表示部102に残る指紋の跡が入力のたびに異なるため、指紋の跡を見ただけではパスワードの推定が困難となる。 At this time, the display control unit 105 changes the display position so that the plurality of objects O can be selected in the set order (predetermined order). That is, the display position of the object O is changed so that the object O to be selected next is not arranged at a position that is not extracted by the extraction unit 106. As a result, since the fingerprint trace remaining on the display unit 102 is different every time it is input, it is difficult to estimate the password only by looking at the fingerprint trace.
また、上記実施形態では、パスワード入力用画像Pとして、ライトフィールドの情報に基づいて生成された画像が用いられる例について説明したが、これに限定されるものではない。例えば、パスワード入力用画像Pとして、合焦位置を変化させながら連写する(フォーカスブラケット)ことにより取得された画像が用いられてもよい。この場合、複数の画像が用いられるため、画像間の関連付けを行い、オブジェクトOにマーカを埋め込めばよい。また、フォーカスブラケットによって取得した一連の画像ではなく、所定のオブジェクトOを合成して新たなパスワード入力用画像Pを生成してもよい。 Moreover, although the said embodiment demonstrated the example using the image produced | generated based on the information of the light field as the password input image P, it is not limited to this. For example, as the password input image P, an image acquired by continuous shooting (focus bracketing) while changing the focus position may be used. In this case, since a plurality of images are used, it is only necessary to associate the images and embed a marker in the object O. Further, instead of a series of images acquired by the focus bracket, a new password input image P may be generated by combining predetermined objects O.
1…ライトフィールドカメラ(電子機器)、100…情報端末(電子機器)、102…表示部、103…操作部、104…処理部、105…表示制御部、106…抽出部、107…入力部、O…オブジェクト、P…パスワード入力用画像、P1〜P5…合焦位置 DESCRIPTION OF SYMBOLS 1 ... Light field camera (electronic device), 100 ... Information terminal (electronic device), 102 ... Display part, 103 ... Operation part, 104 ... Processing part, 105 ... Display control part, 106 ... Extraction part, 107 ... Input part, O ... object, P ... password input image, P1 to P5 ... focus position
Claims (11)
使用者が前記画像に対応して操作可能な操作部と、
少なくとも使用者の操作に応じて前記表示部に所定動作を行わせる処理部と、
合焦位置を複数位置に変更可能であり複数の前記合焦位置に亘ってオブジェクトが設けられるパスワード入力用画像を前記表示部に表示させる表示制御部と、
前記表示部に表示された複数の前記オブジェクトから、前記操作部を介して選択可能な複数の前記オブジェクトを抽出する抽出部と、
前記操作部を介して前記オブジェクトが選択される場合に、前記オブジェクトのそれぞれについて、選択される前記オブジェクトと該オブジェクトの選択順序とを対応付けた情報を、前記所定動作のロック又はロック解除のパスワードとして入力する入力部と
を備える電子機器。 A display for displaying an image;
An operation unit that a user can operate in accordance with the image;
A processing unit that causes the display unit to perform a predetermined operation in accordance with at least a user operation;
A display control unit that can change the in-focus position to a plurality of positions and display a password input image in which an object is provided across the plurality of in-focus positions on the display unit;
An extraction unit that extracts a plurality of objects that can be selected from the plurality of objects displayed on the display unit via the operation unit;
When the object is selected via the operation unit, for each of the objects, information associating the selected object with the selection order of the object is used as a password for locking or unlocking the predetermined operation. An electronic device comprising:
請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the extraction unit changes the object to be extracted every time the object is selected.
請求項2に記載の電子機器。 The electronic device according to claim 2, wherein the extraction unit extracts the object included in the focus position within a predetermined range with reference to the focus position of the password input image displayed on the display unit. .
請求項1から請求項3のうちいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 3, wherein the extraction unit extracts a plurality of the objects as one object.
請求項4に記載の電子機器。 The electronic device according to claim 4, wherein the extraction unit extracts a plurality of the objects having common attributes as one object.
請求項4に記載の電子機器。 The electronic device according to claim 4, wherein the extraction unit extracts a plurality of the objects included in the same in-focus position as one object.
請求項1から請求項6のうちいずれか一項に記載の電子機器。 The display control unit causes the password input image to be focused at the focus position of the selected object and displayed on the display unit every time selection by the operation unit is performed. 6. The electronic device according to claim 1.
請求項1から請求項7のうちいずれか一項に記載の電子機器。 The display control unit changes and displays the display position of the object in the display unit so that a plurality of the objects can be selected in a predetermined order. 8. The electronic device described.
請求項1から請求項8のうちいずれか一項に記載の電子機器。 The electronic device according to claim 1, wherein the operation unit includes a touch panel provided on the display unit.
請求項1から請求項9のうちいずれか一項に記載の電子機器。 The password input image is an image generated based on information of a light field that is a set of rays in a three-dimensional space, or an image obtained by continuous shooting while changing the in-focus position. The electronic device according to claim 9.
合焦位置を複数位置に変更可能であり複数の前記合焦位置に亘ってオブジェクトが設けられるパスワード入力用画像を前記表示部に表示させる処理と、
前記表示部に表示された複数の前記オブジェクトから、前記操作部を介して選択可能な複数の前記オブジェクトを抽出する処理と、
前記操作部を介して前記オブジェクトが選択される場合に、前記オブジェクトのそれぞれについて、選択される前記オブジェクトと該オブジェクトの選択順序とを対応付けた情報を、前記所定動作のロック又はロック解除のパスワードとして入力する処理と
を実行させるパスワード管理プログラム。 In a control device for an electronic device that includes a display unit that displays an image and an operation unit that a user can operate according to the image, and that causes the display unit to perform a predetermined operation according to at least a user operation,
A process of displaying on the display unit a password input image in which an in-focus position can be changed to a plurality of positions and an object is provided over a plurality of the in-focus positions;
A process of extracting a plurality of objects selectable via the operation unit from the plurality of objects displayed on the display unit;
When the object is selected via the operation unit, for each of the objects, information associating the selected object with the selection order of the object is used as a password for locking or unlocking the predetermined operation. Password management program that executes the process of entering as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014020397A JP2015148880A (en) | 2014-02-05 | 2014-02-05 | Electronic device and password management program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014020397A JP2015148880A (en) | 2014-02-05 | 2014-02-05 | Electronic device and password management program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015148880A true JP2015148880A (en) | 2015-08-20 |
Family
ID=53892209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014020397A Pending JP2015148880A (en) | 2014-02-05 | 2014-02-05 | Electronic device and password management program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015148880A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480983A (en) * | 2017-08-29 | 2017-12-15 | 马建山 | A kind of antitheft mobile phone payment system |
-
2014
- 2014-02-05 JP JP2014020397A patent/JP2015148880A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480983A (en) * | 2017-08-29 | 2017-12-15 | 马建山 | A kind of antitheft mobile phone payment system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311649B2 (en) | Systems and method for performing depth based image editing | |
JP5875839B2 (en) | Plenoptic camera | |
CN104243800B (en) | Control device and storage medium | |
JP6548367B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP2013165475A5 (en) | ||
US20170048510A1 (en) | Imaging apparatus and method for controlling same | |
JP2013042301A (en) | Image processor, image processing method, and program | |
JP5874192B2 (en) | Image processing apparatus, image processing method, and program | |
JP6611531B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2013145982A5 (en) | ||
JP2017060010A5 (en) | ||
JP2015148880A (en) | Electronic device and password management program | |
JP6780748B2 (en) | Image processing device and image processing program | |
JP6491442B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6566091B2 (en) | Image generation device and image search device | |
JP6502640B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM | |
JP2014066904A (en) | Imaging device, image processing apparatus, image processing server, and display device | |
JP2014116789A (en) | Photographing device, control method therefor, and program | |
JP6074201B2 (en) | Image processing apparatus, control method, and program | |
JP5354005B2 (en) | Image processing apparatus, image processing method, and program | |
JP6361228B2 (en) | Image generation apparatus and image generation program | |
JP6478536B2 (en) | Image processing apparatus and imaging apparatus, and control method and program thereof | |
US10334161B2 (en) | Image processing apparatus, image processing method, computer program and imaging apparatus | |
JP6106026B2 (en) | Image processing apparatus, imaging apparatus, playback apparatus, control method, and program | |
JP5197469B2 (en) | Front subject image extraction apparatus and operation control method thereof |