JP2019075699A - 電子機器及びその制御方法 - Google Patents
電子機器及びその制御方法 Download PDFInfo
- Publication number
- JP2019075699A JP2019075699A JP2017200573A JP2017200573A JP2019075699A JP 2019075699 A JP2019075699 A JP 2019075699A JP 2017200573 A JP2017200573 A JP 2017200573A JP 2017200573 A JP2017200573 A JP 2017200573A JP 2019075699 A JP2019075699 A JP 2019075699A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- face
- image
- organ
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/663—Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Abstract
Description
画像から顔及び該顔に含まれる器官領域を検出する検出手段と、
表示手段に対するタッチ操作を検知するタッチ検知手段と、
前記表示手段に表示された前記画像のうち、前記検出手段で検出された第1の顔に対応する領域に対してタッチが開始され、その後、前記タッチのタッチ位置が第1の方向に移動した場合には前記第1の顔に含まれる第1の器官領域を選択し、前記タッチの前記タッチ位置が前記第1の方向ではなく第2の方向に移動した場合には前記第1の顔に含まれる第2の器官領域を選択するように制御する制御手段と
を有することを特徴とする。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
Claims (19)
- 画像から顔及び該顔に含まれる器官領域を検出する検出手段と、
表示手段に対するタッチ操作を検知するタッチ検知手段と、
前記表示手段に表示された前記画像のうち、前記検出手段で検出された第1の顔に対応する領域に対してタッチが開始され、その後、前記タッチのタッチ位置が第1の方向に移動した場合には前記第1の顔に含まれる第1の器官領域を選択し、前記タッチの前記タッチ位置が前記第1の方向ではなく第2の方向に移動した場合には前記第1の顔に含まれる第2の器官領域を選択するように制御する制御手段と
を有することを特徴とする電子機器。 - 前記制御手段は、前記画像に重畳して、選択された器官領域を示す指標を表示するように制御することを特徴とする請求項1に記載の電子機器。
- 前記第1の器官領域は前記第1の顔に含まる左側の目であり、前記第の器官領域は前記第の顔に含まれる右側の目であることを特徴とする請求項1または2に記載の電子機器。
- 前記第1の方向は前記表示手段に表示された前記第1の顔に対して左方向であり、前記第2の方向は前記表示手段に表示された前記第1の顔に対して右方向であることを特徴とする請求項3に記載の電子機器。
- 前記制御手段は、前記第1の顔に対応する領域に対してタッチが開始され、その後、タッチ位置が移動することなくタッチが離された場合は、前記第1の顔を選択するように制御することを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
- 前記制御手段は、前記第1の顔に対応する領域に対してタッチが開始され、その後、タッチ位置が移動することなくタッチが離された場合は、前記タッチのタッチ位置に基づいて前記第1の顔に含まれる複数の器官のいずれかを選択するように制御することを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
- 前記制御手段は、前記タッチのタッチ位置が所定距離以上移動すると、前記タッチが離されていなくとも、タッチ位置の移動方向に応じた顔または顔の器官の選択を行うように制御することを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
- 前記制御手段は、前記タッチのタッチ位置が第3の方向に移動した場合には前記第1の顔に含まれる第3の器官領域を選択するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
- 前記制御手段は、前記タッチのタッチ位置が第3の方向に移動した場合には前記第1の顔を含む、前記第1の顔に対応する領域よりも広い領域を選択するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
- 前記制御手段は、前記タッチのタッチ位置が第3の方向に移動した場合には前記第1の顔の器官ではなく前記第1の顔を選択するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
- 前記表示手段に表示された前記画像のうち、前記検出手段で検出された顔であって、前記画像において所定の大きさよりも小さい顔に対応する領域に対してタッチが開始された場合には、その後のタッチ位置の移動方向に関わらず、タッチされた位置に基づいて顔または顔の器官領域を選択するように制御することを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。
- 前記制御手段はさらに、前記第1の顔に対応する領域に対してタッチが開始されたことに応じて、前記検出手段によって検出された前記第1の顔の器官領域を示す指標を前記表示手段に表示するように制御するように制御することを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。
- 前記制御手段はさらに、前記第1の顔に対応する領域に対してタッチが開始されたことに応じて、タッチ位置の移動方向別に選択可能な器官領域を示すガイドを表示するように制御することを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。
- 前記画像は撮像手段で撮像されたライブビュー画像であることを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。
- 前記制御手段の制御によって選択された器官領域に基づいて、AF処理、追尾処理、AE処理、AWB処理の少なくともいずれかを行うように制御することを特徴とする請求項14に記載の電子機器。
- 前記画像は記録済みの画像であり、前記制御手段の制御によって選択された器官領域に基づいた画像処理を行うことを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。
- 画像から顔及び該顔に含まれる器官領域を検出する検出ステップと、
表示手段に対するタッチ操作を検知するタッチ検知ステップと、
前記表示手段に表示された前記画像のうち、前記検出ステップで検出された第1の顔に対応する領域に対してタッチが開始され、その後、前記タッチのタッチ位置が第1の方向に移動した場合には前記第1の顔に含まれる第1の器官領域を選択し、前記タッチの前記タッチ位置が前記第1の方向ではなく第2の方向に移動した場合には前記第1の顔に含まれる第2の器官領域を選択するように制御する制御ステップと
を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1乃至16のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1乃至16のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017200573A JP6701145B2 (ja) | 2017-10-16 | 2017-10-16 | 電子機器及びその制御方法 |
US16/156,753 US10750081B2 (en) | 2017-10-16 | 2018-10-10 | Electronic apparatus and method for selecting an organ from an image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017200573A JP6701145B2 (ja) | 2017-10-16 | 2017-10-16 | 電子機器及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075699A true JP2019075699A (ja) | 2019-05-16 |
JP6701145B2 JP6701145B2 (ja) | 2020-05-27 |
Family
ID=66096651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017200573A Active JP6701145B2 (ja) | 2017-10-16 | 2017-10-16 | 電子機器及びその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10750081B2 (ja) |
JP (1) | JP6701145B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021010070A1 (ja) * | 2019-07-12 | 2021-01-21 | ソニー株式会社 | 撮像装置、撮像方法、プログラム |
JP7433860B2 (ja) | 2019-11-26 | 2024-02-20 | キヤノン株式会社 | 電子機器及び電子機器の制御方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117061869A (zh) * | 2018-12-28 | 2023-11-14 | 株式会社尼康 | 电子设备、照相机以及程序 |
JP2022051280A (ja) * | 2020-09-18 | 2022-03-31 | キヤノン株式会社 | 焦点調節装置及び方法、及び撮像装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003323258A (ja) * | 2002-04-30 | 2003-11-14 | Kenwood Corp | 操作コマンド処理プログラムおよびナビゲーションシステム |
JP2012123301A (ja) * | 2010-12-10 | 2012-06-28 | Olympus Imaging Corp | 撮像装置 |
JP2016046710A (ja) * | 2014-08-25 | 2016-04-04 | キヤノン株式会社 | 電子機器、その制御方法およびプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7298412B2 (en) * | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
JP5459031B2 (ja) * | 2010-04-13 | 2014-04-02 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2013070164A (ja) * | 2011-09-21 | 2013-04-18 | Olympus Imaging Corp | 撮像装置及び撮像方法 |
US9111080B1 (en) * | 2012-02-29 | 2015-08-18 | Amazon Technologies, Inc. | Reducing input processing latency for remotely executed applications |
US8451246B1 (en) * | 2012-05-11 | 2013-05-28 | Google Inc. | Swipe gesture classification |
US20140164963A1 (en) * | 2012-12-11 | 2014-06-12 | Sap Ag | User configurable subdivision of user interface elements and full-screen access to subdivided elements |
JP2015172836A (ja) * | 2014-03-11 | 2015-10-01 | キヤノン株式会社 | 表示制御装置及び表示制御方法 |
JP6667294B2 (ja) * | 2016-01-05 | 2020-03-18 | キヤノン株式会社 | 電子機器およびその制御方法 |
-
2017
- 2017-10-16 JP JP2017200573A patent/JP6701145B2/ja active Active
-
2018
- 2018-10-10 US US16/156,753 patent/US10750081B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003323258A (ja) * | 2002-04-30 | 2003-11-14 | Kenwood Corp | 操作コマンド処理プログラムおよびナビゲーションシステム |
JP2012123301A (ja) * | 2010-12-10 | 2012-06-28 | Olympus Imaging Corp | 撮像装置 |
JP2016046710A (ja) * | 2014-08-25 | 2016-04-04 | キヤノン株式会社 | 電子機器、その制御方法およびプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021010070A1 (ja) * | 2019-07-12 | 2021-01-21 | ソニー株式会社 | 撮像装置、撮像方法、プログラム |
US11849216B2 (en) | 2019-07-12 | 2023-12-19 | Sony Group Corporation | Imaging apparatus detecting a pupil in moving and still images |
JP7433860B2 (ja) | 2019-11-26 | 2024-02-20 | キヤノン株式会社 | 電子機器及び電子機器の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190116312A1 (en) | 2019-04-18 |
JP6701145B2 (ja) | 2020-05-27 |
US10750081B2 (en) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6748582B2 (ja) | 撮像装置及びその制御方法、プログラム、並びに記録媒体 | |
JP6602361B2 (ja) | 電子機器及びその制御方法 | |
JP2018107711A (ja) | 撮像制御装置及びその制御方法 | |
JP6833505B2 (ja) | 撮像制御装置及びその制御方法 | |
JP2018125612A (ja) | 撮像装置及びその制御方法 | |
JP6806572B2 (ja) | 撮像制御装置、撮像装置、制御方法、プログラム、及び記憶媒体 | |
JP2018107710A (ja) | 撮像装置及びその制御方法 | |
JP6701145B2 (ja) | 電子機器及びその制御方法 | |
JP2018013745A (ja) | 電子機器およびその制御方法 | |
JP6833507B2 (ja) | 撮像制御装置及びその制御方法 | |
JP7129294B2 (ja) | 電子機器および領域選択方法 | |
JP2019114922A (ja) | 電子機器、その制御方法およびプログラム | |
JP7049195B2 (ja) | 電子機器及びその制御方法、プログラム、並びに記憶媒体 | |
JP2022027841A (ja) | 電子機器、プログラムおよび記憶媒体 | |
JP6512961B2 (ja) | 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体 | |
JP6833535B2 (ja) | 撮像装置、撮像装置の制御方法及びプログラム | |
JP6808480B2 (ja) | 撮像制御装置及びその制御方法 | |
JP2019200238A (ja) | 撮像制御装置およびその制御方法、プログラム並びに記憶媒体 | |
JP2021141573A (ja) | 電子機器 | |
JP2019120748A (ja) | 電子機器及びその制御方法 | |
JP2014017665A (ja) | 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体 | |
JP6765901B2 (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP6765902B2 (ja) | 表示制御装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP2019022116A (ja) | 撮像装置、その制御方法、およびプログラム、並びに記憶媒体 | |
JP6630337B2 (ja) | 電子機器およびその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180808 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6701145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |