JP7387091B1 - Photography method, photography equipment and program - Google Patents

Photography method, photography equipment and program Download PDF

Info

Publication number
JP7387091B1
JP7387091B1 JP2022198434A JP2022198434A JP7387091B1 JP 7387091 B1 JP7387091 B1 JP 7387091B1 JP 2022198434 A JP2022198434 A JP 2022198434A JP 2022198434 A JP2022198434 A JP 2022198434A JP 7387091 B1 JP7387091 B1 JP 7387091B1
Authority
JP
Japan
Prior art keywords
image
photographing
region
face
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022198434A
Other languages
Japanese (ja)
Other versions
JP2024084262A (en
Inventor
達也 若狭
真輝 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2022198434A priority Critical patent/JP7387091B1/en
Application granted granted Critical
Publication of JP7387091B1 publication Critical patent/JP7387091B1/en
Publication of JP2024084262A publication Critical patent/JP2024084262A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】 撮影者が撮影装置の画面を見ることなく撮影対象を適切に撮影可能とする。【解決手段】一実施形態に係る撮影方法は、カメラを備えた撮影装置が実行する撮影方法であって、前記カメラから画像を取得する取得処理と、前記画像から対象物を検出する検出処理と、前記検出処理により検出された前記対象物が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記検出処理により検出された前記対象物が前記画像の第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知処理と、前記対象物が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、を含む。【選択図】図8[Problem] To enable a photographer to appropriately photograph an object to be photographed without looking at the screen of a photographing device. A photographing method according to an embodiment is a photographing method executed by a photographing device equipped with a camera, and includes an acquisition process of acquiring an image from the camera, and a detection process of detecting a target object from the image. , when the target object detected by the detection process is included in a first area of the image, a first pattern is notified, and the target object detected by the detection process is included in a second area of the image. notification processing of notifying in a second pattern different from the first pattern when the object is included in the first area or the second area; and photographing by the camera at predetermined time intervals while the object is included in the first area or the second area. and photographing processing. [Selection diagram] Figure 8

Description

本発明は、撮影方法、撮影装置及びプログラムに関する。 The present invention relates to a photographing method, a photographing device, and a program.

近年、保育園や幼稚園では、園内での児童の様子を撮影した写真を保護者に提供するサービスが普及している。このようなサービスでは、園内に設置されたカメラで児童を撮影したり、職員がスマートフォンなどのカメラで児童を撮影したりする場合がある。例えば、引用文献1には、園内での児童の様子を監視カメラで撮影する技術が開示されている。 In recent years, services that provide parents with photos of their children in the nursery schools and kindergartens have become popular. With such services, children may be photographed using cameras installed within the park, or staff members may photograph children using cameras such as smartphones. For example, cited document 1 discloses a technique for photographing children in a kindergarten using a surveillance camera.

特開2022-71553号公報JP 2022-71553 Publication

職員がスマートフォンなどのカメラで児童を撮影する場合、通常、職員はスマートフォンの画面を見ながら児童を撮影する。しかしながら、職員がスマートフォンの画面を注視すると、児童に対する注意が疎かになるおそれがある。一方で、職員がスマートフォンの画面を見ずに撮影すると、児童がきちんと写った写真を撮影するのが困難になる。 When staff take pictures of children with a camera such as a smartphone, they usually do so while looking at the smartphone screen. However, if staff members stare at smartphone screens, there is a risk that they will not be paying enough attention to children. On the other hand, if staff members take pictures without looking at the smartphone screen, it becomes difficult to take pictures that clearly show the children.

本発明は、上記の課題を鑑みてなされたものであり、撮影者が撮影装置の画面を見ることなく撮影対象を適切に撮影可能とすることを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to enable a photographer to appropriately photograph a subject without looking at the screen of a photographing device.

一実施形態に係る撮影方法は、カメラを備えた撮影装置が実行する撮影方法であって、前記カメラから画像を取得する取得処理と、前記画像から対象物を検出する検出処理と、前記検出処理により検出された前記対象物が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記検出処理により検出された前記対象物が前記画像の第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知処理と、前記対象物が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、を含む。 A photographing method according to an embodiment is a photographing method executed by a photographing device equipped with a camera, and includes an acquisition process of acquiring an image from the camera, a detection process of detecting a target object from the image, and the detection process. A first pattern is used to notify when the target object detected by the process is included in a first area of the image, and when the target object detected by the detection process is included in a second area of the image. a notification process for notifying using a second pattern different from the first pattern; and a photographing process for photographing with the camera at predetermined time intervals while the object is included in the first area or the second area. ,including.

一実施形態によれば、撮影者が撮影装置の画面を見ることなく撮影対象を適切に撮影することができる。 According to one embodiment, the photographer can appropriately photograph the object without looking at the screen of the photographing device.

撮影装置1の利用方法を説明する図である。3 is a diagram illustrating how to use the photographing device 1. FIG. 情報処理装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of an information processing device. 撮影装置1の機能構成の一例を示す図である。1 is a diagram showing an example of a functional configuration of a photographing device 1. FIG. 撮影装置1が実行する処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of processing executed by the photographing device 1. FIG. 撮影装置1が実行する処理を説明する模式図である。FIG. 2 is a schematic diagram illustrating processing executed by the photographing device 1. FIG. 撮影装置1の機能構成の一例を示す図である。1 is a diagram showing an example of a functional configuration of a photographing device 1. FIG. 撮影装置1が実行する処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of processing executed by the photographing device 1. FIG. 撮影装置1が実行する処理を説明する模式図である。FIG. 2 is a schematic diagram illustrating processing executed by the photographing device 1. FIG.

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment of the present invention will be described with reference to the accompanying drawings. Note that in the descriptions of the specifications and drawings related to each embodiment, the same reference numerals are given to the constituent elements having substantially the same functional configuration to omit redundant explanation.

[第1実施形態]
<撮影装置1の概要>
まず、第1実施形態に係る撮影装置1の概要について説明する。撮影装置1は、カメラを備えた情報処理装置であって、ユーザ(撮影者)が撮影対象を撮影するために利用される。撮影装置1は、例えば、スマートフォン、タブレット端末又はデジタルカメラであるが、これに限られない。撮影装置1は、カメラを備えた任意の情報処理装置であり得る。撮影対象は、人又は動物であるが、これに限られない。
[First embodiment]
<Overview of photographing device 1>
First, an overview of the photographing device 1 according to the first embodiment will be explained. The photographing device 1 is an information processing device equipped with a camera, and is used by a user (photographer) to photograph a subject. The photographing device 1 is, for example, a smartphone, a tablet terminal, or a digital camera, but is not limited thereto. The photographing device 1 may be any information processing device equipped with a camera. The subject to be photographed may be a person or an animal, but is not limited thereto.

図1は、撮影装置1の利用方法を説明する図である。本実施形態では、ユーザが、撮影対象の方を見ながら、撮影対象を撮影装置1のカメラで撮影することを想定している。すなわち、ユーザは、撮影対象を撮影する際、撮影中の画像を表示した撮影装置1の画面を見ていない。このため、ユーザは、撮影対象を撮影する際、カメラを撮影対象の方に向けるものの、実際に撮影対象がカメラで撮影されているかわからない。 FIG. 1 is a diagram illustrating how to use the photographing device 1. As shown in FIG. In this embodiment, it is assumed that the user photographs the subject with the camera of the photographing device 1 while looking toward the subject. That is, when photographing a subject, the user does not look at the screen of the photographing device 1 that displays the image being photographed. Therefore, when photographing an object, the user points the camera toward the object, but does not know whether the object is actually being photographed with the camera.

そこで、本実施形態では、撮影装置1は、カメラから取得した画像に基づいて、撮影対象が写っているか判定し、写っている場合に自動で撮影対象を撮影する。これにより、ユーザは、撮影装置1の画面を見ることなく、撮影対象の方にカメラを大まかに向けるだけで、撮影対象を撮影することができる。 Therefore, in this embodiment, the photographing device 1 determines whether the photographing target is included in the image based on the image acquired from the camera, and automatically photographs the photographing target if the photographing target is included. Thereby, the user can photograph the subject by simply pointing the camera roughly toward the subject without looking at the screen of the photographing device 1.

また、撮影装置1は、カメラから取得した画像における、撮影対象の位置に応じた通知を音や振動でユーザに行う。これにより、ユーザは、撮影装置1の画面を見ることなく、撮影対象が所望の位置(例えば、画像の中央)にいる画像が撮影されているか把握することができる。 Further, the photographing device 1 notifies the user of the position of the object to be photographed in the image acquired from the camera using sound or vibration. Thereby, the user can grasp whether an image is being captured in which the subject is in a desired position (for example, in the center of the image) without looking at the screen of the photographing device 1.

このように、撮影装置1によれば、ユーザは、撮影装置1の画面を見ることなく、撮影対象が所望の位置にいる画像を撮影できる。結果として、ユーザは、撮影対象の方を見ながら、撮影対象を適切に撮影することができる。 In this way, according to the photographing device 1, the user can photograph an image in which the photographic subject is in a desired position without looking at the screen of the photographing device 1. As a result, the user can appropriately photograph the object while looking toward the object.

この撮影装置1は、例えば、保育園や幼稚園で職員(撮影者)が児童の方を見ながら児童の写真を撮影したり、介護施設で職員(撮影者)が被介護者の方を見ながら被介護者の写真を撮影したり、公園で保護者(撮影者)が子供の方を見ながら子供の写真を撮影したりする場合に、好適に利用できる。 This photographing device 1 can be used, for example, in a daycare center or kindergarten where a staff member (photographer) takes a picture of a child while looking at the child, or at a nursing facility where a staff member (photographer) takes a photograph while looking at the cared person. This can be suitably used when taking a picture of a caregiver, or when a guardian (photographer) takes a picture of a child while looking at the child at the park.

<情報処理装置のハードウェア構成>
次に、情報処理装置100のハードウェア構成について説明する。図2は、情報処理装置100のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置100は、バスBを介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入出力I/F105と、ドライブ装置106と、を備える。
<Hardware configuration of information processing device>
Next, the hardware configuration of the information processing device 100 will be explained. FIG. 2 is a diagram illustrating an example of the hardware configuration of the information processing device 100. As shown in FIG. 2, the information processing device 100 includes a processor 101, a memory 102, a storage 103, a communication I/F 104, an input/output I/F 105, and a drive, which are interconnected via a bus B. A device 106 is provided.

プロセッサ101は、ストレージ103に記憶されたOS(Operating System)を含む各種のプログラムをメモリ102に展開して実行することにより、情報処理装置100の各構成を制御し、情報処理装置100の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。 The processor 101 controls each configuration of the information processing device 100 and operates the functions of the information processing device 100 by loading various programs including an OS (Operating System) stored in the storage 103 into the memory 102 and executing them. Realize. The processor 101 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), or a combination thereof.

メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、又はこれらの組み合わせである。 The memory 102 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), or a combination thereof. The ROM is, for example, a PROM (Programmable ROM), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), or a combination thereof. The RAM is, for example, DRAM (Dynamic RAM), SRAM (Static RAM), or a combination thereof.

ストレージ103は、OSを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。 The storage 103 stores various programs and data including an OS. The storage 103 is, for example, a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an SCM (Storage Class Memories), or a combination thereof.

通信I/F104は、情報処理装置100を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、Ethernet(登録商標)、又は光通信に準拠したアダプタであるが、これに限られない。 The communication I/F 104 is an interface for connecting the information processing device 100 to an external device via the network N and controlling communication. The communication I/F 104 is, for example, an adapter compliant with Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), Ethernet (registered trademark), or optical communication, but is not limited thereto. .

入出力I/F105は、情報処理装置100に入力装置107及び出力装置108を接続するためのインタフェースである。入力装置107は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、操作ボタン、又はこれらの組み合わせである。出力装置108は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、バイブレータ、又はこれらの組み合わせである。 The input/output I/F 105 is an interface for connecting the input device 107 and the output device 108 to the information processing device 100. The input device 107 is, for example, a mouse, keyboard, touch panel, microphone, scanner, camera, various sensors, operation buttons, or a combination thereof. Output device 108 is, for example, a display, a projector, a printer, a speaker, a vibrator, or a combination thereof.

ドライブ装置106は、記録メディア109のデータを読み書きする。ドライブ装置106は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダである。記録メディア109は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ、SDカード、又はこれらの組み合わせである。 The drive device 106 reads and writes data on the recording medium 109. The drive device 106 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or an SD card reader. The recording media 109 is, for example, a CD (Compact Disc), a DVD (Digital Versatile Disc), an FD (Floppy Disk), an MO (Magneto-Optical disk), a BD (Blu-ray (registered trademark) Disc), or a USB (registered trademark). ) memory, SD card, or a combination thereof.

なお、本実施形態において、プログラムは、情報処理装置100の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して情報処理装置100に提供されてもよいし、記録メディア109などの非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置100に提供されてもよい。 Note that in this embodiment, the program may be written into the memory 102 or the storage 103 during the manufacturing stage of the information processing device 100, may be provided to the information processing device 100 via the network N, or may be provided to the information processing device 100 via the recording medium. The information may be provided to the information processing apparatus 100 via a non-transitory computer-readable recording medium such as 109.

<撮影装置1の機能構成>
次に、撮影装置1の機能構成について説明する。図3は、撮影装置1の機能構成の一例を示す図である。図3に示すように、撮影装置1は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration of photographing device 1>
Next, the functional configuration of the photographing device 1 will be explained. FIG. 3 is a diagram showing an example of the functional configuration of the photographing device 1. As shown in FIG. As shown in FIG. 3, the photographing device 1 includes a communication section 11, a storage section 12, and a control section 13.

通信部11は、通信I/F104により実現される。通信部11は、ネットワークを介して、外部装置との間で情報の送受信を行う。ネットワークは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。 The communication unit 11 is realized by the communication I/F 104. The communication unit 11 transmits and receives information to and from an external device via the network. The network is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public network, a mobile data communication network, or a combination thereof.

記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、画像情報121と、撮影画像情報122と、を記憶する。 The storage unit 12 is realized by a memory 102 and a storage 103. The storage unit 12 stores image information 121 and photographed image information 122.

画像情報121は、カメラが取得した画像imに関する情報である。画像情報121は、画像im、撮影日時及びカメラの設定などの情報を含む。画像情報121は、一時的に記憶部12に保存される。 Image information 121 is information regarding the image im acquired by the camera. The image information 121 includes information such as image im, shooting date and time, and camera settings. The image information 121 is temporarily stored in the storage unit 12.

撮影画像情報122は、カメラで撮影した画像imに関する情報である。ここでいう撮影は、カメラが取得した画像imを撮影画像として保存することをいう。撮影画像情報122は、画像im、撮影日時、カメラの設定及び検出部132による検出結果などの情報を含む。 The photographed image information 122 is information regarding the image im photographed by the camera. Photographing here means storing the image im acquired by the camera as a photographed image. The photographed image information 122 includes information such as image im, photographing date and time, camera settings, and detection results by the detection unit 132.

制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、撮影装置1の動作全体を制御する。制御部13は、取得部131と、検出部132と、通知部133と、撮影部134と、を備える。 The control unit 13 is realized by the processor 101 reading a program from the memory 102, executing it, and cooperating with other hardware configurations. The control unit 13 controls the entire operation of the photographing device 1. The control section 13 includes an acquisition section 131, a detection section 132, a notification section 133, and a photographing section 134.

取得部131は、カメラから画像imを取得し、画像imを含む画像情報121を記憶部12に保存する。画像imは、静止画でも動画でもよい。 The acquisition unit 131 acquires the image im from the camera and stores image information 121 including the image im in the storage unit 12. The image im may be a still image or a moving image.

検出部132は、記憶部12に保存された画像imから、対象物tを検出する。対象物tは、撮影対象の一部又は全部であり、撮影対象に応じて設定される。対象物tは、例えば、人、動物又はこれらの顔であるが、これに限られない。検出部132は、例えば、画像から対象物tを検出するように学習された機械学習モデルを利用して、画像imから対象物tを検出する。機械学習モデルは、例えば、CNN(Convolutional Neural Network)であるが、これに限られない。検出部132は、検出対象を検出可能な既存の任意の方法を利用できる。 The detection unit 132 detects the target object t from the image im stored in the storage unit 12. The target object t is a part or all of the object to be photographed, and is set depending on the object to be photographed. The target object t is, for example, a person, an animal, or a face thereof, but is not limited thereto. The detection unit 132 detects the target object t from the image im, for example, using a machine learning model learned to detect the target object t from the image. The machine learning model is, for example, a CNN (Convolutional Neural Network), but is not limited to this. The detection unit 132 can use any existing method capable of detecting a detection target.

通知部133は、出力装置108(バイブレータ及びスピーカ)を制御し、検出部132による対象物tの検出結果に応じて、ユーザに通知を行う。通知方法については後述する。 The notification unit 133 controls the output device 108 (vibrator and speaker) and notifies the user according to the detection result of the target object t by the detection unit 132. The notification method will be described later.

撮影部134は、カメラを制御し、撮影を実行する。具体的には、撮影部134は、カメラを起動し、記憶部12に保存された画像imの一部を撮影画像として記憶部12に保存する。 The photographing unit 134 controls the camera and executes photographing. Specifically, the photographing unit 134 activates the camera and stores a part of the image im stored in the storage unit 12 in the storage unit 12 as a photographed image.

なお、撮影装置1の機能構成は、上記の例に限られない。例えば、撮影装置1は、上記の機能構成の一部を備え、残りをユーザ端末2が備えてもよい。また、撮影装置1は、上記以外の機能構成を備えてもよい。また、撮影装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。 Note that the functional configuration of the photographing device 1 is not limited to the above example. For example, the photographing device 1 may include a part of the above functional configuration, and the user terminal 2 may include the rest. Further, the photographing device 1 may have functional configurations other than those described above. Further, as described above, each functional configuration of the imaging device 1 may be realized by software, or by hardware such as an IC chip, SoC (System on Chip), LSI (Large Scale Integration), or microcomputer. You can.

<撮影装置1が実行する処理>
次に、撮影装置1が実行する処理について説明する。図4は、撮影装置1が実行する処理の一例を示すフローチャートである。図5は、撮影装置1が実行する処理を説明する模式図である。図5は、カメラから経時的に取得される一連の画像imを示しており、検出対象は人である。
<Processing executed by photographing device 1>
Next, the processing executed by the photographing device 1 will be explained. FIG. 4 is a flowchart illustrating an example of a process executed by the photographing device 1. FIG. 5 is a schematic diagram illustrating processing executed by the photographing device 1. FIG. 5 shows a series of images im acquired over time from a camera, in which the detection target is a person.

ユーザが撮影装置1を操作して、撮影装置1に処理を開始させると、ユーザが撮影装置1を操作して、撮影装置1に処理を終了させるまで、ステップS101~ステップS113の処理が所定の時間間隔で実行される。 When the user operates the photographing device 1 to cause the photographing device 1 to start processing, the processing from step S101 to step S113 continues in a predetermined manner until the user operates the photographing device 1 and causes the photographing device 1 to complete the process. Runs at time intervals.

(ステップS101)
まず、撮影装置1が処理を開始すると、撮影部134がカメラを起動し、取得部131がカメラから画像imの取得を開始する(ステップS101)。取得部131は、例えば、カメラから1秒に1枚の画像imを取得し、撮影日時などと対応付けて画像情報121として記憶部12に一時的に保存する。取得部131がカメラから画像imを取得する時間間隔は任意に設定可能である。
(Step S101)
First, when the photographing device 1 starts processing, the photographing unit 134 starts the camera, and the acquiring unit 131 starts acquiring the image im from the camera (step S101). For example, the acquisition unit 131 acquires one image im from a camera every second, and temporarily stores it in the storage unit 12 as image information 121 in association with the shooting date and time. The time interval at which the acquisition unit 131 acquires the image im from the camera can be set arbitrarily.

(ステップS102)
検出部132は、記憶部12に新たな画像imが保存されると、保存された画像imに対して対象物tの検出処理を実行し、画像imから対象物tを検出する(ステップS102)。画像imに複数の対象物tが含まれる場合、複数の対象物tが検出される。
(Step S102)
When the new image im is stored in the storage unit 12, the detection unit 132 performs a process of detecting the object t on the stored image im, and detects the object t from the image im (step S102). . When the image im includes a plurality of objects t, the plurality of objects t are detected.

(ステップS103)
検出部132は、画像imから対象物tが検出されたか確認する(ステップS103)。対象物tが検出されなかった場合(ステップS103:NO)、画像imは削除され、処理はステップS111に進む。対象物tが検出された場合(ステップS103:YES)、処理はステップS104に進む。
(Step S103)
The detection unit 132 checks whether the target object t has been detected from the image im (step S103). If the target object t is not detected (step S103: NO), the image im is deleted and the process proceeds to step S111. If the target object t is detected (step S103: YES), the process proceeds to step S104.

図5の例では、人が写っていない画像im1が取得された場合、処理はステップS111に進み、人が写った画像im2が取得された場合、処理はステップS104に進む。 In the example of FIG. 5, if an image im1 without a person is acquired, the process proceeds to step S111, and if an image im2 including a person is acquired, the process proceeds to step S104.

(ステップS104)
通知部133は、画像imから検出された対象物tが画像imの第1領域r1に含まれるか判定する(ステップS104)。ここで、第1領域r1及び第2領域r2について説明する。
(Step S104)
The notification unit 133 determines whether the target object t detected from the image im is included in the first region r1 of the image im (step S104). Here, the first region r1 and the second region r2 will be explained.

第1領域r1は、対象物tがそこに位置している間、撮影を実行するよう設定された画像im上の領域であって、画像imにおける対象物tの位置として好ましい位置の範囲として設定された領域である。第1領域r1は、例えば、画像imの中心を含む領域(中央の領域)であるが、これに限られない。対象物tが第1領域r1に含まれる画像imは、対象物tを適切に撮影した画像imとなる。 The first area r1 is an area on the image im that is set to be photographed while the object t is located there, and is set as a range of positions preferable as the position of the object t in the image im. This is an area where The first region r1 is, for example, a region including the center of the image im (center region), but is not limited thereto. The image im in which the object t is included in the first region r1 is an image im obtained by appropriately photographing the object t.

第1領域r1は、縦横の長さがいずれも画像imの輪郭より短い矩形の領域(図5参照)でもよいし、画像imの中央を縦断又は横断する矩形の領域でもよいし、円形又は楕円形の領域でもよい。第1領域r1の形状及び大きさは任意に設定可能である。 The first region r1 may be a rectangular region whose vertical and horizontal lengths are both shorter than the outline of the image im (see FIG. 5), a rectangular region that cuts or crosses the center of the image im, or a circular or elliptical region. It can also be in the area of form. The shape and size of the first region r1 can be set arbitrarily.

第2領域r2は、対象物tがそこに位置している間、撮影を実行するよう設定された画像im上の領域であって、第1領域r1以外の領域である。第2領域r2は、画像imにおける第1領域r1以外の全体であってもよいし、一部であってもよい。対象物tが第2領域r2に含まれる画像imは、対象物tを撮影した画像imとなる。 The second area r2 is an area on the image im that is set to be photographed while the object t is located there, and is an area other than the first area r1. The second area r2 may be the entire area other than the first area r1 in the image im, or may be a part of the image im. The image im in which the object t is included in the second region r2 is an image im obtained by photographing the object t.

第2領域r2は、例えば、縦横の長さがいずれも画像imの輪郭より短い矩形の第1領域r1の周囲を囲む矩形の領域でもよいし、画像imの中央を縦断又は横断する矩形の第1領域r1を左右又は上下で挟む2分割された領域でもよいし、円形又は楕円形の第1領域r1の周囲を囲む円形又は楕円形の領域でもよい。第2領域r2の形状及び大きさは任意に設定可能である。 The second region r2 may be, for example, a rectangular region surrounding the first region r1, which is a rectangle whose length and width are both shorter than the outline of the image im, or a rectangular region that extends vertically or crosses the center of the image im. It may be a two-divided area sandwiching one area r1 left and right or top and bottom, or it may be a circular or elliptical area surrounding a circular or elliptical first area r1. The shape and size of the second region r2 can be set arbitrarily.

なお、本実施形態において、第2領域r2は、第1領域r1以外の全体であるものとする。したがって、画像imから検出された対象物tが第1領域r1に含まれない場合、対象物tは第2領域r2に含まれることとなる。 Note that, in this embodiment, the second region r2 is the entire area other than the first region r1. Therefore, when the target object t detected from the image im is not included in the first region r1, the target object t is included in the second region r2.

通知部133は、対象物tの全体が第1領域r1に含まれる場合、対象物tが画像imの第1領域r1に含まれると判定してもよいし、対象物tの重心が第1領域r1に含まれる場合、対象物tが画像imの第1領域r1に含まれると判定してもよい。画像imから複数の対象物tが検出されている場合、対象物tが1つでも第1領域r1に含まれていれば、対象物tが画像imの第1領域r1に含まれると判定してもよい。 The notification unit 133 may determine that the object t is included in the first region r1 of the image im when the entire object t is included in the first region r1, or the center of gravity of the object t is in the first region r1. If the object t is included in the region r1, it may be determined that the object t is included in the first region r1 of the image im. When a plurality of objects t are detected from the image im, if even one object t is included in the first region r1, it is determined that the object t is included in the first region r1 of the image im. You can.

対象物tが第1領域r1に含まれる場合(ステップS104:YES)、処理はステップS105に進む。対象物tが第1領域r1に含まれない(第2領域r2に含まれる)場合(ステップS104:NO)、処理はステップS106に進む。 If the target object t is included in the first region r1 (step S104: YES), the process proceeds to step S105. If the target object t is not included in the first region r1 (included in the second region r2) (step S104: NO), the process proceeds to step S106.

図5の例では、人が第1領域r1の内側にいる画像im3が取得された場合、処理はステップS105に進み、人が第1領域r1の外側にいる画像im2が取得された場合、処理はステップS106に進む。なお、図5の例では、検出された人に対応するバウンディングボックスb1の重心の位置により、人が第1領域r1に含まれるか判定されるものとする。 In the example of FIG. 5, if an image im3 in which a person is located inside the first region r1 is acquired, the process proceeds to step S105, and if an image im2 in which a person is located outside the first region r1 is acquired, the process The process proceeds to step S106. In the example of FIG. 5, it is assumed that it is determined whether the person is included in the first region r1 based on the position of the center of gravity of the bounding box b1 corresponding to the detected person.

(ステップS105)
通知部133は、対象物tが第1領域r1に含まれる場合、出力装置108を制御して、第1パターンでユーザに通知する(ステップS105)。例えば、通知部133は、バイブレータを第1パターンで振動させることにより、対象物tが第1領域r1に含まれることをユーザに通知する。また、通知部133は、スピーカから第1パターンの音を出力することにより、対象物tが第1領域r1に含まれることをユーザに通知してもよい。このように、振動又は音でユーザに通知することにより、ユーザは、撮影装置1の画面を見ることなく、対象物tが第1領域r1に含まれていることを知ることができる。図5の例では、人が第1領域r1に含まれる画像im3が取得された場合、その旨が第1パターンでユーザに通知される。
(Step S105)
When the target object t is included in the first region r1, the notification unit 133 controls the output device 108 to notify the user in the first pattern (step S105). For example, the notification unit 133 notifies the user that the object t is included in the first region r1 by vibrating the vibrator in the first pattern. Furthermore, the notification unit 133 may notify the user that the target object t is included in the first region r1 by outputting the first pattern of sound from the speaker. In this way, by notifying the user with vibration or sound, the user can know that the object t is included in the first region r1 without looking at the screen of the photographing device 1. In the example of FIG. 5, when the image im3 in which a person is included in the first region r1 is acquired, the user is notified of this in the first pattern.

(ステップS106)
一方、通知部133は、対象物tが第1領域r1に含まれない(対象物tが第2領域r2に含まれる)場合、出力装置108を制御して、第2パターンでユーザに通知する(ステップS106)。第2パターンは、第1パターンと異なる任意のパターンである。例えば、通知部133は、バイブレータを第2パターンで振動させることにより、対象物tが第2領域r2に含まれることをユーザに通知する。また、通知部133は、スピーカから第2パターンの音を出力することにより、対象物tが第2領域r2に含まれることをユーザに通知してもよい。このように、振動又は音でユーザに通知することにより、ユーザは、撮影装置1の画面を見ることなく、対象物tが第1領域r1に含まれていない(第2領域r2に含まれている)ことを知ることができる。図5の例では、人が第1領域r1に含まれない画像im2が取得された場合、その旨が第2パターンでユーザに通知される。
(Step S106)
On the other hand, if the object t is not included in the first region r1 (the object t is included in the second region r2), the notification unit 133 controls the output device 108 to notify the user in a second pattern. (Step S106). The second pattern is an arbitrary pattern different from the first pattern. For example, the notification unit 133 notifies the user that the object t is included in the second region r2 by vibrating the vibrator in the second pattern. Furthermore, the notification unit 133 may notify the user that the target object t is included in the second region r2 by outputting the second pattern of sound from the speaker. In this way, by notifying the user with vibration or sound, the user can confirm that the object t is not included in the first region r1 (or that it is included in the second region r2) without looking at the screen of the photographing device 1. You can know that there are In the example of FIG. 5, when an image im2 in which a person is not included in the first region r1 is acquired, the user is notified of this using the second pattern.

(ステップS107)
その後、撮影部134は、現在が撮影中であるか、すなわち、既に撮影が開始されているか確認する(ステップS107)。まだ撮影中でない場合(ステップS107:NO)、処理はステップステップS109に進む。既に撮影中である場合(ステップS107:YES)、処理はステップS108に進む。
(Step S107)
Thereafter, the photographing unit 134 checks whether currently photographing is in progress, that is, whether photographing has already started (step S107). If photographing is not yet in progress (step S107: NO), the process advances to step S109. If shooting is already in progress (step S107: YES), the process advances to step S108.

(ステップS108)
既に撮影中である場合、撮影部134は、対象物tを撮影する(ステップS108)。具体的には、撮影部134は、画像imを撮影画像として記憶部12に保存する。撮影画像は、撮影日時などと対応付けられて撮影画像情報122として保存される。その後、処理はステップS101に戻る。
(Step S108)
If photographing is already in progress, the photographing unit 134 photographs the object t (step S108). Specifically, the photographing unit 134 stores the image im in the storage unit 12 as a photographed image. The photographed image is stored as photographed image information 122 in association with the date and time of photographing. After that, the process returns to step S101.

(ステップS109)
まだ撮影中でない場合、撮影部134は、対象物tを撮影し、撮影を開始する(ステップS109)。撮影部134は、画像imを撮影画像として記憶部12に保存する。撮影画像は、撮影日時などと対応付けられて撮影画像情報122として保存される。以降、ステップS107では、撮影中と判定される。図5の例では、画像im3が取得されると、撮影中と判定され、画像im3が撮影画像として保存される。撮影画像は、撮影日時などと対応付けられて撮影画像情報122として保存される。
(Step S109)
If photographing is not yet in progress, the photographing unit 134 photographs the object t and starts photographing (step S109). The photographing unit 134 stores the image im in the storage unit 12 as a photographed image. The photographed image is stored as photographed image information 122 in association with the date and time of photographing. Thereafter, in step S107, it is determined that shooting is in progress. In the example of FIG. 5, when the image im3 is acquired, it is determined that the image is being photographed, and the image im3 is saved as the photographed image. The photographed image is stored as photographed image information 122 in association with the date and time of photographing.

(ステップS110)
その後、通知部133は、出力装置108を制御して、ユーザに撮影が開始されたことを通知する。通知部133は、例えば、スピーカから撮影が開始されたことを示す音を出力することにより、撮影の開始をユーザに通知する。その後、処理はステップS101に戻る。これにより、ユーザは、撮影装置1を見ることなく、撮影が開始されたことを知ることができる。なお、撮影開始の通知は省略されてもよい。
(Step S110)
Thereafter, the notification unit 133 controls the output device 108 to notify the user that imaging has started. The notification unit 133 notifies the user of the start of shooting, for example, by outputting a sound from a speaker indicating that shooting has started. After that, the process returns to step S101. This allows the user to know that photography has started without looking at the photography device 1. Note that the notification of the start of shooting may be omitted.

本実施形態では、対象物tが第1領域r1又は第2領域r2に含まれる間、所定の時間間隔(例えば1秒間隔)でカメラによる撮影が実行される。撮影の開始は、撮影が実行される期間の最初(撮影の開始時)に通知される。図5の例では、画像im2が取得されると、撮影が開始され、画像im2が撮影画像として保存されるとともに、撮影開始がユーザに通知される。 In the present embodiment, while the object t is included in the first region r1 or the second region r2, the camera performs photographing at predetermined time intervals (for example, at 1-second intervals). The start of imaging is notified at the beginning of the period during which imaging is performed (at the start of imaging). In the example of FIG. 5, when image im2 is acquired, photographing is started, image im2 is saved as a photographed image, and the user is notified of the start of photographing.

ここで、ステップS103に戻る。ステップS103において、検出部132は、画像imから対象物tが検出されたか確認する。対象物tが検出されなかった場合(ステップS103:NO)、画像imは削除され、処理はステップS111に進む。 Here, the process returns to step S103. In step S103, the detection unit 132 checks whether the target object t has been detected from the image im. If the target object t is not detected (step S103: NO), the image im is deleted and the process proceeds to step S111.

(ステップS111)
対象物tが検出されなかった場合、撮影部134は、現在が撮影中であるか、すなわち、既に撮影が開始されているか確認する(ステップS111)。まだ撮影中でない場合(ステップS111:NO)、画像imは削除され、処理はステップステップS101に戻る。既に撮影中である場合(ステップS111:YES)、処理はステップS112に進む。
(Step S111)
If the target object t is not detected, the photographing unit 134 checks whether photographing is currently in progress, that is, whether photographing has already started (step S111). If the image im is not yet being photographed (step S111: NO), the image im is deleted and the process returns to step S101. If photographing is already in progress (step S111: YES), the process advances to step S112.

(ステップS112)
既に撮影中である場合、撮影部134は、撮影を終了する(ステップS112)。具体的には、撮影部134は、画像imを削除する。
(Step S112)
If photographing is already in progress, the photographing unit 134 ends the photographing (step S112). Specifically, the photographing unit 134 deletes the image im.

(ステップS113)
その後、通知部133は、出力装置108を制御して、ユーザに撮影が終了したことを通知する。通知部133は、例えば、スピーカから撮影が終了したことを示す音を出力することにより、撮影の終了をユーザに通知する。その後、処理はステップS101に戻る。これにより、ユーザは、撮影装置1を見ることなく、撮影が終了したことを知ることができる。なお、撮影終了の通知は省略されてもよい。
(Step S113)
Thereafter, the notification unit 133 controls the output device 108 to notify the user that the shooting has ended. The notification unit 133 notifies the user of the end of shooting, for example, by outputting a sound from a speaker indicating that shooting has ended. After that, the process returns to step S101. Thereby, the user can know that the shooting has ended without looking at the shooting device 1. Note that the notification of completion of photographing may be omitted.

本実施形態では、対象物tが第1領域r1又は第2領域r2に含まれる間、所定の時間間隔(例えば1秒間隔)でカメラによる撮影が実行される。撮影の終了は、撮影が実行される期間の最後(撮影の終了時)に通知される。図5の例では、画像im6が取得されると、撮影が終了し、画像im6が削除されるとともに、撮影終了がユーザに通知される。 In the present embodiment, while the object t is included in the first region r1 or the second region r2, the camera performs photographing at predetermined time intervals (for example, at 1-second intervals). The end of photography is notified at the end of the period during which photography is performed (at the end of photography). In the example of FIG. 5, when image im6 is acquired, imaging ends, image im6 is deleted, and the user is notified of the end of imaging.

ここで、図5の画像imがカメラから取得された場合の処理についてまとめる。画像im1が取得された時点ではまだ撮影は開始されていないものとする。 Here, the processing when the image im in FIG. 5 is acquired from a camera will be summarized. It is assumed that imaging has not yet started at the time when image im1 is acquired.

画像im1が取得されると(ステップS101)、人が検出されず(ステップS103:NO)、かつ、撮影中ではないため(ステップS111:NO)、画像im1は削除される。 When image im1 is acquired (step S101), since no person is detected (step S103: NO) and the image is not being photographed (step S111: NO), image im1 is deleted.

画像im2が取得されると(ステップS101)、人が検出され(ステップS103:YES)、人が第1領域r1に含まれず(ステップS104:NO)、かつ、まだ撮影中ではないため(ステップS107:NO)、撮影装置1が第2パターンで振動し(ステップS106)、撮影が開始され(ステップS109)、画像im2が撮影画像として保存され、撮影の開始を示す音が出力される(ステップS110)。これにより、ユーザは、撮影装置1の画面を見ることなく、人が第2領域r2に写った画像imの撮影が開始されたことを知ることができる。 When the image im2 is acquired (step S101), a person is detected (step S103: YES), the person is not included in the first region r1 (step S104: NO), and the image is not being photographed yet (step S107). : NO), the photographing device 1 vibrates in the second pattern (step S106), photographing is started (step S109), image im2 is saved as a photographed image, and a sound indicating the start of photographing is output (step S110). ). Thereby, the user can know that the photographing of the image im in which a person appears in the second region r2 has started without looking at the screen of the photographing device 1.

画像im3,im4が取得されると(ステップS101)、人が検出され(ステップS103:YES)、人が第1領域r1に含まれ(ステップS104:YES)、かつ、既に撮影中であるため(ステップS107:YES)、撮影装置1が第1パターンで振動し(ステップS105)、画像im3,im4が撮影画像として保存される(ステップS108)。これにより、ユーザは、撮影装置1の画面を見ることなく、人が第1領域r1に写った画像imが撮影されたことを知ることができる。 When images im3 and im4 are acquired (step S101), a person is detected (step S103: YES), the person is included in the first region r1 (step S104: YES), and the image is already being photographed ( Step S107: YES), the photographing device 1 vibrates in the first pattern (step S105), and images im3 and im4 are saved as photographed images (step S108). Thereby, the user can know that the image im in which a person appears in the first region r1 has been captured without looking at the screen of the photographing device 1.

画像im5が取得されると(ステップS101)、人が検出され(ステップS103:YES)、人が第2領域r2に含まれ(ステップS104:NO)、かつ、既に撮影中であるため(ステップS107:YES)、撮影装置1が第2パターンで振動し(ステップS106)、画像im5が撮影画像として保存される(ステップS108)。これにより、ユーザは、撮影装置1の画面を見ることなく、人が第2領域r2に写った画像imが撮影されたことを知ることができる。 When the image im5 is acquired (step S101), a person is detected (step S103: YES), the person is included in the second region r2 (step S104: NO), and the image is already being photographed (step S107). :YES), the photographing device 1 vibrates in the second pattern (step S106), and the image im5 is saved as a photographed image (step S108). Thereby, the user can know that the image im in which a person appears in the second region r2 has been captured without looking at the screen of the imaging device 1.

画像im6が取得されると(ステップS101)、人が検出されず(ステップS103:NO)、かつ、既に撮影中であるため(ステップS111:YES)、撮影は終了し(ステップS112)、画像im6は削除され、撮影の終了を示す音が出力される(ステップS113)。これにより、ユーザは、撮影装置1の画面を見ることなく、人が写った画像imの撮影が終了したことを知ることができる。 When image im6 is acquired (step S101), since no person is detected (step S103: NO) and photography is already in progress (step S111: YES), photography ends (step S112), and image im6 is acquired (step S101). is deleted, and a sound indicating the end of photography is output (step S113). Thereby, the user can know that the photographing of the image im in which the person has been captured has been completed without looking at the screen of the photographing device 1.

<まとめ>
以上説明した通り、撮影装置1は、カメラから画像imを取得し、画像imから対象物tを検出し、検出された対象物tが画像imの第1領域r1に含まれた場合に第1パターンで通知し、検出された対象物tが画像imの第2領域r2に含まれた場合に第1パターンとは異なる第2パターンで通知し、対象物tが第1領域r1又は第2領域r2に含まれている間、所定の時間間隔でカメラにより撮影を実行する。
<Summary>
As explained above, the photographing device 1 acquires the image im from the camera, detects the target object t from the image im, and when the detected target object t is included in the first region r1 of the image im, the first When the detected object t is included in the second region r2 of the image im, a second pattern different from the first pattern is used. While included in r2, images are taken by the camera at predetermined time intervals.

第1パターン及び第2パターンの通知があるか否かにより、ユーザ(撮影者)は、対象物tが撮影されているか否かを知ることができる。したがって、ユーザは、第1パターン又は第2パターンの通知が行われるように撮影装置1(カメラ)の向きを調整するだけで、撮影装置1の画面を見ることなく対象物tを撮影することができる。 Depending on whether or not there are notifications of the first pattern and the second pattern, the user (photographer) can know whether or not the object t is being photographed. Therefore, the user can photograph the object t without looking at the screen of the photographing device 1 by simply adjusting the direction of the photographing device 1 (camera) so that the first pattern or the second pattern is notified. can.

また、第1パターン及び第2パターンのいずれの通知が行われているかにより、ユーザは、撮影されている対象物tが画像imのどこに写っているか知ることができる。したがって、ユーザは、第1パターンの通知が行われるように撮影装置1(カメラ)の向きを調整するだけで、撮影装置1の画面を見ることなく対象物tを適切な位置で撮影することができる。 Furthermore, depending on whether notification of the first pattern or the second pattern is performed, the user can know where the object t being photographed is shown in the image im. Therefore, the user can photograph the object t at an appropriate position without looking at the screen of the photographing device 1 by simply adjusting the orientation of the photographing device 1 (camera) so that the first pattern notification is performed. can.

[第2実施形態]
<撮影装置1の概要>
次に、第2実施形態に係る撮影装置1の概要について説明する。本実施形態に係る撮影装置1は、画像imから人及び顔をそれぞれ検出し、検出結果に応じてユーザに通知する。以下、第1実施形態との相違点を中心に説明する。
[Second embodiment]
<Overview of photographing device 1>
Next, an overview of the photographing device 1 according to the second embodiment will be explained. The photographing device 1 according to the present embodiment detects a person and a face from the image im, and notifies the user according to the detection results. Hereinafter, differences from the first embodiment will be mainly explained.

<撮影装置1の機能構成>
図6は、撮影装置1の機能構成の一例を示す図である。図6に示すように、撮影装置1は、検出部132の代わりに、人検出部132Aと、顔検出部132Bと、を備える。通知部133は、人検出部132A及び顔検出部132Bの検出結果に応じてユーザに通知を行う。他の機能構成は第1実施形態と同様である。
<Functional configuration of photographing device 1>
FIG. 6 is a diagram showing an example of the functional configuration of the photographing device 1. As shown in FIG. As shown in FIG. 6, the photographing device 1 includes a person detection section 132A and a face detection section 132B instead of the detection section 132. The notification unit 133 notifies the user according to the detection results of the person detection unit 132A and the face detection unit 132B. Other functional configurations are the same as in the first embodiment.

人検出部132Aは、記憶部12に保存された画像imから、人を検出する。人検出部132Aは、例えば、画像から人を検出するように学習された機械学習モデルを利用して、画像imから人を検出する。機械学習モデルは、例えば、CNNであるが、これに限られない。人検出部132Aは、人を検出可能な既存の任意の方法を利用できる。 The person detection unit 132A detects a person from the image im stored in the storage unit 12. The person detection unit 132A detects a person from the image im, for example, using a machine learning model learned to detect a person from an image. The machine learning model is, for example, CNN, but is not limited to this. The person detection unit 132A can use any existing method capable of detecting a person.

顔検出部132Bは、記憶部12に保存された画像imから、人の顔を検出する。顔検出部132Bは、例えば、画像から顔を検出するように学習された機械学習モデルを利用して、画像imから顔を検出する。機械学習モデルは、例えば、CNNであるが、これに限られない。顔検出部132Bは、顔を検出可能な既存の任意の方法を利用できる。 The face detection unit 132B detects a human face from the image im stored in the storage unit 12. The face detection unit 132B detects a face from the image im, for example, using a machine learning model trained to detect faces from images. The machine learning model is, for example, CNN, but is not limited to this. The face detection unit 132B can use any existing method capable of detecting a face.

<撮影装置1が実行する処理>
次に、撮影装置1が実行する処理について説明する。図7は、撮影装置1が実行する処理の一例を示すフローチャートである。図8は、撮影装置1が実行する処理を説明する模式図である。図8は、カメラから経時的に取得される一連の画像imを示しており、検出対象は人である。
<Processing executed by photographing device 1>
Next, the processing executed by the photographing device 1 will be explained. FIG. 7 is a flowchart illustrating an example of a process executed by the photographing device 1. FIG. 8 is a schematic diagram illustrating the processing executed by the photographing device 1. FIG. 8 shows a series of images im acquired from a camera over time, and the detection target is a person.

ユーザが撮影装置1を操作して、撮影装置1に処理を開始させると、ユーザが撮影装置1を操作して、撮影装置1に処理を終了させるまで、ステップS201~ステップS215の処理が所定の時間間隔で実行される。 When the user operates the photographing device 1 to cause the photographing device 1 to start processing, the processes in steps S201 to S215 continue in a predetermined manner until the user operates the photographing device 1 and causes the photographing device 1 to finish the process. Runs at time intervals.

(ステップS201)
まず、撮影装置1が処理を開始すると、撮影部134がカメラを起動し、取得部131がカメラから画像imの取得を開始する(ステップS201)。取得部131は、例えば、カメラから1秒に1枚の画像imを取得し、撮影日時などと対応付けて画像情報121として記憶部12に一時的に保存する。取得部131がカメラから画像imを取得する時間間隔は任意に設定可能である。
(Step S201)
First, when the photographing device 1 starts processing, the photographing unit 134 starts the camera, and the acquiring unit 131 starts acquiring the image im from the camera (step S201). For example, the acquisition unit 131 acquires one image im from a camera every second, and temporarily stores it in the storage unit 12 as image information 121 in association with the shooting date and time. The time interval at which the acquisition unit 131 acquires the image im from the camera can be set arbitrarily.

(ステップS202)
人検出部132Aは、記憶部12に新たな画像imが保存されると、保存された画像imに対して人の検出処理を実行し、画像imから人を検出する(ステップS202)。画像imに複数の人が含まれる場合、複数の人が検出される。
(Step S202)
When the new image im is saved in the storage unit 12, the person detection unit 132A performs a person detection process on the saved image im, and detects a person from the image im (step S202). When image im includes multiple people, multiple people are detected.

(ステップS203)
人検出部132Aは、画像imから人が検出されたか確認する(ステップS203)。人が検出されなかった場合(ステップS203:NO)、画像imは削除され、処理はステップS213に進む。人が検出された場合(ステップS203:YES)、処理はステップS204に進む。
(Step S203)
The person detection unit 132A checks whether a person is detected from the image im (step S203). If no person is detected (step S203: NO), the image im is deleted and the process proceeds to step S213. If a person is detected (step S203: YES), the process proceeds to step S204.

図8の例では、人が写っていない画像im1が取得された場合、処理はステップS213に進み、人が写った画像im2が取得された場合、処理はステップS204に進む。 In the example of FIG. 8, if the image im1 that does not include a person is acquired, the process proceeds to step S213, and if the image im2 that includes a person is acquired, the process proceeds to step S204.

(ステップS204)
顔検出部132Bは、記憶部12に新たな画像imが保存されると、保存された画像imに対して顔の検出処理を実行し、画像imから顔を検出する(ステップS204)。画像imに複数の顔が含まれる場合、複数の顔が検出される。
(Step S204)
When the new image im is stored in the storage unit 12, the face detection unit 132B performs face detection processing on the stored image im and detects a face from the image im (step S204). When image im includes multiple faces, multiple faces are detected.

(ステップS205)
顔検出部132Bは、画像imから顔が検出されたか確認する(ステップS205)。顔が検出されなかった場合(ステップS205:NO)、処理はステップS208に進む。顔が検出された場合(ステップS205:YES)、処理はステップS206に進む。
(Step S205)
The face detection unit 132B checks whether a face is detected from the image im (step S205). If no face is detected (step S205: NO), the process proceeds to step S208. If a face is detected (step S205: YES), the process advances to step S206.

図8の例では、顔が小さくて検出されていない画像im1が取得された場合、処理はステップS208に進み、顔が検出されている画像im2が取得された場合、処理はステップS206に進む。 In the example of FIG. 8, if the image im1 in which the face is small and is not detected is obtained, the process proceeds to step S208, and if the image im2 in which the face is detected is obtained, the process proceeds to step S206.

(ステップS206)
通知部133は、画像imから検出された顔が画像imの第1領域r1に含まれるか判定する(ステップS206)。ここで、第1領域r1及び第2領域r2について説明する。
(Step S206)
The notification unit 133 determines whether the face detected from the image im is included in the first region r1 of the image im (step S206). Here, the first region r1 and the second region r2 will be explained.

第1領域r1は、人又は顔がそこに位置している間、撮影を実行するよう設定された画像im上の領域であって、画像imにおける顔の位置として好ましい位置の範囲として設定された領域である。第1領域r1は、例えば、画像imの中心を含む領域(中央の領域)であるが、これに限られない。顔が第1領域r1に含まれる画像imは、顔を適切に撮影した画像imとなる。 The first area r1 is an area on the image im in which photography is set to be performed while a person or face is located there, and is set as a range of positions preferable as the position of the face in the image im. It is an area. The first region r1 is, for example, a region including the center of the image im (center region), but is not limited thereto. The image im in which the face is included in the first region r1 is an image im in which the face is appropriately photographed.

第1領域r1は、縦横の長さがいずれも画像imの輪郭より短い矩形の領域(図8参照)でもよいし、画像imの中央を縦断又は横断する矩形の領域でもよいし、円形又は楕円形の領域でもよい。第1領域r1の形状及び大きさは任意に設定可能である。 The first region r1 may be a rectangular region whose vertical and horizontal lengths are both shorter than the outline of the image im (see FIG. 8), a rectangular region that cuts or crosses the center of the image im, or a circular or elliptical region. It can also be in the area of form. The shape and size of the first region r1 can be set arbitrarily.

第2領域r2は、人又は顔がそこに位置している間、撮影を実行するよう設定された画像im上の領域であって、第1領域r1以外の領域である。第2領域r2は、画像imにおける第1領域r1以外の全体であってもよいし、一部であってもよい。人又は顔が第2領域r2に含まれる画像imは、人又は顔を撮影した画像imとなる。 The second area r2 is an area on the image im that is set to be photographed while a person or face is located there, and is an area other than the first area r1. The second area r2 may be the entire area other than the first area r1 in the image im, or may be a part of the image im. The image im in which a person or a face is included in the second region r2 is an image im of a person or a face.

第2領域r2は、例えば、縦横の長さがいずれも画像imの輪郭より短い矩形の第1領域r1の周囲を囲む矩形の領域でもよいし、画像imの中央を縦断又は横断する矩形の第1領域r1を左右又は上下で挟む2分割された領域でもよいし、円形又は楕円形の第1領域r1の周囲を囲む円形又は楕円形の領域でもよい。第2領域r2の形状及び大きさは任意に設定可能である。 The second region r2 may be, for example, a rectangular region surrounding the first region r1, which is a rectangle whose length and width are both shorter than the outline of the image im, or a rectangular region that extends vertically or crosses the center of the image im. It may be a two-divided area sandwiching one area r1 left and right or top and bottom, or it may be a circular or elliptical area surrounding a circular or elliptical first area r1. The shape and size of the second region r2 can be set arbitrarily.

なお、本実施形態において、第2領域r2は、第1領域r1以外の全体であるものとする。したがって、画像imから検出された顔が第1領域r1に含まれない場合、顔は第2領域r2に含まれることとなる。 Note that, in this embodiment, the second region r2 is the entire area other than the first region r1. Therefore, if the face detected from the image im is not included in the first region r1, the face is included in the second region r2.

通知部133は、顔の全体が第1領域r1に含まれる場合、顔が画像imの第1領域r1に含まれると判定してもよいし、顔の重心が第1領域r1に含まれる場合、顔が画像imの第1領域r1に含まれると判定してもよい。画像imから複数の顔が検出されている場合、顔が1つでも第1領域r1に含まれていれば、顔が画像imの第1領域r1に含まれると判定してもよい。 The notification unit 133 may determine that the face is included in the first area r1 of the image im if the entire face is included in the first area r1, or may determine that the face is included in the first area r1 if the center of gravity of the face is included in the first area r1. , it may be determined that the face is included in the first region r1 of the image im. When a plurality of faces are detected from the image im, if at least one face is included in the first region r1, it may be determined that the face is included in the first region r1 of the image im.

顔が第1領域r1に含まれる場合(ステップS206:YES)、処理はステップS207に進む。顔が第1領域r1に含まれない(第2領域r2に含まれる)場合(ステップS206:NO)、処理はステップS208に進む。 If the face is included in the first region r1 (step S206: YES), the process proceeds to step S207. If the face is not included in the first region r1 (included in the second region r2) (step S206: NO), the process proceeds to step S208.

図8の例では、顔が第1領域r1の内側にある画像im4が取得された場合、処理はステップS207に進み、顔が第1領域r1の外側にいる画像im3が取得された場合、処理はステップS208に進む。なお、図8の例では、検出された顔に対応するバウンディングボックスb2の重心の位置により、顔が第1領域r1に含まれるか判定されるものとする。 In the example of FIG. 8, if the image im4 with the face inside the first area r1 is acquired, the process proceeds to step S207, and if the image im3 with the face outside the first area r1 is acquired, the process The process proceeds to step S208. In the example of FIG. 8, it is assumed that it is determined whether the face is included in the first region r1 based on the position of the center of gravity of the bounding box b2 corresponding to the detected face.

(ステップS207)
通知部133は、顔が第1領域r1に含まれる場合、出力装置210を制御して、第1パターンでユーザに通知する(ステップS207)。例えば、通知部133は、バイブレータを第1パターンで振動させることにより、顔が第1領域r1に含まれることをユーザに通知する。また、通知部133は、スピーカから第1パターンの音を出力することにより、顔が第1領域r1に含まれることをユーザに通知してもよい。このように、振動又は音でユーザに通知することにより、ユーザは、撮影装置1の画面を見ることなく、顔が第1領域r1に含まれていることを知ることができる。図8の例では、人が第1領域r1に含まれる画像im3が取得された場合、その旨が第1パターンでユーザに通知される。
(Step S207)
When the face is included in the first region r1, the notification unit 133 controls the output device 210 to notify the user using the first pattern (step S207). For example, the notification unit 133 notifies the user that the face is included in the first region r1 by vibrating the vibrator in the first pattern. Furthermore, the notification unit 133 may notify the user that the face is included in the first region r1 by outputting the first pattern of sound from the speaker. In this way, by notifying the user with vibration or sound, the user can know that the face is included in the first region r1 without looking at the screen of the photographing device 1. In the example of FIG. 8, when an image im3 in which a person is included in the first region r1 is acquired, the user is notified of this in the first pattern.

(ステップS208)
一方、通知部133は、顔が検出されていない、又は、顔が第1領域r1に含まれない(顔が第2領域r2に含まれる)場合、出力装置210を制御して、第2パターンでユーザに通知する(ステップS208)。第2パターンは、第1パターンと異なる任意のパターンである。例えば、通知部133は、バイブレータを第2パターンで振動させることにより、顔が検出されていない又は顔が第2領域r2に含まれることをユーザに通知する。また、通知部133は、スピーカから第2パターンの音を出力することにより、顔が検出されていない又は顔が第2領域r2に含まれることをユーザに通知してもよい。このように、振動又は音でユーザに通知することにより、ユーザは、撮影装置1の画面を見ることなく、顔が検出されていない又は顔が第1領域r1に含まれていない(第2領域r2に含まれている)ことを知ることができる。図8の例では、顔が検出されていな画像im2が取得された場合、及び
顔が第1領域r1に含まれない画像im3が取得された場合、その旨が第2パターンでユーザに通知される。
(Step S208)
On the other hand, if the face is not detected or the face is not included in the first region r1 (the face is included in the second region r2), the notification unit 133 controls the output device 210 to display the second pattern. The user is notified (step S208). The second pattern is an arbitrary pattern different from the first pattern. For example, the notification unit 133 notifies the user that the face is not detected or that the face is included in the second region r2 by vibrating the vibrator in the second pattern. Furthermore, the notification unit 133 may notify the user that the face is not detected or that the face is included in the second region r2 by outputting the second pattern of sound from the speaker. In this way, by notifying the user with vibration or sound, the user can confirm that the face has not been detected or that the face is not included in the first area r1 (the second area r2). In the example of FIG. 8, when an image im2 in which no face is detected is acquired, and an image im3 in which a face is not included in the first region r1 is acquired, the user is notified of this using the second pattern. Ru.

(ステップS209)
その後、撮影部134は、現在が撮影中であるか、すなわち、既に撮影が開始されているか確認する(ステップS209)。まだ撮影中でない場合(ステップS209:NO)、処理はステップステップS211に進む。既に撮影中である場合(ステップS209:YES)、処理はステップS210に進む。
(Step S209)
After that, the photographing unit 134 checks whether currently photographing is in progress, that is, whether photographing has already started (step S209). If photographing is not yet in progress (step S209: NO), the process advances to step S211. If shooting is already in progress (step S209: YES), the process advances to step S210.

(ステップS210)
既に撮影中である場合、撮影部134は、対象物tを撮影する(ステップS210)。具体的には、撮影部134は、画像imを撮影画像として記憶部12に保存する。撮影画像は、撮影日時などと対応付けられて撮影画像情報122として保存される。その後、処理はステップS201に戻る。
(Step S210)
If photographing is already in progress, the photographing unit 134 photographs the object t (step S210). Specifically, the photographing unit 134 stores the image im in the storage unit 12 as a photographed image. The photographed image is stored as photographed image information 122 in association with the date and time of photographing. After that, the process returns to step S201.

(ステップS211)
まだ撮影中でない場合、撮影部134は、対象物tを撮影し、撮影を開始する(ステップS211)。撮影部134は、画像imを撮影画像として記憶部12に保存する。撮影画像は、撮影日時などと対応付けられて撮影画像情報122として保存される。以降、ステップS209では、撮影中と判定される。図8の例では、画像im3が取得されると、撮影中と判定され、画像im3が撮影画像として保存される。撮影画像は、撮影日時などと対応付けられて撮影画像情報122として保存される。
(Step S211)
If photographing is not yet in progress, the photographing unit 134 photographs the object t and starts photographing (step S211). The photographing unit 134 stores the image im in the storage unit 12 as a photographed image. The photographed image is stored as photographed image information 122 in association with the date and time of photographing. Thereafter, in step S209, it is determined that shooting is in progress. In the example of FIG. 8, when the image im3 is acquired, it is determined that the image is being photographed, and the image im3 is saved as the photographed image. The photographed image is stored as photographed image information 122 in association with the date and time of photographing.

(ステップS212)
その後、通知部133は、出力装置210を制御して、ユーザに撮影が開始されたことを通知する。通知部133は、例えば、スピーカから撮影が開始されたことを示す音を出力することにより、撮影の開始をユーザに通知する。その後、処理はステップS201に戻る。これにより、ユーザは、撮影装置1を見ることなく、撮影が開始されたことを知ることができる。なお、撮影開始の通知は省略されてもよい。
(Step S212)
Thereafter, the notification unit 133 controls the output device 210 to notify the user that photography has started. The notification unit 133 notifies the user of the start of shooting, for example, by outputting a sound from a speaker indicating that shooting has started. After that, the process returns to step S201. This allows the user to know that photography has started without looking at the photography device 1. Note that the notification of the start of shooting may be omitted.

本実施形態では、対象物tが第1領域r1又は第2領域r2に含まれる間、所定の時間間隔(例えば1秒間隔)でカメラによる撮影が実行される。撮影の開始は、撮影が実行される期間の最初(撮影の開始時)に通知される。図8の例では、画像im2が取得されると、撮影が開始され、画像im2が撮影画像として保存されるとともに、撮影開始がユーザに通知される。 In the present embodiment, while the object t is included in the first region r1 or the second region r2, the camera performs photographing at predetermined time intervals (for example, at 1-second intervals). The start of imaging is notified at the beginning of the period during which imaging is performed (at the start of imaging). In the example of FIG. 8, when image im2 is acquired, photographing is started, image im2 is saved as a photographed image, and the user is notified of the start of photographing.

ここで、ステップS203に戻る。ステップS203において、人検出部132Aは、画像imから人が検出されたか確認する。人が検出されなかった場合(ステップS203:NO)、画像imは削除され、処理はステップS213に進む。 Here, the process returns to step S203. In step S203, the person detection unit 132A checks whether a person is detected from the image im. If no person is detected (step S203: NO), the image im is deleted and the process proceeds to step S213.

(ステップS213)
人が検出されなかった場合、撮影部134は、現在が撮影中であるか、すなわち、既に撮影が開始されているか確認する(ステップS213)。まだ撮影中でない場合(ステップS213:NO)、画像imは削除され、処理はステップステップS201に戻る。既に撮影中である場合(ステップS213:YES)、処理はステップS214に進む。
(Step S213)
If no person is detected, the photographing unit 134 checks whether photographing is currently in progress, that is, whether photographing has already started (step S213). If the image im is not yet being photographed (step S213: NO), the image im is deleted and the process returns to step S201. If shooting is already in progress (step S213: YES), the process advances to step S214.

(ステップS214)
既に撮影中である場合、撮影部134は、撮影を終了する(ステップS214)。具体的には、撮影部134は、画像imを削除する。
(Step S214)
If photographing is already in progress, the photographing unit 134 ends the photographing (step S214). Specifically, the photographing unit 134 deletes the image im.

(ステップS215)
その後、通知部133は、出力装置210を制御して、ユーザに撮影が終了したことを通知する。通知部133は、例えば、スピーカから撮影が終了したことを示す音を出力することにより、撮影の終了をユーザに通知する。その後、処理はステップS201に戻る。これにより、ユーザは、撮影装置1を見ることなく、撮影が終了したことを知ることができる。なお、撮影終了の通知は省略されてもよい。
(Step S215)
Thereafter, the notification unit 133 controls the output device 210 to notify the user that the shooting has ended. The notification unit 133 notifies the user of the end of shooting, for example, by outputting a sound from a speaker indicating that shooting has ended. After that, the process returns to step S201. Thereby, the user can know that the shooting has ended without looking at the shooting device 1. Note that the notification of completion of photographing may be omitted.

本実施形態では、対象物tが第1領域r1又は第2領域r2に含まれる間、所定の時間間隔(例えば1秒間隔)でカメラによる撮影が実行される。撮影の終了は、撮影が実行される期間の最後(撮影の終了時)に通知される。図8の例では、画像im6が取得されると、撮影が終了し、画像im6が削除されるとともに、撮影終了がユーザに通知される。 In the present embodiment, while the object t is included in the first region r1 or the second region r2, the camera performs photographing at predetermined time intervals (for example, at 1-second intervals). The end of photography is notified at the end of the period during which photography is performed (at the end of photography). In the example of FIG. 8, when image im6 is acquired, imaging ends, image im6 is deleted, and the user is notified of the end of imaging.

ここで、図8の画像imがカメラから取得された場合の処理についてまとめる。画像im1が取得された時点ではまだ撮影は開始されていないものとする。 Here, the processing when the image im in FIG. 8 is acquired from a camera will be summarized. It is assumed that imaging has not yet started at the time when image im1 is acquired.

画像im1が取得されると(ステップS201)、人が検出されず(ステップS203:NO)、かつ、撮影中ではないため(ステップS213:NO)、画像im1は削除される。 When image im1 is acquired (step S201), since no person is detected (step S203: NO) and the image is not being photographed (step S213: NO), image im1 is deleted.

画像im2が取得されると(ステップS201)、人が検出され(ステップS203:YES)、顔が検出されず(ステップS205:NO)、かつ、まだ撮影中ではないため(ステップS209:NO)、撮影装置1が第2パターンで振動し(ステップS208)、撮影が開始され(ステップS211)、画像im2が撮影画像として保存され、撮影の開始を示す音が出力される(ステップS212)。これにより、ユーザは、撮影装置1の画面を見ることなく、人は写っているが顔が第1領域r1に含まれない画像imの撮影が開始されたことを知ることができる。 When image im2 is acquired (step S201), a person is detected (step S203: YES), a face is not detected (step S205: NO), and the image is not being photographed yet (step S209: NO). The photographing device 1 vibrates in a second pattern (step S208), photographing is started (step S211), image im2 is saved as a photographed image, and a sound indicating the start of photographing is output (step S212). Thereby, the user can know, without looking at the screen of the photographing device 1, that the photographing of the image im, which includes a person but whose face is not included in the first region r1, has started.

画像im3が取得されると(ステップS201)、人が検出され(ステップS203:YES)、顔が検出され(ステップS205:YES)、顔が第1領域r1に含まれず(ステップS206:NO)、かつ、既に撮影中であるため(ステップS209:YES)、撮影装置1が第2パターンで振動し(ステップS208)、画像im3が撮影画像として保存される(ステップS210)。これにより、ユーザは、撮影装置1の画面を見ることなく、人は写っているが顔が第1領域r1に含まれない画像imが撮影されたことを知ることができる。 When image im3 is acquired (step S201), a person is detected (step S203: YES), a face is detected (step S205: YES), and the face is not included in the first region r1 (step S206: NO). Moreover, since the photographing is already in progress (step S209: YES), the photographing device 1 vibrates in the second pattern (step S208), and the image im3 is saved as the photographed image (step S210). Thereby, the user can know, without looking at the screen of the photographing device 1, that the image im, which includes a person but whose face is not included in the first region r1, has been photographed.

画像im4が取得されると(ステップS201)、人が検出され(ステップS203:YES)、顔が検出され(ステップS205:YES)、顔が第1領域r1に含まれ(ステップS206:YES)、かつ、既に撮影中であるため(ステップS209:YES)、撮影装置1が第1パターンで振動し(ステップS207)、画像im4が撮影画像として保存される(ステップS210)。これにより、ユーザは、撮影装置1の画面を見ることなく、人が写り顔が第1領域r1に含まれた画像imが撮影されたことを知ることができる。 When image im4 is acquired (step S201), a person is detected (step S203: YES), a face is detected (step S205: YES), the face is included in the first region r1 (step S206: YES), Moreover, since the photographing is already in progress (step S209: YES), the photographing device 1 vibrates in the first pattern (step S207), and the image im4 is saved as the photographed image (step S210). Thereby, the user can know that the image im in which a person's face is included in the first region r1 has been taken without looking at the screen of the photographing device 1.

画像im5が取得されると(ステップS201)、人が検出され(ステップS203:YES)、顔が検出され(ステップS205:YES)、顔が第1領域r1に含まれず(ステップS206:NO)、かつ、既に撮影中であるため(ステップS209:YES)、撮影装置1が第2パターンで振動し(ステップS208)、画像im5が撮影画像として保存される(ステップS210)。これにより、ユーザは、撮影装置1の画面を見ることなく、人は写っているが顔が第1領域r1に含まれない画像imが撮影されたことを知ることができる。 When image im5 is acquired (step S201), a person is detected (step S203: YES), a face is detected (step S205: YES), and the face is not included in the first region r1 (step S206: NO). Moreover, since the photographing is already in progress (step S209: YES), the photographing device 1 vibrates in the second pattern (step S208), and the image im5 is saved as the photographed image (step S210). Thereby, the user can know, without looking at the screen of the photographing device 1, that the image im, which includes a person but whose face is not included in the first region r1, has been photographed.

画像im6が取得されると(ステップS201)、人が検出されず(ステップS203:NO)、かつ、既に撮影中であるため(ステップS213:YES)、撮影は終了し(ステップS214)、画像im6は削除され、撮影の終了を示す音が出力される(ステップS215)。これにより、ユーザは、撮影装置1の画面を見ることなく、人が写った画像imの撮影が終了したことを知ることができる。 When image im6 is acquired (step S201), since no person is detected (step S203: NO) and photography is already in progress (step S213: YES), photography ends (step S214), and image im6 is acquired (step S201). is deleted, and a sound indicating the end of photography is output (step S215). Thereby, the user can know that the photographing of the image im in which the person has been captured has been completed without looking at the screen of the photographing device 1.

<まとめ>
以上説明した通り、撮影装置1は、カメラから画像imを取得し、画像imから人を検出し、画像imから顔を検出し、検出された顔が画像imの第1領域r1に含まれた場合に第1パターンで通知し、顔が画像imの第1領域r1に含まれず、かつ、検出された人が第1領域r1又は第2領域r2に含まれた場合に第1パターンとは異なる第2パターンで通知し、人が第1領域r1又は第2領域r2に含まれている間、所定の時間間隔で前記カメラにより撮影を実行する。
<Summary>
As explained above, the photographing device 1 acquires the image im from the camera, detects a person from the image im, detects a face from the image im, and detects that the detected face is included in the first region r1 of the image im. The first pattern is different from the first pattern when the face is not included in the first area r1 of the image im and the detected person is included in the first area r1 or the second area r2. Notification is made using a second pattern, and while the person is included in the first region r1 or the second region r2, photography is performed with the camera at predetermined time intervals.

第1パターン及び第2パターンの通知があるか否かにより、ユーザ(撮影者)は、人が撮影されているか否かを知ることができる。したがって、ユーザは、第1パターン又は第2パターンの通知が行われるように撮影装置1(カメラ)の向きを調整するだけで、撮影装置1の画面を見ることなく人を撮影することができる。 Depending on whether there are notifications of the first pattern and the second pattern, the user (photographer) can know whether a person is being photographed. Therefore, the user can photograph a person without looking at the screen of the photographing device 1 by simply adjusting the direction of the photographing device 1 (camera) so that the first pattern or the second pattern is notified.

また、第1パターン及び第2パターンのいずれの通知が行われているかにより、ユーザは、撮影されている人の顔が画像imのどこに写っているか知ることができる。したがって、ユーザは、第1パターンの通知が行われるように撮影装置1(カメラ)の向きを調整するだけで、撮影装置1の画面を見ることなく顔を適切な位置で撮影することができる。 Furthermore, depending on whether the notification of the first pattern or the second pattern is performed, the user can know where in the image im the face of the person being photographed is shown. Therefore, the user can photograph a face at an appropriate position without looking at the screen of the photographing device 1 by simply adjusting the orientation of the photographing device 1 (camera) so that the first pattern notification is performed.

なお、本実施形態において、画像imから顔が検出された場合、撮影装置1は、検出された顔に対して顔認証処理を実行してもよい。顔認証処理により、画像imに含まれる人物が特定された場合、特定された人物を示す情報を画像im(撮影画像)に対応付けて撮影画像情報122として保存してもよい。 Note that in this embodiment, when a face is detected from the image im, the photographing device 1 may perform face authentication processing on the detected face. When a person included in the image im is identified through the face authentication process, information indicating the identified person may be stored as the photographed image information 122 in association with the image im (the photographed image).

また、顔認証処理により、画像imに含まれる人物が特定され、その人物が予め設定された所定の人物であった場合、通知部133は、その旨を第3パターンでユーザに通知してもよい。第3パターンは、第1パターン及び第2パターンと異なる振動又は音のパターンである。これにより、ユーザは、撮影装置1の画面を見ることなく、所定の人物が撮影されていることを知ることができる。 Further, if the person included in the image im is identified through the face recognition process and the person is a predetermined person set in advance, the notification unit 133 may notify the user of this in a third pattern. good. The third pattern is a vibration or sound pattern different from the first pattern and the second pattern. Thereby, the user can know that a predetermined person is being photographed without looking at the screen of the photographing device 1.

また、顔認証処理により、画像imに含まれる人物が特定され、その人物が予め設定された所定の人物であった場合のみ、撮影部134は、撮影を実行してもよい。これにより、画像imに所定の人物が写っている場合だけ、撮影を実行することができる。 Further, the photographing unit 134 may perform photographing only when the person included in the image im is identified by the face authentication process and the person is a predetermined person set in advance. Thereby, photography can be executed only when a predetermined person is included in the image im.

<付記>
本実施形態は、以下の開示を含む。
<Additional notes>
This embodiment includes the following disclosure.

(付記1)
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得処理と、
前記画像から対象物を検出する検出処理と、
前記検出処理により検出された前記対象物が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記検出処理により検出された前記対象物が前記画像の第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知処理と、
前記対象物が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、
を含む撮影方法。
(Additional note 1)
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition process of acquiring an image from the camera;
a detection process of detecting a target object from the image;
If the target object detected by the detection process is included in a first area of the image, a first pattern is notified; if the target object detected by the detection process is included in a second area of the image, a first pattern is provided. a notification process of notifying with a second pattern different from the first pattern when the
a photographing process of photographing with the camera at predetermined time intervals while the object is included in the first region or the second region;
Shooting methods including.

(付記2)
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得処理と、
前記画像から人を検出する人検出処理と、
前記画像から顔を検出する顔検出処理と、
前記顔検出処理により検出された前記顔が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記顔が前記画像の第1領域に含まれず、かつ、前記人検出処理により検出された前記人が前記第1領域又は第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知処理と、
前記人が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、
を含む撮影方法。
(Additional note 2)
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition process of acquiring an image from the camera;
a person detection process for detecting a person from the image;
face detection processing for detecting a face from the image;
If the face detected by the face detection process is included in a first area of the image, a first pattern is notified, and if the face is not included in the first area of the image and the person detection process notification processing of notifying with a second pattern different from the first pattern when the detected person is included in the first area or the second area;
a photographing process of photographing with the camera at predetermined time intervals while the person is included in the first region or the second region;
Shooting methods including.

(付記3)
前記対象物は、人、動物又はこれらの顔である
付記1に記載の撮影方法。
(Additional note 3)
The photographing method according to appendix 1, wherein the object is a person, an animal, or a face thereof.

(付記4)
前記第1領域は、前記画像の中心を含む領域である
付記1又は付記2に記載の撮影方法。
(Additional note 4)
The photographing method according to appendix 1 or 2, wherein the first area is an area including the center of the image.

(付記5)
前記第2領域は、前記画像の前記第1領域以外の領域である
付記1又は付記2に記載の撮影方法。
(Appendix 5)
The photographing method according to appendix 1 or 2, wherein the second area is an area other than the first area of the image.

(付記6)
前記通知処理は、振動により行われる
付記1又は付記2に記載の撮影方法。
(Appendix 6)
The photographing method according to supplementary note 1 or supplementary note 2, wherein the notification process is performed by vibration.

(付記7)
前記通知処理は、撮影の開始時及び終了時の少なくとも一方に音で通知する
付記1又は付記2に記載の撮影方法。
(Appendix 7)
The photographing method according to supplementary note 1 or supplementary note 2, wherein the notification process is to notify by sound at least one of the start and end of shooting.

(付記8)
前記画像から顔認証する顔認証処理を更に含み、
通知処理は、前記顔認証処理により所定の人物が特定された場合に第3パターンで通知する
付記1又は付記2に記載の撮影方法。
(Appendix 8)
further comprising face recognition processing for performing face recognition from the image,
The photographing method according to supplementary note 1 or supplementary note 2, wherein the notification process is to notify using a third pattern when a predetermined person is identified by the face authentication process.

(付記9)
カメラを備えた撮影装置であって、
前記カメラから画像を取得する取得部と、
前記画像から対象物を検出する検出部と、
前記検出部により検出された前記対象物が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記検出部により検出された前記対象物が前記画像の第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知部と、
前記対象物が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影部と、
を備える撮影装置。
(Appendix 9)
A photographing device equipped with a camera,
an acquisition unit that acquires an image from the camera;
a detection unit that detects a target object from the image;
A first pattern is used to notify when the object detected by the detection section is included in a first region of the image, and a first pattern is provided when the object detected by the detection section is included in a second region of the image. a notification unit that notifies using a second pattern different from the first pattern when the
a photographing unit that photographs the object with the camera at predetermined time intervals while the object is included in the first region or the second region;
A photographing device equipped with.

(付記10)
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得部と、
前記画像から人を検出する人検出部と、
前記画像から顔を検出する顔検出部と、
前記顔検出部により検出された前記顔が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記顔が前記画像の第1領域に含まれず、かつ、前記人検出部により検出された前記人が前記第1領域又は第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知部と、
前記人が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影部と、
を備える撮影装置。
(Appendix 10)
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition unit that acquires an image from the camera;
a person detection unit that detects a person from the image;
a face detection unit that detects a face from the image;
If the face detected by the face detection unit is included in the first area of the image, a first pattern is notified; if the face is not included in the first area of the image, and the person detection unit a notification unit configured to notify using a second pattern different from the first pattern when the detected person is included in the first area or the second area;
a photographing unit that photographs with the camera at predetermined time intervals while the person is included in the first region or the second region;
A photographing device equipped with.

(付記11)
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得処理と、
前記画像から対象物を検出する検出処理と、
前記検出処理により検出された前記対象物が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記検出処理により検出された前記対象物が前記画像の第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知処理と、
前記対象物が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、
を含む撮影方法をコンピュータに実行させるためのプログラム。
(Appendix 11)
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition process of acquiring an image from the camera;
a detection process of detecting a target object from the image;
If the target object detected by the detection process is included in a first area of the image, a first pattern is notified; if the target object detected by the detection process is included in a second area of the image, a first pattern is provided. a notification process of notifying with a second pattern different from the first pattern when the
a photographing process of photographing with the camera at predetermined time intervals while the object is included in the first region or the second region;
A program that causes a computer to execute shooting methods including

(付記12)
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得処理と、
前記画像から人を検出する人検出処理と、
前記画像から顔を検出する顔検出処理と、
前記顔検出処理により検出された前記顔が前記画像の第1領域に含まれた場合に第1パターンで通知し、前記顔が前記画像の第1領域に含まれず、かつ、前記人検出処理により検出された前記人が前記第1領域又は第2領域に含まれた場合に前記第1パターンとは異なる第2パターンで通知する通知処理と、
前記人が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、
を含む撮影方法をコンピュータに実行させるためのプログラム。
(Appendix 12)
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition process of acquiring an image from the camera;
a person detection process for detecting a person from the image;
face detection processing for detecting a face from the image;
If the face detected by the face detection process is included in a first area of the image, a first pattern is notified, and if the face is not included in the first area of the image and the person detection process notification processing of notifying with a second pattern different from the first pattern when the detected person is included in the first area or the second area;
a photographing process of photographing with the camera at predetermined time intervals while the person is included in the first region or the second region;
A program that causes a computer to execute shooting methods including

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims rather than the above-mentioned meaning, and it is intended that all changes within the meaning and range equivalent to the claims are included. Further, the present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. The embodiments are also included in the technical scope of the present invention.

1:撮影装置
11:通信部
12:記憶部
13:制御部
101:プロセッサ
102:メモリ
103:ストレージ
104:通信I/F
105:入出力I/F
106:ドライブ装置
107:入力装置
108:出力装置
109:記録メディア
121:画像情報
122:撮影画像情報
131:取得部
132:検出部
132A:人検出部
132B:顔検出部
133:通知部
134:撮影部
1: Imaging device 11: Communication unit 12: Storage unit 13: Control unit 101: Processor 102: Memory 103: Storage 104: Communication I/F
105: Input/output I/F
106: Drive device 107: Input device 108: Output device 109: Recording medium 121: Image information 122: Photographed image information 131: Acquisition section 132: Detection section 132A: Person detection section 132B: Face detection section 133: Notification section 134: Photography Department

Claims (7)

カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得処理と、
前記画像から人を検出する人検出処理と、
前記画像から顔を検出する顔検出処理と、
前記顔検出処理により検出された前記顔が前記画像の第1領域に含まれた場合に第1パターンの振動及び音の少なくとも一方で通知し、前記顔が前記画像の第1領域に含まれず、かつ、前記人検出処理により検出された前記人が前記第1領域又は第2領域に含まれた場合に前記第1パターンとは異なる第2パターンの振動及び音の少なくとも一方で通知する通知処理と、
前記人が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、
を含む撮影方法。
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition process of acquiring an image from the camera;
a person detection process for detecting a person from the image;
face detection processing for detecting a face from the image;
If the face detected by the face detection process is included in a first region of the image , at least one of a first pattern of vibration and sound is notified, and the face is not included in the first region of the image; and a notification process of notifying at least one of vibration and sound of a second pattern different from the first pattern when the person detected by the person detection process is included in the first area or the second area. ,
a photographing process of photographing with the camera at predetermined time intervals while the person is included in the first region or the second region;
Shooting methods including.
前記第1領域は、前記画像の中心を含む領域である
請求項1に記載の撮影方法。
The photographing method according to claim 1 , wherein the first area is an area including the center of the image.
前記第2領域は、前記画像の前記第1領域以外の領域である
請求項1に記載の撮影方法。
The photographing method according to claim 1 , wherein the second area is an area other than the first area of the image.
前記通知処理は、撮影の開始時及び終了時の少なくとも一方に音で通知する
請求項1に記載の撮影方法。
2. The photographing method according to claim 1 , wherein the notification process includes notifying by sound at least one of the start and end of photographing.
前記画像から顔認証する顔認証処理を更に含み、
通知処理は、前記顔認証処理により所定の人物が特定された場合に第3パターンで通知する
請求項1に記載の撮影方法。
further comprising face recognition processing for performing face recognition from the image,
2. The photographing method according to claim 1 , wherein the notification process includes notification using a third pattern when a predetermined person is identified by the face authentication process.
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得部と、
前記画像から人を検出する人検出部と、
前記画像から顔を検出する顔検出部と、
前記顔検出部により検出された前記顔が前記画像の第1領域に含まれた場合に第1パターンの振動及び音の少なくとも一方で通知し、前記顔が前記画像の第1領域に含まれず、かつ、前記人検出部により検出された前記人が前記第1領域又は第2領域に含まれた場合に前記第1パターンとは異なる第2パターンの振動及び音の少なくとも一方で通知する通知部と、
前記人が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影部と、
を備える撮影装置。
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition unit that acquires an image from the camera;
a person detection unit that detects a person from the image;
a face detection unit that detects a face from the image;
If the face detected by the face detection unit is included in a first area of the image , at least one of a first pattern of vibration and sound is notified, and the face is not included in the first area of the image; and a notification unit that notifies at least one of vibration and sound of a second pattern different from the first pattern when the person detected by the person detection unit is included in the first area or the second area. ,
a photographing unit that photographs with the camera at predetermined time intervals while the person is included in the first region or the second region;
A photographing device equipped with.
カメラを備えた撮影装置が実行する撮影方法であって、
前記カメラから画像を取得する取得処理と、
前記画像から人を検出する人検出処理と、
前記画像から顔を検出する顔検出処理と、
前記顔検出処理により検出された前記顔が前記画像の第1領域に含まれた場合に第1パターンの振動及び音の少なくとも一方で通知し、前記顔が前記画像の第1領域に含まれず、かつ、前記人検出処理により検出された前記人が前記第1領域又は第2領域に含まれた場合に前記第1パターンとは異なる第2パターンの振動及び音の少なくとも一方で通知する通知処理と、
前記人が前記第1領域又は前記第2領域に含まれている間、所定の時間間隔で前記カメラにより撮影する撮影処理と、
を含む撮影方法をコンピュータに実行させるためのプログラム。
A photographing method performed by a photographing device equipped with a camera, the method comprising:
an acquisition process of acquiring an image from the camera;
a person detection process for detecting a person from the image;
face detection processing for detecting a face from the image;
If the face detected by the face detection process is included in a first region of the image , at least one of a first pattern of vibration and sound is notified, and the face is not included in the first region of the image; and a notification process of notifying at least one of vibration and sound of a second pattern different from the first pattern when the person detected by the person detection process is included in the first area or the second area. ,
a photographing process of photographing with the camera at predetermined time intervals while the person is included in the first region or the second region;
A program that causes a computer to execute shooting methods including
JP2022198434A 2022-12-13 2022-12-13 Photography method, photography equipment and program Active JP7387091B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022198434A JP7387091B1 (en) 2022-12-13 2022-12-13 Photography method, photography equipment and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022198434A JP7387091B1 (en) 2022-12-13 2022-12-13 Photography method, photography equipment and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023169462A Division JP2024084684A (en) 2023-09-29 Photographing method, photographing device, and program

Publications (2)

Publication Number Publication Date
JP7387091B1 true JP7387091B1 (en) 2023-11-28
JP2024084262A JP2024084262A (en) 2024-06-25

Family

ID=88917988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022198434A Active JP7387091B1 (en) 2022-12-13 2022-12-13 Photography method, photography equipment and program

Country Status (1)

Country Link
JP (1) JP7387091B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217132A (en) 2011-03-31 2012-11-08 Sony Corp Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP2021097287A (en) 2019-12-16 2021-06-24 シャープ株式会社 Portable terminal, moving image acquisition method, and moving image acquisition program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217132A (en) 2011-03-31 2012-11-08 Sony Corp Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP2021097287A (en) 2019-12-16 2021-06-24 シャープ株式会社 Portable terminal, moving image acquisition method, and moving image acquisition program

Similar Documents

Publication Publication Date Title
US10725723B2 (en) Image processing apparatus and image processing method for dynamic thumbnail generation of omnidirectional image
BRPI0721112A2 (en) Method and device
US20160065849A1 (en) Iimage acquisition apparatus, method of controlling image acquisition apparatus, computer-readable recording medium non-transitorily storing control program of image acquisition apparatus, and image acquisition system
CN111368944B (en) Method and device for recognizing copied image and certificate photo and training model and electronic equipment
US20160353021A1 (en) Control apparatus, display control method and non-transitory computer readable medium
JP7387091B1 (en) Photography method, photography equipment and program
JP2024059809A (en) Information processing device, information processing method, information processing system, and information processing program
JP2024084262A (en) Photographing method, photographing device, and program
JP2024084684A (en) Photographing method, photographing device, and program
US20200323485A1 (en) Sleep anomaly notification system, sleep anomaly notification method, and program
KR101742779B1 (en) System for making dynamic digital image by voice recognition
JP2013149034A (en) Image display apparatus, image display method, and program
JP2010074399A (en) Device for determining composition, method of determining composition, image processing unit, method of processing image, and program
JP2012032728A (en) Image display device and its method
JP2015076681A (en) Information processing device and control method therefor, computer program and storage medium
JP2010026661A (en) Image processor, image forming apparatus, image processing method, and image processing program
JP5477025B2 (en) Image display device and program
JP7462869B2 (en) Information processing method, information processing device, and program
JP2024037028A (en) Subject imaging apparatus, subject imaging method, and program
JP5098917B2 (en) Composition determination apparatus, composition determination method, and program
JP6829348B1 (en) Shooting control method, information processing device, program, and shooting system
JP7420215B2 (en) Photography control device, system, method and program
JP6679784B2 (en) Image processing apparatus and image processing method
KR20230088280A (en) Electornic device for acquiring biometric information of and operating method thereof
JP2024025109A (en) Image generation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230410

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7387091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150