JP5550114B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5550114B2
JP5550114B2 JP2010199756A JP2010199756A JP5550114B2 JP 5550114 B2 JP5550114 B2 JP 5550114B2 JP 2010199756 A JP2010199756 A JP 2010199756A JP 2010199756 A JP2010199756 A JP 2010199756A JP 5550114 B2 JP5550114 B2 JP 5550114B2
Authority
JP
Japan
Prior art keywords
image data
person
image
capturing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010199756A
Other languages
Japanese (ja)
Other versions
JP2012060294A (en
Inventor
俊之 左近作
Original Assignee
埼玉日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 埼玉日本電気株式会社 filed Critical 埼玉日本電気株式会社
Priority to JP2010199756A priority Critical patent/JP5550114B2/en
Publication of JP2012060294A publication Critical patent/JP2012060294A/en
Application granted granted Critical
Publication of JP5550114B2 publication Critical patent/JP5550114B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、撮像装置にかかり、特に、被写体の画像を所定の間隔で取り込み、シャッターを切ることで撮像する撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that captures images of a subject at predetermined intervals and captures images by releasing a shutter.

近年、デジタルカメラやカメラ機能が搭載された携帯電話機の普及により、写真を撮像する機会が増えている。そして、人物の写真を撮る場合には、笑顔を撮影するなど、所望の表情を撮影することが望まれており、そのようなシャッターチャンスを自動的にとらえる機能が必要となる。   In recent years, with the widespread use of digital cameras and mobile phones equipped with camera functions, opportunities for taking photographs have increased. When taking a picture of a person, it is desired to take a desired facial expression such as taking a smile, and a function for automatically capturing such a photo opportunity is required.

例えば、特許文献1では、被写体である人物の良い表情を撮影するための設備を備えた写真撮影スタジオが開示されている。具体的に、特許文献1の写真撮影スタジオは、まず、記憶している映像や音声のコンテンツを再生し、この映像や音声の再生中に所定の間隔で被写体の画像データを取得する。そして、取得した画像データを逐次評価し、評価値が所定値以上のとき、例えば、被写体である人物がよい表情のときに撮像する。   For example, Patent Document 1 discloses a photography studio equipped with facilities for photographing a good facial expression of a person who is a subject. Specifically, the photography studio of Patent Document 1 first reproduces stored video and audio content, and acquires image data of the subject at a predetermined interval during reproduction of the video and audio. Then, the acquired image data is sequentially evaluated, and imaged when the evaluation value is equal to or greater than a predetermined value, for example, when the person who is the subject has a good facial expression.

特開2006−237803号公報JP 2006-237803 A

しかしながら、上述した特許文献1の技術であっても、映像や音声などのコンテンツで被写体である人物がよい表情とならない場合が生じうる。つまり、被写体である人物の所望の表情を撮影することが困難であり、写真撮影を行う者の利便性や満足度のさらなる向上を図ることができない、という問題が生じる。   However, even with the technique of Patent Document 1 described above, there may be a case where a person who is a subject does not have a good expression in content such as video and audio. That is, there is a problem that it is difficult to photograph a desired facial expression of a person who is a subject, and it is impossible to further improve the convenience and satisfaction of a photographer.

このため、本発明の目的は、上述した課題である、人物を撮影するときにおける利用者の利便性や満足度のさらなる向上を図る、ことにある。   Therefore, an object of the present invention is to further improve the convenience and satisfaction of the user when photographing a person, which is the problem described above.

上記目的を達成すべく、本発明の一形態である撮像装置は、
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備える。
そして、前記制御手段は、前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、当該第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、当該抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、を備える。
また、撮像装置は、前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の特性を抽出する撮影範囲特性抽出手段を備える。
そして、さらに、前記制御手段は、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段を備える、
という構成をとる。
In order to achieve the above object, an imaging apparatus according to an aspect of the present invention is provided.
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
Control means for controlling the image data capturing operation by the photographing means and the content data output operation by the output means.
The control unit includes a first image data capturing unit that captures the image data at a predetermined time interval by the photographing unit, and the image data captured by the first image data capturing unit. Person feature extracting means for recognizing a person and extracting a predetermined feature of the person, and second image data capturing means for capturing the image data for storage by the photographing means based on the extracted feature of the person And comprising.
The imaging apparatus further includes shooting range characteristic extracting means for extracting a predetermined characteristic within the shooting range of the image data captured by the first image data capturing means.
Further, the control means corresponds in advance to a predetermined characteristic in the photographing range extracted by the photographing range characteristic extracting means while the person feature extracting means is extracting the characteristics of the person. Content output control means for reading out the specific content data stored in the predetermined storage means and outputting from the output means,
The configuration is as follows.

また、本発明の他の形態である携帯電話機は、
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備える。
そして、前記制御手段は、前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、当該第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、当該抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、を備える。
また、携帯電話機は、前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の特性を抽出する撮影範囲特性抽出手段を備える。
そして、さらに、前記制御手段は、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段を備える、
という構成をとる。
In addition, a mobile phone which is another embodiment of the present invention,
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
Control means for controlling the image data capturing operation by the photographing means and the content data output operation by the output means.
The control unit includes a first image data capturing unit that captures the image data at a predetermined time interval by the photographing unit, and the image data captured by the first image data capturing unit. Person feature extracting means for recognizing a person and extracting a predetermined feature of the person, and second image data capturing means for capturing the image data for storage by the photographing means based on the extracted feature of the person And comprising.
In addition, the mobile phone includes photographing range characteristic extracting means for extracting a predetermined characteristic within the photographing range of the image data captured by the first image data capturing means.
Further, the control means corresponds in advance to a predetermined characteristic in the photographing range extracted by the photographing range characteristic extracting means while the person feature extracting means is extracting the characteristics of the person. Content output control means for reading out the specific content data stored in the predetermined storage means and outputting from the output means,
The configuration is as follows.

また、本発明の他の形態であるプログラムは、
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備えた撮像装置の前記制御手段に、
前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、
前記第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、
前記抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、
前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の特性を抽出する撮影範囲特性抽出手段と、
前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段と、
を実現させるためのプログラムである。
Moreover, the program which is the other form of this invention is:
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
The control means of the imaging apparatus comprising: the image data capturing operation by the photographing means; and the control means for controlling the content data output operation by the output means;
First image data capturing means for capturing the image data at predetermined time intervals in the photographing means;
Person feature extracting means for recognizing a person in the image data captured by the first image data capturing means and extracting a predetermined feature of the person;
Second image data capturing means for capturing the image data for storage in the photographing means based on the extracted characteristics of the person;
Shooting range characteristic extracting means for extracting a predetermined characteristic within the shooting range of the image data captured by the first image data capturing means;
While the characteristics of the person are extracted by the person feature extracting means, the predetermined characteristics in the photographing range extracted by the photographing range characteristic extracting means are stored in advance in correspondence with the predetermined characteristics. Content output control means for reading out specific content data and outputting from the output means;
It is a program for realizing.

また、本発明の他の形態である撮像方法は、
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備えた撮像装置による撮像方法であって、
前記撮影手段にて所定の時間間隔で前記画像データを取り込み、当該取り込んだ画像データ内の人物を認識して当該人物の所定の特徴を抽出すると共に、当該取り込んだ画像データの撮影範囲内における所定の特性を抽出して、当該抽出した撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力し、
前記抽出した人物の特徴に基づいて、前記撮影手段にて保存用の前記画像データを取り込む、
という構成をとる。
In addition, an imaging method according to another aspect of the present invention includes:
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
An image capturing method comprising: an image capturing apparatus comprising: an image data capturing operation by the image capturing unit; and a control unit that controls an output operation of the content data by the output unit,
The image capturing means captures the image data at a predetermined time interval, recognizes a person in the captured image data, extracts a predetermined feature of the person, and determines a predetermined range within the capturing range of the captured image data. The specific content data stored in the predetermined storage means corresponding to the predetermined characteristics in the extracted shooting range is read out and output from the output means,
Based on the extracted characteristics of the person, the image data for storage is captured by the photographing means.
The configuration is as follows.

本発明は、以上のように構成されるため、これによると、人物の所望の表情を撮影することができる可能性が高まり、利用者の利便性や満足度のさらなる向上を図ることができる。   Since this invention is comprised as mentioned above, according to this, possibility that a person's desired facial expression can be image | photographed will increase, and the further improvement of a user's convenience and satisfaction can be aimed at.

実施形態1におけるカメラの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a camera in Embodiment 1. FIG. 人物の属性とコンテンツとの対応表の一例を示す図である。It is a figure which shows an example of the correspondence table | surface of a person's attribute and content. 実施形態1におけるカメラの動作を示すフローチャートである。6 is a flowchart illustrating the operation of the camera according to the first embodiment. 実施形態2におけるカメラに記憶される属性情報の一例を示す図である。It is a figure which shows an example of the attribute information memorize | stored in the camera in Embodiment 2. FIG. 実施形態2におけるカメラの動作を示すフローチャートである。6 is a flowchart illustrating the operation of the camera according to the second embodiment. 実施形態3における携帯電話機の構成を示すブロック図である。10 is a block diagram illustrating a configuration of a mobile phone according to Embodiment 3. FIG. 実施形態4におけるカメラの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a camera according to a fourth embodiment. 付記1における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in attachment 1.

<実施形態1>
本発明の第1の実施形態を、図1乃至図3を参照して説明する。図1は、カメラの構成を示すブロック図であり、図2は、カメラの記憶された人物の属性とコンテンツとの対応表の一例を示す図である。図3は、カメラの動作を示すフローチャートである。
<Embodiment 1>
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a camera, and FIG. 2 is a diagram illustrating an example of a correspondence table between attributes of a person stored in the camera and contents. FIG. 3 is a flowchart showing the operation of the camera.

[構成]
本発明である撮像装置は、実施形態1ではデジタルカメラである。但し、本発明の撮像装置は、デジタルカメラであることに限定されず、携帯電話機に組み込まれたカメラであってもよく、ポータブルビデオゲームなどに組み込まれたカメラであってもよい。
[Constitution]
The imaging apparatus according to the present invention is a digital camera in the first embodiment. However, the image pickup apparatus of the present invention is not limited to being a digital camera, and may be a camera incorporated in a mobile phone or a camera incorporated in a portable video game or the like.

図1に示すように、本実施形態におけるカメラ1は、カメラ全体の動作を制御する制御装置2(制御手段)と、所定のデータを記憶する記憶装置3(記憶手段)と、所定範囲の画像を撮影して画像データを取り込むカメラ部4(撮影手段)と、カメラ部4にて取り込んだ画像データなどの種々の情報を表示するディスプレイ部5と、音声などの音情報を出力するスピーカ部6と、を備えている。   As shown in FIG. 1, the camera 1 in this embodiment includes a control device 2 (control means) that controls the operation of the entire camera, a storage device 3 (storage means) that stores predetermined data, and an image in a predetermined range. A camera unit 4 (photographing means) that captures image data and captures image data, a display unit 5 that displays various information such as image data captured by the camera unit 4, and a speaker unit 6 that outputs sound information such as sound. And.

また、制御装置2は、プログラムが組み込まれることで構築された、プレビュー処理部21と、スマイル検出部22と、人物属性抽出部23と、コンテンツ出力部24と、シャッター処理部25と、を備えている。また、記憶装置3は、コンテンツ記憶部31を備えている。以下、各構成について詳述する。   In addition, the control device 2 includes a preview processing unit 21, a smile detection unit 22, a person attribute extraction unit 23, a content output unit 24, and a shutter processing unit 25 that are constructed by incorporating a program. ing. In addition, the storage device 3 includes a content storage unit 31. Hereinafter, each configuration will be described in detail.

上記プレビュー処理部21(第一の画像データ取込手段)は、カメラ部4にて所定の時間間隔で撮影した所定範囲の画像をデータ化して、画像データとして取り込む。そして、所定の時間間隔で取り込んだ画像データを、順次、ディスプレイ部5から出力することで、撮影者は撮影範囲を確認することができる。また、プレビュー処理部21は、取り込んだ画像データを、順次、スマイル検出部22と人物属性抽出部23とに出力する。   The preview processing unit 21 (first image data capturing means) converts a predetermined range of images captured at predetermined time intervals by the camera unit 4 into data and captures it as image data. The photographer can confirm the photographing range by sequentially outputting the image data captured at predetermined time intervals from the display unit 5. The preview processing unit 21 sequentially outputs the captured image data to the smile detection unit 22 and the person attribute extraction unit 23.

上記スマイル検出部22(人物特徴抽出手段)は、プレビュー処理部21が取り込んだ画像データを受け取って、当該画像データに対して、順次、人物を認識する処理、例えば、画像データ内の人物の顔を特定する処理を行う。なお、人物の顔を特定する処理は、例えば、画素の色情報などを利用して行うが、現在では種々の手法が公知であるため、その詳細は省略する。   The smile detection unit 22 (person feature extraction means) receives the image data captured by the preview processing unit 21, and sequentially recognizes the person with respect to the image data, for example, a person's face in the image data Process to identify. Note that the process of specifying a person's face is performed using, for example, pixel color information, but since various methods are currently known, details thereof are omitted.

さらに、スマイル検出部22は、特定した人物の顔が、笑顔であるか否かの判定を行う。例えば、特定した人物の顔の各特徴点の位置関係を利用して、予め記憶された基準値と比較にすることにより、笑顔であるか否かを判定する。なお、人物の顔の笑顔を判定する処理は、現在では種々の手法が公知であるためその詳細な説明は省略するが、かかる処理は、いかなる手法にて行われてもよい。   Furthermore, the smile detection unit 22 determines whether or not the face of the identified person is a smile. For example, by using the positional relationship between each feature point of the face of the specified person, it is determined whether or not it is a smile by comparing it with a reference value stored in advance. Various processes for determining the smile of a person's face are currently known, and thus detailed description thereof is omitted. However, such processes may be performed by any technique.

そして、スマイル検出部22は、画像データ内で認識された人物の顔が笑顔であると判定すると、その旨をシャッター処理部25に通知する。   When the smile detection unit 22 determines that the face of the person recognized in the image data is a smile, the smile detection unit 22 notifies the shutter processing unit 25 to that effect.

なお、スマイル検出部22が笑顔を検出する処理は一例であって、画像データ内の人間の顔の他の表情を検出してもよい。例えば、画像データ内の人間の顔の画素情報と予め設定された基準値と利用して、驚いた表情や悲しい表情を検出し、シャッター処理部25に通知してもよい。また、スマイル検出部22は、必ずしも人間の顔の特定の表情を検出することに限定されない。例えば、画像データ内の人物の特定のポーズを検出するなど、撮影者が希望するシャッターチャンスとなった瞬間を、画像処理により抽出した人物の特徴から判定して、その旨をシャッター処理部25に通知してもよい。   Note that the process of detecting a smile by the smile detection unit 22 is an example, and other facial expressions of the human face in the image data may be detected. For example, a surprised expression or a sad expression may be detected and notified to the shutter processing unit 25 using pixel information of a human face in image data and a preset reference value. Moreover, the smile detection part 22 is not necessarily limited to detecting the specific expression of a human face. For example, the moment when the photographer wants a desired photo opportunity, such as detecting a specific pose of the person in the image data, is determined from the characteristics of the person extracted by the image processing, and this is indicated to the shutter processing unit 25. You may be notified.

上記シャッター処理部25(第二の画像データ取込手段)は、スマイル検出部22にて画像データ内の人間が笑顔になったなど、シャッターチャンスであることを検出した旨の通知を受けたときに、シャッターを切る処理を行う。これにより、シャッター処理部25は、カメラ部4からプレビュー画像よりも高画質な保存用の画像データを取り込み、当該取り込んだ画像データを必要に応じて保存する。   When the shutter processing unit 25 (second image data fetching unit) receives notification that the smile detection unit 22 has detected that there is a photo opportunity, such as when a person in the image data smiles. Next, the shutter is released. As a result, the shutter processing unit 25 captures image data for storage with higher image quality than the preview image from the camera unit 4 and stores the captured image data as necessary.

また、上記人物属性抽出部23(撮影範囲特性抽出手段)は、プレビュー処理部21が取り込んだ画像データを受け取って、当該画像データに対して、順次、人物を認識する処理、例えば、画像データ内の人物の顔を特定する処理を行う。なお、この処理は、スマイル検出部22にて行われた処理結果を利用してもよい。そして、人物属性抽出部23は、特定した人物の顔から、当該人物の属性、例えば、年齢層と性別を表す画像特性を抽出する。具体的には、特定した人物の顔の各特徴点の位置関係を利用して、予め記憶された基準値と比較にすることにより、年齢層や性別を特定する。本実施形態では、画像データ内の人物の顔部分のデータから、「乳児」、「幼児」、「4〜10歳の男」、「30歳代の男」というように、人物の属性を判定する。そして、判定した人物の属性情報を、コンテンツ出力部24に渡す。   The person attribute extraction unit 23 (shooting range characteristic extraction unit) receives the image data captured by the preview processing unit 21 and sequentially recognizes the person with respect to the image data, for example, in the image data The process of identifying the face of a person is performed. This process may use the result of the process performed by the smile detection unit 22. Then, the person attribute extraction unit 23 extracts an attribute of the person, for example, an image characteristic representing the age group and sex from the identified person's face. Specifically, the age group and gender are specified by using the positional relationship of each feature point of the specified person's face and comparing it with a reference value stored in advance. In the present embodiment, the attributes of the person are determined from the data of the face portion of the person in the image data, such as “infant”, “infant”, “man between 4 and 10 years old”, and “man in his 30s”. To do. Then, the attribute information of the determined person is passed to the content output unit 24.

なお、人物属性抽出部23は、画像データ内の人物の年代、性別の一方のみを抽出してもよく、これ以外の他の属性を抽出してもよい。また、画像データ内の人物を特定する処理を行ってもよい。例えば、画像データ内の人物の顔部分の特徴点と、予め登録された登録者の特徴点とを照合して、一致すると判断した場合に、画像データ内の人物がその登録者であると判定してもよい。その場合には、判定した登録者を識別する識別情報を、画像データ内の人物の属性、つまり、画像特性として、コンテンツ出力部24に渡す。なお、人物の顔から個人を特定する処理は、現在では種々の手法が公知であるため、その詳細な説明は省略する。   The person attribute extraction unit 23 may extract only one of the age and sex of the person in the image data, or may extract other attributes. Moreover, you may perform the process which specifies the person in image data. For example, when a feature point of a person's face in the image data is compared with a feature point of a registrant registered in advance and it is determined that they match, the person in the image data is determined to be the registrant. May be. In that case, identification information for identifying the determined registrant is passed to the content output unit 24 as an attribute of a person in the image data, that is, an image characteristic. Since various methods are currently known for identifying an individual from a person's face, detailed description thereof is omitted.

また、人物属性抽出部23は、取り込んだ画像データ以外から、撮影範囲に存在する人物の属性を抽出してもよい。例えば、カメラ1にマイクを装備し、マイクから取り込まれた音声データから、人物の年齢層や性別を抽出したり、個人を特定してもよい。さらには、ICタグなどの近距離無線通信器を用いて、撮影範囲に存在する人物が所有する電子機器から送信された人物の属性情報や個人の識別情報を受信して抽出してもよい。そして、抽出した属性や個人の識別情報を、コンテンツ出力部24に通知してもよい。   In addition, the person attribute extraction unit 23 may extract attributes of a person existing in the shooting range from other than the captured image data. For example, the camera 1 may be equipped with a microphone, and a person's age group and gender may be extracted from voice data captured from the microphone, or an individual may be specified. Furthermore, using a short-distance wireless communication device such as an IC tag, the attribute information and personal identification information of a person transmitted from an electronic device owned by a person existing in the shooting range may be received and extracted. Then, the content output unit 24 may be notified of the extracted attribute and personal identification information.

上記コンテンツ出力部24(コンテンツ出力制御手段)は、人物属性抽出部23から人物の属性情報の通知を受けると、かかる属性情報に対応付けられた音データであるコンテンツを、コンテンツ記憶部31内から読み出して再生し、スピーカ部6から出力する。   When the content output unit 24 (content output control unit) receives the notification of the person attribute information from the person attribute extraction unit 23, the content output unit 24 transmits the content as sound data associated with the attribute information from the content storage unit 31. The data is read and reproduced, and output from the speaker unit 6.

ここで、コンテンツ記憶部31には、種々の音データであるコンテンツデータが記憶されている。さらに、コンテンツ記憶部31には、コンテンツ毎に、当該コンテンツデータの内容に応じてこれを聞くと笑顔になると予想される予め設定された人物の属性情報が関連付けられた対応表が記憶されている。例えば、図2(A)に示すように、属性「乳児」にコンテンツ「No.001」が対応付けられている場合に、コンテンツ出力部24は、人物属性抽出部23から画像データ内の人物の属性が「乳児」であるという通知を受けると、コンテンツ「No.001」のコンテンツデータをコンテンツ記憶部31から読み出して再生し、スピーカ部6から出力する。   Here, the content storage unit 31 stores content data that is various sound data. Furthermore, the content storage unit 31 stores, for each content, a correspondence table in which attribute information of a preset person who is expected to become a smile when listening to the content data is associated with the content data. . For example, as illustrated in FIG. 2A, when the content “No. 001” is associated with the attribute “infant”, the content output unit 24 sends the person attribute extraction unit 23 to the person in the image data. When the notification that the attribute is “infant” is received, the content data of the content “No. 001” is read from the content storage unit 31 and reproduced, and output from the speaker unit 6.

ここで、コンテンツ記憶部31には、図2(B)に示すように、各登録者の識別情報と、各コンテンツデータとが関連付けられた対応表を記憶していてもよい。例えば、登録者001が聞くと笑顔になるコンテンツとして「No.001」が対応表に関連付けられている場合に、コンテンツ出力部24は、人物属性抽出部23から画像データ内の人物の属性が「登録者001」であるという通知を受けると、コンテンツ「No.001」のコンテンツデータをコンテンツ記憶部31から読み出して再生し、スピーカ部6から出力する。   Here, as shown in FIG. 2B, the content storage unit 31 may store a correspondence table in which identification information of each registrant is associated with each content data. For example, when “No. 001” is associated with the correspondence table as a content that makes the smile when the registrant 001 listens, the content output unit 24 sets the attribute of the person in the image data from the person attribute extraction unit 23 to “ When the notification of “registrant 001” is received, the content data of the content “No. 001” is read from the content storage unit 31 and reproduced and output from the speaker unit 6.

なお、コンテンツ記憶部31に記憶されているコンテンツデータは、音データであることに限定されず、映像データであってもよい。その場合に、コンテンツ出力部24は、人物属性抽出部23から人物の属性情報の通知を受けると、かかる属性情報に対応付けられた映像データであるコンテンツを、コンテンツ記憶部31内から読み出して再生し、ディスプレイ部5(出力手段)から出力する。但し、この場合には、ディスプレイ部5がカメラ部4による撮影方向、つまり、撮影範囲にいる人物の方向を向いていて、当該人物が出力された映像を見ることができるようにする必要がある。   Note that the content data stored in the content storage unit 31 is not limited to sound data, and may be video data. In this case, when the content output unit 24 receives the notification of the person attribute information from the person attribute extraction unit 23, the content output unit 24 reads out the content that is video data associated with the attribute information from the content storage unit 31 and reproduces it. And it outputs from the display part 5 (output means). However, in this case, it is necessary that the display unit 5 be directed in the shooting direction by the camera unit 4, that is, the direction of the person in the shooting range, and the person can view the output video. .

[動作]
次に、上述したカメラ1による撮影時の動作を、図3のフローチャートを参照して説明する。
[Operation]
Next, the operation at the time of shooting by the camera 1 will be described with reference to the flowchart of FIG.

まず、カメラ1のプレビュー処理部21が、カメラ部4にて所定の時間間隔で撮影した所定範囲の画像をデータ化して、画像データとして取り込み、順次、ディスプレイ部5から出力する(ステップS1)。同時に、プレビュー処理部21は、取り込んだ画像データを、スマイル検出部22と人物属性抽出部23とに順次渡す。   First, the preview processing unit 21 of the camera 1 converts a predetermined range of images captured by the camera unit 4 at predetermined time intervals into data, captures it as image data, and sequentially outputs it from the display unit 5 (step S1). At the same time, the preview processing unit 21 sequentially transfers the captured image data to the smile detection unit 22 and the person attribute extraction unit 23.

続いて、スマイル検出部22は、プレビュー処理部21が取り込んだ画像データを受け取って、順次、画像データ内から人物の顔を認識する処理を行い、人物の顔部分の画像データと、予め記憶された笑顔判定基準を表す基準値などのデータとから、人物の顔が笑顔であるか否かの判定を行う(ステップS2)。このとき、笑顔であると判定されると(ステップS2:Yes)、シャッター処理部25がシャッターを切る処理を行う(ステップS5)。これにより、シャッター処理部25は、カメラ部4からプレビュー画像よりも高画質な保存用の画像データを取り込み、当該取り込んだ画像データを必要に応じて保存する。   Subsequently, the smile detection unit 22 receives the image data captured by the preview processing unit 21 and sequentially performs processing for recognizing a person's face from the image data, and is stored in advance as image data of the person's face part. It is determined whether or not the person's face is smiling from data such as a reference value representing the smile determination criterion (step S2). At this time, if it is determined that the user is smiling (step S2: Yes), the shutter processing unit 25 performs a process of releasing the shutter (step S5). As a result, the shutter processing unit 25 captures image data for storage with higher image quality than the preview image from the camera unit 4 and stores the captured image data as necessary.

一方、スマイル検出部22は、画像データ内から笑顔を検出できない場合には(ステップS2:NO)、プレビュー処理部21から順次送られてくる画像データに対して、笑顔の検出処理を繰り返し行う。   On the other hand, when the smile detection unit 22 cannot detect a smile from the image data (step S2: NO), the smile detection unit 22 repeatedly performs a smile detection process on the image data sequentially sent from the preview processing unit 21.

そして、スマイル検出部22にて笑顔の検出処理を行っている間には、人物属性抽出部23が、プレビュー処理部21から受け取った画像データに対して、順次、画像データ内の人物の顔を特定する処理を行う。そしてさらに、人物属性抽出部23は、特定した人物の顔から、当該人物の年齢層と性別といった属性を抽出し(ステップS3)、その属性情報をコンテンツ出力部24に通知する。なお、人物属性抽出部23は、プレビュー処理部21から順次受け取った画像データに対して属性の抽出を行った場合であっても、前の画像データに対して抽出した属性に変化がなければ、コンテンツ出力部24に属性情報は通知しない。あるいは、人物属性抽出部23は、順次受け取った全ての画像データに対して属性の抽出処理を行う必要はなく、そのうち所定の間隔で受け取った画像データに対してのみ抽出処理を行って、属性情報をコンテンツ出力部24に通知してもよい。   While the smile detection unit 22 performs smile detection processing, the person attribute extraction unit 23 sequentially applies the human face in the image data to the image data received from the preview processing unit 21. Perform the specified process. Further, the person attribute extraction unit 23 extracts attributes such as the age group and sex of the person from the identified person's face (step S3), and notifies the content output unit 24 of the attribute information. Even if the attribute extraction unit 23 performs attribute extraction on the image data sequentially received from the preview processing unit 21, if the attribute extracted with respect to the previous image data does not change, The attribute information is not notified to the content output unit 24. Alternatively, the person attribute extraction unit 23 does not need to perform attribute extraction processing on all the sequentially received image data, and performs extraction processing only on image data received at a predetermined interval, thereby obtaining attribute information. May be notified to the content output unit 24.

そして、コンテンツ出力部24は、人物属性抽出部23から通知を受けた属性情報に対応するコンテンツデータをコンテンツ記憶部31から読み出して再生し、スピーカ部6から出力する(ステップS4)。これにより、上述したように、スマイル検出部22にて笑顔の検出処理を行っている間に、撮影範囲内に位置する人物の属性に対応した音データが出力されることとなる。   Then, the content output unit 24 reads out the content data corresponding to the attribute information notified from the person attribute extraction unit 23 from the content storage unit 31, reproduces it, and outputs it from the speaker unit 6 (step S4). As a result, as described above, sound data corresponding to the attribute of the person located within the shooting range is output while the smile detection unit 22 performs the smile detection process.

[動作の一例]
ここで、例えば、「乳児」を撮影する場合を考える。まず、カメラ1のプレビュー処理部21が、撮影範囲に「乳児」が存在する画像データを所定の時間間隔で取り込む(ステップS1)。そして、スマイル検出部22にて、順次、取り込んだ画像データから「乳児」の笑顔を検出する処理が行われる(ステップS2)と同時に、人物属性抽出部23にて、取り込んだ画像データ内の人物の属性を抽出する処理が行われることで(ステップS3)、人物の属性が「乳児」であることが抽出される。
[Example of operation]
Here, for example, a case where “infant” is photographed is considered. First, the preview processing unit 21 of the camera 1 captures image data having “infant” in the photographing range at predetermined time intervals (step S1). Then, the smile detection unit 22 sequentially performs a process of detecting the smile of the “infant” from the captured image data (step S2). At the same time, the person attribute extraction unit 23 performs the person in the captured image data. Is extracted (step S3), it is extracted that the attribute of the person is “infant”.

すると、コンテンツ出力部24にて、属性「乳児」に対応するコンテンツ「No.001」が読み出されて再生され、スピーカ部6から出力される。これにより、「乳児」が聞くと笑顔になるような音であるコンテンツ「No.001」が流れる。そして、これを聞いた「乳児」の顔が笑顔になると、順次、取り込まれている画像データからスマイル検出部22にて「乳児」の「笑顔」を検出することができ(ステップS2:Yes)、その瞬間にシャッターが切られ、保存用の画像データを撮影することができる(ステップS5)。   Then, the content “No. 001” corresponding to the attribute “infant” is read and reproduced by the content output unit 24 and output from the speaker unit 6. As a result, the content “No.001”, which sounds like a smile when “infant” listens, is played. When the face of the “infant” who heard this becomes a smile, the smile detection unit 22 can sequentially detect the “smile” of the “infant” from the captured image data (step S2: Yes). At that moment, the shutter is released and image data for storage can be taken (step S5).

以上のように、本発明によると、人物の所望の表情を撮影することができる可能性が高まり、利用者の利便性や満足度のさらなる向上を図ることができる。   As described above, according to the present invention, the possibility that a desired facial expression of a person can be photographed is increased, and the convenience and satisfaction of the user can be further improved.

<実施形態2>
次に、本発明の第2の実施形態を、図4乃至図5を参照して説明する。図4は、カメラの記憶された人物の属性の出現確率の一例を示す図である。図5は、カメラの動作を示すフローチャートである。
<Embodiment 2>
Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of the appearance probability of the attribute of the person stored in the camera. FIG. 5 is a flowchart showing the operation of the camera.

本実施形態におけるカメラ1は、実施形態1で説明したものに加えて、撮影した画像データ内に複数の人物が存在する場合に対応するための構成を備えている。   In addition to the camera 1 described in the first embodiment, the camera 1 according to the present embodiment includes a configuration for dealing with a case where a plurality of persons exist in the captured image data.

具体的に、本実施形態における人物属性抽出部23は、プレビュー処理部21からの画像データ内の人物の属性を抽出したときに、属性ごとの出現確率を記憶する。例えば、属性ごとに抽出した回数を加算し、過去に属性を抽出した総数で割ることで、各属性の出現確率を更新して記憶する。そして、人物属性抽出部23は、画像データ内の人物の属性を複数抽出したときに、当該複数の属性のうち、記憶している出現確率の最も高い属性をコンテンツ出力部24に通知する属性として決定する。なお、人物の属性の選択方法は、上述した出現確率に基づく方法に限定されず、例えば、抽出した複数の属性のうち過去の出現回数が最も多い属性を選択するなど、いかなる方法で選択してもよい。   Specifically, the person attribute extraction unit 23 in the present embodiment stores the appearance probability for each attribute when extracting the attribute of the person in the image data from the preview processing unit 21. For example, the appearance probability of each attribute is updated and stored by adding the number of times extracted for each attribute and dividing by the total number of attributes extracted in the past. When the person attribute extracting unit 23 extracts a plurality of person attributes in the image data, the person attribute extracting unit 23 notifies the content output unit 24 of the stored attribute having the highest appearance probability. decide. Note that the method of selecting a person attribute is not limited to the method based on the above-described appearance probability, and can be selected by any method, for example, selecting an attribute having the largest number of past appearances among the plurality of extracted attributes. Also good.

例えば、図4に示すように、過去において「乳児」の出現確率が最も高い場合を考える。かかる状況で、人物属性抽出部23が「乳児」と「30歳代:女」の属性を抽出したとすると、「乳児」の属性が選択されて、コンテンツ出力部24に通知される。すると、コンテンツ出力部24から「乳児」に関連付けられたコンテンツデータが読み出されて出力されるため、「乳児」が笑顔になる可能性が高まり、「乳児」の笑顔を撮影できる可能性が高まる。   For example, as shown in FIG. 4, consider a case where the appearance probability of “infant” is the highest in the past. In this situation, if the person attribute extraction unit 23 extracts the attributes “infant” and “30s: woman”, the “infant” attribute is selected and notified to the content output unit 24. Then, since the content data associated with “infant” is read and output from the content output unit 24, the possibility that the “infant” is smiling increases, and the possibility that the “infant” smile can be photographed increases. .

<実施形態3>
次に、本発明の第3の実施形態を、図6を参照して説明する。図6は、本実施形態における携帯電話機100の構成を示すブロック図である。
<Embodiment 3>
Next, a third embodiment of the present invention will be described with reference to FIG. FIG. 6 is a block diagram showing a configuration of the mobile phone 100 in the present embodiment.

本実施形態における携帯電話機100は、実施形態1、2で説明したカメラ1の機能を備えた携帯電話機である。そして、携帯電話機100が備える各構成102〜106、121〜125は、実施形態1,2のものとほぼ同様の構成を備えている。   A mobile phone 100 in the present embodiment is a mobile phone having the functions of the camera 1 described in the first and second embodiments. And each structure 102-106, 121-125 with which the mobile telephone 100 is provided is equipped with the structure substantially the same as the thing of Embodiment 1,2.

これに加え、本実施形態における携帯電話機100は、インターネットなどのネットワークNにアクセス可能な無線通信部107(無線通信手段)を備えており、これにより、携帯電話機100は、ネットワークNに存在する種々のウェブサーバにアクセスすることが可能である。そして、携帯電話機100の制御装置102が備えたコンテンツ出力部124は、ネットワークN上のコンテンツサーバWにアクセスし、当該コンテンツサーバWから人物属性抽出部123から通知された人物の属性に対応するコンテンツデータを読み取る機能を有する。これに伴い、コンテンツサーバWには、音データなどのコンテンツデータが記憶されており、図2(A)と同様に、コンテンツ毎に、当該コンテンツデータの内容に応じてこれを聞くと笑顔になると予想される予め設定された人物の属性情報が関連付けられた対応表が記憶されている。   In addition, the mobile phone 100 according to the present embodiment includes a wireless communication unit 107 (wireless communication means) that can access the network N such as the Internet. It is possible to access other web servers. Then, the content output unit 124 provided in the control device 102 of the mobile phone 100 accesses the content server W on the network N, and the content corresponding to the attribute of the person notified from the content attribute extraction unit 123 from the content server W. It has a function to read data. Along with this, content data such as sound data is stored in the content server W, and when it is heard for each content according to the content of the content data as in FIG. A correspondence table in which attribute information of an expected person set in advance is associated is stored.

以上により、コンテンツ出力部124は、コンテンツサーバWから読み取ったコンテンツデータを再生して、スピーカ部106から出力することができる。従って、携帯電話機100に、撮影する人物に適切なコンテンツデータが記憶されていない場合であっても、ネットワークN上から取得することができ、人物の所望の表情を撮影することができる可能性が高まり、利用者の利便性や満足度のさらなる向上を図ることができる。   As described above, the content output unit 124 can reproduce the content data read from the content server W and output it from the speaker unit 106. Therefore, even if content data appropriate for the person to be photographed is not stored in the mobile phone 100, it can be acquired from the network N, and there is a possibility that a desired facial expression of the person can be photographed. As a result, user convenience and satisfaction can be further improved.

<実施形態4>
次に、本発明の第4の実施形態を、図7を参照して説明する。図7は、本実施形態におけるカメラ200の構成を示すブロック図である。
<Embodiment 4>
Next, a fourth embodiment of the present invention will be described with reference to FIG. FIG. 7 is a block diagram showing a configuration of the camera 200 in the present embodiment.

本実施形態におけるカメラ200は、実施形態1,2,3で説明したカメラ1や携帯電話機100とほぼ同様の構成をとっており、カメラ200が備える各構成202〜206、221,222,224,225は、実施形態1〜3のものとほぼ同様の構成を備えている。   The camera 200 in the present embodiment has substantially the same configuration as the camera 1 and the mobile phone 100 described in the first, second, and third embodiments, and each of the configurations 202 to 206, 221, 222, 224 provided in the camera 200. 225 has substantially the same configuration as that of the first to third embodiments.

これに加え、本実施形態におけるカメラ200は、制御装置202にプログラムが組み込まれることで構築された範囲特性抽出部223を備えると共に、センサ部208を備えている。上記センサ部208は、例えば、カメラ200の位置を検出するGPS(Global Positioning System)であったり、照度センサなど、種々の計測機器である。   In addition, the camera 200 according to the present embodiment includes a range characteristic extraction unit 223 constructed by incorporating a program into the control device 202 and a sensor unit 208. The sensor unit 208 is various measuring devices such as a GPS (Global Positioning System) that detects the position of the camera 200 and an illuminance sensor.

また、範囲特性抽出部223(撮影範囲特性抽出手段)は、上記センサ部208による計測値に基づいて、プレビュー処理部221にて取り込まれる画像データの撮影範囲内における場所や環境、時刻などの所定の特性を抽出し、かかる特性をコンテンツ出力部224に通知する機能を有する。例えば、GPS信号からカメラ200の位置つまり撮影範囲内の地域を、所定の特性として抽出したり、照度センサから周囲の明るさに応じた時刻を、撮影範囲内における所定の特性として抽出する。   In addition, the range characteristic extraction unit 223 (shooting range characteristic extraction unit) determines a predetermined location, environment, time, and the like within the shooting range of the image data captured by the preview processing unit 221 based on the measurement value by the sensor unit 208. Is extracted, and the content output unit 224 is notified of such characteristics. For example, the position of the camera 200, that is, the area within the shooting range is extracted as a predetermined characteristic from the GPS signal, or the time according to the ambient brightness is extracted from the illuminance sensor as the predetermined characteristic within the shooting range.

但し、範囲特性抽出部223は、必ずしもセンサ部208の計測結果を利用して撮影範囲内の所定の特性を抽出することに限定されない。例えば、カメラ200自体に装備された時計機能から時刻を取得してもよく、いかなる特性を抽出してもよい。   However, the range characteristic extraction unit 223 is not necessarily limited to extracting a predetermined characteristic within the shooting range using the measurement result of the sensor unit 208. For example, the time may be acquired from a clock function provided in the camera 200 itself, and any characteristics may be extracted.

そして、コンテンツ出力部224は、範囲特性抽出部223から通知された撮影範囲内の所定の特性に対応してコンテンツ記憶部231に記憶されたコンテンツデータを読み出して、スピーカ部206から出力する。このとき、コンテンツ記憶部231には、例えば、撮影範囲の所定の特性毎に、その特性の状況下にいる人物が聞くと笑顔になると予想される予め設定されたコンテンツデータが関連付けられた対応表が記憶されている。例えば、地域情報に、その地域の人物が聞くと笑顔になると予想されるコンテンツデータが関連付けられて記憶されていたり、時刻に応じて人物が聞くと笑顔になるコンテンツデータが時刻情報と関連付けられて記憶されている。   Then, the content output unit 224 reads the content data stored in the content storage unit 231 corresponding to the predetermined characteristic in the shooting range notified from the range characteristic extraction unit 223 and outputs the content data from the speaker unit 206. At this time, in the content storage unit 231, for example, for each predetermined characteristic of the shooting range, a correspondence table associated with preset content data that is predicted to become a smile when a person who is in the condition of the characteristic listens to it. Is remembered. For example, content data that is expected to smile when a person in that area listens to the regional information is stored in association with the content information, or content data that smiles when a person listens according to the time is associated with the time information. It is remembered.

これにより、順次取り込まれる画像データから笑顔検出が行われている間に、撮影を行っている場所、環境、時刻などの特性に応じたコンテンツデータが再生されるため、かかる特性下にいる人物を容易に笑顔などの所望の表情にさせることができる。   As a result, content data corresponding to characteristics such as the place where the image is taken, the environment, and the time are reproduced while smile detection is performed from sequentially captured image data. A desired facial expression such as a smile can be easily obtained.

<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における撮像装置の構成の概略を、図8のブロック図を参照して説明する。また、本発明における携帯電話機、プログラム、撮像方法の構成の概略について説明する。但し、本発明は、以下の構成に限定されない。
<Appendix>
Part or all of the above-described embodiment can be described as in the following supplementary notes. The outline of the configuration of the image pickup apparatus according to the present invention will be described below with reference to the block diagram of FIG. An outline of the configuration of the mobile phone, the program, and the imaging method in the present invention will be described. However, the present invention is not limited to the following configuration.

(付記1)
所定範囲の画像を撮影して画像データを取り込む撮影手段301と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段302と、
前記撮影手段301による前記画像データの取り込み動作、及び、前記出力手段302による前記コンテンツデータの出力動作を制御する制御手段303と、を備え、
前記制御手段303は、前記撮影手段301にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段331と、当該第一の画像データ取込手段331にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段332と、当該抽出した人物の特徴に基づいて前記撮影手段301にて保存用の前記画像データを取り込む第二の画像データ取込手段333と、を備えると共に、
前記第一の画像データ取込手段331にて取り込む前記画像データの撮影範囲内における所定の特性を抽出する撮影範囲特性抽出手段334を備え、
前記制御手段303は、さらに、前記人物特徴抽出手段332にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段334にて抽出した前記撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段302から出力するコンテンツ出力制御手段335を備えた、
撮影装置。
(Appendix 1)
Photographing means 301 for photographing an image of a predetermined range and capturing image data;
Output means 302 for reproducing and outputting the content data stored in the predetermined storage means;
Control means 303 for controlling the image data capturing operation by the photographing means 301 and the content data output operation by the output means 302;
The control unit 303 includes a first image data capturing unit 331 that captures the image data at a predetermined time interval in the photographing unit 301 and the image data captured by the first image data capturing unit 331. A person feature extracting unit 332 for recognizing a person in the image and extracting a predetermined feature of the person, and a second image for capturing the image data for storage by the photographing unit 301 based on the extracted feature of the person Data fetching means 333, and
A photographing range characteristic extracting unit 334 for extracting a predetermined characteristic within the photographing range of the image data captured by the first image data capturing unit 331;
The control unit 303 further corresponds in advance to a predetermined characteristic in the shooting range extracted by the shooting range characteristic extraction unit 334 while the person feature extraction unit 332 is extracting the feature of the person. Content output control means 335 for reading out the specific content data stored in the predetermined storage means and outputting it from the output means 302,
Shooting device.

(付記2)
付記1に記載の撮像装置であって、
前記撮影範囲特性抽出手段は、前記第一の画像データ取込手段にて取り込んだ前記画像データ内における所定の画像特性を抽出し、
前記コンテンツデータ出力制御手段は、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力する、
撮像装置。
(Appendix 2)
An imaging apparatus according to appendix 1, wherein
The photographing range characteristic extracting unit extracts a predetermined image characteristic in the image data captured by the first image data capturing unit,
The content data output control means stores the characteristic of the person in the predetermined storage means in advance corresponding to the image characteristic extracted by the shooting range characteristic extraction means while the person feature extraction means is extracting the feature of the person. Read the stored specific content data and output from the output means,
Imaging device.

(付記3)
付記2に記載の撮像装置であって、
前記撮影範囲特性抽出手段は、前記画像データ内の人物の予め設定された属性を前記画像特性として抽出する、
撮像装置。
(Appendix 3)
The imaging apparatus according to appendix 2, wherein
The photographing range characteristic extracting means extracts a preset attribute of a person in the image data as the image characteristic.
Imaging device.

(付記4)
付記3に記載の撮像装置であって、
前記画像データ内の人物の属性は、当該人物の年齢である、
撮像装置。
(Appendix 4)
The imaging apparatus according to attachment 3, wherein
The attribute of the person in the image data is the age of the person.
Imaging device.

(付記5)
付記3に記載の撮像装置であって、
前記画像データ内の人物の属性は、当該人物を識別する人物識別情報である、
撮像装置。
(Appendix 5)
The imaging apparatus according to attachment 3, wherein
The attribute of the person in the image data is person identification information for identifying the person.
Imaging device.

(付記6)
付記3乃至5のいずれかに記載の撮像装置であって、
前記撮影範囲特性抽出手段は、過去に抽出した前記画像特性を記憶すると共に、前記画像データ内の人物の属性を複数抽出した場合に、記憶している前記画像特性に基づいて前記抽出した属性のうちいずれかの属性を前記画像特性として抽出する、
撮像装置。
(Appendix 6)
An imaging apparatus according to any one of appendices 3 to 5,
The imaging range characteristic extraction unit stores the image characteristics extracted in the past, and extracts a plurality of attributes of the person in the image data based on the stored image characteristics. Any one of the attributes is extracted as the image characteristic.
Imaging device.

(付記7)
付記1乃至6のいずれかに記載の撮像装置であって、
ネットワークにアクセス可能な無線通信手段を備えると共に、
前記制御手段が有する前記コンテンツ出力制御手段は、前記ネットワークを介して所定の記憶手段にアクセスし、前記撮影範囲特性抽出手段にて抽出した撮影範囲内の所定の特性に予め対応して前記ネットワーク上の所定の記憶手段に記憶された特定のコンテンツデータを取得して、前記出力手段から出力する、
撮像装置。
(Appendix 7)
The imaging apparatus according to any one of appendices 1 to 6,
A wireless communication means capable of accessing the network;
The content output control means included in the control means accesses a predetermined storage means via the network, and corresponds to a predetermined characteristic in the shooting range extracted by the shooting range characteristic extraction means in advance on the network. Obtaining specific content data stored in the predetermined storage means, and outputting from the output means,
Imaging device.

(付記8)
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備え、
前記制御手段は、前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、当該第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、当該抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、を備えると共に、
前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の特性を抽出する撮影範囲特性抽出手段を備え、
前記制御手段は、さらに、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段を備えた、
携帯電話機。
(Appendix 8)
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
A control means for controlling the image data capturing operation by the photographing means and the output operation of the content data by the output means,
The control means includes first image data capturing means for capturing the image data at predetermined time intervals by the photographing means, and a person in the image data captured by the first image data capturing means. A person feature extracting means for recognizing and extracting a predetermined feature of the person, a second image data taking means for taking in the image data for storage by the photographing means based on the extracted feature of the person, With
A shooting range characteristic extracting unit that extracts a predetermined characteristic in the shooting range of the image data captured by the first image data capturing unit;
The control means is further configured to preliminarily correspond to a predetermined characteristic in the photographing range extracted by the photographing range characteristic extracting means while the person feature extracting means is extracting the feature of the person. Content output control means for reading out the specific content data stored in the storage means and outputting from the output means,
Mobile phone.

(付記9)
付記8に記載の携帯電話機であって、
前記撮影範囲特性抽出手段は、前記第一の画像データ取込手段にて取り込んだ前記画像データ内における所定の画像特性を抽出し、
前記コンテンツデータ出力制御手段は、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力する、
携帯電話機。
(Appendix 9)
The mobile phone according to appendix 8, wherein
The photographing range characteristic extracting unit extracts a predetermined image characteristic in the image data captured by the first image data capturing unit,
The content data output control means stores the characteristic of the person in the predetermined storage means in advance corresponding to the image characteristic extracted by the shooting range characteristic extraction means while the person feature extraction means is extracting the feature of the person. Read the stored specific content data and output from the output means,
Mobile phone.

(付記10)
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備えた撮像装置の前記制御手段に、
前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、
前記第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、
前記抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、
前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の特性を抽出する撮影範囲特性抽出手段と、
前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段と、
を実現させるためのプログラム。
(Appendix 10)
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
The control means of the imaging apparatus comprising: the image data capturing operation by the photographing means; and the control means for controlling the content data output operation by the output means;
First image data capturing means for capturing the image data at predetermined time intervals in the photographing means;
Person feature extracting means for recognizing a person in the image data captured by the first image data capturing means and extracting a predetermined feature of the person;
Second image data capturing means for capturing the image data for storage in the photographing means based on the extracted characteristics of the person;
Shooting range characteristic extracting means for extracting a predetermined characteristic within the shooting range of the image data captured by the first image data capturing means;
While the characteristics of the person are extracted by the person feature extracting means, the predetermined characteristics in the photographing range extracted by the photographing range characteristic extracting means are stored in advance in correspondence with the predetermined characteristics. Content output control means for reading out specific content data and outputting from the output means;
A program to realize

(付記11)
付記10に記載のプログラムであって、
前記撮影範囲特性抽出手段は、前記第一の画像データ取込手段にて取り込んだ前記画像データ内における所定の画像特性を抽出し、
前記コンテンツデータ出力制御手段は、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力する、
プログラム。
(Appendix 11)
The program according to attachment 10, wherein
The photographing range characteristic extracting unit extracts a predetermined image characteristic in the image data captured by the first image data capturing unit,
The content data output control means stores the characteristic of the person in the predetermined storage means in advance corresponding to the image characteristic extracted by the shooting range characteristic extraction means while the person feature extraction means is extracting the feature of the person. Read the stored specific content data and output from the output means,
program.

(付記12)
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備えた撮像装置による撮像方法であって、
前記撮影手段にて所定の時間間隔で前記画像データを取り込み、当該取り込んだ画像データ内の人物を認識して当該人物の所定の特徴を抽出すると共に、当該取り込んだ画像データの撮影範囲内における所定の特性を抽出して、当該抽出した撮影範囲内における所定の特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力し、
前記抽出した人物の特徴に基づいて、前記撮影手段にて保存用の前記画像データを取り込む、
撮像方法。
(Appendix 12)
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
An image capturing method comprising: an image capturing apparatus comprising: an image data capturing operation by the image capturing unit; and a control unit that controls an output operation of the content data by the output unit,
The image capturing means captures the image data at a predetermined time interval, recognizes a person in the captured image data, extracts a predetermined feature of the person, and determines a predetermined range within the capturing range of the captured image data. The specific content data stored in the predetermined storage means corresponding to the predetermined characteristics in the extracted shooting range is read out and output from the output means,
Based on the extracted characteristics of the person, the image data for storage is captured by the photographing means.
Imaging method.

(付記13)
付記12に記載の撮像方法であって、
前記取り込んだ画像データの撮影範囲内における所定の特性として、当該画像データ内における所定の画像特性を抽出し、当該抽出した画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力する、
撮像方法。
(Appendix 13)
The imaging method according to attachment 12, wherein
Specific content data stored in predetermined storage means corresponding to the extracted image characteristics is extracted as the predetermined characteristics in the shooting range of the captured image data. And output from the output means,
Imaging method.

1,200 カメラ
2,102,202 制御装置
3,103,203 記憶装置
4,104,204 カメラ部
5,105,205 ディスプレイ部
6,106,206 スピーカ部
21,121,221 プレビュー処理部
22,122,222 スマイル検出部
23,123 人物属性抽出部
24,124,224 コンテンツ出力部
25,125,225 シャッター処理部
31,231 コンテンツ記憶部
107 無線通信部
200 携帯電話機
223 範囲特性抽出部
300 撮像装置
301 撮影手段
302 出力手段
303 制御手段
331 第一の画像データ取込手段
332 人物特徴抽出手段
333 第二の画像データ取込手段
334 撮影範囲特性抽出手段
335 コンテンツ出力制御手段
1,200 Camera 2,102,202 Control device 3,103,203 Storage device 4,104,204 Camera unit 5,105,205 Display unit 6,106,206 Speaker unit 21,121,221 Preview processing unit 22,122 , 222 Smile detection unit 23, 123 Person attribute extraction unit 24, 124, 224 Content output unit 25, 125, 225 Shutter processing unit 31, 231 Content storage unit 107 Wireless communication unit 200 Mobile phone 223 Range characteristic extraction unit 300 Imaging device 301 Shooting means 302 Output means 303 Control means 331 First image data capturing means 332 Person feature extracting means 333 Second image data capturing means 334 Shooting range characteristic extracting means 335 Content output control means

Claims (7)

所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備え、
前記制御手段は、前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、当該第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、当該抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、を備えると共に、
前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の画像特性を抽出する撮影範囲特性抽出手段を備え、
前記制御手段は、さらに、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段を備え、
前記撮影範囲特性抽出手段は、前記画像データ内の人物の予め設定された属性を前記画像特性として抽出し、過去に抽出した前記画像特性を記憶すると共に、前記画像データ内の人物の属性を複数抽出した場合に、記憶している前記画像特性に基づいて前記抽出した属性のうちいずれかの属性を前記画像特性として抽出する、
撮像装置。
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
A control means for controlling the image data capturing operation by the photographing means and the output operation of the content data by the output means,
The control means includes first image data capturing means for capturing the image data at predetermined time intervals by the photographing means, and a person in the image data captured by the first image data capturing means. A person feature extracting means for recognizing and extracting a predetermined feature of the person, a second image data taking means for taking in the image data for storage by the photographing means based on the extracted feature of the person, With
A photographing range characteristic extracting means for extracting a predetermined image characteristic within the photographing range of the image data captured by the first image data capturing means;
The control means further stores the characteristics of the person in the predetermined storage means corresponding to the image characteristics extracted by the shooting range characteristic extraction means while the person characteristics extraction means is extracting the characteristics of the person. Bei give a content output control means for outputting from the output means reads the specific content data,
The imaging range characteristic extraction unit extracts a preset attribute of a person in the image data as the image characteristic, stores the image characteristic extracted in the past, and sets a plurality of attributes of the person in the image data. If extracted, extract any one of the extracted attributes as the image characteristics based on the stored image characteristics;
Imaging device.
請求項1に記載の撮像装置であって、
前記画像データ内の人物の属性は、当該人物の年齢である、
撮像装置。
The imaging apparatus according to claim 1 ,
The attribute of the person in the image data is the age of the person.
Imaging device.
請求項1に記載の撮像装置であって、
前記画像データ内の人物の属性は、当該人物を識別する人物識別情報である、
撮像装置。
The imaging apparatus according to claim 1 ,
The attribute of the person in the image data is person identification information for identifying the person.
Imaging device.
請求項1乃至のいずれかに記載の撮像装置であって、
ネットワークにアクセス可能な無線通信手段を備えると共に、
前記制御手段が有する前記コンテンツ出力制御手段は、前記ネットワークを介して所定の記憶手段にアクセスし、前記撮影範囲特性抽出手段にて抽出した撮影範囲内の所定の特性に予め対応して前記ネットワーク上の所定の記憶手段に記憶された特定のコンテンツデータを取得して、前記出力手段から出力する、
撮像装置。
The imaging apparatus according to any one of claims 1 to 3 ,
A wireless communication means capable of accessing the network;
The content output control means included in the control means accesses a predetermined storage means via the network, and corresponds to a predetermined characteristic in the shooting range extracted by the shooting range characteristic extraction means in advance on the network. Obtaining specific content data stored in the predetermined storage means, and outputting from the output means,
Imaging device.
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備え、
前記制御手段は、前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、当該第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、当該抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、を備えると共に、
前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の画像特性を抽出する撮影範囲特性抽出手段を備え、
前記制御手段は、さらに、前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段を備え、
前記撮影範囲特性抽出手段は、前記画像データ内の人物の予め設定された属性を前記画像特性として抽出し、過去に抽出した前記画像特性を記憶すると共に、前記画像データ内の人物の属性を複数抽出した場合に、記憶している前記画像特性に基づいて前記抽出した属性のうちいずれかの属性を前記画像特性として抽出する、
携帯電話機。
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
A control means for controlling the image data capturing operation by the photographing means and the output operation of the content data by the output means,
The control means includes first image data capturing means for capturing the image data at predetermined time intervals by the photographing means, and a person in the image data captured by the first image data capturing means. A person feature extracting means for recognizing and extracting a predetermined feature of the person, a second image data taking means for taking in the image data for storage by the photographing means based on the extracted feature of the person, With
A photographing range characteristic extracting means for extracting a predetermined image characteristic within the photographing range of the image data captured by the first image data capturing means;
The control means further stores the characteristics of the person in the predetermined storage means corresponding to the image characteristics extracted by the shooting range characteristic extraction means while the person characteristics extraction means is extracting the characteristics of the person. Bei give a content output control means for outputting from the output means reads the specific content data,
The imaging range characteristic extraction unit extracts a preset attribute of a person in the image data as the image characteristic, stores the image characteristic extracted in the past, and sets a plurality of attributes of the person in the image data. If extracted, extract any one of the extracted attributes as the image characteristics based on the stored image characteristics;
Mobile phone.
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備えた撮像装置の前記制御手段に、
前記撮影手段にて所定の時間間隔で前記画像データを取り込む第一の画像データ取込手段と、
前記第一の画像データ取込手段にて取り込んだ前記画像データ内の人物を認識して当該人物の所定の特徴を抽出する人物特徴抽出手段と、
前記抽出した人物の特徴に基づいて前記撮影手段にて保存用の前記画像データを取り込む第二の画像データ取込手段と、
前記第一の画像データ取込手段にて取り込む前記画像データの撮影範囲内における所定の画像特性を抽出する撮影範囲特性抽出手段と、
前記人物特徴抽出手段にて前記人物の特徴を抽出している間に、前記撮影範囲特性抽出手段にて抽出した前記画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力するコンテンツ出力制御手段と、
を実現させるためのプログラムであり、
前記撮影範囲特性抽出手段は、前記画像データ内の人物の予め設定された属性を前記画像特性として抽出し、過去に抽出した前記画像特性を記憶すると共に、前記画像データ内の人物の属性を複数抽出した場合に、記憶している前記画像特性に基づいて前記抽出した属性のうちいずれかの属性を前記画像特性として抽出する、
プログラム。
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
The control means of the imaging apparatus comprising: the image data capturing operation by the photographing means; and the control means for controlling the content data output operation by the output means;
First image data capturing means for capturing the image data at predetermined time intervals in the photographing means;
Person feature extracting means for recognizing a person in the image data captured by the first image data capturing means and extracting a predetermined feature of the person;
Second image data capturing means for capturing the image data for storage in the photographing means based on the extracted characteristics of the person;
Shooting range characteristic extracting means for extracting predetermined image characteristics within the shooting range of the image data captured by the first image data capturing means;
While extracting the feature of the person by the person feature extraction means, specific content data stored in a predetermined storage means corresponding to the image characteristics extracted by the shooting range characteristic extraction means in advance. Content output control means for reading and outputting from the output means;
Is a program for realizing,
The imaging range characteristic extraction unit extracts a preset attribute of a person in the image data as the image characteristic, stores the image characteristic extracted in the past, and sets a plurality of attributes of the person in the image data. If extracted, extract any one of the extracted attributes as the image characteristics based on the stored image characteristics;
program.
所定範囲の画像を撮影して画像データを取り込む撮影手段と、
所定の記憶手段に記憶されたコンテンツデータを再生して出力する出力手段と、
前記撮影手段による前記画像データの取り込み動作、及び、前記出力手段による前記コンテンツデータの出力動作を制御する制御手段と、を備えた撮像装置による撮像方法であって、
前記撮影手段にて所定の時間間隔で前記画像データを取り込み、当該取り込んだ画像データ内の人物を認識して当該人物の所定の特徴を抽出すると共に、当該取り込んだ画像データの撮影範囲内における所定の画像特性を抽出して、当該抽出した画像特性に予め対応して所定の記憶手段に記憶された特定のコンテンツデータを読み出して前記出力手段から出力し、
前記抽出した人物の特徴に基づいて、前記撮影手段にて保存用の前記画像データを取り込み、
前記画像データ内の人物の予め設定された属性を前記画像特性として抽出し、過去に抽出した前記画像特性を記憶すると共に、前記画像データ内の人物の属性を複数抽出した場合に、記憶している前記画像特性に基づいて前記抽出した属性のうちいずれかの属性を前記画像特性として抽出する、
撮像方法。
Photographing means for capturing an image of a predetermined range and capturing image data;
Output means for reproducing and outputting the content data stored in the predetermined storage means;
An image capturing method comprising: an image capturing apparatus comprising: an image data capturing operation by the image capturing unit; and a control unit that controls an output operation of the content data by the output unit,
The image capturing means captures the image data at a predetermined time interval, recognizes a person in the captured image data, extracts a predetermined feature of the person, and determines a predetermined range within the capturing range of the captured image data. The image characteristics of the image data are extracted, specific content data stored in a predetermined storage unit corresponding to the extracted image characteristics is read out and output from the output unit,
Based on the characteristics of the person who the extracted Captures the image data for storage in said photographing means,
Extracting a preset attribute of a person in the image data as the image characteristic, storing the image characteristic extracted in the past, and storing a plurality of attributes of the person in the image data Extracting any one of the extracted attributes based on the image characteristics as the image characteristics;
Imaging method.
JP2010199756A 2010-09-07 2010-09-07 Imaging device Expired - Fee Related JP5550114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010199756A JP5550114B2 (en) 2010-09-07 2010-09-07 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199756A JP5550114B2 (en) 2010-09-07 2010-09-07 Imaging device

Publications (2)

Publication Number Publication Date
JP2012060294A JP2012060294A (en) 2012-03-22
JP5550114B2 true JP5550114B2 (en) 2014-07-16

Family

ID=46056886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199756A Expired - Fee Related JP5550114B2 (en) 2010-09-07 2010-09-07 Imaging device

Country Status (1)

Country Link
JP (1) JP5550114B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202882B2 (en) * 2013-05-28 2017-09-27 大和ハウス工業株式会社 Facial expression detection system and facial expression detection method
JP6268844B2 (en) * 2013-09-18 2018-01-31 大日本印刷株式会社 Server apparatus, program, communication system, and communication method
JP7069933B2 (en) * 2018-03-27 2022-05-18 日本電気株式会社 Communication system, communication terminal, communication program and communication method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4536311B2 (en) * 2002-04-30 2010-09-01 シャープ株式会社 Image capturing apparatus and portable device using the same
JP2006208537A (en) * 2005-01-26 2006-08-10 Konica Minolta Photo Imaging Inc Imaging system, photographing studio, and photographing system control method
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
JP2010128009A (en) * 2008-11-25 2010-06-10 Ochanomizu Univ Photographing support device, photographing device and photographing support method

Also Published As

Publication number Publication date
JP2012060294A (en) 2012-03-22

Similar Documents

Publication Publication Date Title
JP6405470B2 (en) Movie recording method and apparatus, program, and storage medium
JP5401420B2 (en) Imaging device
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US9055276B2 (en) Camera having processing customized for identified persons
JP5787907B2 (en) Imaging device for taking self-portrait images
JP5612310B2 (en) User interface for face recognition
JP4676852B2 (en) Content transmission device
US20130155255A1 (en) Electronic device and method for controlling camera of the electronic device according to gestures
US20100086204A1 (en) System and method for capturing an emotional characteristic of a user
US20130027569A1 (en) Camera having processing customized for recognized persons
TW201251443A (en) Video summary including a feature of interest
JP2004356683A (en) Image management system
CN109151642B (en) Intelligent earphone, intelligent earphone processing method, electronic device and storage medium
JP6096654B2 (en) Image recording method, electronic device, and computer program
JP2006238220A (en) Imaging apparatus, imaging method, and program
JP2013239797A (en) Image processing device
JP2016189544A (en) Image pickup device, image pickup method, program and recording medium
JP2014050022A (en) Image processing device, imaging device, and program
JP5550114B2 (en) Imaging device
JP2012070222A (en) Imaging device, imaging method, and imaging program
KR20150109254A (en) Imaging apparatus, imaging method and recording medium having program for performing self-timer shooting
JP2010041527A (en) Photographing support method, system, program
JP5000242B2 (en) Imaging apparatus, imaging method, imaging program, and recording medium
WO2021237744A1 (en) Photographing method and apparatus
JP5803922B2 (en) Imaging device and image and sound correction method

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20120718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140515

R150 Certificate of patent or registration of utility model

Ref document number: 5550114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees