JP2018107538A - Information processing device, control method of information processing device, and control program - Google Patents

Information processing device, control method of information processing device, and control program Download PDF

Info

Publication number
JP2018107538A
JP2018107538A JP2016250209A JP2016250209A JP2018107538A JP 2018107538 A JP2018107538 A JP 2018107538A JP 2016250209 A JP2016250209 A JP 2016250209A JP 2016250209 A JP2016250209 A JP 2016250209A JP 2018107538 A JP2018107538 A JP 2018107538A
Authority
JP
Japan
Prior art keywords
unit
person
image
output
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016250209A
Other languages
Japanese (ja)
Inventor
有希子 安藤
Yukiko Ando
有希子 安藤
谷口 泰之
Yasuyuki Taniguchi
泰之 谷口
英司 川畑
Eiji Kawabata
英司 川畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016250209A priority Critical patent/JP2018107538A/en
Publication of JP2018107538A publication Critical patent/JP2018107538A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To register a registration target person and image in association with each other without a user input.SOLUTION: An information processing device (1) provided with output units (14, 15) and an imaging unit (16) includes: an output control unit (22) that makes the output units output a message prompting a registration target person to perform a predetermined operation; an image acquisition unit (24) that makes the imaging unit pick up an image after the message is output; and a registration unit (25) that when a person having performed the operation is included in the picked-up image, registers the image of the person as an image of the registration target person.SELECTED DRAWING: Figure 1

Description

本発明は、情報を出力する出力部と撮像部とを備えた情報処理装置に関する。   The present invention relates to an information processing apparatus including an output unit that outputs information and an imaging unit.

撮像された画像内の人物を認識し、該人物の識別情報を画像に対応付けて登録する技術が開発されている。例えば、特許文献1には、画像処理システムにより取り込まれた画像内の人物を認識して、該人物の名前を画像に記録するデジタルカメラが開示されている。   A technique for recognizing a person in a captured image and registering the identification information of the person in association with the image has been developed. For example, Patent Document 1 discloses a digital camera that recognizes a person in an image captured by an image processing system and records the name of the person on the image.

特開2004−62868号公報(2004年2月26日公開)JP 2004-62868 A (published February 26, 2004)

しかしながら、上述のような従来技術は、人物の識別情報と画像とを対応付けるために、ユーザが、画像に対応付けるべき識別情報を入力しなければならず、ユーザにとって操作が煩わしいという問題がある。例えば、デジタルカメラが、ユーザから離れて設置されていたり、撮影現場を自動で移動したりして、撮影が実行される場合などにおいて、ユーザが前記入力を強いられることは、より一層煩わしいことであり、この場合、前記問題はより一層深刻となる。   However, the conventional technology as described above has a problem that the user has to input identification information to be associated with the image in order to associate the identification information of the person with the image, and the operation is troublesome for the user. For example, when a digital camera is installed away from the user or when shooting is performed automatically by moving the shooting site, it is even more troublesome for the user to input the input. In this case, the problem becomes even more serious.

本発明の一態様は、ユーザによる入力が無くとも、登録対象者と、該登録対象者の画像とを対応付けて登録することができる情報処理装置等を提供することを目的とする。   An object of one embodiment of the present invention is to provide an information processing apparatus or the like that can register a registration target person and an image of the registration target person in association with each other without input by a user.

前記の課題を解決するために、本発明の一態様に係る情報処理装置は、出力部と撮像部とを備えた情報処理装置であって、登録対象者に所定の動作を行うことを促すメッセージを、前記出力部に出力させる出力制御部と、前記出力制御部が前記メッセージを出力させた後、前記撮像部に画像を撮像させる画像取得部と、前記撮像部が撮像した画像に前記所定の動作を行った人物が含まれている場合に、該人物の画像を、前記登録対象者の画像として登録する登録部と、を備えている。   In order to solve the above-described problem, an information processing apparatus according to an aspect of the present invention is an information processing apparatus including an output unit and an imaging unit, and prompts a registration target person to perform a predetermined operation. Are output to the output unit, the output control unit outputs the message, the image acquisition unit causes the imaging unit to capture an image, and the image captured by the imaging unit includes the predetermined image. And a registration unit that registers an image of the person as an image of the person to be registered when the person who performed the operation is included.

前記の課題を解決するために、本発明の一態様に係る情報処理装置の制御方法は、出力部と撮像部とを備えた情報処理装置の制御方法であって、登録対象者に所定の動作を行うことを促すメッセージを、前記出力部に出力させる出力制御ステップと、前記出力制御ステップにて前記メッセージを出力させた後、前記撮像部に画像を撮像させる画像取得ステップと、前記撮像部が撮像した画像に前記所定の動作を行った人物が含まれている場合に、該人物の画像を、前記登録対象者の画像として登録する登録ステップと、を含む。   In order to solve the above-described problem, a method for controlling an information processing device according to one aspect of the present invention is a method for controlling an information processing device including an output unit and an imaging unit. An output control step for causing the output unit to output a message prompting the user to perform the image, an image acquisition step for causing the imaging unit to capture an image after outputting the message in the output control step, and the imaging unit A registration step of registering an image of the person as an image of the person to be registered when the captured image includes a person who has performed the predetermined operation.

本発明の一態様によれば、ユーザによる入力が無くとも、登録対象者と、該登録対象者の画像とを対応付けて登録することができるという効果を奏する。   According to an aspect of the present invention, there is an effect that a registration target person and an image of the registration target person can be registered in association with each other without input by a user.

本発明の一実施形態に係る対話ロボットの要部構成を示す図である。It is a figure which shows the principal part structure of the dialogue robot which concerns on one Embodiment of this invention. 対話ロボットの記憶部に記憶される各種データの一具体例を示す図である。It is a figure which shows one specific example of the various data memorize | stored in the memory | storage part of a dialogue robot. 対話ロボットの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a dialogue robot. 実施形態2に係る対話ロボットの処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing of the interactive robot according to the second embodiment.

〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。本発明の一実施形態において、情報処理装置は、対話ロボット1に適用される。しかし、これに限定されず、本発明の情報処理装置は、手持ちの、または、可動式の雲台に接続可能な、デジタルカメラおよびデジタルビデオカメラ、ならびに、撮像部を備えたスマートフォン等の携帯端末等に適用可能である。前記携帯端末に本発明の情報処理装置が適用される場合、例えば、可動式の充電台に、該携帯端末を設置して使用することが考えられる。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail. In one embodiment of the present invention, the information processing apparatus is applied to the interactive robot 1. However, the present invention is not limited to this, and the information processing apparatus of the present invention can be connected to a handheld or movable head, such as a digital camera and a digital video camera, and a mobile terminal such as a smartphone provided with an imaging unit. Etc. are applicable. When the information processing apparatus of the present invention is applied to the portable terminal, for example, it is conceivable to install and use the portable terminal on a movable charging stand.

本実施形態において、対話ロボット1は、公知の音声認識技術に基づいて、人と対話できるロボットであり、カメラ等の撮像機構を有するロボットである。また、一例として、対話ロボット1は、可動部等の移動機構を有し、自装置の位置および向き、ならびに、前記カメラの位置および向きを自動で移動させることができるロボットである。   In the present embodiment, the dialogue robot 1 is a robot that can interact with a person based on a known voice recognition technology, and is a robot having an imaging mechanism such as a camera. Also, as an example, the dialogue robot 1 is a robot that has a moving mechanism such as a movable part, and can automatically move the position and orientation of its own device and the position and orientation of the camera.

本実施形態では、対話ロボット1は、複数の人物が居合わせる撮影現場(パーティ会場、講演会場等)を任意に移動し、撮影対象者である人物達にカメラを向けて撮影を行い、画像を記録する。また、対話ロボット1は、撮影現場に居合わせる各人物を学習して識別する機能を有する。そして、対話ロボット1は、前記学習のために、人物の画像を自装置に登録する。以下では、対話ロボット1が、人物達を記録のために撮影する動作(例えば、記念の写真を撮る動作)を記録撮影と称し、記録撮影によって取得された静止画を記録画像と称する。また、対話ロボット1が、学習のために人物の画像(特に、顔画像)を撮影する動作を登録撮影と称し、登録撮影によって取得された静止画を登録画像と称する。   In the present embodiment, the dialogue robot 1 arbitrarily moves in a shooting site (a party venue, a lecture hall, etc.) where a plurality of persons are present, takes a picture with the camera directed at the people who are the shooting target, and records an image. To do. Further, the dialogue robot 1 has a function of learning and identifying each person present at the shooting site. Then, the dialogue robot 1 registers a person image in its own device for the learning. Hereinafter, an operation in which the dialogue robot 1 captures people for recording (for example, an operation for taking a commemorative photo) is referred to as recording, and a still image obtained by recording is referred to as a recorded image. In addition, an operation in which the interactive robot 1 captures an image of a person (particularly a face image) for learning is referred to as registered imaging, and a still image acquired by registered imaging is referred to as a registered image.

(対話ロボットの構成)
図1は、本発明の一実施形態に係る対話ロボット1の要部構成を示すブロック図である。対話ロボット1は、例えば、制御部10、記憶部11、音声入力部12、通信部13、表示部14、音声出力部15および撮像部16を備えている。対話ロボット1は、対話ロボット1をして機能するためのその他の図示しない機構を備えていてもよい。例えば、対話ロボット1は、腕または足等の可動部を動かすサーボ等の動作部、赤外線センサ等のセンサ部、LED等の照明部、プロジェクタ等の投影部、および、スイッチまたはボタン等の操作部を備えていてもよい。
(Configuration of interactive robot)
FIG. 1 is a block diagram showing a main configuration of an interactive robot 1 according to an embodiment of the present invention. The interactive robot 1 includes, for example, a control unit 10, a storage unit 11, a voice input unit 12, a communication unit 13, a display unit 14, a voice output unit 15, and an imaging unit 16. The dialogue robot 1 may include other mechanisms (not shown) for functioning as the dialogue robot 1. For example, the dialogue robot 1 includes an operation unit such as a servo that moves a movable unit such as an arm or a leg, a sensor unit such as an infrared sensor, an illumination unit such as an LED, a projection unit such as a projector, and an operation unit such as a switch or button. May be provided.

音声入力部12は、会場に居合わせた人物達の会話等、現場で発生した音声を、制御部10が処理可能な音データとして取得するための機器であり、マイク等で構成される。例えば、対話ロボット1は、音声入力部12を介して入力された会話の音声から、会場の参加者に係る情報等を取得してもよい。通信部13は、所定の通信方式にしたがう通信網を介して、外部装置と通信する。外部装置との通信を実現する本質的な機能が備わってさえいればよく、通信回線、通信方式、または通信媒体などは限定されない。例えば、対話ロボット1は、会場の参加者に係る情報等を通信部13を介して取得してもよい。すなわち、音声入力部12および通信部13は、参加者に係る情報を制御部10に入力する機能を備えた入力部である。   The voice input unit 12 is a device for acquiring voice generated in the field, such as conversations of people who are present at the venue, as sound data that can be processed by the control unit 10, and includes a microphone or the like. For example, the dialogue robot 1 may acquire information related to the participants in the venue from the voice of the conversation input via the voice input unit 12. The communication unit 13 communicates with an external device via a communication network according to a predetermined communication method. The communication line, the communication method, or the communication medium are not limited as long as an essential function for realizing communication with the external device is provided. For example, the dialogue robot 1 may acquire information related to the participants in the venue via the communication unit 13. That is, the voice input unit 12 and the communication unit 13 are input units having a function of inputting information relating to the participant to the control unit 10.

表示部14は、制御部10によって処理されたり、記憶部11に格納されたりする各種情報を人が視認可能なように表示するものであり、例えば、LCD(液晶ディスプレイ)などの表示装置で構成される。音声出力部15は、制御部10によって処理された音データを音声、効果音または音楽などとして出力するための機器であり、スピーカ等で構成される。これにより、対話ロボット1は、聴覚的効果を伴う応答を人に対して出力することができる。すなわち、表示部14および音声出力部15は、情報を人(例えば、会場の参加者)に対して出力する機能を備えた出力部である。   The display unit 14 displays various types of information processed by the control unit 10 or stored in the storage unit 11 so that a person can visually recognize the information. For example, the display unit 14 includes a display device such as an LCD (liquid crystal display). Is done. The sound output unit 15 is a device for outputting the sound data processed by the control unit 10 as sound, sound effects, music, or the like, and includes a speaker or the like. Thereby, the dialogue robot 1 can output a response with an auditory effect to a person. That is, the display unit 14 and the audio output unit 15 are output units having a function of outputting information to a person (for example, a participant in the venue).

撮像部16は、被写体を撮影して画像を入力する機器であり、カメラ等で構成される。撮像部16は、被写体の静止画を撮像するデジタルカメラであってもよいし、被写体または背景の動きを撮像することが可能なデジタルビデオであってもよい。   The imaging unit 16 is a device that captures a subject and inputs an image, and includes a camera or the like. The imaging unit 16 may be a digital camera that captures a still image of a subject, or may be a digital video that can capture the motion of the subject or the background.

記憶部11は、RAM(randomaccess memory)、ROM(read only memory)、NVRAM(non-Volatile random access memory)、フラッシュメモリなどの、揮発性または不揮発性の記憶装置によって構成され、対話ロボット1が処理する各種情報を記憶する。具体的には、記憶部11には、後述する、登録対象者リスト40、撮影対象者リスト41、撮影条件42、および、記録画像データベース(DB)43などが含まれる。   The storage unit 11 includes a volatile or non-volatile storage device such as a random access memory (RAM), a read only memory (ROM), a non-volatile random access memory (NVRAM), and a flash memory. Various information to be stored is stored. Specifically, the storage unit 11 includes a registration target person list 40, a shooting target person list 41, a shooting condition 42, and a recorded image database (DB) 43, which will be described later.

制御部10は、対話ロボット1が有する各種の機能を統括的に制御する。制御部10は、機能ブロックとして、少なくとも、映像処理部21、出力制御部22、画像取得部24および顔画像登録部25(登録部)を含んでいる。必要に応じて、制御部10は、さらに、リスト管理部20、撮影要否判定部23(撮影制御部)および写真保存部26を、機能ブロックとして含んでいてもよい。   The control unit 10 comprehensively controls various functions of the interactive robot 1. The control unit 10 includes at least a video processing unit 21, an output control unit 22, an image acquisition unit 24, and a face image registration unit 25 (registration unit) as functional blocks. As necessary, the control unit 10 may further include a list management unit 20, a shooting necessity determination unit 23 (shooting control unit), and a photo storage unit 26 as functional blocks.

リスト管理部20は、撮影対象者リスト41に基づいて、登録対象者リスト40を管理する。撮影対象者リスト41は、記録撮影において被写体となるべき人物である撮影対象者のリストである。撮影対象者リスト41には、少なくとも、人物を一意に識別するための識別情報と、撮像部16によって取得されたライブビュー映像(映像)または静止画(画像)から該人物を識別する際に参照される登録画像とが対応付けて格納されている。   The list management unit 20 manages the registration target person list 40 based on the photographing target person list 41. The photographic subject list 41 is a list of photographic subjects who are persons who should be subjects in recording photography. The shooting target person list 41 is referred to at least when identifying the person from the identification information for uniquely identifying the person and the live view video (video) or still image (image) acquired by the imaging unit 16. The registered image is stored in association with each other.

図2は、撮影対象者リスト41の一具体例を示す図である。図2に示す例では、撮影対象者リスト41は、識別情報として撮影対象者の名前を格納するためのカラムと、該撮影対象者の登録画像として顔画像を格納するためのカラムとを含む。顔画像は、ユーザ(例えば、対話ロボット1を使用して会場の記録撮影を行おうとする者)によって、事前に登録されていてもよいし、対話ロボット1が会場に居合わせた未学習の人物に対して登録撮影を行うことで登録されてもよい。   FIG. 2 is a diagram showing a specific example of the photographing subject list 41. In the example shown in FIG. 2, the photographing subject list 41 includes a column for storing the name of the photographing subject as identification information and a column for storing a face image as a registered image of the photographing subject. The face image may be registered in advance by a user (for example, a person who intends to record and shoot the venue using the interactive robot 1), or an unlearned person who the interactive robot 1 is present at the venue. Alternatively, registration may be performed by performing registered shooting.

リスト管理部20は、撮影対象者リスト41において、識別情報(名前)があるが、登録画像(顔画像)がまだ登録されていない人物、すなわち、未学習の人物を登録対象者として認識し、登録対象者の名前の一覧を、撮影対象者リスト41から登録対象者リスト40として抽出する。   The list management unit 20 recognizes a person who has identification information (name) in the shooting target person list 41 but whose registered image (face image) is not yet registered, that is, an unlearned person, as a registration target person. A list of registration subject names is extracted as a registration subject list 40 from the photographing subject list 41.

対話ロボット1の記憶部11において、顔画像ありまたはなしの撮影対象者リスト41がユーザによって事前に登録されていても構わない。例えば、撮影現場が、結婚披露宴会場等である場合、ゲストのテーブルごとに対話ロボット1を設置し、予め定められた席次表に基づいて、各対話ロボット1に、ゲストの識別情報(名前)と、事前に入手できる場合には登録画像(顔画像)とを、登録することができる。   In the storage unit 11 of the interactive robot 1, the photographing subject list 41 with or without a face image may be registered in advance by the user. For example, when the shooting site is a wedding reception hall or the like, a dialogue robot 1 is installed for each guest table, and each dialogue robot 1 is provided with a guest identification information (name) based on a predetermined seating table. If it can be obtained in advance, a registered image (face image) can be registered.

あるいは、リスト管理部20は、解釈部32を含んでいてもよい。実施形態1において、解釈部32は、通信部13を介してあらかじめ収集された、送受信情報を解析する。前記送受信情報とは、撮影現場にて開催される催し物の参加者間で、開催日前にやりとりされる情報であり、例えば、電子メールの宛先、タイトルまたは本文等であったり、SNS(Social Networking Service)の送受信履歴であったり、電話の会話履歴等であったりする。解釈部32は、これらの送受信情報から前記催し物の参加者の名前を抽出してもよい。リスト管理部20は、解釈部32によって抽出された参加者の名前に基づいて、自動で撮影対象者リスト41および登録対象者リスト40を作成してもよい。   Alternatively, the list management unit 20 may include an interpretation unit 32. In the first embodiment, the interpretation unit 32 analyzes transmission / reception information collected in advance via the communication unit 13. The transmission / reception information is information exchanged before the date of the event between the participants of the event held at the shooting site, for example, an e-mail address, title or text, or SNS (Social Networking Service). ) Transmission / reception history, telephone conversation history, and the like. The interpretation unit 32 may extract the names of the participants of the event from the transmission / reception information. The list management unit 20 may automatically create the photographing subject list 41 and the registration subject list 40 based on the names of the participants extracted by the interpretation unit 32.

映像処理部21は、撮像部16を制御して、撮影モードを開始させるとともに、それによって撮像部16が取得したライブビュー映像である映像を処理する。具体的には、映像処理部21は、識別部30と検出部31とを含んでいる。   The video processing unit 21 controls the imaging unit 16 to start a shooting mode, and processes a video that is a live view video acquired by the imaging unit 16 thereby. Specifically, the video processing unit 21 includes an identification unit 30 and a detection unit 31.

識別部30は、映像に含まれている人物を識別する。識別部30は、映像に含まれている人物が学習済み、すなわち、顔画像が撮影対象者リスト41に登録されていれば、その人物の識別結果を、記録撮影を行う下流の各部に伝達する。一方、識別部30は、前記人物が未学習、すなわち、顔画像が撮影対象者リスト41に登録されていなければ、その人物が未学習である旨を、登録撮影を行うための下流の各部(具体的には、出力制御部22および検出部31)に伝達する。   The identification unit 30 identifies a person included in the video. If the person included in the video has been learned, that is, if the face image is registered in the subject list 41, the identification unit 30 transmits the identification result of the person to each downstream unit that performs recording. . On the other hand, the identification unit 30 indicates that the person is unlearned, that is, if the face image is not registered in the shooting target person list 41, the downstream unit for performing registered shooting (not shown) Specifically, it is transmitted to the output control unit 22 and the detection unit 31).

出力制御部22は、出力部を制御して、未学習の人物(登録対象者)に対して所定の動作を行うことを促すメッセージを出力する。具体的には、出力制御部22は、登録対象者リスト40から登録対象者の名前を読み出し、その名前を音声出力部15から音声として出力させる。出力制御部22は、未学習の人物に対して名前を呼びかけるだけでなく、さらに、所定の動作を行うように依頼するメッセージを音声出力部15から出力させることが好ましい。これにより、より確実に、前記名前に該当する人物だけに特殊な動作を行わせることが可能となり、人物をより特定しやすくなる。例えば、出力制御部22は、「山田○○さん、こっちを見て」、「鈴木□□さん、手を振って」等、名前と所定の動作とを組み合わせたメッセージを作成し、音声として、音声出力部15から出力させてもよい。また、出力制御部22は、同メッセージを、表示部14に表示させてもよい。   The output control unit 22 controls the output unit to output a message that prompts an unlearned person (registration target person) to perform a predetermined operation. Specifically, the output control unit 22 reads the name of the registration target person from the registration target person list 40 and causes the voice output unit 15 to output the name as a voice. It is preferable that the output control unit 22 not only calls a name to an unlearned person, but also causes the voice output unit 15 to output a message requesting to perform a predetermined operation. As a result, it is possible to perform a special operation only on the person corresponding to the name more reliably, and it becomes easier to specify the person. For example, the output control unit 22 creates a message that combines a name and a predetermined action such as “Look at Mr. Yamada, look at me”, “Mr. You may make it output from the audio | voice output part 15. FIG. Further, the output control unit 22 may cause the display unit 14 to display the message.

映像処理部21の検出部31は、出力制御部22によってメッセージが出力された後に撮像部16を介して取得された映像の中から、前記メッセージによって指定された所定の動作を検出する。ライブビュー映像としての映像から、特定の動作を検出する技術としては、既存のジェスチャ認識技術が採用され得る。検出部31は、未学習の人物によって前記所定の動作がなされたことを検出すると、該所定の動作を行った人物を撮影するように、画像取得部24に指示する。   The detection unit 31 of the video processing unit 21 detects a predetermined operation specified by the message from the video acquired via the imaging unit 16 after the message is output by the output control unit 22. As a technique for detecting a specific operation from a video as a live view video, an existing gesture recognition technique can be adopted. When the detection unit 31 detects that the predetermined operation has been performed by an unlearned person, the detection unit 31 instructs the image acquisition unit 24 to photograph the person who has performed the predetermined operation.

画像取得部24は、撮像部16を制御して、静止画である画像を取得する。画像取得部24は、撮影の目的、すなわち、記録撮影を行う場合と登録撮影を行う場合とに応じて例えば、1または複数の人物が一定上の大きさではっきり写るように、レンズの画角、向き、または、絞り等を制御してもよい。例えば、画像取得部24は、検出部31の指示にしたがって、前記所定の動作を行った人物の顔を撮影するように撮像部16を制御することにより、該人物の登録画像を取得することができる。   The image acquisition unit 24 controls the imaging unit 16 to acquire an image that is a still image. The image acquisition unit 24 may change the angle of view of the lens so that, for example, one or a plurality of persons can be clearly seen in a certain size depending on the purpose of shooting, that is, when recording shooting is performed and when registered shooting is performed. , Direction, aperture, etc. may be controlled. For example, the image acquisition unit 24 may acquire a registered image of the person by controlling the imaging unit 16 to capture the face of the person who has performed the predetermined operation in accordance with an instruction from the detection unit 31. it can.

顔画像登録部25は、画像取得部24によって取得された登録画像を、撮影対象者リスト41に登録する。顔画像登録部25は、出力制御部22によって出力された名前に、前記登録画像を対応付けて撮影対象者リスト41に登録する。名前と所定の動作とを指定するメッセージが出力された直後に、映像において所定の動作が検出されたということは、その名前の人物が、その所定の動作を行ったと考えられ、この取得された登録画像は、その所定の動作を行った人物を写すものである。このことから、顔画像登録部25は、所定の動作が行われる直前に出力されたメッセージの内容と、直後に取得された登録画像とに基づいて、ユーザからの入力を必要とせずとも、人物の名前と、顔画像とを対応付けることができる。   The face image registration unit 25 registers the registered image acquired by the image acquisition unit 24 in the shooting target person list 41. The face image registration unit 25 associates the registered image with the name output by the output control unit 22 and registers the name in the photographing subject list 41. Immediately after the message designating the name and the predetermined action is output, the fact that the predetermined action is detected in the video indicates that the person of that name has performed the predetermined action and has been acquired. The registered image is a photograph of a person who has performed the predetermined operation. From this, the face image registration unit 25 can be used for the person without requiring input from the user based on the content of the message output immediately before the predetermined operation is performed and the registered image acquired immediately after. Can be associated with a face image.

撮影要否判定部23は、識別部30によって識別された人物に対する記録撮影の要否を判定する。具体的には、撮影要否判定部23は、記録画像DB43に記録されているすべての記録画像(写真)のうち、前記人物が写っている写真が何枚あるのかを、写真数比率として取得する。そして、撮影条件42としてあらかじめ設定されている写真数比率と比較して、前記人物の写真数比率が撮影条件42の写真数比率以上であるか否かに応じて前記人物の記録画像を撮影するか否かを判定する。実施形態1では、撮影条件42として設定される写真数比率は、デフォルトの値で一定であり、例えば、「33%」である。   The shooting necessity determination unit 23 determines whether or not recording shooting is necessary for the person identified by the identification unit 30. Specifically, the shooting necessity determination unit 23 acquires, as a photo number ratio, the number of photos in which the person is present among all the recorded images (photos) recorded in the recorded image DB 43. To do. Then, the recorded image of the person is photographed according to whether or not the ratio of the number of photographs of the person is equal to or greater than the ratio of the number of photographs of the photographing condition 42 as compared with the ratio of the number of photographs set in advance as the photographing condition 42. It is determined whether or not. In the first embodiment, the ratio of the number of photos set as the shooting condition 42 is a default value and is, for example, “33%”.

この場合、撮影要否判定部23は、前記人物の写真数比率が33%以上であれば、該人物の写真は十分に記録されているとして撮影不要と判定し、33%未満であれば、該人物の写真の枚数は目標に到達していないとして撮影要と判定する。   In this case, if the ratio of the number of photographs of the person is 33% or more, the photographing necessity determination unit 23 determines that the photograph of the person is sufficiently recorded and does not need to be photographed. The number of photographs of the person is determined as needing to be photographed because the target is not reached.

画像取得部24は、記録撮影を行う場合において、撮影要否判定部23が設けられている場合には、撮影要否判定部23が撮影要と判定した場合に、前記人物の記録画像を取得する。これにより、撮影対象者の写真数比率が、撮影条件42に設定されている値で均等になるように、それぞれの撮影対象者に対して記録撮影が行われる。結果として、事前に顔画像が登録されていない人物も含めて、会場における参加者全員を偏りなく撮影することが可能となる。   The image acquisition unit 24 acquires a recorded image of the person when the shooting necessity determination unit 23 determines that shooting is necessary when the shooting necessity determination unit 23 is provided. To do. Thereby, recording photography is performed with respect to each photographing subject so that the ratio of the number of photographing subjects is equal to the value set in the photographing condition 42. As a result, it is possible to shoot all the participants in the venue without any bias, including a person whose face image is not registered in advance.

写真保存部26は、画像取得部24によって取得された記録画像を記録画像DB43に保存する。記録画像DB43には、これまで撮影された記録画像に加えて、人物ごとの写真枚数、または、写真数比率が記録されていてもよい。写真保存部26は、記録画像を新たに保存したとき、併せて、写真枚数または写真数比率を更新してもよい。   The photo storage unit 26 stores the recording image acquired by the image acquisition unit 24 in the recording image DB 43. In the recorded image DB 43, in addition to the recorded images taken so far, the number of photographs for each person or the ratio of the number of photographs may be recorded. When the recorded image is newly stored, the photo storage unit 26 may also update the number of photos or the photo number ratio.

(処理フロー)
図3は、実施形態1に係る対話ロボット1の処理の流れを示すフローチャートである。図3に示す各ステップのうち、S105〜S109は、登録撮影の処理の流れを示し、S110〜S112は、記録撮影の処理の流れを示す。
(Processing flow)
FIG. 3 is a flowchart showing the flow of processing of the interactive robot 1 according to the first embodiment. Among the steps shown in FIG. 3, S105 to S109 indicate the flow of registered shooting processing, and S110 to S112 indicate the flow of recording shooting processing.

リスト管理部20は、事前に登録された撮影対象者リスト41に基づいて、顔画像が未登録の登録対象者リスト40を抽出する(S101)。例えば、図2に示す例では、「山田○○、鈴木□□、佐藤△△」を含む登録対象者リスト40が抽出される。   The list management unit 20 extracts the registration target person list 40 whose face images are not registered based on the photographing target person list 41 registered in advance (S101). For example, in the example illustrated in FIG. 2, the registration target person list 40 including “Yamada XX, Suzuki □□, Sato △△” is extracted.

映像処理部21は、撮像部16を制御して、撮影モードを開始させ、ライブビュー映像を得る(S102)。識別部30は、前記映像から人物が検出された場合(S103でYES)、撮影対象者リスト41に登録されている顔画像と比較して、該人物が学習済みであるか否かについて判定する(S104)。検出された前記人物の顔画像が撮影対象者リスト41に登録されていない場合(S104でNO)、該人物が未学習である旨が、識別部30から出力制御部22および検出部31に伝達される。   The video processing unit 21 controls the imaging unit 16 to start the shooting mode and obtain a live view video (S102). When a person is detected from the video (YES in S103), the identification unit 30 compares the face image registered in the photographed person list 41 to determine whether or not the person has been learned. (S104). If the detected face image of the person is not registered in the photographed person list 41 (NO in S104), the fact that the person has not been learned is transmitted from the identification unit 30 to the output control unit 22 and the detection unit 31. Is done.

これを受けて、出力制御部22は、S101で抽出された登録対象者リスト40から名前を1つ読み出し、その名前の人物に対して、所定の動作を行うことを促すメッセージを音声出力部15から出力させる(S105)。   In response to this, the output control unit 22 reads one name from the registration target person list 40 extracted in S101, and sends a message prompting the person with the name to perform a predetermined operation as the voice output unit 15. (S105).

検出部31は、前記メッセージが出力された後に撮像部16から得られる映像を監視する。そして、検出部31は、未学習の人物が所定の動作を行ったことを検出した場合(S106でYES)、所定の動作を行った前記人物を撮影するように画像取得部24に指示する。一方、検出部31は、所定の動作を検出しないまま、前記メッセージが出力されてから所定時間が経過した場合には(S106でNO)、所定の動作が検出されなかったことを出力制御部22に伝達する。この場合、出力制御部22は、登録対象者リスト40の次に挙がっている名前に変更して、前記メッセージを音声出力部15を介して出力してもよい。以降、出力制御部22は、所定の動作が検出されないうちは、登録対象者リスト40に挙がっている名前を順々に出力することを繰り返す。   The detection unit 31 monitors the video obtained from the imaging unit 16 after the message is output. If the detection unit 31 detects that an unlearned person has performed a predetermined operation (YES in S106), the detection unit 31 instructs the image acquisition unit 24 to photograph the person who has performed the predetermined operation. On the other hand, if the predetermined time has elapsed since the message was output without detecting the predetermined operation (NO in S106), the detection unit 31 indicates that the predetermined operation has not been detected. To communicate. In this case, the output control unit 22 may change the name listed next in the registration target person list 40 and output the message via the voice output unit 15. Thereafter, the output control unit 22 repeatedly outputs the names listed in the registration target person list 40 in order until a predetermined operation is not detected.

画像取得部24は、検出部31の前記指示にしたがって、前記所定の動作を行った人物の登録画像を取得する(S107)。顔画像登録部25は、S105において出力された最新の名前に、S107において取得された登録画像を対応付けて、撮影対象者リスト41に登録する(S108)。なお、画像取得部24は、レンズの向き、画角、絞り、ピントなどを制御して、前記所定の動作を行った人物の顔がはっきりと大きく写るように登録画像の構図を調節してもよい。あるいは、顔画像登録部25は、登録画像に、その他の人物または背景などが写り込んでいる場合には、前記所定の動作を行った人物の顔の部分を残すように登録画像をトリミングして前記人物の顔画像を得てもよい。   The image acquisition unit 24 acquires a registered image of the person who performed the predetermined operation according to the instruction of the detection unit 31 (S107). The face image registration unit 25 associates the registered name acquired in S107 with the latest name output in S105 and registers it in the subject list 41 (S108). Note that the image acquisition unit 24 may adjust the composition of the registered image so that the face of the person who has performed the predetermined operation is clearly enlarged by controlling the lens direction, the angle of view, the aperture, the focus, and the like. Good. Alternatively, the face image registration unit 25 trims the registered image so as to leave the face portion of the person who has performed the predetermined operation when another person or a background is reflected in the registered image. The person's face image may be obtained.

リスト管理部20は、S108にて顔画像が撮影対象者リスト41に登録されると、該顔画像が登録された人物の名前を、登録対象者リスト40から削除する(S109)。   When the face image is registered in the shooting target person list 41 in S108, the list management unit 20 deletes the name of the person in which the face image is registered from the registration target person list 40 (S109).

制御部10は、対話ロボット1を移動させたり、撮像部16のレンズの向きを変更したりして、撮影範囲を変更し(S113)、S103以降の処理を繰り返す。   The control unit 10 moves the interactive robot 1 or changes the direction of the lens of the imaging unit 16 to change the imaging range (S113), and repeats the processing after S103.

一方、S104において、識別部30が、映像から検出された人物の顔画像が撮影対象者リスト41において登録済みであり、その人物を識別できた場合には(S104でYES)、識別部30は、識別結果である前記人物の名前を撮影要否判定部23に伝達する。   On the other hand, in S104, when the identification unit 30 has registered the face image of the person detected from the video in the shooting target person list 41 and can identify the person (YES in S104), the identification unit 30 The name of the person as the identification result is transmitted to the photographing necessity determination unit 23.

撮影要否判定部23は、識別された前記人物の写真数比率を記録画像DB43から読み出し、これを、撮影条件42として設定されている写真数比率と比較する(S110)。前記人物の写真数比率が、撮影条件42の写真数比率以上であって目標が達成されている場合(S110でYES)、撮影要否判定部23は、該人物の記録撮影は不要であると判定する。この場合、制御部10は、撮影範囲を変更し(S113)、S103以降の処理を繰り返す。   The photographing necessity determining unit 23 reads the photograph number ratio of the identified person from the recorded image DB 43 and compares it with the photograph number ratio set as the photographing condition 42 (S110). When the ratio of the number of photographs of the person is equal to or greater than the ratio of the number of photographs in the photographing condition 42 and the target is achieved (YES in S110), the photographing necessity determination unit 23 does not need to record and photograph the person. judge. In this case, the control unit 10 changes the shooting range (S113) and repeats the processes after S103.

一方、前記人物の写真数比率が、撮影条件42の写真数比率未満である場合(S110でNO)、撮影要否判定部23は、該人物の記録撮影は必要であると判定する。この場合、画像取得部24は、該人物を撮影し、該人物が写る記録画像を取得する(S111)。写真保存部26は、画像取得部24によって取得された記録画像を記録画像DB43に保存する(S112)。該保存に伴って、写真保存部26は、さらに、記録画像DB43に格納されている、全写真数、人物ごとの写真数、または、人物ごとの写真数比率などを更新してもよい。この後、制御部10は、撮影範囲を変更し(S113)、S103以降の処理を繰り返す。   On the other hand, when the ratio of the number of photographs of the person is less than the ratio of the number of photographs in the photographing condition 42 (NO in S110), the photographing necessity determination unit 23 determines that the recording of the person is necessary. In this case, the image acquisition unit 24 captures the person and acquires a recorded image in which the person is captured (S111). The photo storage unit 26 stores the recording image acquired by the image acquisition unit 24 in the recording image DB 43 (S112). Along with the storage, the photo storage unit 26 may further update the total number of photos, the number of photos for each person, the number of photos for each person, and the like stored in the recording image DB 43. Thereafter, the control unit 10 changes the shooting range (S113), and repeats the processes after S103.

なお、S103において人物が検出されない場合(S103でNO)、対話ロボット1が、あらかじめ人物しか撮影しないようにプログラムされている場合には、制御部10は、撮影範囲を変更し(S113)、S103以降の処理を繰り返す。対話ロボット1は、所定のプログラムに基づいて、人物以外の被写体を撮影するようにプログラムされていてもよい。また、S102において開始された撮影モードは、所定の操作または所定のプログラムに基づいて終了されてもよい。例えば、ユーザがボタン(操作部)を押す、タッチパネル(操作部)に触れる、または、ユーザが事前に終了のタイミング(時刻または条件など)を設定しておく、等が想定される。   Note that if no person is detected in S103 (NO in S103), if the interactive robot 1 is programmed in advance to shoot only a person, the control unit 10 changes the shooting range (S113) and S103. The subsequent processing is repeated. The interactive robot 1 may be programmed to photograph a subject other than a person based on a predetermined program. Further, the shooting mode started in S102 may be ended based on a predetermined operation or a predetermined program. For example, it is assumed that the user presses a button (operation unit), touches the touch panel (operation unit), or the user sets an end timing (such as time or condition) in advance.

前記構成および方法によれば、対話ロボット1は、出力制御部22および顔画像登録部25を備えていることにより、あらかじめ顔画像が登録されていない未学習の参加者であっても、映像で捉えた人物を撮影対象者として学習して識別し、記録画像(写真)を残すことが可能となる。さらに、撮影要否判定部23を備えている場合には、未学習の人物も含めて、撮影対象者全員に対して偏りなく記録撮影を行うことができる。なお、撮影条件42としての写真数比率「33%」という数値は一例であり、他の数値でも構わない。   According to the above configuration and method, the interactive robot 1 includes the output control unit 22 and the face image registration unit 25, so that even an unlearned participant whose face image is not registered in advance can be displayed as a video. The captured person can be learned and identified as a person to be photographed, and a recorded image (photograph) can be left. Furthermore, when the photographing necessity determination unit 23 is provided, it is possible to perform recording photographing without bias for all photographing subjects including unlearned persons. The numerical value “33%” of the number of photographs as the photographing condition 42 is an example, and other numerical values may be used.

〔実施形態2〕
本発明の他の実施形態について、図1および図4に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

実施形態2では、対話ロボット1は、撮影対象者の名前を、撮影現場に居合わせた参加者たちの会話の内容に基づいて特定し、撮影対象者リスト41および登録対象者リスト40を、撮影現場にて撮影を動的に生成することができる。   In the second embodiment, the dialogue robot 1 specifies the name of the person to be photographed based on the contents of the conversations of the participants present at the photographing site, and the photographing subject list 41 and the registration subject list 40 are obtained. Shooting can be generated dynamically.

(対話ロボットの構成)
実施形態2において、解釈部32は、音声入力部12を介して入力された、会場に居合わせた人物達の会話の音声認識結果(テキストデータ)を処理して、会話の意味内容を解釈する。
(Configuration of interactive robot)
In the second embodiment, the interpretation unit 32 processes the speech recognition result (text data) of the conversations of the people present at the venue, which are input via the voice input unit 12, and interprets the semantic content of the conversation.

音声入力部12と解釈部32との間には、既存の音声認識技術により音声をテキストに変換する音声認識部(図示しない)が設けられている。前記音声認識部によって、得られた会場の参加者たちの会話のテキストデータは、いったん記憶部11に格納され、解釈部32に読み出されることによって、解釈部32に供給される。   Between the speech input unit 12 and the interpretation unit 32, a speech recognition unit (not shown) that converts speech into text using an existing speech recognition technology is provided. The text data of the conversations of the participants in the venue obtained by the voice recognition unit is once stored in the storage unit 11 and read by the interpretation unit 32 to be supplied to the interpretation unit 32.

とりわけ、解釈部32は、会話の中に、人物の名前が含まれている場合には、それを検出する。そして、会話の文脈から、検出された名前の人物が、本撮影現場に居合わせている参加者か否かを判定する。   In particular, the interpretation unit 32 detects a person's name if it is included in the conversation. Then, it is determined from the context of the conversation whether or not the detected person is a participant present at the actual shooting site.

(処理フロー)
図4は、実施形態2に係る対話ロボット1の処理の流れを示すフローチャートである。図4に示す各ステップは、図3に示す各ステップが実行されている間に、同時進行的に実施される。すなわち、図4に示す各ステップの実行によって、登録対象者リスト40および撮影対象者リスト41が更新された場合には、更新された各リストに基づいて、登録撮影または記録撮影が実行される。
(Processing flow)
FIG. 4 is a flowchart showing the flow of processing of the interactive robot 1 according to the second embodiment. The steps shown in FIG. 4 are performed simultaneously while the steps shown in FIG. 3 are being executed. That is, when the registration target person list 40 and the photographing target person list 41 are updated by executing each step shown in FIG. 4, the registered photographing or the recording photographing is performed based on each updated list.

制御部10の図示しない音声認識部は、音声入力部12を介して入力された音声を認識する(S201)。解釈部32は、会話の中に人物の名前を検出すると(S202でYES)、会話の文脈に基づいて、その名前の人物が、撮影現場に居合わせている参加者か否かを判別する(S203)。解釈部32は、例えば、「○○さん、来られなくて残念ね」という発言から、「○○さん」は参加者ではないと判別する。また、「□□さん、遅いよ。やっと来た!」という発言から、「□□さん」は参加者であると判別する。   A voice recognition unit (not shown) of the control unit 10 recognizes the voice input via the voice input unit 12 (S201). When the interpretation unit 32 detects the name of a person in the conversation (YES in S202), the interpretation unit 32 determines based on the conversation context whether or not the person with the name is a participant present at the shooting site (S203). ). For example, the interpretation unit 32 determines that “Mr. XX” is not a participant from the statement “Mr. XX, I am sorry that I cannot come”. In addition, it is determined that “Mr. □□ is a participant” from the remarks “Mr.

解釈部32が、会話から検出した名前の人物が参加者であると判別した場合には(S203でYES)、リスト管理部20は、参加者と判別された前記人物の名前が撮影対象者リスト41に登録されているか否かを判定する(S204)。   When the interpretation unit 32 determines that the person with the name detected from the conversation is a participant (YES in S203), the list management unit 20 determines that the name of the person determined to be a participant is the subject list. It is determined whether it is registered in 41 (S204).

前記人物の名前が撮影対象者リスト41に登録されていない場合、リスト管理部20は、前記人物の名前のレコードを撮影対象者リスト41に追加するとともに、該人物の名前を、登録対象者リスト40にも追加する(S205)。   When the name of the person is not registered in the shooting target person list 41, the list management unit 20 adds a record of the person name to the shooting target person list 41, and adds the name of the person to the registration target person list. 40 is also added (S205).

S205以降、制御部10は、S201以降の処理を繰り返す。なお、音声認識結果のテキストデータに、人物の名前が検出されなかった場合(S202でNO)、および、検出されたとしても、その名前の人物が参加者ではなかった場合(S203でNO)、および、前記人物が参加者であってもすでに撮影対象者リスト41にその名前が登録されている場合(S204でYES)には、制御部10は、撮影対象者リスト41の更新は不要であるとして、S201に戻り、以降の処理を繰り返す。   After S205, the control unit 10 repeats the processes after S201. If the name of the person is not detected in the text data of the speech recognition result (NO in S202), and even if it is detected, the person with that name is not a participant (NO in S203), In addition, even when the person is a participant, if the name is already registered in the shooting target person list 41 (YES in S204), the control unit 10 does not need to update the shooting target person list 41. The process returns to S201 and the subsequent processing is repeated.

前記構成および方法によれば、対話ロボット1は、リスト管理部20および解釈部32を備えていることにより、撮影現場に居合わせている人物達による、リアルタイムな会話の内容から参加者の名前を認識して、撮影対象者リスト41および登録対象者リスト40を、催し物の開催中にも動的に作成することが可能となる。これにより、例えば、前記送受信情報またはユーザの入力に基づいて事前に把握されていた参加者以外の人物が飛び入りで参加した場合でも、その人物の存在を会場内の会話から認識して顔画像を学習できる。そして、該人物の記録画像を残すことが可能となる。   According to the configuration and method, the dialogue robot 1 includes the list management unit 20 and the interpretation unit 32, thereby recognizing the name of the participant from the contents of real-time conversation by the people present at the shooting site. Thus, the photographing subject list 41 and the registration subject list 40 can be dynamically created even during an event. Thereby, for example, even when a person other than the participant who has been grasped in advance based on the transmission / reception information or the user's input participates in a jump-in, the presence of the person is recognized from the conversation in the venue and the face image is obtained. Can learn. It is possible to leave a recorded image of the person.

〔実施形態3〕
本発明の他の実施形態について、図1〜図3に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
Another embodiment of the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

実施形態3において、記憶部11には、図2に示す撮影条件42が格納されている。実施形態1の撮影条件42とは異なり、撮影条件としての写真数比率が、撮影対象者ごとに設定されている。この設定は、例えば、ユーザが事前に行うことができる。例えば、対話ロボット1を、結婚披露宴会場または誕生パーティー会場等の催し物での撮影に使用する場合を想定する。この場合、ユーザは、その催し物の主役または主賓(新郎新婦または誕生日を祝われている人物など)の記録画像が多く撮影されるように、彼らの写真数比率を高く設定し、その他の参加者の写真数比率を少なく設定することができる。   In the third embodiment, the storage unit 11 stores the shooting conditions 42 illustrated in FIG. Unlike the shooting condition 42 of the first embodiment, the ratio of the number of photos as the shooting condition is set for each shooting target person. This setting can be performed in advance by the user, for example. For example, it is assumed that the dialogue robot 1 is used for photographing at an event such as a wedding reception hall or a birthday party hall. In this case, the user sets their photo ratio high so that many recorded images of the protagonist or host of the event (such as a bride or groom or a person celebrating a birthday) are taken, and other participation The ratio of the number of photographers can be set low.

実施形態3に係る撮影要否判定部23は、図3に示すS104において、映像において捉えられた人物が識別されると(S104でYES)、まず、識別された前記人物の写真数比率を、図2に示す撮影条件42から読み出す。そして、撮影要否判定部23は、記録画像DB43に格納されている該人物の写真数比率を、読み出した写真数比率と比較する(S110)。以降は、実施形態1と同様に記録撮影の処理が実行される。   When the person captured in the video is identified in S104 shown in FIG. 3 (YES in S104), the shooting necessity determination unit 23 according to the third embodiment first determines the ratio of the number of photographs of the identified person. Reading is performed from the imaging condition 42 shown in FIG. The photographing necessity determining unit 23 compares the photograph number ratio of the person stored in the recorded image DB 43 with the read photograph number ratio (S110). Thereafter, the recording and photographing process is executed as in the first embodiment.

前記構成および方法によれば、例えば、催し物の主役または主賓など、特定の撮影対象者の記録画像を多く残したいといった要望にも対応することができる。   According to the above configuration and method, for example, it is possible to respond to a desire to leave a large number of recorded images of a specific subject, such as a leading role or a presidency of an event.

〔変形例〕
識別情報は、人物の名前に限定されず、ニックネーム、ハンドルネーム、会員番号、ID等であってもよい。また、撮影対象者リスト41においては、人によって識別可能な、名前、ニックネームまたはハンドルネームに加えて、対話ロボット1の制御部10が各人物を識別するための符号が対応付けて格納されていてもよい。
[Modification]
The identification information is not limited to a person's name, and may be a nickname, a handle name, a membership number, an ID, or the like. In addition, in the subject list 41, in addition to a name, nickname, or handle name that can be identified by a person, a code for the controller 10 of the interactive robot 1 to identify each person is stored in association with each other. Also good.

本明細書において、撮影対象者を「人物」と表現したが、これは、対話ロボット1の撮影の対象が人に限定されることを意図していない。対話ロボット1に搭載される画像認識技術において、撮影対象者を個々に識別できる限りは、対話ロボット1は、人以外(例えば、動物および静物等)を撮影対象とすることができる。   In this specification, the person to be imaged is expressed as “person”, but this is not intended to limit the object to be imaged by the interactive robot 1 to a person. In the image recognition technology mounted on the interactive robot 1, the interactive robot 1 can target subjects other than humans (for example, animals, still lifes, etc.) as long as the subjects to be imaged can be individually identified.

対話ロボット1は、動画を記録画像として記録することができる。この場合、対話ロボット1の撮影要否判定部23は、写真数比率ではなく、例えば、動画中に人物が写っている時間の長さを、撮影条件42として参照してもよい。   The interactive robot 1 can record a moving image as a recorded image. In this case, the shooting necessity determination unit 23 of the interactive robot 1 may refer to, for example, the length of time during which a person is captured in the moving image as the shooting condition 42 instead of the number-of-photograph ratio.

撮影要否判定部23は、写真数比率に加えてあるいは代えて、写真の枚数を撮影条件42として参照してもよい。   The photographing necessity determination unit 23 may refer to the number of photographs as the photographing condition 42 in addition to or instead of the photograph number ratio.

〔ソフトウェアによる実現例〕
対話ロボット1の制御ブロック(特に、リスト管理部20、映像処理部21、出力制御部22、撮影要否判定部23、画像取得部24、顔画像登録部25、写真保存部26、識別部30、検出部31および解釈部32)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Control blocks of the interactive robot 1 (particularly, a list management unit 20, a video processing unit 21, an output control unit 22, a shooting necessity determination unit 23, an image acquisition unit 24, a face image registration unit 25, a photo storage unit 26, and an identification unit 30) The detection unit 31 and the interpretation unit 32) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit). Also good.

後者の場合、対話ロボット1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the interactive robot 1 includes a CPU that executes instructions of a program that is software that implements each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU), or A storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided. Then, the computer (or CPU) reads the program from the recording medium and executes it to achieve the object of the present invention. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る情報処理装置(対話ロボット1)は、出力部(表示部14、音声出力部15)と撮像部(16)とを備えた情報処理装置であって、登録対象者に所定の動作を行うことを促すメッセージを、前記出力部に出力させる出力制御部(22)と、前記出力制御部が前記メッセージを出力させた後、前記撮像部に画像を撮像させる画像取得部(24)と、前記撮像部が撮像した画像に前記所定の動作を行った人物が含まれている場合に、該人物の画像を、前記登録対象者の画像として登録する登録部(顔画像登録部25)と、を備えている。
[Summary]
An information processing apparatus (dialogue robot 1) according to aspect 1 of the present invention is an information processing apparatus including an output unit (display unit 14, audio output unit 15) and an imaging unit (16). An output control unit (22) that causes the output unit to output a message that prompts the user to perform a predetermined operation, and an image acquisition unit that causes the imaging unit to capture an image after the output control unit outputs the message. 24) and a registration unit (face image registration unit) that registers an image of the person as an image of the person to be registered when the image captured by the imaging unit includes a person who has performed the predetermined operation. 25).

前記の構成によれば、出力制御部が、登録対象者に所定の動作を行うことを促すメッセージを出力部に出力させる。メッセージが出力された後、画像取得部が、撮像部を制御して、人物の画像を取得する。前記メッセージに促されて前記人物が所定の動作を行った場合、所定の動作を行った当該人物の画像が取得されることになる。そして、所定の動作を行った人物であることに基づいて、当該人物が、前記メッセージが宛てられた前記登録対象者であると、登録部は特定することができる。したがって、登録部は、メッセージ出力後に画像取得部によって取得された前記画像を、前記登録対象者の画像として登録することができる。   According to the above configuration, the output control unit causes the output unit to output a message that prompts the person to be registered to perform a predetermined operation. After the message is output, the image acquisition unit controls the imaging unit to acquire a person image. When the person performs a predetermined action when prompted by the message, an image of the person who has performed the predetermined action is acquired. And based on being a person who performed predetermined operation | movement, a registration part can specify that the said person is the said registration subject to whom the said message was addressed. Therefore, the registration unit can register the image acquired by the image acquisition unit after outputting the message as the image of the person to be registered.

これにより、情報処理装置は、撮像された画像が、どの人物の画像であるのかを、ユーザから指定してもらわなくとも把握することができる。結果として、ユーザによる入力が無くとも、登録対象者と、該登録対象者の画像とを対応付けて登録することができる情報処理装置を実現することができる。   As a result, the information processing apparatus can grasp which person the captured image is without having the user specify it. As a result, it is possible to realize an information processing apparatus capable of registering a registration target person and an image of the registration target person in association with each other without input by the user.

本発明の態様2に係る情報処理装置では、前記態様1において、前記出力制御部は、1以上の登録対象者の識別情報を含む登録対象者リスト(40)から読み出した1の識別情報(名前)を前記メッセージの少なくとも一部として出力させるものであり、前記情報処理装置は、さらに、前記出力制御部が前記メッセージを出力させた後、前記撮像部によって取得されたライブビュー映像から、前記所定の動作が行った人物を検出する検出部(31)を備え、前記画像取得部は、前記検出部によって検出された人物の画像を、前記撮像部に撮像させて取得し、前記登録部は、前記画像取得部によって取得された前記画像に、前記出力制御部によって出力された前記識別情報を対応付けて、該画像(登録画像、顔画像)を登録してもよい。   In the information processing apparatus according to aspect 2 of the present invention, in the aspect 1, the output control unit is configured to identify one identification information (name) read from a registration target person list (40) including identification information of one or more registration target persons. ) As at least a part of the message, and the information processing apparatus further outputs the message from the live view video acquired by the imaging unit after the output control unit outputs the message. A detection unit (31) for detecting a person who has performed the operation, wherein the image acquisition unit acquires the image of the person detected by the detection unit by the imaging unit, and the registration unit includes: The image (registered image, face image) may be registered by associating the image acquired by the image acquisition unit with the identification information output by the output control unit.

前記の構成によれば、出力制御部は、画像を登録しなければならない登録対象者の識別情報を登録対象者リストにて把握しており、該識別情報をメッセージの少なくとも一部として出力させる。メッセージが出力された後、画像取得部が、撮像部を制御して、人物のライブビュー映像を取得する。当該メッセージに促されて前記人物が所定の動作を行った場合、所定の動作を行った当該人物が、前記ライブビュー映像において捉えられる。検出部が、前記ライブビュー映像から、前記所定の動作が行った人物を検出すると、前記画像取得部は、前記検出部によって検出された人物の画像を取得する。つまり、所定の動作を行った当該人物の画像が取得される。前記メッセージには、識別情報が含まれているので、所定の動作を行った人物であることに基づいて、当該人物が、前記メッセージが宛てられた前記登録対象者であると、登録部はより正確に特定することができる。したがって、登録部は、メッセージ出力後に画像取得部によって取得された前記画像を、前記登録対象者の画像として登録することができる。   According to the above configuration, the output control unit grasps the identification information of the registration target person to register the image in the registration target person list, and outputs the identification information as at least a part of the message. After the message is output, the image acquisition unit controls the imaging unit to acquire a live view video of the person. When the person performs a predetermined action when prompted by the message, the person who has performed the predetermined action is captured in the live view video. When the detection unit detects a person who has performed the predetermined operation from the live view video, the image acquisition unit acquires an image of the person detected by the detection unit. That is, an image of the person who has performed a predetermined operation is acquired. Since the message includes identification information, based on the fact that the person who performed the predetermined operation is the person to be registered to which the message is addressed, the registration unit It can be accurately identified. Therefore, the registration unit can register the image acquired by the image acquisition unit after outputting the message as the image of the person to be registered.

結果として、ユーザによる入力が無くとも、登録対象者と、該登録対象者の画像とを対応付けて登録することができる情報処理装置を実現することができる。   As a result, it is possible to realize an information processing apparatus capable of registering a registration target person and an image of the registration target person in association with each other without input by the user.

本発明の態様3に係る情報処理装置は、前記態様2において、音声を取得する音声入力部(12)と、取得された前記音声の音声認識結果を解釈して、登録対象者の識別情報を取得する解釈部(32)と、取得された前記識別情報を前記登録対象者リストに追加するリスト管理部(20)とを備えていてもよい。   In the information processing apparatus according to aspect 3 of the present invention, in the aspect 2, the speech input unit (12) that acquires sound and the speech recognition result of the acquired sound are interpreted, and the identification information of the person to be registered is obtained. You may provide the interpretation part (32) to acquire, and the list management part (20) which adds the acquired said identification information to the said registration object person list.

前記の構成によれば、画像を登録しなければならない登録対象者を把握するための登録対象者リストは、音声入力部を介して取得された音声の内容に基づいて、動的に生成される。つまり、登録対象者として事前に把握されていなかった人物が撮影現場に居合わせたとしても、その撮影現場で発生する音声(例えば、該撮影現場に居合わせた人物同士の会話等)の内容から、前記人物の存在を認識することができ、該人物を登録対象者として把握することができる。結果として、ユーザによる入力が無くとも、撮影現場に居合わせた人物を漏れなく登録対象者として把握して、画像を登録することが可能となる。   According to the above configuration, the registration target person list for grasping the registration target persons who must register the image is dynamically generated based on the contents of the voice acquired through the voice input unit. . That is, even if a person who has not been grasped in advance as a person to be registered is present at the shooting site, from the content of the sound generated at the shooting site (for example, conversation between the persons present at the shooting site), The presence of a person can be recognized, and the person can be grasped as a person to be registered. As a result, even if there is no input by the user, it is possible to recognize a person who is present at the shooting site as a registration target person and register an image.

本発明の態様4に係る情報処理装置では、前記態様3において、前記リスト管理部は、取得された前記識別情報に対応付けられた画像が登録されていない場合に、該識別情報を、前記登録対象者リストに追加してもよい。前記の構成によれば、前記態様3と同様の効果を奏する。   In the information processing apparatus according to aspect 4 of the present invention, in the aspect 3, when the image associated with the acquired identification information is not registered, the list management unit stores the identification information in the registration You may add to a subject list. According to the said structure, there exists an effect similar to the said aspect 3.

本発明の態様5に係る情報処理装置では、前記態様1〜4において、前記画像取得部は、前記撮像部によって取得されたライブビュー映像に、前記登録部によって登録された画像の人物が含まれている場合に、該人物の画像を記録画像として取得するものであり、前記情報処理装置は、さらに、前記画像取得部によって取得された前記記録画像を蓄積する記録画像データベース(43)と、前記記録画像データベース(以下、DB)において蓄積される、各人物を被写体とする記録画像の枚数が、人物ごとに所定の比率(写真数比率)となるように、前記記録画像を取得させるよう、前記画像取得部を制御する撮影制御部(撮影要否判定部23)とを備えていてもよい。   In the information processing apparatus according to aspect 5 of the present invention, in the above aspects 1 to 4, the image acquisition unit includes a person of the image registered by the registration unit in the live view video acquired by the imaging unit. The image of the person is acquired as a recorded image, and the information processing apparatus further includes a recorded image database (43) for storing the recorded image acquired by the image acquiring unit, The recorded image is acquired so that the number of recorded images stored in a recorded image database (hereinafter referred to as DB) with each person as a subject is a predetermined ratio (photograph ratio) for each person. You may provide the imaging | photography control part (imaging necessity determination part 23) which controls an image acquisition part.

前記の構成によれば、撮影現場に居合わせた人物達の画像が前記態様1〜4の構成に基づいて学習されると、その学習された画像に基づいて各人物が識別され、画像取得部によって、各人物の記録画像が取得され、前記記録画像DBに蓄積される。各人物は、前述のとおり登録された画像に基づいて学習されているので、前記記録画像DBにおいて、どの記録画像にどの人物が写っているのかを把握することが可能である。   According to the above configuration, when the images of the people who are present at the shooting site are learned based on the configurations of the aspects 1 to 4, each person is identified based on the learned images, and the image acquisition unit A recorded image of each person is acquired and stored in the recorded image DB. Since each person is learned based on the registered image as described above, it is possible to grasp which person is reflected in which recorded image in the recorded image DB.

そこで、撮影制御部は、前記記録画像DBに蓄積される、各人物を被写体とする記録画像の枚数が、人物ごとに所定の比率となるように記録画像を取得するよう、前記画像取得部を制御する。これにより、画像取得部は、前記撮影制御部の制御下で、各人物を被写体とする記録画像の枚数が、人物ごとに所定の比率となるように、撮影枚数を管理しながら、記録画像を取得する。このように、記録画像DBにおける、各人物が写っている記録画像の枚数の比率が、人物ごとに所定の比率となるように、記録画像の枚数を調節しながら、記録のための撮影を行うことが可能となる。結果として、ある人物が写っている記録画像が所望枚数に満たない等の問題を回避することができるので、記録撮影時の利便性が向上する。   Therefore, the shooting control unit sets the image acquisition unit so as to acquire the recorded images so that the number of recorded images that are stored in the recorded image DB is set to a predetermined ratio for each person. Control. In this way, the image acquisition unit manages the number of shot images while controlling the number of shot images so that the number of recorded images of each person as a subject is a predetermined ratio for each person under the control of the shooting control unit. get. In this way, shooting for recording is performed while adjusting the number of recorded images so that the ratio of the number of recorded images of each person in the recorded image DB is a predetermined ratio for each person. It becomes possible. As a result, it is possible to avoid the problem that the number of recorded images in which a certain person is photographed is less than the desired number, so that convenience during recording and shooting is improved.

本発明の態様6に係る情報処理装置では、前記態様5において、前記撮影制御部は、前記記録画像の前記枚数が、人物ごとに一定の比率となるように、前記画像取得部を制御してもよい。   In the information processing apparatus according to aspect 6 of the present invention, in the aspect 5, the imaging control unit controls the image acquisition unit so that the number of the recorded images is a constant ratio for each person. Also good.

前記の構成によれば、画像取得部は、前記撮影制御部の制御下で、各人物を被写体とする記録画像の枚数が、どの人物において、一律所定の比率となるように、撮影枚数を管理しながら、記録画像を取得する。結果として、記録画像DBには、各人物が写っている記録画像の枚数の比率が、だいたい同じになるように、各記録画像が蓄積される。したがって、未学習の人物も含めて、撮影現場に居合わせた人物全員に対して偏りなく記録画像が残される。結果として、ある人物が写っている記録画像が所望枚数に満たない等の問題を回避することができるので、記録撮影時の利便性が向上する。   According to the above configuration, the image acquisition unit manages the number of shots so that the number of recorded images with each person as a subject is uniformly a predetermined ratio under the control of the shooting control unit. The recorded image is acquired. As a result, each recorded image is accumulated in the recorded image DB so that the ratio of the number of recorded images in which each person is photographed is approximately the same. Therefore, a recorded image is left unbiased with respect to all persons present at the shooting site including unlearned persons. As a result, it is possible to avoid the problem that the number of recorded images in which a certain person is photographed is less than the desired number, so that convenience during recording and shooting is improved.

本発明の態様7に係る情報処理装置では、前記態様5において、前記撮影制御部は、前記記録画像の前記枚数が、人物ごとにあらかじめ定められた比率となるように、前記画像取得部を制御してもよい。   In the information processing apparatus according to aspect 7 of the present invention, in the aspect 5, the imaging control unit controls the image acquisition unit so that the number of the recorded images is a ratio predetermined for each person. May be.

前記の構成によれば、画像取得部は、前記撮影制御部の制御下で、各人物を被写体とする記録画像の枚数が、人物ごとに指定された所定の比率となるように、撮影枚数を管理しながら、記録画像を取得する。結果として、記録画像DBには、各人物が写っている記録画像の枚数の比率が、その人物ごとに設定された比率となるように、各記録画像が蓄積される。したがって、撮影現場に居合わせた人物のうち、特定の人物の記録画像を多めに残したり、あるいは、少なめに残したりというように、人物ごとに記録画像を残す枚数を調節することができる。結果として、ある人物が写っている記録画像が所望枚数に満たない等の問題を回避することができるので、記録撮影時の利便性が向上する。   According to the above configuration, the image acquisition unit controls the number of shots so that, under the control of the shooting control unit, the number of recorded images with each person as a subject becomes a predetermined ratio designated for each person. Record images while managing them. As a result, each recorded image is stored in the recorded image DB so that the ratio of the number of recorded images in which each person appears is the ratio set for each person. Therefore, it is possible to adjust the number of recording images to be left for each person, such as leaving a large number or a small number of recorded images of a specific person among the people present at the shooting site. As a result, it is possible to avoid the problem that the number of recorded images in which a certain person is photographed is less than the desired number, so that convenience during recording and shooting is improved.

本発明の態様8に係る情報処理装置の制御方法は、出力部と撮像部とを備えた情報処理装置の制御方法であって、登録対象者に所定の動作を行うことを促すメッセージを、前記出力部に出力させる出力制御ステップ(S105)と、前記出力制御ステップにて前記メッセージを出力させた後、前記撮像部に画像を撮像させる画像取得ステップ(S107)と、前記撮像部が撮像した画像に前記所定の動作を行った人物が含まれている場合に、該人物の画像を、前記登録対象者の画像として登録する登録ステップ(S108)と、を含む。前記の方法によれば、前記態様1と同様の効果を奏する。   An information processing apparatus control method according to an aspect 8 of the present invention is an information processing apparatus control method including an output unit and an imaging unit, and a message that prompts a registration target person to perform a predetermined operation, An output control step (S105) to be output to the output unit, an image acquisition step (S107) to cause the image capturing unit to capture an image after outputting the message in the output control step, and an image captured by the image capturing unit A registration step (S108) of registering an image of the person as an image of the person to be registered when the person who has performed the predetermined operation is included in According to the said method, there exists an effect similar to the said aspect 1.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理装置が備える各部(ソフトウェア要素、例えば、前記出力制御部、前記画像取得部、および前記登録部)として動作させることにより前記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The information processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, each unit (software element, for example, the output control unit, the image acquisition unit, and the like) included in the information processing apparatus. A control program for the information processing apparatus that causes the information processing apparatus to be realized by a computer by operating as the registration unit) and a computer-readable recording medium that records the control program also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

1 対話ロボット(情報処理装置)、10 制御部、11 記憶部、12 音声入力部(入力部)、13 通信部(入力部)、14 表示部(出力部)、15 音声出力部(出力部)、16 撮像部、20 リスト管理部、21 映像処理部、22 出力制御部、23 撮影要否判定部(撮影制御部)、24 画像取得部、25 顔画像登録部(登録部)、26 写真保存部、30 識別部、31 検出部、32 解釈部、40 登録対象者リスト、41 撮影対象者リスト、42 撮影条件(比率)、43 記録画像データベース DESCRIPTION OF SYMBOLS 1 Dialogue robot (information processing apparatus), 10 Control part, 11 Storage part, 12 Voice input part (input part), 13 Communication part (input part), 14 Display part (output part), 15 Voice output part (output part) , 16 Imaging unit, 20 List management unit, 21 Video processing unit, 22 Output control unit, 23 Shooting necessity determination unit (shooting control unit), 24 Image acquisition unit, 25 Face image registration unit (registration unit), 26 Photo storage Part, 30 identification part, 31 detection part, 32 interpretation part, 40 registration subject list, 41 photographing subject list, 42 photographing condition (ratio), 43 recorded image database

Claims (9)

出力部と撮像部とを備えた情報処理装置であって、
登録対象者に所定の動作を行うことを促すメッセージを、前記出力部に出力させる出力制御部と、
前記出力制御部が前記メッセージを出力させた後、前記撮像部に画像を撮像させる画像取得部と、
前記撮像部が撮像した画像に前記所定の動作を行った人物が含まれている場合に、該人物の画像を、前記登録対象者の画像として登録する登録部と、を備えていることを特徴とする情報処理装置。
An information processing apparatus including an output unit and an imaging unit,
An output control unit that causes the output unit to output a message prompting the registration target person to perform a predetermined operation;
An image acquisition unit that causes the imaging unit to capture an image after the output control unit outputs the message;
A registration unit that registers an image of the person as an image of the person to be registered when a person who has performed the predetermined operation is included in the image captured by the imaging unit; Information processing apparatus.
前記出力制御部は、1以上の登録対象者の識別情報を含む登録対象者リストから読み出した1の識別情報を前記メッセージの少なくとも一部として出力させるものであり、
前記情報処理装置は、さらに、
前記出力制御部が前記メッセージを出力させた後、前記撮像部によって取得されたライブビュー映像から、前記所定の動作が行った人物を検出する検出部を備え、
前記画像取得部は、前記検出部によって検出された人物の画像を、前記撮像部に撮像させて取得し、
前記登録部は、前記画像取得部によって取得された前記画像に、前記出力制御部によって出力された前記識別情報を対応付けて、該画像を登録することを特徴とする請求項1に記載の情報処理装置。
The output control unit outputs one identification information read from a registration target person list including identification information of one or more registration target persons as at least a part of the message,
The information processing apparatus further includes:
A detection unit for detecting a person who has performed the predetermined operation from a live view image acquired by the imaging unit after the output control unit has output the message;
The image acquisition unit acquires the image of the person detected by the detection unit by causing the imaging unit to capture the image,
The information according to claim 1, wherein the registration unit registers the image by associating the identification information output by the output control unit with the image acquired by the image acquisition unit. Processing equipment.
音声を取得する音声入力部と、
取得された前記音声の音声認識結果を解釈して、登録対象者の識別情報を取得する解釈部と、
取得された前記識別情報を前記登録対象者リストに追加するリスト管理部とを備えていることを特徴とする、請求項2に記載の情報処理装置。
An audio input unit for acquiring audio;
Interpreting the voice recognition result of the acquired voice, and acquiring the identification information of the person to be registered;
The information processing apparatus according to claim 2, further comprising: a list management unit that adds the acquired identification information to the registration target person list.
前記リスト管理部は、取得された前記識別情報に対応付けられた画像が登録されていない場合に、該識別情報を、前記登録対象者リストに追加することを特徴とする請求項3に記載の情報処理装置。   The list management unit, when an image associated with the acquired identification information is not registered, adds the identification information to the registration target person list. Information processing device. 前記画像取得部は、前記撮像部によって取得されたライブビュー映像に、前記登録部によって登録された画像の人物が含まれている場合に、該人物の画像を記録画像として取得するものであり、
前記情報処理装置は、さらに、
前記画像取得部によって取得された前記記録画像を蓄積する記録画像データベースと、
前記記録画像データベースにおいて蓄積される、各人物を被写体とする記録画像の枚数が、人物ごとに所定の比率となるように、前記記録画像を取得させるよう、前記画像取得部を制御する撮影制御部とを備えていることを特徴とする、請求項1から4のいずれか1項に記載の情報処理装置。
The image acquisition unit is configured to acquire an image of the person as a recorded image when the person of the image registered by the registration unit is included in the live view video acquired by the imaging unit.
The information processing apparatus further includes:
A recorded image database for storing the recorded images acquired by the image acquisition unit;
An imaging control unit that controls the image acquisition unit to acquire the recorded image so that the number of recorded images that are stored in the recorded image database is a predetermined ratio for each person. The information processing apparatus according to claim 1, wherein the information processing apparatus comprises:
前記撮影制御部は、前記記録画像の前記枚数が、人物ごとに一定の比率となるように、前記画像取得部を制御することを特徴とする請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the photographing control unit controls the image acquisition unit so that the number of the recorded images is a constant ratio for each person. 前記撮影制御部は、前記記録画像の前記枚数が、人物ごとにあらかじめ定められた比率となるように、前記画像取得部を制御することを特徴とする請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the photographing control unit controls the image acquisition unit so that the number of the recorded images is a ratio determined in advance for each person. 出力部と撮像部とを備えた情報処理装置の制御方法であって、
登録対象者に所定の動作を行うことを促すメッセージを、前記出力部に出力させる出力制御ステップと、
前記出力制御ステップにて前記メッセージを出力させた後、前記撮像部に画像を撮像させる画像取得ステップと、
前記撮像部が撮像した画像に前記所定の動作を行った人物が含まれている場合に、該人物の画像を、前記登録対象者の画像として登録する登録ステップと、を含むことを特徴とする制御方法。
A method for controlling an information processing apparatus including an output unit and an imaging unit,
An output control step for causing the output unit to output a message prompting the person to be registered to perform a predetermined operation;
An image acquisition step of causing the imaging unit to capture an image after outputting the message in the output control step;
A registration step of registering an image of the person as the image of the person to be registered when the person who has performed the predetermined operation is included in the image captured by the imaging unit. Control method.
請求項1に記載の情報処理装置としてコンピュータを機能させるための制御プログラムであって、前記出力制御部、前記画像取得部、および前記登録部としてコンピュータを機能させるための制御プログラム。   A control program for causing a computer to function as the information processing apparatus according to claim 1, wherein the control program causes the computer to function as the output control unit, the image acquisition unit, and the registration unit.
JP2016250209A 2016-12-23 2016-12-23 Information processing device, control method of information processing device, and control program Pending JP2018107538A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016250209A JP2018107538A (en) 2016-12-23 2016-12-23 Information processing device, control method of information processing device, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016250209A JP2018107538A (en) 2016-12-23 2016-12-23 Information processing device, control method of information processing device, and control program

Publications (1)

Publication Number Publication Date
JP2018107538A true JP2018107538A (en) 2018-07-05

Family

ID=62787437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016250209A Pending JP2018107538A (en) 2016-12-23 2016-12-23 Information processing device, control method of information processing device, and control program

Country Status (1)

Country Link
JP (1) JP2018107538A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116197A1 (en) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device, solid-state imaging method, and electronic device
JP2021015362A (en) * 2019-07-10 2021-02-12 富士通コネクテッドテクノロジーズ株式会社 Interactive device, information processing method, and information processing program
WO2023195105A1 (en) * 2022-04-06 2023-10-12 日本電信電話株式会社 Application device, application method, and application program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116197A1 (en) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device, solid-state imaging method, and electronic device
JPWO2020116197A1 (en) * 2018-12-07 2021-10-14 ソニーセミコンダクタソリューションズ株式会社 Solid-state image sensor, solid-state imaging method and electronic equipment
JP7337094B2 (en) 2018-12-07 2023-09-01 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device, solid-state imaging method, and electronic device
JP2021015362A (en) * 2019-07-10 2021-02-12 富士通コネクテッドテクノロジーズ株式会社 Interactive device, information processing method, and information processing program
WO2023195105A1 (en) * 2022-04-06 2023-10-12 日本電信電話株式会社 Application device, application method, and application program

Similar Documents

Publication Publication Date Title
KR101743194B1 (en) Video recording method and device, program and recording medium
CN105095873A (en) Picture sharing method and apparatus
JP4577275B2 (en) Imaging apparatus, image recording method, and program
CN105991930A (en) Zoom processing method and device for dual cameras and mobile terminal
EP3075142A1 (en) Shift camera focus based on speaker position
CN104035558A (en) Terminal device control method and device
CN106131416A (en) Zoom processing method, device and the mobile terminal of dual camera
WO2018228422A1 (en) Method, device, and system for issuing warning information
JP5587390B2 (en) Method, system, and apparatus for selecting images picked up by image pickup apparatus
CN104580874B (en) camera equipment and method for realizing photographing
JP2015115839A5 (en)
JP2018107538A (en) Information processing device, control method of information processing device, and control program
CN105704386A (en) Image acquisition method, electronic equipment and electronic device
CN105549300A (en) Automatic focusing method and device
JP4577445B2 (en) Imaging apparatus, image recording method, and program
JP4000175B1 (en) IMAGING DEVICE AND IMAGING CONTROL PROGRAM FOR IMAGING DEVICE
JP6941950B2 (en) Image providing system, image providing method, and image providing program
CN105959563B (en) Image storage method and image storage device
US20140285649A1 (en) Image acquisition apparatus that stops acquisition of images
JP2009060355A (en) Imaging apparatus, imaging method, and program
CN110266958A (en) A kind of image pickup method, apparatus and system
JP2010041309A (en) Image pickup device, portable telephone terminal, image pickup method, program and recoding medium
JP2014150348A (en) Imaging apparatus
JP7098561B2 (en) Distribution system, distribution system control method, program
CN109981970B (en) Method and device for determining shooting scene and robot