JP6649005B2 - Robot imaging system and image management method - Google Patents

Robot imaging system and image management method Download PDF

Info

Publication number
JP6649005B2
JP6649005B2 JP2015154546A JP2015154546A JP6649005B2 JP 6649005 B2 JP6649005 B2 JP 6649005B2 JP 2015154546 A JP2015154546 A JP 2015154546A JP 2015154546 A JP2015154546 A JP 2015154546A JP 6649005 B2 JP6649005 B2 JP 6649005B2
Authority
JP
Japan
Prior art keywords
image
user
unit
captured image
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015154546A
Other languages
Japanese (ja)
Other versions
JP2017033413A (en
Inventor
泰之 土岐
泰之 土岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unifa Co Ltd
Original Assignee
Unifa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unifa Co Ltd filed Critical Unifa Co Ltd
Priority to JP2015154546A priority Critical patent/JP6649005B2/en
Publication of JP2017033413A publication Critical patent/JP2017033413A/en
Application granted granted Critical
Publication of JP6649005B2 publication Critical patent/JP6649005B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ロボット撮影システムおよび画像管理方法に関するものであって、特に、ロボットと、このロボットの撮影部により撮影された撮影画像を管理するサーバとを備えるロボット撮影システムおよび画像管理方法に関する。   The present invention relates to a robot imaging system and an image management method, and more particularly to a robot imaging system and an image management method including a robot and a server that manages an image captured by an imaging unit of the robot.

従来、人に代わって作業をする、または、擬人的に会話や動作を行うロボットシステムが知られる。例えば、特許文献1には、携帯端末を保持するユーザとロボットの通信機能を利用したコミュニケーション可能なロボットシステムが開示されている。   2. Description of the Related Art Conventionally, there has been known a robot system which works on behalf of a person, or has a conversation and an action like a person. For example, Patent Literature 1 discloses a robot system capable of communicating using a communication function between a user holding a portable terminal and a robot.

特開2013−169611号公報JP 2013-169611 A

上述したロボットシステムは、例えば、ユーザが行う体操の計画を示した体操計画情報を記録した携帯端末より、体操計画情報を受信するロボット受信部と、受信された体操計画情報に基づいて体操駆動を行うように制御する制御部と、体操駆動の結果を示した体操駆動情報を記録するロボット記録部と、体操駆動情報を携帯端末に送信するロボット送信部とを備えるため、ユーザがロボットと一緒に体操をした体操結果を携帯端末にフィードバックすることができ、携帯端末を保有するユーザの体操習慣の形成および継続を促すことができる。   The robot system described above, for example, from a portable terminal that has recorded gymnastics plan information indicating a gymnastics plan performed by the user, a robot receiving unit that receives gymnastics plan information, and performs gymnastics driving based on the received gymnastics plan information A control unit that controls to perform exercise, a robot recording unit that records gymnastics driving information indicating the result of gymnastics driving, and a robot transmission unit that transmits gymnastics driving information to a mobile terminal, so that the user can work together with the robot. The result of the gymnastic exercise can be fed back to the portable terminal, and the user holding the portable terminal can be encouraged to form and continue the exercise routine.

しかしながら、このようなロボットシステムは、検出したユーザの動きや表情を踏まえて個々に合ったロボット駆動をユーザに対し提供することはできるものの、ユーザに対しユーザと所定の関係にある人物の様子がわかる情報を提供するものではなかった。   However, such a robot system can provide the user with a robot drive that is individually tailored based on the detected movement and expression of the user, but the appearance of a person in a predetermined relationship with the user is not shown to the user. It did not provide clear information.

上記課題を解決するために、本発明のロボット撮影システムは、所定エリア内に存在する複数の被写体を撮影する撮影部を有するロボットと、ロボットとネットワークを介して接続され、撮影部により撮影された撮影画像を管理するサーバと、を含む。サーバは、撮影画像を受信する画像受信部と、画像受信部が受信した撮影画像、複数の被写体のうち特定の被写体を含むマスター画像、ならびに、該マスター画像に関連付けられた特定の被写体の識別情報および特定の被写体と所定の関係性を有するユーザのユーザ情報を記憶する記憶部と、記憶部に記憶された撮影画像およびマスター画像を比較して、特定の被写体が含まれる撮影画像を抽出することにより、該抽出された撮影画像と、識別情報およびユーザ情報を関連付けるものとして特定する特定部と、特定部により特定された識別情報、ユーザ情報および抽出された撮影画像を関連付けて記憶部に記憶する情報更新部と、サーバにネットワークを介して接続されるユーザ端末であって、撮影画像に含まれる特定の被写体と所定の関係性を有するユーザのユーザ端末に対し、識別情報およびユーザ情報が関連付けられた撮影画像を閲覧可能とする閲覧管理部とを備えるものである。   In order to solve the above problems, a robot imaging system according to the present invention includes a robot having an imaging unit that captures a plurality of subjects existing in a predetermined area, the robot being connected to the robot via a network, and being imaged by the imaging unit. A server that manages captured images. The server includes an image receiving unit that receives the captured image, a captured image received by the image receiving unit, a master image including a specific subject among a plurality of subjects, and identification information of a specific subject associated with the master image. A storage unit for storing user information of a user having a predetermined relationship with a specific subject, and comparing a captured image and a master image stored in the storage unit to extract a captured image including the specific subject The identification unit that identifies the extracted captured image as being associated with the identification information and the user information, and stores the identification information, the user information, and the extracted captured image identified by the identification unit in the storage unit in association with each other. An information updating unit and a user terminal connected to a server via a network, wherein the information updating unit and a specific subject included in a captured image have a predetermined relationship. The user terminal of the user having, in which and a viewing management unit that allows viewing the captured image identification information and the user information is associated.

また、撮影部は、複数の被写体を撮影するに加え、被写体の検温撮影をすることにより、第二の撮影画像を生成するものであって、サーバは、第二の撮影画像を画像受信部が受信し、記憶部が記憶するものであってもよい。   In addition, the imaging unit generates a second captured image by performing temperature measurement imaging of the subject in addition to capturing a plurality of subjects, and the server receives the second captured image by the image receiving unit. The information may be received and stored in the storage unit.

また、撮影部は、複数の第二の撮影画像を動画として撮影するものであって、特定部は、更に、動画に含まれる被写体の動き情報と、動画に含まれる検温情報に基づいて、健康を確認すべき特定の被写体を特定するものであって、ロボットは、特定された健康を確認すべき特定の被写体を指し示す出力を行うものであってもよい。   The photographing unit is for photographing a plurality of second photographed images as a moving image, and the specifying unit is further configured to perform health based on movement information of a subject included in the moving image and temperature measurement information included in the moving image. The robot may be one that specifies a specific subject to be checked, and the robot performs an output indicating the specific subject to be checked for the specified health.

また、記憶部は、特定の被写体を含むマスター画像に加え、特定の被写体とは異なる他の特定の被写体を含むマスター画像を記録するものであって、特定部は、記憶部に記憶された撮影画像と他の特定の被写体を含むマスター画像を比較してもよい。   The storage unit records a master image including a specific subject different from the specific subject in addition to the master image including the specific subject. The image may be compared with a master image including another specific subject.

また、ロボットは、予め用意された該ロボットの運動行為を行うための複数のアプリケーションソフトを記憶する記憶部と、アプリケーションソフトに基づいて、ロボットの各部位を制御する制御部とを備えるものであって、サーバは、特定された撮影画像に基づいて、ユーザの趣向を解析し、趣向情報を抽出する画像解析部を備えるものであって、制御部は、趣向情報に基づいて、ロボットの部位を制御してもよい。   Further, the robot includes a storage unit for storing a plurality of application software prepared for performing the robot's exercise action prepared in advance, and a control unit for controlling each part of the robot based on the application software. The server includes an image analysis unit that analyzes the user's taste based on the identified captured image and extracts the taste information, and the control unit determines a part of the robot based on the taste information. It may be controlled.

また、ロボットは、対話機能を有する対話部を備えるものであって、制御部は、趣向情報に基づいて、記憶部に記憶されたアプリケーションソフトの中から最適なアプリケーションソフトを選択し、該選択されたアプリケーションソフトを用いて、撮影部による撮影タイミング、対話部による対話内容、ロボットの部位のいずれかを制御してもよい。   Further, the robot includes a dialogue unit having a dialogue function, and the control unit selects the most appropriate application software from the application software stored in the storage unit based on the preference information, and selects the selected application software. The application software may be used to control any of the shooting timing of the shooting unit, the content of the dialogue by the dialogue unit, and the part of the robot.

また、閲覧管理部は、所定エリアを管理するユーザのユーザ管理端末に対して、撮影画像を閲覧可能とするものであって、サーバは、ユーザ管理端末を介して、撮影画像のうち、ユーザ端末が閲覧不可とする禁止情報を閲覧管理部に設定可能とする閲覧設定部を備えてもよい。   The browsing management unit enables the user to manage the predetermined area to view the captured image with respect to a user management terminal of the user. May be provided with a browsing setting unit that can set prohibition information that prohibits browsing in the browsing management unit.

また、画像解析部は、禁止情報に基づいて、閲覧不可とされた撮影画像を解析し、新たな撮影画像が閲覧不可のものであるか否かを解析するものであって、閲覧設定部は、解析された撮影画像が閲覧不可のものである際には、閲覧設定は新たな禁止情報を閲覧管理部に設定可能とするものであってもよい。   Further, the image analysis unit analyzes the photographed image which is not allowed to be browsed based on the prohibition information, and analyzes whether or not the new photographed image is unbrowsable. Alternatively, when the analyzed captured image cannot be browsed, the browsing setting may be such that new prohibition information can be set in the browsing management unit.

また、ロボット撮影システムは、ユーザ端末に付属して新たなロボットを備えるものであって、閲覧管理部は、ユーザ端末によって閲覧されている撮影画像に被写体とは異なる他の被写体が含まれる場合は、撮影画像とともに、他の被写体の識別情報を閲覧可能とするものであって、新たなロボットの制御部は、他の被写体の識別情報に基づいて、新たなロボットの部位を制御してもよい。   In addition, the robot imaging system includes a new robot attached to the user terminal, and the browsing management unit determines whether the captured image being browsed by the user terminal includes another subject different from the subject. The identification information of another subject can be browsed together with the captured image, and the control unit of the new robot may control the part of the new robot based on the identification information of the other subject. .

また、所定エリア内に存在する複数の被写体を撮影する撮影部を有するロボットと、ロボットとネットワークを介して接続され、撮影部により撮影された撮影画像を管理するサーバと、を含むロボット撮影システムにおける画像管理方法であって、撮影画像を受信する画像受信ステップと、受信した撮影画像、複数の被写体のうち特定の被写体を含むマスター画像、ならびに、該マスター画像に関連付けられた特定の被写体の識別情報および特定の被写体と所定の関係性を有するユーザのユーザ情報を記憶する記憶ステップと、記憶された撮影画像およびマスター画像を比較して、特定の被写体が含まれる撮影画像を抽出することにより、該抽出された撮影画像と、識別情報およびユーザ情報を関連付けるものとして特定する特定ステップと、特定ステップにおいて特定された識別情報、ユーザ情報および抽出された撮影画像を関連付けて記憶する情報更新ステップと、サーバにネットワークを介して接続されるユーザ端末であって、撮影画像に含まれる特定の被写体と所定の関係性を有するユーザのユーザ端末に対し、識別情報およびユーザ情報が関連付けられた撮影画像を閲覧可能とする閲覧管理ステップとを備える。   Further, in a robot photographing system including a robot having a photographing unit for photographing a plurality of subjects existing in a predetermined area, and a server connected to the robot via a network and managing a photographed image photographed by the photographing unit. An image management method, comprising: an image receiving step of receiving a captured image, a received captured image, a master image including a specific subject among a plurality of subjects, and identification information of a specific subject associated with the master image. A storage step of storing user information of a user having a predetermined relationship with a specific subject, and comparing the stored captured image and master image to extract a captured image including the specific subject, A specifying step of specifying the extracted captured image as identification information and user information to be associated with each other; An information updating step in which the identification information specified in the specifying step, the user information, and the extracted captured image are stored in association with each other; and a user terminal connected to the server via a network, wherein the specific subject included in the captured image is included. And a browsing management step of allowing a user terminal of a user having a predetermined relationship with the user terminal to browse a captured image associated with the identification information and the user information.

本発明によれば、特定の被写体を含む撮影画像を、該被写体と所定の関係性をするユーザのユーザ端末に対して閲覧可能とすることにより、ユーザは、撮影画像を通して被写体の様子を知ることができる。   ADVANTAGE OF THE INVENTION According to this invention, a user can know the state of a subject through a captured image by making it possible to browse the captured image containing a specific subject with respect to the user terminal of the user who has a predetermined relationship with the subject. Can be.

実施の形態に係るロボット撮影システムの概観を模式的に示す図である。FIG. 1 is a diagram schematically showing an overview of a robot imaging system according to an embodiment. 実施の形態に係るロボット撮影システムの機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the robot imaging system according to the embodiment. 実施の形態に係るユーザ端末から利用できるマスター画像登録画面の一例を示す図である。FIG. 5 is a diagram showing an example of a master image registration screen available from a user terminal according to the embodiment. 実施の形態に係る撮影画像とマスター画像の比較を示す概念図である。FIG. 4 is a conceptual diagram showing a comparison between a captured image and a master image according to the embodiment. 実施の形態に係るサーバの記憶部が記憶する撮影画像およびユーザ情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of a captured image and user information stored in a storage unit of the server according to the embodiment. 実施の形態に係るユーザ端末の画面の一例を示す図である。FIG. 4 is a diagram showing an example of a screen of a user terminal according to the embodiment. 実施の形態に係る検温撮影の一例を示す概念図である。It is a conceptual diagram showing an example of temperature measurement photography concerning an embodiment. 実施の形態に係る撮影部の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of a photographing unit according to the embodiment. 図9(a)−(b)は制御部による制御と撮影部による撮影を並行して行う一例を示す図である。FIGS. 9A and 9B are diagrams illustrating an example in which control by the control unit and photographing by the photographing unit are performed in parallel. 実施の形態に係るユーザ管理端末の画面の一例を示す図である。FIG. 5 is a diagram showing an example of a screen of the user management terminal according to the embodiment. 実施の形態に係る新たなロボットを利用する一例を示す模式図である。It is a schematic diagram which shows an example which uses the new robot which concerns on embodiment. 実施の形態に係るユーザ端末から撮影画像を利用する一例を示す図である。It is a figure showing an example using a picked-up image from a user terminal concerning an embodiment. 実施の形態に係る制御部がロボットに運動行為を行わせる一例を示す図である。FIG. 4 is a diagram illustrating an example in which the control unit according to the embodiment causes the robot to perform an exercise action. 実施の形態に係るサーバが行う処理を示すフローチャートである。5 is a flowchart illustrating a process performed by the server according to the embodiment.

本発明の実施の形態の概要を述べる。図1は、実施の形態に係るロボット撮影システム1の概観を模式的に示す図である。ロボット撮影システム1は、所定エリアE内に存在する複数の被写体を撮影するロボット100と、ロボット100とネットワークNTを介して接続され、撮影された撮影画像を管理するサーバ200とを含む。また、ユーザ端末10、ユーザ管理端末20、ロボット100、およびサーバ200等が通信により接続されている。   An outline of an embodiment of the present invention will be described. FIG. 1 is a diagram schematically illustrating an overview of a robot imaging system 1 according to an embodiment. The robot photographing system 1 includes a robot 100 that photographs a plurality of subjects existing in a predetermined area E, and a server 200 that is connected to the robot 100 via a network NT and manages photographed images. Further, the user terminal 10, the user management terminal 20, the robot 100, the server 200, and the like are connected by communication.

「所定エリア」Eとは、複数の人物が所属する施設等が存在する敷地領域であり、また、ロボット100は該敷地内に存在する複数の人物を対象に写真撮影を行うものである。例えば、幼稚園、習い事教室、老人ホーム等の施設が存在する敷地のことである。実施例として以降幼稚園の例を挙げて説明する。また、本実施例では、「ユーザ」は幼稚園に通う園児の親とし、「ユーザ管理者」は幼稚園の保育士として説明する。   The “predetermined area” E is a site area in which a facility or the like to which a plurality of persons belong is located, and the robot 100 photographs a plurality of persons existing in the site. For example, it is a site where facilities such as a kindergarten, a lesson classroom, and a nursing home are located. An example of a kindergarten will be described below as an embodiment. Further, in the present embodiment, the description will be made assuming that “user” is a parent of a kindergarten attending kindergarten and “user administrator” is a kindergarten nursery teacher.

ユーザ端末10は、ユーザが使用する端末であって、ユーザは、予めユーザ管理者から発行されたユーザ情報に基づいてサーバ200にログインする。ユーザ情報とは例えばユーザIDを示す。ユーザ管理者は、幼稚園に通う園児一人について園児の家族に一つのユーザIDを発行する。ユーザ端末10は、具体的には、有線または無線による通信機能を有するPC(Personal computer)、スマートフォン、タブレット、ファブレット等であって、画像を表示できる端末である。ユーザ端末10はネットワークNTを介してサーバ200に接続し、ユーザ管理者がユーザに対して設定した範囲の権限で、サーバ200のサービスを利用できる。   The user terminal 10 is a terminal used by a user, and the user logs in to the server 200 based on user information issued in advance by a user administrator. The user information indicates, for example, a user ID. The user manager issues one user ID to the family of the kindergarten for each kindergarten who attends kindergarten. The user terminal 10 is, specifically, a PC (Personal computer) having a wired or wireless communication function, a smartphone, a tablet, a phablet, or the like, and is a terminal that can display an image. The user terminal 10 is connected to the server 200 via the network NT, and can use the services of the server 200 with the authority within the range set for the user by the user administrator.

ユーザ管理端末20は、ユーザ管理者が使用する端末であって、ユーザ管理者は、該ユーザ管理者が属する幼稚園に関するサーバ200上のデータおよび設定を管理する。ユーザ管理端末20とは、具体的には、有線または無線による通信機能を有するPC、スマートフォン、タブレット、ファブレット等である。また、ユーザ管理者は、ユーザ管理端末20を通して、有線または無線により、所定エリアE内に配置したロボット100に対しロボット100の動作に関する設定を行ってもよい。   The user management terminal 20 is a terminal used by the user manager, and the user manager manages data and settings on the server 200 regarding the kindergarten to which the user manager belongs. The user management terminal 20 is, specifically, a PC, a smartphone, a tablet, a phablet, or the like having a wired or wireless communication function. In addition, the user administrator may make settings related to the operation of the robot 100 for the robot 100 disposed in the predetermined area E by wire or wirelessly through the user management terminal 20.

図2は、実施の形態に係るロボット撮影システム1の機能構成を示すブロック図である。ロボット100は、撮影部110、記憶部120、制御部130、および対話部140を備える。ロボット100は、所定エリアE内に存在する複数の被写体を撮影するため、自走又は遠隔操作により移動可能なものが好ましい。具体的には、ロボット100は歩行可能な人型ロボットまたはキャスター等が取り付けられた移動式ロボットであってもよい。また、ロボット100は通信機能を有し、ロボットの撮影部110は撮影した撮影画像をサーバ200に送信する。具体的には、ロボット100は、図示しないWi−FiモジュールやBluetooth(登録商標)モジュール等の無線伝送モジュールを収容する。   FIG. 2 is a block diagram illustrating a functional configuration of the robot imaging system 1 according to the embodiment. The robot 100 includes an imaging unit 110, a storage unit 120, a control unit 130, and a dialog unit 140. It is preferable that the robot 100 can move by self-propelled or remote control in order to photograph a plurality of subjects existing in the predetermined area E. Specifically, the robot 100 may be a walkable humanoid robot or a mobile robot to which a caster or the like is attached. Further, the robot 100 has a communication function, and the photographing unit 110 of the robot transmits a photographed image to the server 200. Specifically, the robot 100 accommodates a wireless transmission module such as a Wi-Fi module or a Bluetooth (registered trademark) module (not shown).

撮影部110は、所定エリアE内に存在する複数の被写体を撮影する。撮影部110は、具体的にはCCD(charge−coupled device)またはCMOS(complementary metal oxide semiconductor)により光信号を電気信号に変換することで画像情報を取得するものである。撮影部110は、デジタルカメラと同様の機能を有するものであってもよい。撮影部110は、例えば、人の顔を追跡してカメラを動かし、人の顔にフォーカスする機能を備えてもよい。更に、撮影部110は、人の表情を認識して撮影する機能を備えてもよい。ロボットの記憶部120、制御部130、および対話部140については後述する。   The photographing unit 110 photographs a plurality of subjects existing in the predetermined area E. The imaging unit 110 specifically acquires image information by converting an optical signal into an electric signal by using a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The imaging unit 110 may have the same function as a digital camera. For example, the imaging unit 110 may have a function of tracking a human face, moving a camera, and focusing on the human face. Further, the photographing unit 110 may have a function of recognizing a human expression and photographing. The storage unit 120, the control unit 130, and the dialogue unit 140 of the robot will be described later.

サーバ200は、画像受信部210、記憶部220、特定部230、情報更新部240、閲覧管理部250、画像解析部260、および閲覧設定部270を備える。サーバ200は、具体的にはネットワークNT上に設けられたコンピュータであって、ロボット100が撮影した撮影画像を管理するものである。サーバ200は、また、ネットワークNTを介してサーバ200に接続するユーザ端末10およびユーザ管理端末20に対し、サーバ200が持つ機能、サービス、およびデータ等を提供する。   The server 200 includes an image receiving unit 210, a storage unit 220, a specifying unit 230, an information updating unit 240, a browsing management unit 250, an image analyzing unit 260, and a browsing setting unit 270. The server 200 is specifically a computer provided on the network NT, and manages a captured image captured by the robot 100. The server 200 also provides the user terminal 10 and the user management terminal 20 connected to the server 200 via the network NT with functions, services, data, and the like of the server 200.

画像受信部210は、ロボット100が撮影した撮影画像を受信する。画像受信部210は、具体的には、ネットワークモジュール等で構成される。   The image receiving unit 210 receives a captured image captured by the robot 100. The image receiving unit 210 is specifically configured by a network module or the like.

記憶部220は、画像受信部210が受信した撮影画像、複数の被写体のうち特定の被写体を含むマスター画像、ならびに、該マスター画像に関連付けられた特定の被写体の識別情報および特定の被写体と所定の関係性を有するユーザのユーザ情報を記憶する。複数の被写体とは、例えば、所定エリアE内に存在する人物である。「特定の被写体」とは、例えば、マスター画像が登録された対象の園児を示す。「所定の関係性」とは、例えば、該園児と家族または親せき関係にあることを示す。または、特定の被写体を特に気遣い保護する立場にある者である。   The storage unit 220 includes a captured image received by the image receiving unit 210, a master image including a specific subject among a plurality of subjects, identification information of the specific subject associated with the master image, and a specific The user information of the user having the relationship is stored. The plurality of subjects are, for example, persons existing in the predetermined area E. The “specific subject” indicates, for example, a child who is a target in which a master image is registered. The “predetermined relationship” indicates, for example, that the child has a family or close relationship with the child. Or, a person who is particularly concerned about and protects a specific subject.

図3を用いてマスター画像、およびマスター画像をサーバ200へ登録する方法について説明する。図3は、実施の形態に係るユーザ端末10から利用できるマスター画像登録画面の一例を示す図である。「マスター画像」とは、予めユーザが登録した、所定エリアEに所属する人物を含む画像である。人物を含む画像とは、例えば、既に撮影された写真をスキャナで取り込んだ画像であってもよく、また、ユーザ端末10が撮影した画像であってもよい。後述する特定部230が画像検索を行うのに利用するものである。ユーザは、予めユーザ管理者がサーバ200に登録してユーザに通知したユーザ情報を使い、サーバ200へログインする。図3に示す画面の右側には、現在のログインに使用しているユーザID、および該ユーザIDに対応する園児の園児名、ニックネーム、および所属クラス等が表示される。画面の左側には、該園児のマスター画像として取り込まれている画像が表示される。ユーザは、参照ボタンをクリックして別の画像ファイルをますがー画像として指定してもよい。更に、ユーザが、表示画面上の画像の一部を選択することで、選択した部分を抽出してマスター画像としても良い。これより、指定した画像が顔以外の部分を多く含む場合であっても、後述する特定部230の人物の誤認識を抑制できる。ユーザが最後に登録ボタンを押すことで、ユーザ端末10は、選択した画像または画像の一部を該ユーザIDに対応するマスター画像としてサーバ200に送信する。記憶部220は、ユーザ情報リスト221を備え、各園児に対して園児の識別情報、ユーザ情報、およびマスター画像等を関連付けて記憶する。「園児の識別情報」とは、例えば園児名である。   The master image and a method of registering the master image in the server 200 will be described with reference to FIG. FIG. 3 is a diagram showing an example of a master image registration screen that can be used from the user terminal 10 according to the embodiment. The “master image” is an image including a person belonging to the predetermined area E registered by the user in advance. The image including a person may be, for example, an image obtained by capturing a photograph that has already been taken by a scanner, or may be an image that has been taken by the user terminal 10. This is used by an identification unit 230 to be described later to perform an image search. The user logs in to the server 200 using the user information registered in advance by the user administrator in the server 200 and notifying the user. On the right side of the screen shown in FIG. 3, the user ID used for the current login and the kindergarten name, nickname, affiliation class, etc. of the kindergarten corresponding to the user ID are displayed. On the left side of the screen, an image captured as a master image of the child is displayed. The user may click the browse button and specify another image file as the image. Further, the user may select a part of the image on the display screen to extract the selected part and use it as a master image. Thus, even when the designated image includes many parts other than the face, erroneous recognition of a person by the identification unit 230 described later can be suppressed. When the user finally presses the registration button, the user terminal 10 transmits the selected image or a part of the image to the server 200 as a master image corresponding to the user ID. The storage unit 220 includes a user information list 221, and stores the identification information of the child, the user information, the master image, and the like in association with each child. "Kindergarten identification information" is, for example, a kindergarten name.

特定部230は、記憶部220に記憶された撮影画像およびマスター画像を比較して、特定の被写体が含まれる撮影画像を抽出することにより、該抽出された撮影画像と、識別情報およびユーザ情報を関連付けるものとして特定する。画像の抽出は、例えば、サーバ200のCPUが検索エンジンを実行することによって実現される。   The identification unit 230 compares the captured image and the master image stored in the storage unit 220 and extracts a captured image including a specific subject, thereby extracting the extracted captured image, identification information, and user information. Identify as relevant. The image extraction is realized, for example, by the CPU of the server 200 executing a search engine.

特定部230および情報更新部240が行う処理について、図4および図5を用いて説明する。図4は、実施の形態に係る撮影画像とマスター画像の比較を示す概念図である。特定部230は、記憶された撮影画像(IMG1、IMG2、IMG3・・・)と、マスター画像(M1、M2、M3・・・)とを比較して、特定の被写体が含まれる撮影画像を抽出する。具体的には、例えば、特定部230は、撮影画像IMG6においてマスター画像M3と似た部分を検出した場合、似た部分とマスター画像M3との類似性を測定し、測定結果を基に、マスター画像M3に対応する特定の人物A3が撮影画像IMG6に含まれるか否かの判定を行う。特定部230は、特定の人物A3が撮影画像IMG6に含まれると判定した場合は、撮影画像IMG6を抽出する。   The processing performed by the specifying unit 230 and the information updating unit 240 will be described with reference to FIGS. FIG. 4 is a conceptual diagram showing a comparison between a captured image and a master image according to the embodiment. The identification unit 230 compares the stored captured images (IMG1, IMG2, IMG3,...) With the master images (M1, M2, M3,...) To extract a captured image including a specific subject. I do. Specifically, for example, when detecting a portion similar to the master image M3 in the captured image IMG6, the specifying unit 230 measures the similarity between the similar portion and the master image M3, and based on the measurement result, determines the master image M3. It is determined whether or not the specific person A3 corresponding to the image M3 is included in the captured image IMG6. When determining that the specific person A3 is included in the captured image IMG6, the identification unit 230 extracts the captured image IMG6.

図5は、実施の形態に係るサーバ200の記憶部220が記憶する撮影画像およびユーザ情報の一例を示す図である。特定部230は、抽出した撮影画像IMG6について、記憶部220のユーザ情報リスト221を参照し、抽出の際に使用したマスター画像M3に関連する識別情報A3、およびユーザ情報U3を特定する。   FIG. 5 is a diagram illustrating an example of a captured image and user information stored in the storage unit 220 of the server 200 according to the embodiment. The specifying unit 230 refers to the user information list 221 of the storage unit 220 for the extracted captured image IMG6, and specifies the identification information A3 and the user information U3 related to the master image M3 used at the time of extraction.

情報更新部240は、特定部230により特定された識別情報、ユーザ情報および抽出された撮影画像を関連付けて記憶部220に記憶する。例えば、図5の画像特定リスト222は、各撮影画像と、それに対して特定された識別情報およびユーザ情報を関連づけて記憶したものである。図5に示す例では、識別情報は園児名またはニックネームであり、ユーザ情報はユーザIDを示す。   The information updating unit 240 stores the identification information specified by the specifying unit 230, the user information, and the extracted captured image in the storage unit 220 in association with each other. For example, the image specifying list 222 in FIG. 5 stores each captured image in association with identification information and user information specified for the captured image. In the example shown in FIG. 5, the identification information is a child name or a nickname, and the user information indicates a user ID.

閲覧管理部250は、撮影画像に含まれる特定の被写体と所定の関係性を有するユーザのユーザ端末10に対し、識別情報およびユーザ情報が関連付けられた撮影画像を閲覧可能とする。   The browsing management unit 250 enables browsing of a captured image in which identification information and user information are associated with a user terminal 10 of a user having a predetermined relationship with a specific subject included in the captured image.

図6は、実施の形態に係るユーザ端末10の画面の一例を示す図である。図6は、例えばユーザIDを使ってユーザがユーザ端末10からサーバ200にログインし、園児が被写体として含まれる撮影画像を閲覧する画面である。更に、サーバ200は招待機能を有するとしてもよい。また、ユーザに対し閲覧可能とする撮影画像の数に上限を設けても良い。例えば図6では、サーバ200は一ユーザIDに対し1日10の撮影画像を選択して閲覧可能とする。更に、図6に示すように、ユーザはユーザ端末10を介して、撮影画像に対して気に入ったことを示すお気に入り情報、および撮影画像の説明や日記などのコメント情報を入力することができる。サーバ200の記憶部220は、ユーザ端末10からこれらの情報を受信すると、該撮影画像に関連付けて画像特定リスト222に記憶する。また、ユーザが希望する撮影画像を選択して購入またはダウンロードしてもよい。   FIG. 6 is a diagram illustrating an example of a screen of the user terminal 10 according to the embodiment. FIG. 6 is a screen in which a user logs in to the server 200 from the user terminal 10 using, for example, a user ID and browses a captured image in which a child is included as a subject. Further, the server 200 may have an invitation function. An upper limit may be set on the number of captured images that can be viewed by the user. For example, in FIG. 6, the server 200 selects and can view 10 captured images per day for one user ID. Further, as shown in FIG. 6, the user can input, via the user terminal 10, favorite information indicating that the user has liked the captured image, and comment information such as a description of the captured image and a diary. When receiving the information from the user terminal 10, the storage unit 220 of the server 200 stores the information in the image specification list 222 in association with the captured image. Further, the user may select and purchase or download a desired captured image.

これより、例えばユーザである親は、幼稚園にいる間の子供の最近の様子を知ることができる。また、ユーザは、都合のよいときにサーバ200へアクセスして閲覧できる。更に、ユーザは閲覧によって得た情報を基に子供と会話をすれば、より日常生活に基づいた会話内容でコミュニケーションをとることが可能となる。また、単身赴任や出張により自宅にいない家族であっても、ユーザ情報を使用して所持するユーザ端末10を介してサーバ200にログインすることにより、離れている間も最近の子供の様子を知ることができる。また、招待機能を利用すれば、ユーザは、例えば遠方の祖父母に閲覧を許可して孫の様子を知らせることができる。離れて暮らす家族の関係をより親密なものとすることができる。   Thus, for example, the parent who is the user can know the recent state of the child while in the kindergarten. Also, the user can access and browse the server 200 at a convenient time. Furthermore, if the user has a conversation with the child based on the information obtained by browsing, it is possible to communicate with conversation contents based on more everyday life. In addition, even if the family is not at home due to a single transfer or a business trip, the user can log in to the server 200 via the user terminal 10 possessed by using the user information to know the recent state of the child while away. be able to. In addition, if the invitation function is used, the user can, for example, permit browsing to a distant grandparent and inform the state of his grandchild. Family members living apart can be more intimate.

撮影部110は、複数の被写体を撮影するに加え、被写体の検温撮影をすることにより、第二の撮影画像を生成するものであって、サーバ200は、第二の撮影画像を画像受信部210が受信し、記憶部220が記憶するものであってもよい。   The photographing unit 110 generates a second photographed image by performing temperature measurement photographing of the object in addition to photographing a plurality of objects, and the server 200 transmits the second photographed image to the image receiving unit 210. May be received and stored in the storage unit 220.

図7は、実施の形態に係る検温撮影の一例を示す概念図である。具体的には、撮影部110は、前述した光信号を電気信号に変換することで画像情報を取得するカメラ110aに加え、温度を測定するセンサを含むサーモグラフィーカメラ110bを備える。本明細書で「第二の撮影画像」とは、被写体の検温撮影をすることにより得られる画像をいう。   FIG. 7 is a conceptual diagram illustrating an example of temperature measurement imaging according to the embodiment. Specifically, the imaging unit 110 includes a thermography camera 110b including a sensor for measuring temperature, in addition to the camera 110a for acquiring image information by converting the above-described optical signal into an electric signal. In this specification, the “second photographed image” refers to an image obtained by performing temperature measurement photographing of a subject.

図8は、実施の形態に係る撮影部110の機能構成を示すブロック図である。図8では、第二の撮影画像が、撮影画像およびサーモグラフィー画像を合成した合成画像である例を示す。図8を基に、第二の撮影画像を生成する際の処理について説明する。撮影部110は、カメラ110aが撮影した撮影画像をサーバ200に送信するのとは別に、撮影画像に対して人の顔を検出する顔検出エンジンを実行し、例えば、検出した画像上の位置を示す位置情報を抽出する。一方、サーモグラフィーカメラ110bは、センサの出力を基に温度計算を行ってサーモグラフィー画像を生成する。撮影部110は、生成されたサーモグラフィー画像の温度分布を、撮影画像より抽出された位置情報に基づき分析し、人の顔に対応するサーモグラフィー画像上の位置の温度を測定する。また、撮影部110は、測定した温度が所定の値を超える場合に第二の撮影画像を生成する。   FIG. 8 is a block diagram illustrating a functional configuration of the imaging unit 110 according to the embodiment. FIG. 8 illustrates an example in which the second captured image is a composite image obtained by combining the captured image and the thermographic image. A process for generating the second captured image will be described with reference to FIG. The photographing unit 110 executes a face detection engine that detects a human face in the photographed image separately from transmitting the photographed image photographed by the camera 110a to the server 200, and for example, detects a position on the detected image. Extract the position information shown. On the other hand, the thermographic camera 110b generates a thermographic image by performing a temperature calculation based on the output of the sensor. The imaging unit 110 analyzes the temperature distribution of the generated thermographic image based on the position information extracted from the captured image, and measures the temperature of the position on the thermographic image corresponding to the human face. In addition, the imaging unit 110 generates a second captured image when the measured temperature exceeds a predetermined value.

図7は、上述した処理で生成された第二の撮影画像の一例を示す。図7の左側には、ユーザ管理端末20のディスプレイ上に表示される合成画像の概念図を示す。合成画像は、例えば図7のように撮影画像と検温画像を半透明に重ねて作成した画像であってもよい。例えば、撮影画像は透明度70%で薄く、第二の画像は透明度30%で濃くして表示する。このように両画像を半透明に重ね合わせれば、保育士は、園児の顔を識別でき、更に園児の温度を知ることができる。また、顔検出エンジンの処理により、人の顔以外の物であってその温度が所定の値を超える被写体が撮影画像に含まれる場合でも、撮影部110が誤報告する可能性を抑えられる。   FIG. 7 illustrates an example of the second captured image generated by the above-described processing. The conceptual diagram of the composite image displayed on the display of the user management terminal 20 is shown on the left side of FIG. The composite image may be, for example, an image created by translucently overlapping a captured image and a temperature measurement image as shown in FIG. For example, the captured image is displayed with a transparency of 70% and light, and the second image is displayed with a transparency of 30% and dark. By superimposing the two images translucently in this way, the nursery teacher can identify the child's face and further know the temperature of the child. Further, by the processing of the face detection engine, even when the captured image includes a subject other than a human face and the temperature of which exceeds a predetermined value, the possibility that the imaging unit 110 erroneously reports is suppressed.

また、ユーザ管理端末20は、撮影部110による温度測定の結果、および前述した撮影画像に関連付けられて記憶された被写体の識別情報を併せてユーザ管理者に提示してもよい。これより園児個別の健康管理に役立てることができる。更に、撮影部110が定期的に温度測定した結果を記憶部220が記憶すれば、園児個別の平熱や体温の変化を管理することができる。また、撮影部110は一度の撮影で複数名の温度測定が可能なため、所定エリアE内の複数の被写体の温度情報を効率よく得ることができる。   The user management terminal 20 may also present the result of the temperature measurement by the imaging unit 110 and the identification information of the subject stored in association with the above-described captured image to the user administrator. This can be used for the health management of individual children. Furthermore, if the storage unit 220 stores the result of the temperature measurement performed by the imaging unit 110 on a regular basis, it is possible to manage normal heat and changes in body temperature for each child. Further, since the photographing unit 110 can measure the temperature of a plurality of persons in one photographing, it is possible to efficiently obtain the temperature information of a plurality of subjects in the predetermined area E.

なお、顔検出エンジンは、ロボット100の代わりにサーバ200が備えるものとしてもよい。この場合、特定部230が顔検出エンジンを実行し、抽出した位置情報をロボット100に送信してもよい。また、特定部230は、抽出した位置情報に加え、特定された被写体の識別情報等をロボット100に送信してもよい。   Note that the face detection engine may be included in the server 200 instead of the robot 100. In this case, the specifying unit 230 may execute the face detection engine and transmit the extracted position information to the robot 100. In addition, the specifying unit 230 may transmit identification information of the specified subject to the robot 100 in addition to the extracted position information.

撮影部110は、複数の第二の撮影画像を動画として撮影するものであって、特定部230は、更に、動画に含まれる被写体の動き情報と、動画に含まれる検温情報に基づいて、健康を確認すべき特定の被写体を特定するものであって、ロボット100は、特定された健康を確認すべき特定の被写体を指し示す出力を行うものであってもよい。具体的には、撮影部110のサーモグラフィーカメラ等が複数の被写体を動画として撮影する。特定部230は、第二の撮影画像を基に温度が高い園児を検出し、該園児の撮影前後の活動の様子を動画を基に分析する。例えば、温度が高いが直前に激しい運動をしていた被写体であれば特に健康を確認する必要はないと判定してもよい。また、温度が高く動きが鈍い被写体であれば健康を確認すべき対象として判定してもよい。ロボット100はまた、この結果受信して、健康を確認すべき被写体を指し示す出力を行う。指し示す出力とは、例えばロボットの音声またはアラームの音による出力、または指さしなどの動きによる出力を意味する。健康を確認すべき被写体については、特定部230が通常の撮影画像に基づき該被写体の識別情報を特定するため、分析結果と併せて園児の名前を提供できる。また、図7に示すように、ユーザ管理端末20は健康を確認すべき被写体を含む画像または映像等をディスプレイ画面に表示して保育士などに確認を促してもよい。   The imaging unit 110 captures a plurality of second captured images as a moving image, and the specifying unit 230 further performs health based on movement information of a subject included in the moving image and temperature measurement information included in the moving image. The robot 100 may specify a specific subject to be checked, and the robot 100 may perform an output indicating the specified specific subject to check the health. Specifically, a thermographic camera or the like of the photographing unit 110 photographs a plurality of subjects as moving images. The identification unit 230 detects a high temperature child based on the second captured image, and analyzes the activity of the child before and after the image capturing based on the moving image. For example, it may be determined that there is no particular need to check the health of a subject having a high temperature but exercising vigorously immediately before. In addition, a subject having a high temperature and a slow movement may be determined as a target whose health should be confirmed. The robot 100 also receives this result and outputs an output indicating a subject whose health should be confirmed. The pointing output means, for example, an output by a voice of a robot or a sound of an alarm, or an output by a movement such as pointing. For the subject whose health is to be confirmed, the identification unit 230 identifies the identification information of the subject based on a normal photographed image, so that the name of the child can be provided together with the analysis result. Further, as shown in FIG. 7, the user management terminal 20 may display an image or a video including a subject whose health should be checked on a display screen to urge the nursery teacher or the like to check.

これより、特定部230は、動き情報と検温情報に基づいて、健康を確認すべき人物を絞って提示することができるため、例えば保育士は特定された園児に対して更に健康を確認するための処置を施すことができる。   From this, since the identification unit 230 can narrow down the persons whose health should be confirmed based on the movement information and the temperature measurement information, the nursery teacher can further confirm the health of the identified kindergarten. Can be performed.

記憶部220は、特定の被写体を含むマスター画像に加え、特定の被写体とは異なる他の特定の被写体を含むマスター画像を記録するものであって、特定部230は、記憶部220に記憶された撮影画像と他の特定の被写体を含むマスター画像を比較してもよい。   The storage unit 220 records, in addition to the master image including the specific subject, a master image including another specific subject different from the specific subject, and the specifying unit 230 is stored in the storage unit 220. The captured image may be compared with a master image including another specific subject.

図5に戻り、画像特定リスト222を用いて説明する。例えば、記憶部220は、幼稚園に所属する複数の園児に関するマスター画像の他、ボールやおもちゃ等の物体についてもマスター画像を記憶する。特定部230は、特定の被写体のマスター画像と同様に遊具等のマスター画像についても同様の処理を行い、情報更新部240は、抽出した撮影画像と、更に特定された物体の識別情報とを関連づけて記憶する。例えば図5の画像特定リスト222には、撮影画像IMG6に園児A3およびA5の他、被写体としてボールが含まれることを示す。   Returning to FIG. 5, description will be given using the image specifying list 222. For example, the storage unit 220 stores master images of objects such as balls and toys, in addition to master images of a plurality of children belonging to kindergarten. The identification unit 230 performs the same processing on the master image of the playground equipment as the master image of the specific subject, and the information updating unit 240 associates the extracted captured image with the identification information of the identified object. To remember. For example, the image specifying list 222 in FIG. 5 indicates that the photographed image IMG6 includes a ball as a subject in addition to the children A3 and A5.

これより、特定部230は撮影画像に含まれる被写体のうち園児以外の情報についても特定できるため、サーバ200はこれらの情報を更なるサービスに利用することが可能である。   Thus, since the specifying unit 230 can specify information other than the kindergarten among the subjects included in the captured image, the server 200 can use the information for further services.

ロボット100は、予め用意されたロボット100の運動行為を行うための複数のアプリケーションソフトを記憶する記憶部120と、アプリケーションソフトに基づいて、ロボットの各部位を制御する制御部130とを備えるものであって、サーバ200は、特定された撮影画像に基づいて、ユーザの趣向を解析し、趣向情報を抽出する画像解析部260を備えるものであって、制御部130は、趣向情報に基づいて、ロボットの部位を制御してもよい。   The robot 100 includes a storage unit 120 that stores a plurality of application software for performing a motion of the robot 100 prepared in advance, and a control unit 130 that controls each part of the robot based on the application software. The server 200 includes an image analysis unit 260 that analyzes the user's taste based on the specified captured image and extracts the taste information, and the control unit 130 performs processing based on the taste information. The parts of the robot may be controlled.

図9(a)−(b)は、制御部130による制御と撮影部110による撮影を並行して行う一例を示す図である。制御部130は、ロボット100の駆動制御をするものであって、例えば、CPUにより構成される。例えば図6に示す「いいね」や「購入する」等のボタンをユーザがユーザ端末10を介して選択することにより、ユーザの趣向がサーバ200に記憶される。画像解析部260は、前述したユーザ操作、および関連する撮影画像を解析することにより、ユーザが気に入る撮影画像を撮影するための撮影方法等を抽出する。制御部130は、抽出された撮影方法に基づきロボット100の運動行為および撮影部110の撮影を制御する。例えば、ユーザが、園児の正面画像に対して「いいね」を選択する頻度が高い場合は、図9(b)に示すように、ロボット100が手を振って園児の注意をひき、園児が正面を向いた撮影画像を得る。これより、撮影部110は間接的にユーザの趣向を反映して撮影するため、ユーザが気に入る撮影画像を提供できる可能性が高めることができる。   FIGS. 9A and 9B are diagrams illustrating an example in which the control by the control unit 130 and the imaging by the imaging unit 110 are performed in parallel. The control unit 130 controls the driving of the robot 100, and is configured by, for example, a CPU. For example, when the user selects a button such as “like” or “purchase” shown in FIG. 6 through the user terminal 10, the user's taste is stored in the server 200. The image analyzing unit 260 extracts a photographing method or the like for photographing a photographed image that the user likes by analyzing the above-described user operation and the related photographed image. The control unit 130 controls the movement of the robot 100 and the shooting of the shooting unit 110 based on the extracted shooting method. For example, when the user frequently selects “like” for the front image of the child, the robot 100 shakes his hand to draw the child's attention as shown in FIG. Obtain a captured image facing the front. Thus, since the imaging unit 110 indirectly reflects the user's preference, the possibility of providing a captured image that the user likes can be increased.

ロボットは、対話機能を有する対話部140を備えるものであって、制御部130は、趣向情報に基づいて、記憶部120に記憶されたアプリケーションソフトの中から最適なアプリケーションソフトを選択し、該選択されたアプリケーションソフトを用いて、撮影部110による撮影タイミング、対話部140による対話内容、ロボット100の部位のいずれかを制御してもよい。具体的には、対話部140は音声入出力を行うマイクロフォンおよびスピーカーを備える。   The robot includes a dialogue unit 140 having a dialogue function. The control unit 130 selects an optimal application software from the application software stored in the storage unit 120 based on the preference information. Using the application software thus set, any one of the shooting timing by the shooting unit 110, the content of the dialogue by the dialogue unit 140, and the part of the robot 100 may be controlled. Specifically, the dialogue unit 140 includes a microphone and a speaker that perform voice input and output.

図9(a)は、ロボット100が園児と対話を行う一例を示す。例えば、ユーザが、園児が話している撮影画像に対して「いいね」を選択する頻度が高い場合は、制御部130は、ロボット100が園児に対して話しかけ、それに応じて園児が答えるタイミングで撮影部110が撮影を行うよう制御する。   FIG. 9A illustrates an example in which the robot 100 interacts with a child. For example, when the user frequently selects “like” for the captured image that the child is talking to, the control unit 130 sets the timing at which the robot 100 speaks to the child and the child answers accordingly. The photographing unit 110 is controlled to perform photographing.

これより、制御部130がロボット100の動き、会話、および撮影タイミングを制御するため、ユーザの趣向を反映した園児の姿勢を導くことができ、ユーザが気に入る撮影画像を提供できる可能性を高めることができる。   Thus, since the control unit 130 controls the movement, conversation, and shooting timing of the robot 100, it is possible to guide the attitude of the child reflecting the user's taste, and to increase the possibility of providing a shot image that the user likes. Can be.

閲覧管理部250は、所定エリアEを管理するユーザのユーザ管理端末20に対して、撮影画像を閲覧可能とするものであって、サーバ200は、ユーザ管理端末20を介して、撮影画像のうち、ユーザ端末10が閲覧不可とする禁止情報を閲覧管理部250に設定可能とする閲覧設定部270を備えてもよい。   The browsing management unit 250 allows the user to manage the predetermined area E to view the captured image with respect to the user management terminal 20. The server 200 transmits the captured image to the user management terminal 20 via the user management terminal 20. Alternatively, a browsing setting unit 270 may be provided to allow the browsing management unit 250 to set prohibition information that the user terminal 10 cannot view.

図10は、実施の形態に係るユーザ管理端末20の画面の一例を示す図である。例えば、図10は、幼稚園の保育士がユーザ管理者としてサーバ200にログインし、ユーザに提示する撮影画像の検閲を行うものである。図10では、園児二人が喧嘩をして泣く姿が撮影されている。保育士は、その日に撮影されてこれからユーザが閲覧する対象の撮影画像について、不適切な撮影画像を閲覧対象から除外ことができる。具体的には、保育士がユーザ管理端末20を介して該撮影画像を選択し、表示された画像に対し「閲覧禁止」ボタンを選択することにより、サーバ200に禁止情報が登録される。例えば、画像特定リスト222に図示しない禁止情報が、該撮影画像に関連付けられて保存される。   FIG. 10 is a diagram illustrating an example of a screen of the user management terminal 20 according to the embodiment. For example, in FIG. 10, a nursery teacher in a kindergarten logs in to the server 200 as a user administrator and performs censorship of a photographed image presented to a user. FIG. 10 shows a picture of two children quarreling and crying. The nursery teacher can exclude an inappropriate photographed image from the browsing target of the photographed image that is photographed on the day and is to be browsed by the user in the future. Specifically, the prohibition information is registered in the server 200 when the nursery teacher selects the photographed image via the user management terminal 20 and selects the “viewing prohibition” button for the displayed image. For example, prohibition information (not shown) is stored in the image specification list 222 in association with the captured image.

これより、本発明のロボット撮影システム1は、モニター映像をリアルタイムに提供するようなシステムとは異なり、所定エリアE内の人物のプライバシーやセキュリティを守るためのステップを経て、限定されたユーザに対し家族の情報を提供できる。   Thus, the robot photographing system 1 of the present invention is different from a system that provides a monitor image in real time, to a limited user through steps for protecting the privacy and security of a person in the predetermined area E. Can provide family information.

図10の画面に基づきサーバ200は、前述した閲覧設定の他、更にユーザ管理者に園児の家族とコミュニケーションをとるためのサービスを提供する。例えば、ユーザ管理端末20から「お便り帳」ボタンを使用して、ユーザ管理者はユーザへメッセージを送信することができる。また、撮影画像を選択して添付してもよい。   Based on the screen of FIG. 10, the server 200 provides a service for communicating with the family of the kindergarten to the user manager in addition to the above-described browsing setting. For example, the user manager can send a message to the user by using the “letter note” button from the user management terminal 20. Alternatively, a captured image may be selected and attached.

画像解析部260は、禁止情報に基づいて、閲覧不可とされた撮影画像を解析し、新たな撮影画像が閲覧不可のものであるか否かを解析するものであって、閲覧設定部270は、解析された撮影画像が閲覧不可のものである際には、閲覧設定は新たな禁止情報を閲覧管理部250に設定可能とするものであってもよい。具体的には、画像解析部260は学習機能を有し、ユーザ管理者が判断した結果を基に禁止情報が付加される傾向の画像構成等を取得して次回以降に撮影した撮影画像において類似の構成のものがあれば自動的に閲覧不可とする。これより、ユーザ管理者が行った判断をシステムが次回以降の閲覧設定に利用するため、検閲を行う保育士の負担は次第に軽減される。   The image analysis unit 260 analyzes the photographed image which is not allowed to be browsed based on the prohibition information, and analyzes whether or not the new photographed image is unbrowsable. If the analyzed captured image is not viewable, the view setting may be such that new prohibition information can be set in the view management unit 250. Specifically, the image analysis unit 260 has a learning function, acquires an image configuration or the like in which the prohibition information tends to be added based on the result determined by the user manager, and performs similarity in captured images captured in the next and subsequent times. If any of the above configurations are available, it is automatically disabled from being viewed. This allows the system to use the determination made by the user administrator for the next and subsequent browsing settings, so that the burden on the child censor who performs the censorship is gradually reduced.

ロボット撮影システム1は、ユーザ端末10に付属して新たなロボット400を備えるものであって、閲覧管理部250は、ユーザ端末10によって閲覧されている撮影画像に被写体とは異なる他の被写体が含まれる場合は、撮影画像とともに、他の被写体の識別情報を閲覧可能とするものであって、新たなロボット400の制御部410は、他の被写体の識別情報に基づいて、新たなロボット400の部位を制御してもよい。   The robot photographing system 1 includes a new robot 400 attached to the user terminal 10. The browsing management unit 250 includes a photographed image browsed by the user terminal 10 that includes another subject different from the subject. In this case, the identification information of the other object can be browsed together with the captured image, and the control unit 410 of the new robot 400 determines the part of the new robot 400 based on the identification information of the other object. May be controlled.

図11は、実施の形態に係る新たなロボット400を利用する一例を示す模式図である。新たなロボット400はロボット100と同様の機能を有するものであってもよい。新たなロボット400はユーザ端末10に有線または無線で接続されている。新たなロボット400は制御部410を備え、制御部410は保持するアプリケーションソフトのうち適切なものを選択して新たなロボット400の各部位を動かす、または会話内容を提供するとしてもよい。図11に示す例では、新たなロボット400が、ユーザが閲覧中の撮影画像に含まれる友達の名前を取得し、取得した情報に基づいてユーザおよび園児に話しかけている。   FIG. 11 is a schematic diagram illustrating an example of using a new robot 400 according to the embodiment. The new robot 400 may have the same function as the robot 100. The new robot 400 is connected to the user terminal 10 by wire or wirelessly. The new robot 400 may include a control unit 410, and the control unit 410 may select an appropriate application software from the held application software to move each part of the new robot 400 or provide a conversation content. In the example illustrated in FIG. 11, the new robot 400 acquires the name of a friend included in the captured image being browsed by the user, and talks to the user and the child based on the acquired information.

これより、新たなロボット400が家族の会話をサポートし、家族は園児の幼稚園での生活に基づいた会話を行うことができる。また、他の被写体に関する情報が提供されるため、家族は園児の友達やお気に入りの遊具などの情報を共有することができる。   Thus, the new robot 400 supports the conversation of the family, and the family can have a conversation based on the child's life in the kindergarten. In addition, since information about another subject is provided, the family can share information such as friends of the kindergarten and favorite playground equipment.

図12は、実施の形態に係るユーザ端末10から撮影画像を利用する一例を示す図である。図12に示す例では、ユーザが期間を指定して、ユーザが過去にお気に入り情報を付した撮影画像を抽出して表示する画面である。更に、ユーザは抽出された撮影画像から数枚を選択し、ユーザ端末10にまとめてダウンロードすることができる。また、選択した撮影画像をフォトアルバムとして作成するよう発注することができる。   FIG. 12 is a diagram illustrating an example of using a captured image from the user terminal 10 according to the embodiment. The example illustrated in FIG. 12 is a screen on which the user designates a period, and the user extracts and displays a captured image with favorite information in the past. Further, the user can select several images from the extracted captured images and collectively download them to the user terminal 10. In addition, an order can be placed to create the selected photographed image as a photo album.

図13は、実施の形態に係る制御部がロボットに運動行為または会話を行わせる一例を示す図である。記憶部120が記憶するアプリケーションソフトに基づいて、制御部130がロボット100の各部位を制御することにより、ロボット100は保育士の業務の一部を実行してもよい。保育士の任務の一部とは、例えば、ダンスや読み聞かせであり、また、ロボット100は並行して画像を撮影してもよい。これより、豊かな表情の園児の写真を得ることができる。   FIG. 13 is a diagram illustrating an example in which the control unit according to the embodiment causes the robot to perform an exercise action or a conversation. The control unit 130 controls each part of the robot 100 based on the application software stored in the storage unit 120, so that the robot 100 may execute a part of the work of the nursery teacher. Some of the tasks of the nursery teacher are, for example, dance and story-telling, and the robot 100 may take images in parallel. Thus, it is possible to obtain a picture of the child with a rich expression.

以下、本実施の形態の使用例について、図14を基に説明する。図14は、本発明のロボット撮影システム1および画像管理方法に関し、実施の形態に係るサーバ200が行う処理を示すフローチャートである。図14では、ユーザ管理者によるユーザ情報の登録、およびユーザによるマスター画像の登録は完了しているものとする。つまり、記憶部220は、複数の被写体のうち特定の被写体を含むマスター画像、ならびに、該マスター画像に関連付けられた特定の被写体の識別情報および特定の被写体と所定の関係性を有するユーザのユーザ情報を記憶している。   Hereinafter, a usage example of the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart illustrating a process performed by the server 200 according to the embodiment, with respect to the robot imaging system 1 and the image management method of the present invention. In FIG. 14, it is assumed that registration of user information by the user administrator and registration of the master image by the user have been completed. That is, the storage unit 220 stores the master image including the specific subject among the plurality of subjects, the identification information of the specific subject associated with the master image, and the user information of the user having a predetermined relationship with the specific subject. I remember.

ロボット100の撮影部110は、所定エリア内に存在する複数の被写体について人の顔を検出して(S101)画像を撮影し(S102)、ネットワークNTを介してサーバ200に撮影画像を送信する(S103)。サーバ200の画像受信部210は、ロボット100が撮影した撮影画像を受信する(S201)。記憶部220は受信した撮影画像を記憶部220に記憶する(S202)。特定部230は、記憶部220に記憶された撮影画像およびマスター画像を比較して(S203)、撮影画像に特定の被写体が含まれるかを判定し(S204)、含まれる場合には該撮影画像を抽出する(S205)。特定部230はまた、抽出する際に使用したマスター画像に基づき、記憶部220が記憶するユーザ情報リスト221を参照して該撮影画像と、識別情報およびユーザ情報を関連付けるものとして特定する(S206)。情報更新部240は、特定された識別情報、ユーザ情報および抽出された撮影画像を関連付けて記憶部220に記憶する(S207)。閲覧管理部250は、撮影画像に含まれる特定の被写体と所定の関係性を有するユーザのユーザ端末10に対し、識別情報およびユーザ情報が関連付けられた撮影画像を閲覧可能とする(S208)。   The photographing unit 110 of the robot 100 detects human faces for a plurality of subjects existing within a predetermined area (S101), photographs an image (S102), and transmits the photographed image to the server 200 via the network NT (S102). S103). The image receiving unit 210 of the server 200 receives an image captured by the robot 100 (S201). The storage unit 220 stores the received captured image in the storage unit 220 (S202). The specifying unit 230 compares the captured image and the master image stored in the storage unit 220 (S203), determines whether a specific subject is included in the captured image (S204), and, if so, determines the captured image. Is extracted (S205). The specifying unit 230 also specifies the captured image, the identification information, and the user information as being associated with each other by referring to the user information list 221 stored in the storage unit 220 based on the master image used at the time of extraction (S206). . The information updating unit 240 stores the identified identification information, user information, and the extracted captured image in the storage unit 220 in association with each other (S207). The browsing management unit 250 allows the user terminal 10 of a user having a predetermined relationship with a specific subject included in the captured image to browse the captured image in which the identification information and the user information are associated (S208).

以上説明したように、実施の形態によれば、ユーザは家族の画像を日常的に閲覧でき、離れて過ごす間の家族の様子を知ることができるため、閲覧により得た情報に基づいて家庭での会話をより日常に基づいたものとすることができる。また、ユーザは離れて暮らす家族と最近の情報を共有できるため、より親密な関係を維持することができる。更に、保育士などのユーザ管理者は、アルバム作成やイベント時の写真撮影、写真選別、および会計処理等に関する負担を軽減できる。   As described above, according to the embodiment, the user can browse the image of the family on a daily basis and can know the state of the family while they are away from each other. Conversations can be more everyday based. In addition, since the user can share recent information with a family living away, a more intimate relationship can be maintained. Further, a user administrator such as a nursery teacher can reduce the burden of creating an album, taking a photo at the time of an event, selecting photos, and performing accounting.

以上、本発明を実施の形態をもとに説明した。上記実施の形態では、所定エリアEとして幼稚園を例にあげたが、例えば、習い事教室、老人ホームなどの施設にも適用できるものである。例えば、英会話教室や体操教室等で利用する場合は、撮影部110aで動画を撮影し、記憶部210は、撮影した動画から静止画を撮影画像として取り出して記憶し、更に所定時間の動画を該撮影画像と関連付けて保存し、閲覧管理部250は、閲覧可能とする撮影画像に関連付けられた所定時間の動画を、閲覧可能とするものであってもよい。これより、ユーザは子供の英会話の音声や体操の動きを含んだ情報を得るため、習い事の上達状況を知ることができる。   The present invention has been described based on the embodiments. In the above embodiment, a kindergarten is taken as an example of the predetermined area E, but the present invention can be applied to facilities such as a learning classroom and a nursing home. For example, when used in an English conversation classroom or gymnastics classroom, a moving image is shot by the shooting unit 110a, the storage unit 210 extracts and stores a still image from the shot moving image as a shot image, and further stores the moving image for a predetermined time. The browsing management unit 250 may store the moving image for a predetermined period of time associated with the captured image that can be browsed, so as to be able to browse. Accordingly, the user can obtain information including the voice of the child's English conversation and the movement of gymnastics, and thus can know the progress of learning.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and that such modifications are also within the scope of the present invention. is there.

上述した実施の形態の他に、本発明のロボット撮影システム1は以下を備えるものとしても良い。例えば、記憶部220は撮影画像に付随する情報として時間情報を含む。これより、例えば予め登録した誕生日には、その日の撮影画像とともに1年前の画像をユーザに提示して、変化を確認することができる。また、上述した特定部230による園児の特定と併せて、園児のアレルギー情報等を登録し、食育に利用しても良い。また、ロボット100は配信される緊急ニュース等を受信し出力するとしても良い。これより、所定エリアE内に存在する複数の人物の安全確保に役立てることができる。また、施設側と保護者側のコミュニケーションを円滑に、また一元管理できるよう、ユーザ管理端末20に各種連絡機能を付帯させても良い。連絡機能とは、例えば、出欠連絡、報告、緊急連絡メールなどを送受信を示す。   In addition to the above-described embodiment, the robot imaging system 1 of the present invention may include the following. For example, the storage unit 220 includes time information as information accompanying the captured image. Thus, for example, for a birthday registered in advance, an image one year ago can be presented to the user together with the captured image of the day, and the change can be confirmed. In addition, together with the identification of the child by the identification unit 230 described above, allergy information or the like of the child may be registered and used for food education. Further, the robot 100 may receive and output the distributed emergency news and the like. Thus, it is possible to help secure a plurality of persons existing in the predetermined area E. Further, the user management terminal 20 may be provided with various communication functions so that communication between the facility side and the guardian side can be performed smoothly and centrally. The contact function indicates, for example, transmission / reception of an attendance report, report, emergency contact mail, and the like.

1 ロボット撮影システム、10 ユーザ端末、20 ユーザ管理端末、100 ロボット、110 撮影部、120 記憶部、130 制御部、140 対話部、200 サーバ、210 画像受信部、220 記憶部、230 特定部、240 情報更新部、250 閲覧管理部、260 画像解析部、270 閲覧設定部、400 新たなロボット、410 制御部。   1 Robot imaging system, 10 user terminals, 20 user management terminals, 100 robots, 110 imaging units, 120 storage units, 130 control units, 140 interactive units, 200 servers, 210 image reception units, 220 storage units, 230 identification units, 240 Information update unit, 250 viewing management unit, 260 image analysis unit, 270 viewing setting unit, 400 new robot, 410 control unit.

Claims (6)

所定エリア内に存在する複数の被写体を撮影する撮影部を有するロボットと、
前記ロボットとネットワークを介して接続され、前記撮影部により撮影された撮影画像を管理するサーバと、
を含むロボット撮影システムであって、
前記サーバは、
前記撮影画像を受信する画像受信部と、
前記画像受信部が受信した撮影画像、前記複数の被写体のうち特定の被写体を含むマスター画像、ならびに、該マスター画像に関連付けられた前記特定の被写体の識別情報および前記特定の被写体と所定の関係性を有するユーザのユーザ情報を記憶する記憶部と、
前記記憶部に記憶された撮影画像および前記マスター画像を比較して、前記特定の被写体が含まれる撮影画像を抽出することにより、該抽出された撮影画像と、前記識別情報および前記ユーザ情報を関連付けるものとして特定する特定部と、
前記特定部により特定された識別情報、ユーザ情報および前記抽出された撮影画像を関連付けて前記記憶部に記憶する情報更新部と、
前記サーバにネットワークを介して接続されるユーザ端末であって、前記撮影画像に含まれる特定の被写体と所定の関係性を有するユーザのユーザ端末に対し、前記識別情報および前記ユーザ情報が関連付けられた撮影画像を閲覧可能とする閲覧管理部とを備え、
前記撮影部は、複数の被写体を撮影するに加え、前記被写体の検温撮影をすることにより、第二の撮影画像を生成するものであり、
前記閲覧管理部は、前記所定エリアを管理するユーザのユーザ管理端末に対して、前記撮影画像を閲覧可能とするものであり、
前記サーバは、前記第二の撮影画像を前記画像受信部が受信し、前記記憶部が記憶し、
前記サーバは、前記ユーザ管理端末を介して、前記撮影画像のうち、前記ユーザ端末が閲覧不可とする禁止情報を前記閲覧管理部に設定可能とする閲覧設定部を備える
ロボット撮影システム。
A robot having a photographing unit for photographing a plurality of subjects existing in a predetermined area,
A server that is connected to the robot via a network and manages a captured image captured by the capturing unit;
A robot imaging system including
The server is
An image receiving unit that receives the captured image,
A captured image received by the image receiving unit, a master image including a specific subject among the plurality of subjects, and identification information of the specific subject associated with the master image and a predetermined relationship with the specific subject A storage unit for storing user information of a user having
By comparing the captured image and the master image stored in the storage unit and extracting a captured image including the specific subject, the extracted captured image is associated with the identification information and the user information. A specific part to identify as
An information updating unit that stores the identification information identified by the identifying unit, the user information, and the extracted captured image in the storage unit in association with each other;
A user terminal connected to the server via a network, wherein the identification information and the user information are associated with a user terminal of a user having a predetermined relationship with a specific subject included in the captured image. A browsing management unit that allows browsing of the photographed image,
The photographing unit, in addition to photographing a plurality of subjects, is to generate a second photographed image by performing temperature measurement photographing of the subject ,
The browsing management unit, the user management terminal of the user who manages the predetermined area, is to enable browsing the captured image,
The server, the image receiving unit receives the second captured image, the storage unit stores,
The robot photographing system , further comprising: a browsing setting unit configured to set, in the browsing management unit, prohibition information that the user terminal cannot view in the captured image via the user management terminal. .
前記撮影部は、複数の前記第二の撮影画像を動画として撮影するものであって、
前記特定部は、更に、前記動画に含まれる被写体の動き情報と、前記動画に含まれる検温情報に基づいて、健康を確認すべき特定の被写体を特定するものであって、
前記ロボットは、前記特定された健康を確認すべき特定の被写体を指し示す出力を行うものであることを特徴とする請求項1記載のロボット撮影システム。
The photographing unit is for photographing the plurality of second photographed images as a moving image,
The specifying unit, further, based on the motion information of the subject included in the video, the temperature measurement information included in the video, to specify a specific subject to check the health,
The robot imaging system according to claim 1, wherein the robot performs an output indicating a specific subject whose health is to be confirmed.
前記記憶部は、前記特定の被写体を含むマスター画像に加え、前記特定の被写体とは異なる他の特定の被写体を含むマスター画像を記録するものであって、
前記特定部は、前記記憶部に記憶された撮影画像と前記他の特定の被写体を含むマスター画像を比較することを特徴とする請求項1または2のいずれか一項に記載のロボット撮影システム。
The storage unit, in addition to the master image including the specific subject, is to record a master image including another specific subject different from the specific subject,
3. The robot imaging system according to claim 1, wherein the identification unit compares the captured image stored in the storage unit with a master image including the another specific subject. 4.
前記ロボット撮影システムは、前記禁止情報に基づいて、閲覧不可とされた撮影画像を解析し、新たな撮影画像が閲覧不可のものであるか否かを解析する画像解析部を備えるものであって、
前記閲覧設定部は、解析された撮影画像が閲覧不可のものである際には、前記閲覧設定は新たな禁止情報を前記閲覧管理部に設定可能とするものであることを特徴とする請求項1〜3のいずれか一項に記載のロボット撮影システム。
The robot photographing system includes an image analysis unit that analyzes a photographed image that is not browsed based on the prohibition information and analyzes whether a new photographed image is unbrowsable. ,
The browsing setting unit is configured to set new prohibition information in the browsing management unit when the analyzed captured image is not browsable. The robot imaging system according to any one of claims 1 to 3 .
前記ロボット撮影システムは、
前記ユーザ端末に付属して新たなロボットを備えるものであって、
前記閲覧管理部は、前記ユーザ端末によって閲覧されている撮影画像に前記被写体とは異なる他の被写体が含まれる場合は、前記撮影画像とともに、前記他の被写体の識別情報を閲覧可能とするものであって、
前記新たなロボットの制御部は、前記他の被写体の識別情報に基づいて、前記新たなロボットの部位を制御することを特徴とする請求項4記載のロボット撮影システム。
The robot imaging system,
A new robot attached to the user terminal,
The browsing management unit, when the captured image being viewed by the user terminal includes another subject different from the subject, enables browsing of the identification information of the other subject along with the captured image. So,
The robot imaging system according to claim 4 , wherein the control unit of the new robot controls a part of the new robot based on identification information of the another subject.
所定エリア内に存在する複数の被写体を撮影する撮影部を有するロボットと、
前記ロボットとネットワークを介して接続され、前記撮影部により撮影された撮影画像を管理するサーバと、を含むロボット撮影システムにおける画像管理方法であって、
前記撮影画像を受信する画像受信ステップと、
前記受信した撮影画像、前記複数の被写体のうち特定の被写体を含むマスター画像、ならびに、該マスター画像に関連付けられた前記特定の被写体の識別情報および前記特定の被写体と所定の関係性を有するユーザのユーザ情報を記憶部が記憶する記憶ステップと、
前記記憶された撮影画像および前記マスター画像を比較して、前記特定の被写体が含まれる撮影画像を抽出することにより、該抽出された撮影画像と、前記識別情報および前記ユーザ情報を関連付けるものとして特定する特定ステップと、
前記特定ステップにおいて特定された識別情報、ユーザ情報および前記抽出された撮影画像を関連付けて記憶する情報更新ステップと、
前記サーバにネットワークを介して接続されるユーザ端末であって、前記撮影画像に含まれる特定の被写体と所定の関係性を有するユーザのユーザ端末に対し、前記識別情報および前記ユーザ情報が関連付けられた撮影画像を閲覧可能とする閲覧管理ステップと、を実行し、
前記閲覧管理ステップは、前記所定エリアを管理するユーザのユーザ管理端末に対して、前記撮影画像を閲覧可能とし、
前記撮影部は、複数の被写体を撮影するに加え、前記被写体の検温撮影をすることにより、第二の撮影画像を生成するステップを実行し、
前記サーバは、前記第二の撮影画像を前記画像受信ステップで受信し、前記記憶部が記憶するステップを実行し、
前記サーバは、前記ユーザ管理端末を介して、前記撮影画像のうち、前記ユーザ端末が閲覧不可とする禁止情報を前記閲覧管理ステップにおいて設定可能とする閲覧設定ステップを実行する
画像管理方法。
A robot having a photographing unit for photographing a plurality of subjects existing in a predetermined area,
A server that is connected to the robot via a network and manages a photographed image photographed by the photographing unit; and
An image receiving step of receiving the photographed image,
The received captured image, a master image including a specific subject among the plurality of subjects, and identification information of the specific subject associated with the master image and a user having a predetermined relationship with the specific subject. A storage step in which the storage unit stores the user information;
By comparing the stored captured image and the master image and extracting a captured image including the specific subject, the extracted captured image is identified as being associated with the identification information and the user information. Specific steps to perform,
An information updating step of storing the identification information specified in the specifying step, the user information and the extracted captured image in association with each other,
A user terminal connected to the server via a network, wherein the identification information and the user information are associated with a user terminal of a user having a predetermined relationship with a specific subject included in the captured image. Performing a browsing management step of enabling the photographed image to be browsed ,
The browsing management step, for a user management terminal of a user who manages the predetermined area, allows the captured image to be browsed,
The imaging unit performs a step of generating a second captured image by performing temperature measurement imaging of the subject, in addition to imaging a plurality of subjects ,
The server receives the second captured image in the image receiving step, executes the step of storing the storage unit ,
The server executes, via the user management terminal, a browsing setting step of setting, in the browsing management step, prohibition information that the user terminal cannot view from among the captured images. Method.
JP2015154546A 2015-08-04 2015-08-04 Robot imaging system and image management method Expired - Fee Related JP6649005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015154546A JP6649005B2 (en) 2015-08-04 2015-08-04 Robot imaging system and image management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015154546A JP6649005B2 (en) 2015-08-04 2015-08-04 Robot imaging system and image management method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018165498A Division JP6758351B2 (en) 2018-09-04 2018-09-04 Image management system and image management method

Publications (2)

Publication Number Publication Date
JP2017033413A JP2017033413A (en) 2017-02-09
JP6649005B2 true JP6649005B2 (en) 2020-02-19

Family

ID=57988131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015154546A Expired - Fee Related JP6649005B2 (en) 2015-08-04 2015-08-04 Robot imaging system and image management method

Country Status (1)

Country Link
JP (1) JP6649005B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6941950B2 (en) * 2017-03-17 2021-09-29 グローリー株式会社 Image providing system, image providing method, and image providing program
CN108810425B (en) * 2017-05-02 2024-06-11 北京米文动力科技有限公司 Camera configuration method and device
JP7059663B2 (en) * 2018-02-06 2022-04-26 日本電気株式会社 Information processing equipment
JP2020042391A (en) * 2018-09-07 2020-03-19 大日本印刷株式会社 Data processing apparatus and program
JP2020106965A (en) * 2018-12-26 2020-07-09 トヨタ自動車株式会社 In-vehicle device, control method, program, and vehicle
JP7392306B2 (en) * 2019-07-12 2023-12-06 コニカミノルタ株式会社 Information processing system, information processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4220856B2 (en) * 2003-08-18 2009-02-04 本田技研工業株式会社 Image capturing apparatus and method for mobile robot using portable terminal device
JP4314369B2 (en) * 2004-04-06 2009-08-12 国立大学法人群馬大学 Monitoring system, monitoring control method, monitoring control program, and network system
JP2007317124A (en) * 2006-05-29 2007-12-06 Fujifilm Corp Print order receiving/managing server system and image network system
JP2010041527A (en) * 2008-08-07 2010-02-18 Nec Corp Photographing support method, system, program
US9843743B2 (en) * 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
JP5662670B2 (en) * 2009-10-27 2015-02-04 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5058279B2 (en) * 2010-03-08 2012-10-24 株式会社日立国際電気 Image search device
JP2012129659A (en) * 2010-12-13 2012-07-05 Canon Marketing Japan Inc Image pickup device, operation control method, and program
JP5339476B2 (en) * 2011-05-09 2013-11-13 九州日本電気ソフトウェア株式会社 Image processing system, fever tracking method, image processing apparatus, control method thereof, and control program
JP5967473B2 (en) * 2011-06-03 2016-08-10 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging system
JP5743017B2 (en) * 2014-10-30 2015-07-01 富士ゼロックス株式会社 Image management apparatus and program

Also Published As

Publication number Publication date
JP2017033413A (en) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6649005B2 (en) Robot imaging system and image management method
US20210005224A1 (en) System and Method for Determining a State of a User
US10910016B2 (en) System and method for using, processing, and displaying biometric data
US10187690B1 (en) Systems and methods to detect and correlate user responses to media content
US9235263B2 (en) Information processing device, determination method, and non-transitory computer readable storage medium
JP2013504933A5 (en)
CN116389554A (en) System for improving user's performance in athletic activities and method thereof
KR20150070358A (en) Method relating to presence granularity with augmented reality
JPWO2015186447A1 (en) Information processing apparatus, photographing apparatus, image sharing system, information processing method, and program
JP6375039B1 (en) Program, photographing method and terminal
CN107005629A (en) Information processor, information processing method and program
CN102333177A (en) Photgraphing support system, photographing support method, server photographing apparatus, and program
EP2402839A2 (en) System and method for indexing content viewed on an electronic device
EP3140913B1 (en) Embedding biometric data from a wearable computing device in metadata of a recorded image
JP6941950B2 (en) Image providing system, image providing method, and image providing program
CN103425724A (en) Information processing apparatus, information processing method, computer program, and image display apparatus
JP2024036481A (en) Life log providing system and life log providing method
US20210287308A1 (en) Using a wearable apparatus in social events
CN106464971B (en) Method, system and the medium presented on the display device for detecting media content
JP2015233204A (en) Image recording device and image recording method
US20200301398A1 (en) Information processing device, information processing method, and program
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
JP6758351B2 (en) Image management system and image management method
JP6958795B1 (en) Information processing methods, computer programs and information processing equipment
JP2014160963A (en) Image processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees