JP2018195101A - Information providing method and information providing device - Google Patents

Information providing method and information providing device Download PDF

Info

Publication number
JP2018195101A
JP2018195101A JP2017098767A JP2017098767A JP2018195101A JP 2018195101 A JP2018195101 A JP 2018195101A JP 2017098767 A JP2017098767 A JP 2017098767A JP 2017098767 A JP2017098767 A JP 2017098767A JP 2018195101 A JP2018195101 A JP 2018195101A
Authority
JP
Japan
Prior art keywords
image
user
information
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017098767A
Other languages
Japanese (ja)
Inventor
安樹絵 伊東
Akie ITO
安樹絵 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017098767A priority Critical patent/JP2018195101A/en
Publication of JP2018195101A publication Critical patent/JP2018195101A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide information corresponding to a photographed image of a user of a device to the user of the device.SOLUTION: The information providing device 200 includes a determining unit 51 for determining whether or not a photographed image P photographed by an imaging unit 11 provided in a portable device 100 includes an image of a user of the device 100 and a specific image, and a providing unit 55 for providing the user with information T corresponding to the photographed image P when the determining unit 51 determines that the image of the user and the specific image are included in the photographed image P.SELECTED DRAWING: Figure 1

Description

本発明は、可搬型の機器の利用者に情報を提供する技術に関する。   The present invention relates to a technique for providing information to a user of a portable device.

可搬型の機器により撮影された被写体に関する情報を提供する技術が従来から提案されている。例えば特許文献1には、利用者が機器を利用して撮影した人物画像に応じた情報を提供する構成が開示されている。   Conventionally, a technique for providing information related to a subject photographed by a portable device has been proposed. For example, Patent Document 1 discloses a configuration that provides information according to a person image taken by a user using a device.

特開2009−171176号公報JP 2009-171176 A

特許文献1の技術では、撮影された人物画像の人物が内蔵メモリに登録された人物であれば、人物に対応した情報が提供される。しかし、人物画像を撮影する機器の利用者自身の情報を当該利用者に提供したいという要望もある。以上の事情を考慮して、本発明は、機器により利用者を撮影した画像に応じた情報を当該機器の利用者に提供することを目的とする。   In the technique of Patent Document 1, if a person of a photographed person image is a person registered in the built-in memory, information corresponding to the person is provided. However, there is a desire to provide the user with information about the user of the device that captures the person image. In view of the above circumstances, an object of the present invention is to provide a user of a device with information corresponding to an image obtained by photographing the user with the device.

以上の課題を解決するために、本発明の好適な態様に係る情報提供方法は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定ステップと、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記撮影画像に応じた情報を前記利用者に提供する提供ステップとを含む。   In order to solve the above-described problems, an information providing method according to a preferred aspect of the present invention includes an image of a user of the device and a specific image captured by an imaging unit provided in a portable device. A determination step for determining whether or not an image is included, and a determination in accordance with the captured image when it is determined in the determination step that the user image and the specific image are included in the captured image. Providing the information to the user.

本発明の好適な態様に係る情報提供装置は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定部と、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定部が判定した場合に、前記撮影画像に応じた情報を前記利用者に提供する提供部とを具備する。   The information providing apparatus according to a preferred aspect of the present invention determines whether a captured image captured by an imaging unit provided in a portable device includes an image of a user of the device and a specific image. A determining unit that determines, and a providing unit that provides information to the user according to the captured image when the determining unit determines that the user's image and the specific image are included in the captured image It comprises.

本発明の実施形態に係る情報提供システムの構成図である。It is a block diagram of the information provision system which concerns on embodiment of this invention. 本発明の実施形態に係る利用者の状況の説明図である。It is explanatory drawing of the condition of the user which concerns on embodiment of this invention. 本発明の実施形態に係る撮影画像の説明図である。It is explanatory drawing of the picked-up image which concerns on embodiment of this invention. 本発明の実施形態に係る情報提供装置の制御部が実行する処理のフローチャートである。It is a flowchart of the process which the control part of the information provision apparatus which concerns on embodiment of this invention performs.

図1は、本発明の実施形態における情報提供システム1の構成図である。情報提供システム1は、可搬型の機器(以下「可搬機器」という)100の利用者Uに情報を提供するためのコンピュータシステムである。具体的には、情報提供システム1は、可搬機器100により撮影された画像(以下「撮影画像」という)Pに応じた情報(以下「提供情報」という)Tを利用者Uに提供する。図1に例示される通り、情報提供システム1は、可搬機器100と情報提供装置200とを具備する。可搬機器100と情報提供装置200とは、移動体通信網またはインターネット等の通信網70を介して通信可能である。本実施形態では、図2に例示される通り、自身の姿が映るように鏡Mの前にいる利用者Uを想定する。   FIG. 1 is a configuration diagram of an information providing system 1 according to an embodiment of the present invention. The information providing system 1 is a computer system for providing information to a user U of a portable device (hereinafter referred to as “portable device”) 100. Specifically, the information providing system 1 provides the user U with information (hereinafter referred to as “provided information”) T corresponding to an image (hereinafter referred to as “captured image”) P captured by the portable device 100. As illustrated in FIG. 1, the information providing system 1 includes a portable device 100 and an information providing device 200. The portable device 100 and the information providing apparatus 200 can communicate with each other via a communication network 70 such as a mobile communication network or the Internet. In this embodiment, as illustrated in FIG. 2, a user U in front of the mirror M is assumed so that his / her appearance is reflected.

本実施形態の可搬機器100は、利用者Uが装着可能な情報端末である。図2に例示される通り、例えば眼鏡型の情報端末が可搬機器100として好適に利用され得る。具体的には、可搬機器100は、図1に例示される通り、撮像部11と通信部13と放音部15と装着部17とを具備する。   The portable device 100 of the present embodiment is an information terminal that can be worn by the user U. As illustrated in FIG. 2, for example, a glasses-type information terminal can be suitably used as the portable device 100. Specifically, the portable device 100 includes an imaging unit 11, a communication unit 13, a sound emitting unit 15, and a mounting unit 17 as illustrated in FIG.

撮像部11は、例えば画像を撮像可能な撮像素子およびレンズを含んで構成され、利用者Uからの指示により撮影画像Pを撮影する。通信部13は、通信網70を介して情報提供装置200と通信する通信機器である。通信部13と通信網70との間における通信は、無線が好適であるが、有線とすることも可能である。具体的には、通信部13は、撮像部11が撮影した撮影画像Pを情報提供装置200に送信し、当該撮影画像Pに応じた提供情報Tを情報提供装置200 から受信する。放音部15は、情報提供装置200から送信された提供情報Tに応じた音を再生する。図2に例示される通り、利用者Uの耳に装着されるイヤホン(インナーイヤー型,カナル型またはオーバーヘッド型)が放音部15として好適に利用される。   The imaging unit 11 is configured to include, for example, an imaging element and a lens that can capture an image, and captures a captured image P according to an instruction from the user U. The communication unit 13 is a communication device that communicates with the information providing apparatus 200 via the communication network 70. The communication between the communication unit 13 and the communication network 70 is preferably wireless, but can be wired. Specifically, the communication unit 13 transmits the captured image P captured by the imaging unit 11 to the information providing apparatus 200 and receives the provision information T corresponding to the captured image P from the information providing apparatus 200. The sound emitting unit 15 reproduces a sound corresponding to the provided information T transmitted from the information providing apparatus 200. As illustrated in FIG. 2, an earphone (an inner ear type, a canal type, or an overhead type) worn on the ear of the user U is preferably used as the sound emitting unit 15.

図1の装着部17は、利用者Uの身体(実施形態では頭部)に装着可能な器具である。例えば眼鏡が装着部17として好適に利用される。撮像部11と通信部13と放音部15とは装着部17に設置される。図2に例示される通り、撮像部11は、レンズの光軸が利用者Uの前方を向くように装着部17のフロント(前枠)の上部に搭載され得る。つまり、撮像部11は、利用者Uの視点を含む撮影画像Pを撮影することが可能である。なお、装着部17に対する撮像部11の搭載位置は任意である。例えば、装着部17のテンプル(つる)に撮像部11を装着することも可能である。通信部13は、装着部17の任意の場所に搭載される。放音部15は、装着部17から延出するコードの端部に設置される。図2に例示される通り、利用者Uは装着部17を耳にかけることで可搬機器100を装着することが可能である。   The mounting unit 17 in FIG. 1 is an instrument that can be mounted on the body (in the embodiment, the head) of the user U. For example, glasses are preferably used as the mounting portion 17. The imaging unit 11, the communication unit 13, and the sound emitting unit 15 are installed in the mounting unit 17. As illustrated in FIG. 2, the imaging unit 11 can be mounted on the upper part of the front (front frame) of the mounting unit 17 so that the optical axis of the lens faces the front of the user U. That is, the imaging unit 11 can capture the captured image P including the viewpoint of the user U. The mounting position of the imaging unit 11 with respect to the mounting unit 17 is arbitrary. For example, the imaging unit 11 can be mounted on a temple of the mounting unit 17. The communication unit 13 is mounted at an arbitrary location on the mounting unit 17. The sound emitting unit 15 is installed at the end of the cord extending from the mounting unit 17. As illustrated in FIG. 2, the user U can wear the portable device 100 by putting the wearing unit 17 on his / her ear.

可搬機器100を装着した状態で鏡Mの前にいる利用者Uは、鏡Mに映る自身の姿を見ている(つまり利用者Uの視点が鏡Mにある)ことが想定される。したがって、撮影部により撮影された撮影画像Pには、図3に例示される通り、鏡Mに映る利用者Uの画像が含まれ得る。撮影部により撮影された撮影画像Pは、通信部13により情報提供装置200に送信される。   It is assumed that the user U who is in front of the mirror M with the portable device 100 attached is looking at his / her own appearance in the mirror M (that is, the user U's viewpoint is in the mirror M). Therefore, the captured image P captured by the capturing unit may include an image of the user U reflected in the mirror M as illustrated in FIG. The captured image P captured by the imaging unit is transmitted to the information providing apparatus 200 by the communication unit 13.

図1の情報提供装置200は、図1に例示される通り、通信部21と記憶部23と制御部25とを具備し、撮影画像Pに応じた提供情報Tを利用者Uに提供する。例えば通信網70を介して可搬機器100と通信可能なウェブサーバが情報提供装置200として好適に採用され得る。なお、情報提供装置200は、単体の装置として実現されるほか、相互に別体で構成された複数の装置の集合でも実現される。通信部21は、通信網70を介して可搬機器100と通信する通信機器である。本実施形態の通信部21は、可搬機器100から送信された撮影画像Pを受信し、当該撮影画像Pに応じた提供情報Tを制御部25の指示により可搬機器100に送信する。   As shown in FIG. 1, the information providing apparatus 200 of FIG. 1 includes a communication unit 21, a storage unit 23, and a control unit 25, and provides provided information T corresponding to the captured image P to the user U. For example, a web server that can communicate with the portable device 100 via the communication network 70 can be suitably employed as the information providing apparatus 200. Note that the information providing apparatus 200 is realized as a single apparatus, and is also realized as a set of a plurality of apparatuses configured separately from each other. The communication unit 21 is a communication device that communicates with the portable device 100 via the communication network 70. The communication unit 21 of the present embodiment receives the captured image P transmitted from the portable device 100 and transmits the provision information T corresponding to the captured image P to the portable device 100 according to an instruction from the control unit 25.

記憶部23は、制御部25が実行するプログラムと制御部25が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶部23として採用され得る。具体的には、記憶部23は、参照画像Aと参照画像Bと状態テーブルとを記憶する。参照画像Aは、利用者Uの顔の画像(以下「顔画像」という)である。参照画像Bは、可搬機器100の画像である。参照画像Aおよび参照画像Bは、事前に撮影され記憶部23に記憶される。   The storage unit 23 stores programs executed by the control unit 25 and various data used by the control unit 25. For example, a known recording medium such as a semiconductor recording medium or a magnetic recording medium can be adopted as the storage unit 23. Specifically, the storage unit 23 stores a reference image A, a reference image B, and a state table. The reference image A is an image of the face of the user U (hereinafter referred to as “face image”). The reference image B is an image of the portable device 100. The reference image A and the reference image B are captured in advance and stored in the storage unit 23.

状態テーブルは、図1に例示される通り、撮影画像Pの被写体の状態を表す情報(以下「状態情報」という)と提供情報Tとが対応付けて登録されたデータテーブルである。本実施形態の状態情報は、利用者Uの状態を示す。本実施形態では、利用者Uの表情(例えば「喜び」,「怒り」または「悲しみ」等の感情)を利用者Uの状態として例示する。本実施形態の提供情報Tは、状態情報に対応した文字列(例えば状態情報が示す状態に関する感想)を発音した音声を表す音信号である。例えば状態情報「喜び」に対応付けて、文字列「かわいいね」を発話した音声を表す音信号を示す提供情報Tが状態テーブルに登録される。   As illustrated in FIG. 1, the state table is a data table in which information indicating the state of the subject of the captured image P (hereinafter referred to as “state information”) and provision information T are registered in association with each other. The state information of the present embodiment indicates the state of the user U. In the present embodiment, the facial expression of the user U (for example, emotions such as “joy”, “anger” or “sadness”) is exemplified as the state of the user U. The provision information T of the present embodiment is a sound signal that represents a voice that is a sound of a character string corresponding to the state information (for example, an impression related to the state indicated by the state information). For example, in association with the state information “joy”, provision information T indicating a sound signal representing a voice uttering the character string “cute” is registered in the state table.

制御部25は、例えばCPU(Central Processing Unit)等の演算処理回路で構成され、情報提供装置200の各要素を統括的に制御する。具体的には、制御部25は、記憶部23に記憶されたプログラムを実行することで、撮影画像Pに応じた提供情報Tを利用者Uに提供するための複数の機能(判定部51,特定部53および提供部55)を実現する。なお、制御部25の一部の機能を専用の電子回路で実現した構成、または、制御部25の機能を複数の装置に分散した構成も採用され得る。   The control unit 25 is configured by an arithmetic processing circuit such as a CPU (Central Processing Unit), for example, and comprehensively controls each element of the information providing apparatus 200. Specifically, the control unit 25 executes a program stored in the storage unit 23 to thereby provide a plurality of functions (determination units 51, 51) for providing the user U with the provided information T corresponding to the captured image P. The specifying unit 53 and the providing unit 55) are realized. A configuration in which a part of the function of the control unit 25 is realized by a dedicated electronic circuit, or a configuration in which the function of the control unit 25 is distributed to a plurality of devices may be employed.

判定部51は、通信部21が受信した撮影画像Pに、可搬機器100の利用者Uの画像と特定の画像とが含まれるか否かを判定する。本実施形態では、利用者Uの画像として利用者Uの顔画像を例示し、特定の画像として可搬機器100の画像を例示する。つまり、撮影画像Pに顔画像および可搬機器100の画像の双方が含まれるか否かが判定される。利用者Uの顔画像が撮影画像Pに含まれるか否かの判定(つまり本人認識)には、記憶部23に記憶された参照画像Aを利用した公知の画像解析技術が任意に採用される。例えば、撮影画像Pから顔検出処理により検出した顔画像の特徴量と参照画像Aに含まれる利用者Uの顔画像の特徴量とが近似する場合は、撮影画像Pに利用者Uの顔画像が含まれると判定される。なお、撮影画像Pから顔画像が検出できない場合、または、撮影画像Pから検出した顔画像の特徴量と参照画像Aの顔画像の特徴量とが乖離する場合は、撮影画像Pに利用者Uの顔画像が含まれないと判定される。つまり、参照画像Aは、撮影画像Pに利用者Uの画像が含まれるか否かを判定するために、撮影画像Pと対比される画像である。可搬機器100の画像が撮影画像Pに含まれるか否かの判定についても、記憶部23に記憶された参照画像Bを利用した公知の画像解析技術が任意に採用される。つまり、参照画像Bは、撮影画像Pに可搬機器100の画像が含まれるか否かを判定するために、撮影画像Pと対比される画像である。   The determination unit 51 determines whether the captured image P received by the communication unit 21 includes an image of the user U of the portable device 100 and a specific image. In the present embodiment, the face image of the user U is illustrated as an image of the user U, and the image of the portable device 100 is illustrated as a specific image. That is, it is determined whether or not the captured image P includes both the face image and the portable device 100 image. For determining whether or not the face image of the user U is included in the captured image P (that is, identity recognition), a known image analysis technique using the reference image A stored in the storage unit 23 is arbitrarily employed. . For example, when the feature amount of the face image detected by the face detection process from the photographed image P approximates the feature amount of the user U face image included in the reference image A, the face image of the user U is approximated to the photographed image P. Is determined to be included. If the face image cannot be detected from the captured image P, or if the feature amount of the face image detected from the captured image P deviates from the feature amount of the face image of the reference image A, the user U is included in the captured image P. It is determined that no face image is included. That is, the reference image A is an image that is compared with the captured image P in order to determine whether or not the captured image P includes the image of the user U. For determining whether or not the image of the portable device 100 is included in the captured image P, a known image analysis technique using the reference image B stored in the storage unit 23 is arbitrarily employed. That is, the reference image B is an image that is compared with the captured image P in order to determine whether the captured image P includes the image of the portable device 100.

特定部53は、撮影画像Pから利用者Uの状態を特定する。具体的には、特定部53は、撮影画像Pを解析することで、利用者Uの状態を示す状態情報を生成する。本実施形態の特定部53は、利用者Uの表情(具体的には顔の表情)を利用者Uの状態として撮影画像Pから特定する。例えば、「喜び」,「怒り」または「悲しみ」等の感情が利用者Uの表情として特定され得る。撮影画像Pから利用者Uの表情を特定する処理には、公知の表情認識技術が採用され得る。例えば、複数の表情毎に予め用意された特徴量のうち、撮影画像Pに含まれる顔画像の特徴量に最も近似する特徴量の表情が特定される。特定部53は、例えば、撮影画像Pから利用者Uの状態が「喜び」であると特定した場合は、「喜び」を示す状態情報を生成する。なお、参照画像Aの顔画像と撮影画像Pから検出された顔画像とを対比することで利用者Uの表情を特定すること、または、利用者Uの笑顔度を算定することで利用者Uの表情を特定することも可能である。   The specifying unit 53 specifies the state of the user U from the captured image P. Specifically, the identifying unit 53 generates state information indicating the state of the user U by analyzing the captured image P. The specifying unit 53 of the present embodiment specifies the facial expression of the user U (specifically, facial expression) from the captured image P as the state of the user U. For example, emotions such as “joy”, “anger” or “sadness” can be specified as the facial expression of the user U. For the process of specifying the facial expression of the user U from the captured image P, a known facial expression recognition technique can be employed. For example, a facial expression having a feature quantity that most closely approximates the feature quantity of the face image included in the photographed image P among the feature quantities prepared in advance for each of a plurality of facial expressions is specified. For example, when the state of the user U is identified as “joy” from the captured image P, the identifying unit 53 generates state information indicating “joy”. Note that the facial image of the reference image A and the facial image detected from the captured image P are compared to specify the facial expression of the user U, or the user U's smile level is calculated to calculate the user U's smile level. It is also possible to specify the facial expression.

提供部55は、撮影画像Pに応じた提供情報Tを利用者Uに提供する。本実施形態の提供部55は、利用者Uの顔画像と可搬機器100の画像とが含まれると判定部51により判定された場合に、撮影画像Pに応じた提供情報Tを利用者Uに提供する。本実施形態では、特定部53が特定した利用者Uの状態(つまり状態情報)に応じた情報を提供情報Tとして例示する。具体的には、提供部55は、特定部53が生成した状態情報に対応する提供情報Tを状態テーブルから特定し、特定した提供情報Tを可搬機器100に送信することを通信部21に指示する。例えば、特定部53が生成した状態情報「喜び」の場合、文字列「かわいいね」を発話した音声を表す音信号が提供情報Tとして特定される。通信部21は、提供部55が特定した提供情報Tを可搬機器100に送信する。   The providing unit 55 provides providing information T corresponding to the captured image P to the user U. The providing unit 55 of the present embodiment provides the providing information T corresponding to the captured image P when the determining unit 51 determines that the face image of the user U and the image of the portable device 100 are included. To provide. In the present embodiment, information corresponding to the state (that is, state information) of the user U specified by the specifying unit 53 is exemplified as the provision information T. Specifically, the providing unit 55 identifies the provision information T corresponding to the state information generated by the identifying unit 53 from the state table, and sends the identified provision information T to the portable device 100 to the communication unit 21. Instruct. For example, in the case of the state information “joy” generated by the specifying unit 53, a sound signal indicating a voice uttering the character string “cute” is specified as the provision information T. The communication unit 21 transmits the provision information T specified by the provision unit 55 to the portable device 100.

可搬機器100の通信部13は、情報提供装置200から受信した提供情報Tを放音部15に供給する。放音部15は、通信部13から供給された提供情報Tが示す音信号が表す音声を放音する。なお、通信部13から放音部15への音信号の供給は、無線通信により行うことも可能である。以上の説明から理解される通り、可搬機器100を装着した利用者Uが喜びの表情で鏡Mの前にいる場合、音声「かわいいね」が放音により利用者Uに提供される。   The communication unit 13 of the portable device 100 supplies the provided information T received from the information providing apparatus 200 to the sound emitting unit 15. The sound emitting unit 15 emits the sound represented by the sound signal indicated by the provision information T supplied from the communication unit 13. Note that the sound signal can be supplied from the communication unit 13 to the sound emitting unit 15 by wireless communication. As understood from the above description, when the user U wearing the portable device 100 is in front of the mirror M with a joyful expression, the voice “cute sound” is provided to the user U by sound emission.

図4は、情報提供装置200の制御部25が実行する処理のフローチャートである。撮影画像Pの受信を契機として、図4の処理が実行される。図4の処理が開始されると、判定部51は、可搬機器100の利用者Uの顔画像と可搬機器100の画像とが撮影画像Pに含まれるか否かを判定する(S1)。利用者Uの顔画像と可搬機器100の画像との双方が撮影画像Pに含まれると判定された場合(S1:YES)、特定部53は、利用者Uの状態を特定する(S2)。具体的には、特定部53は、撮影画像Pを解析することで、利用者Uの状態を示す状態情報を生成する。提供部55は、撮影画像Pに応じた提供情報Tを特定する(S3)。具体的には、提供部55は、特定部53が生成した状態情報に対応する提供情報Tを状態テーブルから特定する。提供部55は、特定した提供情報Tを可搬機器100に送信することを通信部21に指示する(S4)。ステップS3およびステップS4の処理は、撮影画像Pに応じた提供情報Tを利用者Uに提供する処理である。利用者Uの顔画像と可搬機器100の画像との一方または双方が撮影画像Pに含まれないと判定された場合(S1:NO)、図4の処理を終了する。なお、ステップS1とステップS2との処理の先後は不問である。つまり、可搬機器100の利用者Uの顔画像と可搬機器100の画像とが撮影画像Pに含まれるか否かに関わらず、利用者Uの状態を特定することも可能である。   FIG. 4 is a flowchart of processing executed by the control unit 25 of the information providing apparatus 200. 4 is executed in response to reception of the captured image P. When the process of FIG. 4 is started, the determination unit 51 determines whether the face image of the user U of the portable device 100 and the image of the portable device 100 are included in the captured image P (S1). . When it is determined that both the face image of the user U and the image of the portable device 100 are included in the captured image P (S1: YES), the specifying unit 53 specifies the state of the user U (S2). . Specifically, the identifying unit 53 generates state information indicating the state of the user U by analyzing the captured image P. The providing unit 55 specifies provided information T corresponding to the captured image P (S3). Specifically, the providing unit 55 identifies the provision information T corresponding to the state information generated by the identifying unit 53 from the state table. The providing unit 55 instructs the communication unit 21 to transmit the specified providing information T to the portable device 100 (S4). The processes in steps S3 and S4 are processes for providing the user U with the provision information T corresponding to the captured image P. If it is determined that one or both of the face image of the user U and the image of the portable device 100 is not included in the captured image P (S1: NO), the processing in FIG. It should be noted that the processing after step S1 and step S2 is unquestioned. That is, regardless of whether or not the captured image P includes the face image of the user U of the portable device 100 and the image of the portable device 100, the state of the user U can be specified.

以上の説明から理解される通り、本実施形態では、可搬機器100に設けられた撮像部11により撮影された撮影画像Pに可搬機器100の利用者Uの画像が含まれる場合に、撮影画像Pに応じた提供情報Tを利用者Uに提供することができる。また、撮像部11により撮影された撮影画像Pに、可搬機器100の利用者Uの顔画像と可搬機器100の画像とが含まれる場合に、撮影画像Pに応じた提供情報Tが利用者Uに提供される。ここで、例えば提供情報Tの提供において撮影画像Pにおける利用者Uの画像の有無のみが加味される構成(つまり撮影画像Pにおける特定の画像の有無は加味されない構成)では、利用者Uが特定の状況にあるか否かに関わらず情報が提供される。それに対して、本実施形態では、撮影画像Pに利用者Uの画像と特定の画像(利用者Uに装着される可搬機器100の画像)とが含まれる場合に撮影画像Pに応じた提供情報Tが利用者Uに提供されるので、撮像画像に映る利用者Uが特定の状況下にいると想定される場合に、撮影画像Pに応じた情報が提供される。本実施形態において利用者Uの特定の状況とは、可搬機器100を装着して鏡の前にいる状況である。   As understood from the above description, in the present embodiment, when the captured image P captured by the imaging unit 11 provided in the portable device 100 includes an image of the user U of the portable device 100, the image is captured. Provided information T corresponding to the image P can be provided to the user U. Further, when the captured image P captured by the imaging unit 11 includes the face image of the user U of the portable device 100 and the image of the portable device 100, the provided information T corresponding to the captured image P is used. Provided to person U. Here, for example, in the configuration in which only the presence or absence of the image of the user U in the captured image P is taken into account in the provision of the provision information T (that is, the configuration in which the presence or absence of a specific image in the captured image P is not considered), the user U is specified. Information is provided whether or not On the other hand, in this embodiment, when the captured image P includes an image of the user U and a specific image (an image of the portable device 100 attached to the user U), provision according to the captured image P is provided. Since the information T is provided to the user U, information corresponding to the captured image P is provided when the user U shown in the captured image is assumed to be in a specific situation. In the present embodiment, the specific situation of the user U is a situation where the portable device 100 is attached and the user U is in front of the mirror.

<変形例>
以上に例示した形態は多様に変形され得る。前述の形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification>
The form illustrated above can be variously modified. Specific modifications that can be applied to the above-described embodiment will be exemplified below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined as long as they do not contradict each other.

(1)前述の形態では、撮影画像Pに利用者Uの画像と特定の画像とが含まれるか否かの判定において、利用者Uの画像として利用者Uの顔画像を例示し、特定の画像として可搬機器100の画像を例示したが、利用者Uの画像および特定の画像は以上の例示に限定されない。例えば利用者Uの顔の一部(例えば目または鼻)の画像または利用者Uの顔以外の画像(例えば掌)を利用者Uの画像とすることも可能である。特定の画像としては、利用者Uの画像以外の画像が好適である。例えば、利用者Uが可搬機器100を装着して鏡Mの前にいる状況が想定される場合に提供情報Tを提供するという観点からは、例えば特定のマーク(例えば○または△)の画像または鏡の縁の画像を特定の画像とする構成も採用され得る。事前に鏡にマークをつけておくことで、利用者Uの画像とマークの画像とを含む撮影画像Pを撮影することが可能である。したがって、マークが付された鏡の前に利用者Uがいる場合に限定して、提供情報Tを利用者Uに提供することが可能である。なお、利用者Uが鏡に映るように自身の手を使ってマーク(例えばピースサイン)を作って、利用者Uの画像とマークの画像とを含む撮影画像Pを撮影することも可能である。 (1) In the above-described embodiment, in determining whether the captured image P includes the image of the user U and the specific image, the face image of the user U is exemplified as the user U image, and the specific image Although the image of portable device 100 was illustrated as an image, user U's image and a specific image are not limited to the above illustration. For example, an image of a part of the user U's face (for example, eyes or nose) or an image other than the face of the user U (for example, palm) can be used as the image of the user U. As the specific image, an image other than the image of the user U is suitable. For example, from the viewpoint of providing the provision information T when it is assumed that the user U is wearing the portable device 100 and is in front of the mirror M, for example, an image of a specific mark (for example, ◯ or Δ) Or the structure which makes the image of the edge of a mirror a specific image can also be employ | adopted. By placing a mark on the mirror in advance, it is possible to capture a captured image P including the image of the user U and the image of the mark. Therefore, the provision information T can be provided to the user U only when the user U is in front of the mirror with the mark. In addition, it is also possible to make a mark (for example, a peace sign) using his / her hand so that the user U is reflected in the mirror, and take a photographed image P including the image of the user U and the image of the mark. .

(2)前述の形態では、利用者Uの表情を利用者Uの状態として例示したが、利用者Uの外観から特定できる情報であれば利用者Uの状態の種類は任意である。例えば、利用者Uの髪型または化粧を利用者Uの状態とすることも可能である。以上の構成では、撮影画像Pから特定される顔画像の化粧(例えば顔画像の色成分)または髪型を解析することで、利用者Uの状態を示す状態情報を生成する。例えば顔画像の化粧の解析により生成される状態情報「ナチュラルメイク」が生成され、顔画像の髪型の解析により状態情報「ショートヘア」が生成され得る。状態情報「ナチュラルメイク」または状態情報「ショートヘア」に応じた提供情報Tが利用者Uに提供される。または、利用者Uの着衣(例えば柄または色)を利用者Uの状態とすることも可能である。以上の構成では、撮影画像Pから特定される利用者Uの着衣を解析することで、例えば利用者Uの状態を示す状態情報「ストライプ柄」が生成され、状態情報「ストライプ柄」に応じた提供情報Tが利用者Uに提供される。以上の説明から理解される通り、利用者Uの外観から特定できる各種情報が利用者Uの状態として採用され得る。なお、利用者Uの外観から特定できる2以上の情報(例えば髪型および化粧)を組み合わせて状態情報を生成することも可能である。 (2) In the above-described embodiment, the facial expression of the user U is exemplified as the state of the user U. However, the type of the state of the user U is arbitrary as long as the information can be specified from the appearance of the user U. For example, the hair style or makeup of the user U can be set to the state of the user U. In the above configuration, the state information indicating the state of the user U is generated by analyzing the makeup (for example, the color component of the face image) or the hairstyle of the face image specified from the captured image P. For example, state information “natural makeup” generated by analysis of makeup of a face image may be generated, and state information “short hair” may be generated by analysis of a hairstyle of the face image. Provision information T corresponding to the state information “natural makeup” or the state information “short hair” is provided to the user U. Alternatively, the user U's clothes (for example, a pattern or a color) can be set to the state of the user U. In the above configuration, by analyzing the clothes of the user U specified from the captured image P, for example, the state information “striped pattern” indicating the state of the user U is generated, and according to the state information “striped pattern” Provision information T is provided to the user U. As understood from the above description, various types of information that can be specified from the appearance of the user U can be adopted as the state of the user U. It is also possible to generate state information by combining two or more pieces of information (for example, hairstyle and makeup) that can be identified from the appearance of the user U.

(3)前述の形態では、特定部53が特定した利用者Uの状態(つまり状態情報)に応じた情報を提供情報Tとして利用者Uに提供したが、利用者Uに提供する提供情報Tは利用者Uの状態に応じた情報に限定されない。例えば、利用者Uが鏡Mの前で身体にあてている衣服(例えば柄または色)を撮影画像Pから解析することで状態情報を生成すること、または、利用者Uがいる空間の壁の模様を撮影画像Pから解析することで状態情報を生成することも可能である。つまり、特定部53により生成される状態情報は、撮影画像Pの解析により特定できる情報であれば任意である。以上の説明から理解される通り、利用者Uに提供される提供情報Tは、撮影画像Pに応じた情報として包括的に表現され得る。なお、利用者Uの状態に応じた情報を提供情報Tとする前述の形態によれば、利用者Uの状態に対して適切な情報を提供することが可能である。 (3) In the above-described form, the information corresponding to the state (that is, state information) of the user U specified by the specifying unit 53 is provided to the user U as the providing information T. However, the providing information T provided to the user U is provided. Is not limited to information according to the state of the user U. For example, the user U generates state information by analyzing clothes (for example, a pattern or a color) applied to the body in front of the mirror M from the captured image P, or the wall of the space where the user U is located It is also possible to generate state information by analyzing the pattern from the captured image P. That is, the state information generated by the specifying unit 53 is arbitrary as long as it can be specified by analysis of the captured image P. As understood from the above description, the provision information T provided to the user U can be comprehensively expressed as information corresponding to the captured image P. In addition, according to the above-described form in which the information according to the state of the user U is provided information T, it is possible to provide appropriate information for the state of the user U.

(4)前述の形態では、提供情報Tを利用者Uに提示する放音部15としてイヤホンを例示したが、放音部15の種類は以上の例示に限定されない。例えばスピーカも放音部15として採用され得る。また、通信部13に接続された表示部に提供情報Tを文字列として表示することも可能である。つまり、提供情報Tは音声を表す音信号に限定されない。例えば文字列または画像で提供情報Tを表現することも可能である。 (4) In the above-described embodiment, the earphone is exemplified as the sound emitting unit 15 that presents the provision information T to the user U, but the type of the sound emitting unit 15 is not limited to the above examples. For example, a speaker may be employed as the sound emitting unit 15. It is also possible to display the provision information T as a character string on a display unit connected to the communication unit 13. That is, the provision information T is not limited to a sound signal representing voice. For example, the provided information T can be expressed by a character string or an image.

(5)前述の形態では、状態情報に対応した文字列を発音した音声を表す音信号を提供情報Tとする構成を例示したが、提供情報Tが示す音信号は音声に限定されない。例えばBGMとして利用される楽曲の演奏音を表わす音信号を提供情報Tとする構成も好適に採用される。以上の構成では、例えば撮影画像Pから利用者Uの着衣の柄または色を特定して、特定した柄または色に応じた楽曲の演奏音を表わす音信号を提供情報Tとして利用者Uに提供する。 (5) In the above-described embodiment, the configuration in which the provision information T is a sound signal representing the sound of the character string corresponding to the state information, but the sound signal indicated by the provision information T is not limited to the sound. For example, a configuration in which the sound information representing the performance sound of music used as BGM is provided information T is also preferably employed. In the above configuration, for example, the pattern or color of the clothing of the user U is specified from the photographed image P, and a sound signal representing the performance sound of the music corresponding to the specified pattern or color is provided to the user U as the provision information T To do.

(6)前述の形態では、状態情報と提供情報Tとを1対1に対応付けて状態テーブルに登録する構成を例示したが、状態情報と提供情報Tとの対応関係は以上の例示に限定されない。例えば、複数の状態情報について1個の提供情報Tを対応付けて状態テーブルに登録することも可能である。または、1個の状態情報に対して複数の提供情報Tを対応付けて状態テーブルに登録する構成も採用され得る。以上の構成では、複数の提供情報Tが利用者Uに提供される。 (6) In the above-described embodiment, the configuration in which the state information and the provision information T are registered in the state table in a one-to-one correspondence is illustrated, but the correspondence relationship between the state information and the provision information T is limited to the above examples. Not. For example, one piece of provision information T can be associated with a plurality of state information and registered in the state table. Alternatively, a configuration in which a plurality of pieces of provision information T are associated with one piece of state information and registered in the state table may be employed. In the above configuration, a plurality of provision information T is provided to the user U.

(7)前述の形態では、特定部53が生成した状態情報に対応する提供情報Tを状態テーブルから特定したが、提供情報Tの特定において状態情報以外の情報を加味することも可能である。例えば、提供部55は、特定部53が生成した状態情報と、利用者Uの年代(10代,20代…)または性別(男または女)等を示す利用者情報とに応じた提供情報Tを状態テーブルから特定する。利用者情報は、事前に記憶部23に記憶される。例えば同等の内容を表す年代毎に相違する文字列をそれぞれ発音した音声を表す複数の音信号が、共通の状態情報に対応付けられて状態テーブルに登録される。つまり、1個の状態情報に対して複数の年代をそれぞれ表わす提供情報Tが対応付けられる。例えば状態情報「喜び」が特定されると、利用者情報が示す年代が10代の場合は、文字列「かわいいね」を発話した音声を表す音信号が提供情報Tとして特定される一方で、利用者情報が示す年代が20代の場合は、文字列「きれいだね」を発話した音声を表す音信号が提供情報Tとして特定される。また、状態テーブルに登録された提供情報Tを利用者情報に応じて調整して(例えば音信号が表わす韻律を調整して)利用者Uに提供することも可能である。なお、SNS(Social Networking Service)のIDを情報提供装置200に事前に登録しておくことで、SNSに登録された利用者Uの個人情報、または、利用者UがSNSに書き込みをした内容を提供情報Tの特定に加味することも可能である。 (7) In the above-described form, the provision information T corresponding to the state information generated by the specifying unit 53 is specified from the state table. However, information other than the state information can be taken into account in specifying the provision information T. For example, the providing unit 55 provides the provided information T according to the state information generated by the specifying unit 53 and the user information indicating the age (10's, 20's,...) Or sex (male or female) of the user U. Is identified from the state table. User information is stored in the storage unit 23 in advance. For example, a plurality of sound signals representing voices that sound different character strings for each age representing equivalent contents are registered in the state table in association with common state information. That is, provision information T representing each of a plurality of ages is associated with one piece of state information. For example, when the status information “joy” is specified, if the age indicated by the user information is a teenager, a sound signal representing a voice uttering the character string “cute” is specified as the provision information T, When the age indicated by the user information is in the twenties, a sound signal representing the voice uttering the character string “beautiful” is specified as the provision information T. Further, the provision information T registered in the state table can be adjusted according to the user information (for example, by adjusting the prosody represented by the sound signal) and provided to the user U. By registering an SNS (Social Networking Service) ID in the information providing apparatus 200 in advance, the personal information of the user U registered in the SNS or the content written by the user U in the SNS is stored. It is also possible to take into account the specification of the provision information T.

(8)前述の形態では、状態テーブルを利用して提供情報Tを特定したが、例えば状態情報の特徴量と提供情報Tとの関係を表す統計モデルを利用して提供情報Tを特定することも可能である。例えばニューラルネットワークまたはベイズ分類等の各種のパターン認識モデルが統計モデルとして好適である。具体的には、提供部55は、既存の多数の状態情報における特徴量と提供情報Tとの間で成立する関係のもとで、統計モデルに付与された特徴量に対して妥当性の高い提供情報Tを特定する。 (8) In the above-described embodiment, the provision information T is specified using the state table. For example, the provision information T is specified using a statistical model representing the relationship between the feature amount of the state information and the provision information T. Is also possible. For example, various pattern recognition models such as a neural network or Bayes classification are suitable as the statistical model. Specifically, the providing unit 55 is highly valid for the feature amount assigned to the statistical model under the relationship established between the feature amount in the existing many state information and the provision information T. The provision information T is specified.

(9)前述の形態では、可搬機器100の放音部15を利用して提供情報Tを利用者Uに提示したが、例えば情報提供装置200と通信網70を介して通信可能な端末装置(例えばスマートフォンまたはタブレット)の提示部(放音部または表示部)を利用して提供情報Tを利用者Uに提示することも可能である。具体的には、可搬機器100は、撮像部11により撮影された撮影画像Pを情報提供装置200に送信する。情報提供装置200は、可搬機器100から送信された撮影画像Pに応じた提供情報Tを特定し、当該特定した提供情報Tを端末装置に送信する。端末装置は、情報提供装置200から受信した提供情報Tを利用者Uに提示する。 (9) In the above-described embodiment, the provided information T is presented to the user U using the sound emitting unit 15 of the portable device 100. For example, the terminal device capable of communicating with the information providing apparatus 200 via the communication network 70. It is also possible to present the provided information T to the user U using a presentation unit (sound emitting unit or display unit) of a smartphone (for example, a smartphone or a tablet). Specifically, the portable device 100 transmits the captured image P captured by the imaging unit 11 to the information providing apparatus 200. The information providing apparatus 200 identifies the provision information T corresponding to the captured image P transmitted from the portable device 100, and transmits the identified provision information T to the terminal device. The terminal device presents the provision information T received from the information provision device 200 to the user U.

(10)前述の形態では、通信網70を介して可搬機器100と通信可能なウェブサーバを情報提供装置200として例示したが、可搬機器100と通信網70または近距離無線通信を介して通信可能な端末装置(例えばスマートフォンまたはタブレット)を情報提供装置200とする構成も採用され得る。以上の構成では、端末装置の撮像部と提示部とを利用することで、撮影画像Pの撮影と提供情報の提示とをすることも可能である。つまり、可搬機器100と情報提供装置200とを一体とする構成も採用され得る。 (10) In the above-described embodiment, the web server that can communicate with the portable device 100 via the communication network 70 is exemplified as the information providing apparatus 200. However, the portable device 100 and the communication network 70 or via short-range wireless communication are exemplified. A configuration in which a communicable terminal device (for example, a smartphone or a tablet) is used as the information providing device 200 may be employed. In the above configuration, it is possible to capture the captured image P and present the provided information by using the imaging unit and the presentation unit of the terminal device. That is, a configuration in which the portable device 100 and the information providing apparatus 200 are integrated may be employed.

(11)前述の形態では、利用者Uが装着可能な眼鏡型の可搬機器100を例示したが、可搬機器100の具体的な形態は任意である。例えば、利用者Uの首元に装着可能なネックレス型、または、利用者Uの耳介に装着可能なイヤリング型等、任意の形態の可搬機器100が採用され得る。ただし、利用者Uの視点を含む撮影画像Pを撮影するという観点からは、眼鏡型の可搬機器100が好適である。また、情報提供装置200と通信網70を介して通信可能な端末装置(例えばスマートフォンまたはタブレット)を可搬機器100とする構成も採用され得る。以上の構成では、例えば鏡Mの前で利用者Uが保持する端末装置の撮影部を利用して撮影画像Pを撮影する。以上の説明から理解される通り、可搬機器100は利用者Uが装着可能な形態に限定されない。ただし、鏡に映る利用者Uを撮影するという観点からは、利用者Uが装着可能な可搬機器100を採用する前述の形態の可搬機器100が好適である。 (11) In the above-described embodiment, the eyeglass-type portable device 100 that can be worn by the user U is exemplified, but the specific form of the portable device 100 is arbitrary. For example, the portable device 100 of any form such as a necklace type that can be worn on the neck of the user U or an earring type that can be worn on the user's U pinna can be adopted. However, from the viewpoint of photographing the captured image P including the viewpoint of the user U, the spectacle-type portable device 100 is preferable. In addition, a configuration in which the portable device 100 is a terminal device (for example, a smartphone or a tablet) that can communicate with the information providing apparatus 200 via the communication network 70 may be employed. In the above configuration, for example, the captured image P is captured using the imaging unit of the terminal device held by the user U in front of the mirror M. As understood from the above description, the portable device 100 is not limited to a form that the user U can wear. However, from the viewpoint of photographing the user U reflected in the mirror, the portable device 100 of the above-described form that employs the portable device 100 that can be worn by the user U is preferable.

(12)前述の形態に係る情報提供装置200は、前述の形態の例示の通り、制御部25とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網70を介した配信の形態でプログラムをコンピュータに提供することも可能である。 (12) The information providing apparatus 200 according to the above-described form is realized by the cooperation of the control unit 25 and the program as illustrated in the above-described form. The program may be provided in a form stored in a computer-readable recording medium and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included. Note that the non-transitory recording medium includes any recording medium except for a transient propagation signal (transitory, propagating signal), and does not exclude a volatile recording medium. It is also possible to provide a program to a computer in the form of distribution via the communication network 70.

(13)本発明は、前述の形態に係る情報提供装置200の動作方法(情報提供方法)としても特定され得る。具体的には、本発明の好適な態様の情報提供方法は、可搬機器100に設けられた撮像部11により撮影された撮影画像Pに、可搬機器100の利用者Uの画像と特定の画像とが含まれるか否かを判定する判定ステップと、利用者Uの画像と特定の画像とが撮影画像Pに含まれると判定ステップにおいて判定された場合に、撮影画像Pに応じた提供情報Tを利用者Uに提供する提供ステップとを含む。 (13) The present invention can also be specified as an operation method (information providing method) of the information providing apparatus 200 according to the above-described embodiment. Specifically, the information providing method according to a preferred aspect of the present invention includes an image of the user U of the portable device 100 and a specific image captured by the imaging unit 11 provided in the portable device 100. Provided information according to the captured image P when it is determined in the determination step that determines whether or not the image is included, and in the determination step that the image of the user U and the specific image are included in the captured image P Providing T to the user U.

(14)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る情報提供方法は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定ステップと、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記撮影画像に応じた情報を前記利用者に提供する提供ステップとを含む。以上の方法によれば、撮像部により撮影された撮影画像に機器の利用者の画像が含まれる場合に、撮影画像に応じた情報を利用者に提供することができる。また、以上の方法では、可搬型の機器に設けられた撮像部により撮影された撮像画像に、可搬型の機器の利用者の画像と特定の画像とが含まれる場合に、撮影画像に応じた情報が利用者に提供される。ここで、例えば撮影画像に利用者の画像が含まれる場合に、撮影画像に応じた情報を利用者に提供する方法では、利用者が特定の状況にあるか否かに関わらず情報が提供される。それに対して、前述の方法によれば、撮影画像に利用者の画像と特定の画像とが含まれる場合に撮影画像に応じた情報が利用者に提供されるので、撮像画像に映る利用者が特定の状況下にいると想定される場合に、撮影画像に応じた情報が提供される。
(14) From the form illustrated above, for example, the following configuration is grasped.
<Aspect 1>
In the information providing method according to a preferred aspect (aspect 1) of the present invention, an image of a user of the device and a specific image are included in the captured image captured by the imaging unit provided in the portable device. A determination step for determining whether or not the user image and the specific image are included in the captured image, the information corresponding to the captured image is determined in the determination step. Providing step. According to the above method, when the image of the device user is included in the captured image captured by the imaging unit, information corresponding to the captured image can be provided to the user. Further, in the above method, when the captured image captured by the imaging unit provided in the portable device includes an image of the user of the portable device and a specific image, the captured image corresponds to the captured image. Information is provided to the user. Here, for example, when a captured image includes a user's image, the method of providing information to the user according to the captured image provides information regardless of whether the user is in a specific situation. The On the other hand, according to the above-described method, when a captured image includes a user image and a specific image, information corresponding to the captured image is provided to the user. When it is assumed that the user is in a specific situation, information corresponding to the captured image is provided.

<態様2>
態様1の好適例(態様2)に係る情報提供方法において、特定の画像は、前記機器の画像である。以上の方法では、可搬型の機器に設けられた撮像部により撮影された撮像画像に、可搬型の機器の利用者の画像と可搬型の機器の画像とが含まれる場合に、撮影画像に応じた情報が利用者に提供される。
<Aspect 2>
In the information providing method according to the preferred example (aspect 2) of aspect 1, the specific image is an image of the device. In the above method, when the captured image captured by the imaging unit provided in the portable device includes an image of the user of the portable device and an image of the portable device, the image is captured according to the captured image. Information is provided to users.

<態様3>
態様1または態様2の好適例(態様3)に係る情報提供方法は、前記撮影画像から前記利用者の状態を特定する特定ステップを含み、前記提供ステップでは、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記特定ステップにおいて特定した前記利用者の状態に応じた情報を前記撮影画像に応じた情報として前記利用者に提供する。以上の方法では、可搬型の機器に設けられた撮像部により撮影された撮影画像に、利用者の画像と特定の画像とが含まれる場合に、撮影画像から特定された利用者の状態に応じた情報が撮影画像に応じた情報として利用者に提供されるから、利用者の状態に対して適切な情報を提供することが可能である。
<Aspect 3>
The information providing method according to a preferred example (aspect 3) of aspect 1 or aspect 2 includes a specifying step of specifying the state of the user from the photographed image, and in the providing step, the user image and the specific When it is determined in the determination step that an image is included in the captured image, information corresponding to the state of the user specified in the specifying step is provided to the user as information corresponding to the captured image. . According to the above method, when the captured image captured by the imaging unit provided in the portable device includes the user image and the specific image, the user's state specified from the captured image is determined. Since the information is provided to the user as information corresponding to the captured image, it is possible to provide information appropriate for the user's condition.

<態様4>
本発明の好適な態様(態様4)に係る情報提供装置は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定部と、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定部が判定した場合に、前記撮影画像に応じた情報を前記利用者に提供する提供部とを具備する。以上の構成では、可搬型の機器に設けられた撮像部により撮影された撮像画像に、可搬型の機器の利用者の画像と特定の画像とが含まれる場合に、撮影画像に応じた情報が利用者に提供される。ここで、例えば撮影画像に利用者の画像が含まれる場合に、撮影画像に応じた情報を利用者に提供する構成では、利用者が特定の状況にあるか否かに関わらず情報が提供される。それに対して、前述の構成によれば、撮影画像に利用者の画像と特定の画像とが含まれる場合に撮影画像に応じた情報が利用者に提供されるので、撮像画像に映る利用者が特定の状況下にいると想定される場合に、撮影画像に応じた情報が提供される。
<Aspect 4>
In the information providing apparatus according to a preferred aspect (aspect 4) of the present invention, an image of a user of the device and a specific image are included in a captured image captured by an imaging unit provided in the portable device. When the determination unit determines that the captured image includes a determination unit that determines whether or not the user image and the specific image are included, information corresponding to the captured image is transmitted to the user. Providing part to provide. In the above configuration, when the captured image captured by the imaging unit provided in the portable device includes the image of the user of the portable device and the specific image, information corresponding to the captured image is displayed. Provided to users. Here, for example, when the user's image is included in the captured image, the configuration that provides the user with information corresponding to the captured image provides the information regardless of whether the user is in a specific situation. The On the other hand, according to the above-described configuration, when the captured image includes the user's image and the specific image, information corresponding to the captured image is provided to the user. When it is assumed that the user is in a specific situation, information corresponding to the captured image is provided.

1……情報提供システム、100……可搬機器、11……撮像部、13……通信部、15……放音部、17……装着部、200……情報提供装置、21……通信部、23……記憶部、25……制御部、51……判定部、53……特定部、55……提供部、70……通信網。
DESCRIPTION OF SYMBOLS 1 ... Information provision system, 100 ... Portable apparatus, 11 ... Imaging part, 13 ... Communication part, 15 ... Sound emission part, 17 ... Wearing part, 200 ... Information provision apparatus, 21 ... Communication , 23... Storage unit, 25... Control unit, 51... Determination unit, 53.

Claims (4)

可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定ステップと、
前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記撮影画像に応じた情報を前記利用者に提供する提供ステップと
を含む情報提供方法。
A determination step of determining whether a captured image captured by an imaging unit provided in a portable device includes an image of a user of the device and a specific image;
An information providing step of providing information corresponding to the captured image to the user when it is determined in the determining step that the image of the user and the specific image are included in the captured image; Method.
前記特定の画像は、前記機器の画像である
請求項1の情報提供方法。
The information providing method according to claim 1, wherein the specific image is an image of the device.
前記撮影画像から前記利用者の状態を特定する特定ステップを含み、
前記提供ステップでは、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記特定ステップにおいて特定した前記利用者の状態に応じた情報を前記撮影画像に応じた情報として前記利用者に提供する
請求項1または請求項2の情報提供方法。
A specifying step of specifying the state of the user from the captured image;
In the providing step, when it is determined in the determining step that the user image and the specific image are included in the captured image, information corresponding to the state of the user specified in the specifying step is obtained. The information providing method according to claim 1, wherein the information is provided to the user as information corresponding to the captured image.
可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定部と、
前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定部が判定した場合に、前記撮影画像に応じた情報を前記利用者に提供する提供部と
を具備する情報提供装置。
A determination unit that determines whether a captured image captured by an imaging unit provided in a portable device includes an image of a user of the device and a specific image;
An information provision unit comprising: a provision unit that provides information corresponding to the photographed image to the user when the determination unit determines that the user image and the specific image are included in the photographed image apparatus.
JP2017098767A 2017-05-18 2017-05-18 Information providing method and information providing device Pending JP2018195101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098767A JP2018195101A (en) 2017-05-18 2017-05-18 Information providing method and information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098767A JP2018195101A (en) 2017-05-18 2017-05-18 Information providing method and information providing device

Publications (1)

Publication Number Publication Date
JP2018195101A true JP2018195101A (en) 2018-12-06

Family

ID=64571756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098767A Pending JP2018195101A (en) 2017-05-18 2017-05-18 Information providing method and information providing device

Country Status (1)

Country Link
JP (1) JP2018195101A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330011A (en) * 2005-05-23 2006-12-07 Hitachi Ltd Information presenting device
JP2013251813A (en) * 2012-06-01 2013-12-12 Nikon Corp Electronic apparatus, display control system, and program
JP2014140097A (en) * 2013-01-21 2014-07-31 Sony Corp Image display device and image display method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330011A (en) * 2005-05-23 2006-12-07 Hitachi Ltd Information presenting device
JP2013251813A (en) * 2012-06-01 2013-12-12 Nikon Corp Electronic apparatus, display control system, and program
JP2014140097A (en) * 2013-01-21 2014-07-31 Sony Corp Image display device and image display method

Similar Documents

Publication Publication Date Title
JP6992870B2 (en) Information processing systems, control methods, and programs
JP2019145108A (en) Electronic device for generating image including 3d avatar with facial movements reflected thereon, using 3d avatar for face
US10486312B2 (en) Robot, robot control method, and robot system
WO2019234879A1 (en) Information processing system, information processing method and computer program
JP6400445B2 (en) Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program
US10673788B2 (en) Information processing system and information processing method
US11308787B2 (en) Information processing system, recording medium, and information processing method
CN109804357A (en) Server, client, control method and storage medium
KR101624454B1 (en) Method for providing message service based hologram image, user device, and display for hologram image
US20160277707A1 (en) Message transmission system, message transmission method, and program for wearable terminal
KR102667547B1 (en) Electronic device and method for providing graphic object corresponding to emotion information thereof
JP6563580B1 (en) Communication system and program
CN109224432A (en) Control method, device, storage medium and the wearable device of entertainment applications
JP7479618B2 (en) Information processing program, information processing method, and information processing device
US11808941B2 (en) Augmented image generation using virtual content from wearable heads up display
JP6969577B2 (en) Information processing equipment, information processing methods, and programs
US20220070066A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP2020136921A (en) Video call system and computer program
JP2018195101A (en) Information providing method and information providing device
JP2020052847A (en) Emotion management system, emotion management method and program
CN109144263A (en) Social householder method, device, storage medium and wearable device
JP6140327B2 (en) Message transmission system, message transmission method, and program
JP5904887B2 (en) Message transmission system, message transmission method, and program
WO2022249604A1 (en) Information processing apparatus, information processing method, and information processing program
CN109145010A (en) Information query method, device, storage medium and wearable device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211109