JP2018195101A - Information providing method and information providing device - Google Patents
Information providing method and information providing device Download PDFInfo
- Publication number
- JP2018195101A JP2018195101A JP2017098767A JP2017098767A JP2018195101A JP 2018195101 A JP2018195101 A JP 2018195101A JP 2017098767 A JP2017098767 A JP 2017098767A JP 2017098767 A JP2017098767 A JP 2017098767A JP 2018195101 A JP2018195101 A JP 2018195101A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- information
- captured image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、可搬型の機器の利用者に情報を提供する技術に関する。 The present invention relates to a technique for providing information to a user of a portable device.
可搬型の機器により撮影された被写体に関する情報を提供する技術が従来から提案されている。例えば特許文献1には、利用者が機器を利用して撮影した人物画像に応じた情報を提供する構成が開示されている。
Conventionally, a technique for providing information related to a subject photographed by a portable device has been proposed. For example,
特許文献1の技術では、撮影された人物画像の人物が内蔵メモリに登録された人物であれば、人物に対応した情報が提供される。しかし、人物画像を撮影する機器の利用者自身の情報を当該利用者に提供したいという要望もある。以上の事情を考慮して、本発明は、機器により利用者を撮影した画像に応じた情報を当該機器の利用者に提供することを目的とする。
In the technique of
以上の課題を解決するために、本発明の好適な態様に係る情報提供方法は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定ステップと、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記撮影画像に応じた情報を前記利用者に提供する提供ステップとを含む。 In order to solve the above-described problems, an information providing method according to a preferred aspect of the present invention includes an image of a user of the device and a specific image captured by an imaging unit provided in a portable device. A determination step for determining whether or not an image is included, and a determination in accordance with the captured image when it is determined in the determination step that the user image and the specific image are included in the captured image. Providing the information to the user.
本発明の好適な態様に係る情報提供装置は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定部と、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定部が判定した場合に、前記撮影画像に応じた情報を前記利用者に提供する提供部とを具備する。 The information providing apparatus according to a preferred aspect of the present invention determines whether a captured image captured by an imaging unit provided in a portable device includes an image of a user of the device and a specific image. A determining unit that determines, and a providing unit that provides information to the user according to the captured image when the determining unit determines that the user's image and the specific image are included in the captured image It comprises.
図1は、本発明の実施形態における情報提供システム1の構成図である。情報提供システム1は、可搬型の機器(以下「可搬機器」という)100の利用者Uに情報を提供するためのコンピュータシステムである。具体的には、情報提供システム1は、可搬機器100により撮影された画像(以下「撮影画像」という)Pに応じた情報(以下「提供情報」という)Tを利用者Uに提供する。図1に例示される通り、情報提供システム1は、可搬機器100と情報提供装置200とを具備する。可搬機器100と情報提供装置200とは、移動体通信網またはインターネット等の通信網70を介して通信可能である。本実施形態では、図2に例示される通り、自身の姿が映るように鏡Mの前にいる利用者Uを想定する。
FIG. 1 is a configuration diagram of an
本実施形態の可搬機器100は、利用者Uが装着可能な情報端末である。図2に例示される通り、例えば眼鏡型の情報端末が可搬機器100として好適に利用され得る。具体的には、可搬機器100は、図1に例示される通り、撮像部11と通信部13と放音部15と装着部17とを具備する。
The
撮像部11は、例えば画像を撮像可能な撮像素子およびレンズを含んで構成され、利用者Uからの指示により撮影画像Pを撮影する。通信部13は、通信網70を介して情報提供装置200と通信する通信機器である。通信部13と通信網70との間における通信は、無線が好適であるが、有線とすることも可能である。具体的には、通信部13は、撮像部11が撮影した撮影画像Pを情報提供装置200に送信し、当該撮影画像Pに応じた提供情報Tを情報提供装置200 から受信する。放音部15は、情報提供装置200から送信された提供情報Tに応じた音を再生する。図2に例示される通り、利用者Uの耳に装着されるイヤホン(インナーイヤー型,カナル型またはオーバーヘッド型)が放音部15として好適に利用される。
The
図1の装着部17は、利用者Uの身体(実施形態では頭部)に装着可能な器具である。例えば眼鏡が装着部17として好適に利用される。撮像部11と通信部13と放音部15とは装着部17に設置される。図2に例示される通り、撮像部11は、レンズの光軸が利用者Uの前方を向くように装着部17のフロント(前枠)の上部に搭載され得る。つまり、撮像部11は、利用者Uの視点を含む撮影画像Pを撮影することが可能である。なお、装着部17に対する撮像部11の搭載位置は任意である。例えば、装着部17のテンプル(つる)に撮像部11を装着することも可能である。通信部13は、装着部17の任意の場所に搭載される。放音部15は、装着部17から延出するコードの端部に設置される。図2に例示される通り、利用者Uは装着部17を耳にかけることで可搬機器100を装着することが可能である。
The
可搬機器100を装着した状態で鏡Mの前にいる利用者Uは、鏡Mに映る自身の姿を見ている(つまり利用者Uの視点が鏡Mにある)ことが想定される。したがって、撮影部により撮影された撮影画像Pには、図3に例示される通り、鏡Mに映る利用者Uの画像が含まれ得る。撮影部により撮影された撮影画像Pは、通信部13により情報提供装置200に送信される。
It is assumed that the user U who is in front of the mirror M with the
図1の情報提供装置200は、図1に例示される通り、通信部21と記憶部23と制御部25とを具備し、撮影画像Pに応じた提供情報Tを利用者Uに提供する。例えば通信網70を介して可搬機器100と通信可能なウェブサーバが情報提供装置200として好適に採用され得る。なお、情報提供装置200は、単体の装置として実現されるほか、相互に別体で構成された複数の装置の集合でも実現される。通信部21は、通信網70を介して可搬機器100と通信する通信機器である。本実施形態の通信部21は、可搬機器100から送信された撮影画像Pを受信し、当該撮影画像Pに応じた提供情報Tを制御部25の指示により可搬機器100に送信する。
As shown in FIG. 1, the
記憶部23は、制御部25が実行するプログラムと制御部25が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶部23として採用され得る。具体的には、記憶部23は、参照画像Aと参照画像Bと状態テーブルとを記憶する。参照画像Aは、利用者Uの顔の画像(以下「顔画像」という)である。参照画像Bは、可搬機器100の画像である。参照画像Aおよび参照画像Bは、事前に撮影され記憶部23に記憶される。
The
状態テーブルは、図1に例示される通り、撮影画像Pの被写体の状態を表す情報(以下「状態情報」という)と提供情報Tとが対応付けて登録されたデータテーブルである。本実施形態の状態情報は、利用者Uの状態を示す。本実施形態では、利用者Uの表情(例えば「喜び」,「怒り」または「悲しみ」等の感情)を利用者Uの状態として例示する。本実施形態の提供情報Tは、状態情報に対応した文字列(例えば状態情報が示す状態に関する感想)を発音した音声を表す音信号である。例えば状態情報「喜び」に対応付けて、文字列「かわいいね」を発話した音声を表す音信号を示す提供情報Tが状態テーブルに登録される。 As illustrated in FIG. 1, the state table is a data table in which information indicating the state of the subject of the captured image P (hereinafter referred to as “state information”) and provision information T are registered in association with each other. The state information of the present embodiment indicates the state of the user U. In the present embodiment, the facial expression of the user U (for example, emotions such as “joy”, “anger” or “sadness”) is exemplified as the state of the user U. The provision information T of the present embodiment is a sound signal that represents a voice that is a sound of a character string corresponding to the state information (for example, an impression related to the state indicated by the state information). For example, in association with the state information “joy”, provision information T indicating a sound signal representing a voice uttering the character string “cute” is registered in the state table.
制御部25は、例えばCPU(Central Processing Unit)等の演算処理回路で構成され、情報提供装置200の各要素を統括的に制御する。具体的には、制御部25は、記憶部23に記憶されたプログラムを実行することで、撮影画像Pに応じた提供情報Tを利用者Uに提供するための複数の機能(判定部51,特定部53および提供部55)を実現する。なお、制御部25の一部の機能を専用の電子回路で実現した構成、または、制御部25の機能を複数の装置に分散した構成も採用され得る。
The
判定部51は、通信部21が受信した撮影画像Pに、可搬機器100の利用者Uの画像と特定の画像とが含まれるか否かを判定する。本実施形態では、利用者Uの画像として利用者Uの顔画像を例示し、特定の画像として可搬機器100の画像を例示する。つまり、撮影画像Pに顔画像および可搬機器100の画像の双方が含まれるか否かが判定される。利用者Uの顔画像が撮影画像Pに含まれるか否かの判定(つまり本人認識)には、記憶部23に記憶された参照画像Aを利用した公知の画像解析技術が任意に採用される。例えば、撮影画像Pから顔検出処理により検出した顔画像の特徴量と参照画像Aに含まれる利用者Uの顔画像の特徴量とが近似する場合は、撮影画像Pに利用者Uの顔画像が含まれると判定される。なお、撮影画像Pから顔画像が検出できない場合、または、撮影画像Pから検出した顔画像の特徴量と参照画像Aの顔画像の特徴量とが乖離する場合は、撮影画像Pに利用者Uの顔画像が含まれないと判定される。つまり、参照画像Aは、撮影画像Pに利用者Uの画像が含まれるか否かを判定するために、撮影画像Pと対比される画像である。可搬機器100の画像が撮影画像Pに含まれるか否かの判定についても、記憶部23に記憶された参照画像Bを利用した公知の画像解析技術が任意に採用される。つまり、参照画像Bは、撮影画像Pに可搬機器100の画像が含まれるか否かを判定するために、撮影画像Pと対比される画像である。
The
特定部53は、撮影画像Pから利用者Uの状態を特定する。具体的には、特定部53は、撮影画像Pを解析することで、利用者Uの状態を示す状態情報を生成する。本実施形態の特定部53は、利用者Uの表情(具体的には顔の表情)を利用者Uの状態として撮影画像Pから特定する。例えば、「喜び」,「怒り」または「悲しみ」等の感情が利用者Uの表情として特定され得る。撮影画像Pから利用者Uの表情を特定する処理には、公知の表情認識技術が採用され得る。例えば、複数の表情毎に予め用意された特徴量のうち、撮影画像Pに含まれる顔画像の特徴量に最も近似する特徴量の表情が特定される。特定部53は、例えば、撮影画像Pから利用者Uの状態が「喜び」であると特定した場合は、「喜び」を示す状態情報を生成する。なお、参照画像Aの顔画像と撮影画像Pから検出された顔画像とを対比することで利用者Uの表情を特定すること、または、利用者Uの笑顔度を算定することで利用者Uの表情を特定することも可能である。
The specifying
提供部55は、撮影画像Pに応じた提供情報Tを利用者Uに提供する。本実施形態の提供部55は、利用者Uの顔画像と可搬機器100の画像とが含まれると判定部51により判定された場合に、撮影画像Pに応じた提供情報Tを利用者Uに提供する。本実施形態では、特定部53が特定した利用者Uの状態(つまり状態情報)に応じた情報を提供情報Tとして例示する。具体的には、提供部55は、特定部53が生成した状態情報に対応する提供情報Tを状態テーブルから特定し、特定した提供情報Tを可搬機器100に送信することを通信部21に指示する。例えば、特定部53が生成した状態情報「喜び」の場合、文字列「かわいいね」を発話した音声を表す音信号が提供情報Tとして特定される。通信部21は、提供部55が特定した提供情報Tを可搬機器100に送信する。
The providing
可搬機器100の通信部13は、情報提供装置200から受信した提供情報Tを放音部15に供給する。放音部15は、通信部13から供給された提供情報Tが示す音信号が表す音声を放音する。なお、通信部13から放音部15への音信号の供給は、無線通信により行うことも可能である。以上の説明から理解される通り、可搬機器100を装着した利用者Uが喜びの表情で鏡Mの前にいる場合、音声「かわいいね」が放音により利用者Uに提供される。
The
図4は、情報提供装置200の制御部25が実行する処理のフローチャートである。撮影画像Pの受信を契機として、図4の処理が実行される。図4の処理が開始されると、判定部51は、可搬機器100の利用者Uの顔画像と可搬機器100の画像とが撮影画像Pに含まれるか否かを判定する(S1)。利用者Uの顔画像と可搬機器100の画像との双方が撮影画像Pに含まれると判定された場合(S1:YES)、特定部53は、利用者Uの状態を特定する(S2)。具体的には、特定部53は、撮影画像Pを解析することで、利用者Uの状態を示す状態情報を生成する。提供部55は、撮影画像Pに応じた提供情報Tを特定する(S3)。具体的には、提供部55は、特定部53が生成した状態情報に対応する提供情報Tを状態テーブルから特定する。提供部55は、特定した提供情報Tを可搬機器100に送信することを通信部21に指示する(S4)。ステップS3およびステップS4の処理は、撮影画像Pに応じた提供情報Tを利用者Uに提供する処理である。利用者Uの顔画像と可搬機器100の画像との一方または双方が撮影画像Pに含まれないと判定された場合(S1:NO)、図4の処理を終了する。なお、ステップS1とステップS2との処理の先後は不問である。つまり、可搬機器100の利用者Uの顔画像と可搬機器100の画像とが撮影画像Pに含まれるか否かに関わらず、利用者Uの状態を特定することも可能である。
FIG. 4 is a flowchart of processing executed by the
以上の説明から理解される通り、本実施形態では、可搬機器100に設けられた撮像部11により撮影された撮影画像Pに可搬機器100の利用者Uの画像が含まれる場合に、撮影画像Pに応じた提供情報Tを利用者Uに提供することができる。また、撮像部11により撮影された撮影画像Pに、可搬機器100の利用者Uの顔画像と可搬機器100の画像とが含まれる場合に、撮影画像Pに応じた提供情報Tが利用者Uに提供される。ここで、例えば提供情報Tの提供において撮影画像Pにおける利用者Uの画像の有無のみが加味される構成(つまり撮影画像Pにおける特定の画像の有無は加味されない構成)では、利用者Uが特定の状況にあるか否かに関わらず情報が提供される。それに対して、本実施形態では、撮影画像Pに利用者Uの画像と特定の画像(利用者Uに装着される可搬機器100の画像)とが含まれる場合に撮影画像Pに応じた提供情報Tが利用者Uに提供されるので、撮像画像に映る利用者Uが特定の状況下にいると想定される場合に、撮影画像Pに応じた情報が提供される。本実施形態において利用者Uの特定の状況とは、可搬機器100を装着して鏡の前にいる状況である。
As understood from the above description, in the present embodiment, when the captured image P captured by the
<変形例>
以上に例示した形態は多様に変形され得る。前述の形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification>
The form illustrated above can be variously modified. Specific modifications that can be applied to the above-described embodiment will be exemplified below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined as long as they do not contradict each other.
(1)前述の形態では、撮影画像Pに利用者Uの画像と特定の画像とが含まれるか否かの判定において、利用者Uの画像として利用者Uの顔画像を例示し、特定の画像として可搬機器100の画像を例示したが、利用者Uの画像および特定の画像は以上の例示に限定されない。例えば利用者Uの顔の一部(例えば目または鼻)の画像または利用者Uの顔以外の画像(例えば掌)を利用者Uの画像とすることも可能である。特定の画像としては、利用者Uの画像以外の画像が好適である。例えば、利用者Uが可搬機器100を装着して鏡Mの前にいる状況が想定される場合に提供情報Tを提供するという観点からは、例えば特定のマーク(例えば○または△)の画像または鏡の縁の画像を特定の画像とする構成も採用され得る。事前に鏡にマークをつけておくことで、利用者Uの画像とマークの画像とを含む撮影画像Pを撮影することが可能である。したがって、マークが付された鏡の前に利用者Uがいる場合に限定して、提供情報Tを利用者Uに提供することが可能である。なお、利用者Uが鏡に映るように自身の手を使ってマーク(例えばピースサイン)を作って、利用者Uの画像とマークの画像とを含む撮影画像Pを撮影することも可能である。
(1) In the above-described embodiment, in determining whether the captured image P includes the image of the user U and the specific image, the face image of the user U is exemplified as the user U image, and the specific image Although the image of
(2)前述の形態では、利用者Uの表情を利用者Uの状態として例示したが、利用者Uの外観から特定できる情報であれば利用者Uの状態の種類は任意である。例えば、利用者Uの髪型または化粧を利用者Uの状態とすることも可能である。以上の構成では、撮影画像Pから特定される顔画像の化粧(例えば顔画像の色成分)または髪型を解析することで、利用者Uの状態を示す状態情報を生成する。例えば顔画像の化粧の解析により生成される状態情報「ナチュラルメイク」が生成され、顔画像の髪型の解析により状態情報「ショートヘア」が生成され得る。状態情報「ナチュラルメイク」または状態情報「ショートヘア」に応じた提供情報Tが利用者Uに提供される。または、利用者Uの着衣(例えば柄または色)を利用者Uの状態とすることも可能である。以上の構成では、撮影画像Pから特定される利用者Uの着衣を解析することで、例えば利用者Uの状態を示す状態情報「ストライプ柄」が生成され、状態情報「ストライプ柄」に応じた提供情報Tが利用者Uに提供される。以上の説明から理解される通り、利用者Uの外観から特定できる各種情報が利用者Uの状態として採用され得る。なお、利用者Uの外観から特定できる2以上の情報(例えば髪型および化粧)を組み合わせて状態情報を生成することも可能である。 (2) In the above-described embodiment, the facial expression of the user U is exemplified as the state of the user U. However, the type of the state of the user U is arbitrary as long as the information can be specified from the appearance of the user U. For example, the hair style or makeup of the user U can be set to the state of the user U. In the above configuration, the state information indicating the state of the user U is generated by analyzing the makeup (for example, the color component of the face image) or the hairstyle of the face image specified from the captured image P. For example, state information “natural makeup” generated by analysis of makeup of a face image may be generated, and state information “short hair” may be generated by analysis of a hairstyle of the face image. Provision information T corresponding to the state information “natural makeup” or the state information “short hair” is provided to the user U. Alternatively, the user U's clothes (for example, a pattern or a color) can be set to the state of the user U. In the above configuration, by analyzing the clothes of the user U specified from the captured image P, for example, the state information “striped pattern” indicating the state of the user U is generated, and according to the state information “striped pattern” Provision information T is provided to the user U. As understood from the above description, various types of information that can be specified from the appearance of the user U can be adopted as the state of the user U. It is also possible to generate state information by combining two or more pieces of information (for example, hairstyle and makeup) that can be identified from the appearance of the user U.
(3)前述の形態では、特定部53が特定した利用者Uの状態(つまり状態情報)に応じた情報を提供情報Tとして利用者Uに提供したが、利用者Uに提供する提供情報Tは利用者Uの状態に応じた情報に限定されない。例えば、利用者Uが鏡Mの前で身体にあてている衣服(例えば柄または色)を撮影画像Pから解析することで状態情報を生成すること、または、利用者Uがいる空間の壁の模様を撮影画像Pから解析することで状態情報を生成することも可能である。つまり、特定部53により生成される状態情報は、撮影画像Pの解析により特定できる情報であれば任意である。以上の説明から理解される通り、利用者Uに提供される提供情報Tは、撮影画像Pに応じた情報として包括的に表現され得る。なお、利用者Uの状態に応じた情報を提供情報Tとする前述の形態によれば、利用者Uの状態に対して適切な情報を提供することが可能である。
(3) In the above-described form, the information corresponding to the state (that is, state information) of the user U specified by the specifying
(4)前述の形態では、提供情報Tを利用者Uに提示する放音部15としてイヤホンを例示したが、放音部15の種類は以上の例示に限定されない。例えばスピーカも放音部15として採用され得る。また、通信部13に接続された表示部に提供情報Tを文字列として表示することも可能である。つまり、提供情報Tは音声を表す音信号に限定されない。例えば文字列または画像で提供情報Tを表現することも可能である。
(4) In the above-described embodiment, the earphone is exemplified as the
(5)前述の形態では、状態情報に対応した文字列を発音した音声を表す音信号を提供情報Tとする構成を例示したが、提供情報Tが示す音信号は音声に限定されない。例えばBGMとして利用される楽曲の演奏音を表わす音信号を提供情報Tとする構成も好適に採用される。以上の構成では、例えば撮影画像Pから利用者Uの着衣の柄または色を特定して、特定した柄または色に応じた楽曲の演奏音を表わす音信号を提供情報Tとして利用者Uに提供する。 (5) In the above-described embodiment, the configuration in which the provision information T is a sound signal representing the sound of the character string corresponding to the state information, but the sound signal indicated by the provision information T is not limited to the sound. For example, a configuration in which the sound information representing the performance sound of music used as BGM is provided information T is also preferably employed. In the above configuration, for example, the pattern or color of the clothing of the user U is specified from the photographed image P, and a sound signal representing the performance sound of the music corresponding to the specified pattern or color is provided to the user U as the provision information T To do.
(6)前述の形態では、状態情報と提供情報Tとを1対1に対応付けて状態テーブルに登録する構成を例示したが、状態情報と提供情報Tとの対応関係は以上の例示に限定されない。例えば、複数の状態情報について1個の提供情報Tを対応付けて状態テーブルに登録することも可能である。または、1個の状態情報に対して複数の提供情報Tを対応付けて状態テーブルに登録する構成も採用され得る。以上の構成では、複数の提供情報Tが利用者Uに提供される。 (6) In the above-described embodiment, the configuration in which the state information and the provision information T are registered in the state table in a one-to-one correspondence is illustrated, but the correspondence relationship between the state information and the provision information T is limited to the above examples. Not. For example, one piece of provision information T can be associated with a plurality of state information and registered in the state table. Alternatively, a configuration in which a plurality of pieces of provision information T are associated with one piece of state information and registered in the state table may be employed. In the above configuration, a plurality of provision information T is provided to the user U.
(7)前述の形態では、特定部53が生成した状態情報に対応する提供情報Tを状態テーブルから特定したが、提供情報Tの特定において状態情報以外の情報を加味することも可能である。例えば、提供部55は、特定部53が生成した状態情報と、利用者Uの年代(10代,20代…)または性別(男または女)等を示す利用者情報とに応じた提供情報Tを状態テーブルから特定する。利用者情報は、事前に記憶部23に記憶される。例えば同等の内容を表す年代毎に相違する文字列をそれぞれ発音した音声を表す複数の音信号が、共通の状態情報に対応付けられて状態テーブルに登録される。つまり、1個の状態情報に対して複数の年代をそれぞれ表わす提供情報Tが対応付けられる。例えば状態情報「喜び」が特定されると、利用者情報が示す年代が10代の場合は、文字列「かわいいね」を発話した音声を表す音信号が提供情報Tとして特定される一方で、利用者情報が示す年代が20代の場合は、文字列「きれいだね」を発話した音声を表す音信号が提供情報Tとして特定される。また、状態テーブルに登録された提供情報Tを利用者情報に応じて調整して(例えば音信号が表わす韻律を調整して)利用者Uに提供することも可能である。なお、SNS(Social Networking Service)のIDを情報提供装置200に事前に登録しておくことで、SNSに登録された利用者Uの個人情報、または、利用者UがSNSに書き込みをした内容を提供情報Tの特定に加味することも可能である。
(7) In the above-described form, the provision information T corresponding to the state information generated by the specifying
(8)前述の形態では、状態テーブルを利用して提供情報Tを特定したが、例えば状態情報の特徴量と提供情報Tとの関係を表す統計モデルを利用して提供情報Tを特定することも可能である。例えばニューラルネットワークまたはベイズ分類等の各種のパターン認識モデルが統計モデルとして好適である。具体的には、提供部55は、既存の多数の状態情報における特徴量と提供情報Tとの間で成立する関係のもとで、統計モデルに付与された特徴量に対して妥当性の高い提供情報Tを特定する。
(8) In the above-described embodiment, the provision information T is specified using the state table. For example, the provision information T is specified using a statistical model representing the relationship between the feature amount of the state information and the provision information T. Is also possible. For example, various pattern recognition models such as a neural network or Bayes classification are suitable as the statistical model. Specifically, the providing
(9)前述の形態では、可搬機器100の放音部15を利用して提供情報Tを利用者Uに提示したが、例えば情報提供装置200と通信網70を介して通信可能な端末装置(例えばスマートフォンまたはタブレット)の提示部(放音部または表示部)を利用して提供情報Tを利用者Uに提示することも可能である。具体的には、可搬機器100は、撮像部11により撮影された撮影画像Pを情報提供装置200に送信する。情報提供装置200は、可搬機器100から送信された撮影画像Pに応じた提供情報Tを特定し、当該特定した提供情報Tを端末装置に送信する。端末装置は、情報提供装置200から受信した提供情報Tを利用者Uに提示する。
(9) In the above-described embodiment, the provided information T is presented to the user U using the
(10)前述の形態では、通信網70を介して可搬機器100と通信可能なウェブサーバを情報提供装置200として例示したが、可搬機器100と通信網70または近距離無線通信を介して通信可能な端末装置(例えばスマートフォンまたはタブレット)を情報提供装置200とする構成も採用され得る。以上の構成では、端末装置の撮像部と提示部とを利用することで、撮影画像Pの撮影と提供情報の提示とをすることも可能である。つまり、可搬機器100と情報提供装置200とを一体とする構成も採用され得る。
(10) In the above-described embodiment, the web server that can communicate with the
(11)前述の形態では、利用者Uが装着可能な眼鏡型の可搬機器100を例示したが、可搬機器100の具体的な形態は任意である。例えば、利用者Uの首元に装着可能なネックレス型、または、利用者Uの耳介に装着可能なイヤリング型等、任意の形態の可搬機器100が採用され得る。ただし、利用者Uの視点を含む撮影画像Pを撮影するという観点からは、眼鏡型の可搬機器100が好適である。また、情報提供装置200と通信網70を介して通信可能な端末装置(例えばスマートフォンまたはタブレット)を可搬機器100とする構成も採用され得る。以上の構成では、例えば鏡Mの前で利用者Uが保持する端末装置の撮影部を利用して撮影画像Pを撮影する。以上の説明から理解される通り、可搬機器100は利用者Uが装着可能な形態に限定されない。ただし、鏡に映る利用者Uを撮影するという観点からは、利用者Uが装着可能な可搬機器100を採用する前述の形態の可搬機器100が好適である。
(11) In the above-described embodiment, the eyeglass-type
(12)前述の形態に係る情報提供装置200は、前述の形態の例示の通り、制御部25とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網70を介した配信の形態でプログラムをコンピュータに提供することも可能である。
(12) The
(13)本発明は、前述の形態に係る情報提供装置200の動作方法(情報提供方法)としても特定され得る。具体的には、本発明の好適な態様の情報提供方法は、可搬機器100に設けられた撮像部11により撮影された撮影画像Pに、可搬機器100の利用者Uの画像と特定の画像とが含まれるか否かを判定する判定ステップと、利用者Uの画像と特定の画像とが撮影画像Pに含まれると判定ステップにおいて判定された場合に、撮影画像Pに応じた提供情報Tを利用者Uに提供する提供ステップとを含む。
(13) The present invention can also be specified as an operation method (information providing method) of the
(14)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る情報提供方法は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定ステップと、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記撮影画像に応じた情報を前記利用者に提供する提供ステップとを含む。以上の方法によれば、撮像部により撮影された撮影画像に機器の利用者の画像が含まれる場合に、撮影画像に応じた情報を利用者に提供することができる。また、以上の方法では、可搬型の機器に設けられた撮像部により撮影された撮像画像に、可搬型の機器の利用者の画像と特定の画像とが含まれる場合に、撮影画像に応じた情報が利用者に提供される。ここで、例えば撮影画像に利用者の画像が含まれる場合に、撮影画像に応じた情報を利用者に提供する方法では、利用者が特定の状況にあるか否かに関わらず情報が提供される。それに対して、前述の方法によれば、撮影画像に利用者の画像と特定の画像とが含まれる場合に撮影画像に応じた情報が利用者に提供されるので、撮像画像に映る利用者が特定の状況下にいると想定される場合に、撮影画像に応じた情報が提供される。
(14) From the form illustrated above, for example, the following configuration is grasped.
<
In the information providing method according to a preferred aspect (aspect 1) of the present invention, an image of a user of the device and a specific image are included in the captured image captured by the imaging unit provided in the portable device. A determination step for determining whether or not the user image and the specific image are included in the captured image, the information corresponding to the captured image is determined in the determination step. Providing step. According to the above method, when the image of the device user is included in the captured image captured by the imaging unit, information corresponding to the captured image can be provided to the user. Further, in the above method, when the captured image captured by the imaging unit provided in the portable device includes an image of the user of the portable device and a specific image, the captured image corresponds to the captured image. Information is provided to the user. Here, for example, when a captured image includes a user's image, the method of providing information to the user according to the captured image provides information regardless of whether the user is in a specific situation. The On the other hand, according to the above-described method, when a captured image includes a user image and a specific image, information corresponding to the captured image is provided to the user. When it is assumed that the user is in a specific situation, information corresponding to the captured image is provided.
<態様2>
態様1の好適例(態様2)に係る情報提供方法において、特定の画像は、前記機器の画像である。以上の方法では、可搬型の機器に設けられた撮像部により撮影された撮像画像に、可搬型の機器の利用者の画像と可搬型の機器の画像とが含まれる場合に、撮影画像に応じた情報が利用者に提供される。
<Aspect 2>
In the information providing method according to the preferred example (aspect 2) of
<態様3>
態様1または態様2の好適例(態様3)に係る情報提供方法は、前記撮影画像から前記利用者の状態を特定する特定ステップを含み、前記提供ステップでは、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記特定ステップにおいて特定した前記利用者の状態に応じた情報を前記撮影画像に応じた情報として前記利用者に提供する。以上の方法では、可搬型の機器に設けられた撮像部により撮影された撮影画像に、利用者の画像と特定の画像とが含まれる場合に、撮影画像から特定された利用者の状態に応じた情報が撮影画像に応じた情報として利用者に提供されるから、利用者の状態に対して適切な情報を提供することが可能である。
<Aspect 3>
The information providing method according to a preferred example (aspect 3) of
<態様4>
本発明の好適な態様(態様4)に係る情報提供装置は、可搬型の機器に設けられた撮像部により撮影された撮影画像に、前記機器の利用者の画像と特定の画像とが含まれるか否かを判定する判定部と、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定部が判定した場合に、前記撮影画像に応じた情報を前記利用者に提供する提供部とを具備する。以上の構成では、可搬型の機器に設けられた撮像部により撮影された撮像画像に、可搬型の機器の利用者の画像と特定の画像とが含まれる場合に、撮影画像に応じた情報が利用者に提供される。ここで、例えば撮影画像に利用者の画像が含まれる場合に、撮影画像に応じた情報を利用者に提供する構成では、利用者が特定の状況にあるか否かに関わらず情報が提供される。それに対して、前述の構成によれば、撮影画像に利用者の画像と特定の画像とが含まれる場合に撮影画像に応じた情報が利用者に提供されるので、撮像画像に映る利用者が特定の状況下にいると想定される場合に、撮影画像に応じた情報が提供される。
<Aspect 4>
In the information providing apparatus according to a preferred aspect (aspect 4) of the present invention, an image of a user of the device and a specific image are included in a captured image captured by an imaging unit provided in the portable device. When the determination unit determines that the captured image includes a determination unit that determines whether or not the user image and the specific image are included, information corresponding to the captured image is transmitted to the user. Providing part to provide. In the above configuration, when the captured image captured by the imaging unit provided in the portable device includes the image of the user of the portable device and the specific image, information corresponding to the captured image is displayed. Provided to users. Here, for example, when the user's image is included in the captured image, the configuration that provides the user with information corresponding to the captured image provides the information regardless of whether the user is in a specific situation. The On the other hand, according to the above-described configuration, when the captured image includes the user's image and the specific image, information corresponding to the captured image is provided to the user. When it is assumed that the user is in a specific situation, information corresponding to the captured image is provided.
1……情報提供システム、100……可搬機器、11……撮像部、13……通信部、15……放音部、17……装着部、200……情報提供装置、21……通信部、23……記憶部、25……制御部、51……判定部、53……特定部、55……提供部、70……通信網。
DESCRIPTION OF
Claims (4)
前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記撮影画像に応じた情報を前記利用者に提供する提供ステップと
を含む情報提供方法。 A determination step of determining whether a captured image captured by an imaging unit provided in a portable device includes an image of a user of the device and a specific image;
An information providing step of providing information corresponding to the captured image to the user when it is determined in the determining step that the image of the user and the specific image are included in the captured image; Method.
請求項1の情報提供方法。 The information providing method according to claim 1, wherein the specific image is an image of the device.
前記提供ステップでは、前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定ステップにおいて判定された場合に、前記特定ステップにおいて特定した前記利用者の状態に応じた情報を前記撮影画像に応じた情報として前記利用者に提供する
請求項1または請求項2の情報提供方法。 A specifying step of specifying the state of the user from the captured image;
In the providing step, when it is determined in the determining step that the user image and the specific image are included in the captured image, information corresponding to the state of the user specified in the specifying step is obtained. The information providing method according to claim 1, wherein the information is provided to the user as information corresponding to the captured image.
前記利用者の画像と前記特定の画像とが前記撮影画像に含まれると前記判定部が判定した場合に、前記撮影画像に応じた情報を前記利用者に提供する提供部と
を具備する情報提供装置。
A determination unit that determines whether a captured image captured by an imaging unit provided in a portable device includes an image of a user of the device and a specific image;
An information provision unit comprising: a provision unit that provides information corresponding to the photographed image to the user when the determination unit determines that the user image and the specific image are included in the photographed image apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017098767A JP2018195101A (en) | 2017-05-18 | 2017-05-18 | Information providing method and information providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017098767A JP2018195101A (en) | 2017-05-18 | 2017-05-18 | Information providing method and information providing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018195101A true JP2018195101A (en) | 2018-12-06 |
Family
ID=64571756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017098767A Pending JP2018195101A (en) | 2017-05-18 | 2017-05-18 | Information providing method and information providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018195101A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006330011A (en) * | 2005-05-23 | 2006-12-07 | Hitachi Ltd | Information presenting device |
JP2013251813A (en) * | 2012-06-01 | 2013-12-12 | Nikon Corp | Electronic apparatus, display control system, and program |
JP2014140097A (en) * | 2013-01-21 | 2014-07-31 | Sony Corp | Image display device and image display method |
-
2017
- 2017-05-18 JP JP2017098767A patent/JP2018195101A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006330011A (en) * | 2005-05-23 | 2006-12-07 | Hitachi Ltd | Information presenting device |
JP2013251813A (en) * | 2012-06-01 | 2013-12-12 | Nikon Corp | Electronic apparatus, display control system, and program |
JP2014140097A (en) * | 2013-01-21 | 2014-07-31 | Sony Corp | Image display device and image display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6992870B2 (en) | Information processing systems, control methods, and programs | |
JP2019145108A (en) | Electronic device for generating image including 3d avatar with facial movements reflected thereon, using 3d avatar for face | |
US10486312B2 (en) | Robot, robot control method, and robot system | |
WO2019234879A1 (en) | Information processing system, information processing method and computer program | |
JP6400445B2 (en) | Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program | |
US10673788B2 (en) | Information processing system and information processing method | |
US11308787B2 (en) | Information processing system, recording medium, and information processing method | |
CN109804357A (en) | Server, client, control method and storage medium | |
KR101624454B1 (en) | Method for providing message service based hologram image, user device, and display for hologram image | |
US20160277707A1 (en) | Message transmission system, message transmission method, and program for wearable terminal | |
KR102667547B1 (en) | Electronic device and method for providing graphic object corresponding to emotion information thereof | |
JP6563580B1 (en) | Communication system and program | |
CN109224432A (en) | Control method, device, storage medium and the wearable device of entertainment applications | |
JP7479618B2 (en) | Information processing program, information processing method, and information processing device | |
US11808941B2 (en) | Augmented image generation using virtual content from wearable heads up display | |
JP6969577B2 (en) | Information processing equipment, information processing methods, and programs | |
US20220070066A1 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
JP2020136921A (en) | Video call system and computer program | |
JP2018195101A (en) | Information providing method and information providing device | |
JP2020052847A (en) | Emotion management system, emotion management method and program | |
CN109144263A (en) | Social householder method, device, storage medium and wearable device | |
JP6140327B2 (en) | Message transmission system, message transmission method, and program | |
JP5904887B2 (en) | Message transmission system, message transmission method, and program | |
WO2022249604A1 (en) | Information processing apparatus, information processing method, and information processing program | |
CN109145010A (en) | Information query method, device, storage medium and wearable device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211109 |