JP2021157681A - Simplified communication system, simplified communication method and program - Google Patents

Simplified communication system, simplified communication method and program Download PDF

Info

Publication number
JP2021157681A
JP2021157681A JP2020059399A JP2020059399A JP2021157681A JP 2021157681 A JP2021157681 A JP 2021157681A JP 2020059399 A JP2020059399 A JP 2020059399A JP 2020059399 A JP2020059399 A JP 2020059399A JP 2021157681 A JP2021157681 A JP 2021157681A
Authority
JP
Japan
Prior art keywords
stamp
user
unit
image
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020059399A
Other languages
Japanese (ja)
Other versions
JP6899940B1 (en
Inventor
翔太 牛尾
Shota Ushio
翔太 牛尾
拓哉 佐々木
Takuya Sasaki
拓哉 佐々木
りさ 宍戸
Risa Shishido
りさ 宍戸
静 安河内
Shizuka Yasukochi
静 安河内
拓馬 安田
Takuma Yasuda
拓馬 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2020059399A priority Critical patent/JP6899940B1/en
Application granted granted Critical
Publication of JP6899940B1 publication Critical patent/JP6899940B1/en
Publication of JP2021157681A publication Critical patent/JP2021157681A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To properly transmit information under a situation in which a user is not able to use his/her hand.SOLUTION: A simplified communication system 1 comprises a display device, when being mounted on a head of the user, having: a first photographing section capable of photographing a first image including at least a lip of the user; a second photographing section capable of photographing a second image including an eye of the user; and a display section for displaying an image, and a portable terminal 10. The portable terminal 10 comprises: a word identification section 151 for detecting movement of the lip on the basis of the first image and identifying a word indicated by the detected movement of the lip; an expression identification section 152 for identifying expression of the user on the basis of the first image; a recommendation processing section 153 for acquiring candidates of stamps from a candidate storage section for storing the word, the expression and the stamps in association with each other on the basis of the identified word and expression, and displaying an image including the candidates of stamps on the display section; and a transmission processing section 156 for selecting a stamp from among the candidates of stamps according to a line of vision of the user detected on the basis of the second image and transmitting the selected stamp.SELECTED DRAWING: Figure 2

Description

本発明は、簡易通信システム、簡易通信方法、及びプログラムに関する。 The present invention relates to a simple communication system, a simple communication method, and a program.

近年、音声や口唇の動きを検出して、メッセージなどの入力を行う技術が知られている(例えば、特許文献1を参照)。このような従来技術では、例えば、手に持ったスマートフォンなど携帯端末のマイク及びカメラを利用することで、メッセージなどの入力を行うことが可能である。 In recent years, a technique for detecting voice and lip movement and inputting a message or the like has been known (see, for example, Patent Document 1). In such a conventional technique, it is possible to input a message or the like by using, for example, a microphone and a camera of a mobile terminal such as a smartphone held in the hand.

特開2019−208138号公報Japanese Unexamined Patent Publication No. 2019-208138

しかしながら、上述した従来技術では、スマートフォンなど携帯端末を利用者の顔の前に持つ必要があり、例えば、満員電車などの空間が限られている状況において、メッセージなどの入力を行うことができずに、利用者が情報を送信することが困難な場合があった。 However, in the above-mentioned conventional technology, it is necessary to hold a mobile terminal such as a smartphone in front of the user's face, and it is not possible to input a message or the like in a situation where space is limited such as a crowded train. In some cases, it was difficult for the user to send the information.

本発明は、上記問題を解決すべくなされたもので、その目的は、利用者の手が使用できない状況において、適切に情報を送信することができる簡易通信システム、簡易通信方法、及びプログラムを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a simple communication system, a simple communication method, and a program capable of appropriately transmitting information in a situation where the user's hand cannot be used. To do.

上記問題を解決するために、本発明の一態様は、利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備え、前記携帯端末は、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別部と、前記第1画像に基づいて、前記利用者の表情を識別する表情識別部と、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別部が識別した前記単語と、前記表情識別部が識別した前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理部と、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理部とを備えることを特徴とする簡易通信システムである。 In order to solve the above problem, one aspect of the present invention is a display device that can be worn on the user's head, and when the display device is worn on the user's head, at least the user's lips are worn. A display device having a first image pickup unit capable of capturing a first image including the first image, a second image pickup unit capable of capturing a second image including the user's eyes, and a display unit for displaying an image is connected to a network. The mobile terminal includes a possible mobile terminal, and the mobile terminal detects the movement of the lip based on the first image captured by the first imaging unit, and based on the detected movement of the lip, the mobile terminal of the lip. An illustration expressing the word, the facial expression, and the emotion of the user, the word identification unit that identifies the word indicated by the movement, the facial expression identification unit that identifies the facial expression of the user based on the first image, and the word, the facial expression, and the emotion of the user. From the candidate storage unit that stores the stamp in association with the stamp, the stamp candidate is acquired based on the word identified by the word identification unit and the facial expression identified by the facial expression identification unit, and the stamp is obtained. It is displayed on the display unit by the recommended processing unit for displaying the image including the candidate of the above on the display unit and the line of sight of the user detected based on the second image captured by the second imaging unit. It is a simple communication system including a transmission processing unit that selects the stamp from the candidates for the stamp and transmits the selected stamp to a predetermined destination via the network.

また、本発明の一態様は、上記の簡易通信システムにおいて、送信日時と、送信した前記スタンプと、送信先と、前記単語と、前記表情とを対応付けた過去の送信履歴情報を記憶する送信履歴記憶部を備え、前記推奨処理部は、前記送信履歴記憶部が記憶する前記送信履歴情報に基づいて、前記スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、前記スタンプの候補を前記表示部に表示させることを特徴とする。 Further, one aspect of the present invention is a transmission that stores past transmission history information in which the transmission date and time, the transmitted stamp, the transmission destination, the word, and the facial expression are associated with each other in the simple communication system. The recommended processing unit includes a history storage unit, determines the priority of the stamp candidates based on the transmission history information stored in the transmission history storage unit, arranges the stamp candidates according to the priority, and arranges the stamp candidates. It is characterized in that stamp candidates are displayed on the display unit.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記送信履歴情報には、前記スタンプを送信した場所情報が含まれ、前記推奨処理部は、前記送信履歴情報に基づいて、現在の前記携帯端末の場所に対応した前記スタンプの候補の優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the above-mentioned simple communication system, the transmission history information includes the place information where the stamp is transmitted, and the recommended processing unit is currently based on the transmission history information. It is characterized in that the priority of the stamp candidate corresponding to the location of the mobile terminal is raised.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記送信履歴情報には、前記スタンプを送信した際の状況を示すスケジュール情報が含まれ、前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、現在のスケジュールに基づく利用者の状況に対応した前記スタンプの候補の前記優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the transmission history information includes schedule information indicating a situation when the stamp is transmitted, and the recommended processing unit is the user. Based on the transmission history information, the priority of the stamp candidate corresponding to the user's situation based on the current schedule is raised.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記送信処理部は、送信した前記スタンプに対応する前記送信履歴情報を、前記送信履歴記憶部に追加して記憶させ、前記推奨処理部は、直近に送信された前記スタンプに対する前記スタンプの候補の優先順位を下げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the transmission processing unit additionally stores the transmission history information corresponding to the transmitted stamp in the transmission history storage unit, and stores the recommended processing. The unit is characterized in that the priority of the stamp candidate with respect to the most recently transmitted stamp is lowered.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前記スタンプの使用頻度が高い程、前記スタンプの候補の前記優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the recommended processing unit gives priority to the stamp candidate as the frequency of use of the stamp increases based on the transmission history information of the user. It is characterized by raising the ranking.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記候補記憶部は、前記単語と、前記表情と、前記スタンプと、前記スタンプのグループを示すグループ情報とを対応付けて記憶し、前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前回送信した前記スタンプの前記グループ情報と一致する、前記スタンプの候補の前記優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the candidate storage unit stores the word, the facial expression, the stamp, and the group information indicating the group of the stamps in association with each other. The recommended processing unit is characterized in that, based on the transmission history information of the user, the priority of the stamp candidate, which matches the group information of the stamp transmitted last time, is raised.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記候補記憶部は、前記単語と、前記表情と、前記スタンプとを対応付けたスタンプテーブル情報を、利用者ごとに記憶し、前記候補記憶部に、前記利用者の前記スタンプテーブル情報を記憶させて登録する登録処理部を備えることを特徴とする。 Further, in one aspect of the present invention, in the above-mentioned simple communication system, the candidate storage unit stores stamp table information in which the word, the expression, and the stamp are associated with each user, and the above-mentioned The candidate storage unit is provided with a registration processing unit that stores and registers the stamp table information of the user.

また、本発明の一態様は、上記の簡易通信システムにおいて、前記ネットワークを経由して受信したメッセージを、前記表示部に表示させる受信処理部を備え、前記推奨処理部は、受信した前記メッセージに対する前記スタンプの候補を含む前記画像を前記表示部に表示させ、前記送信処理部は、選択した前記スタンプを、受信した前記メッセージの送信元を含む所定の送信先に送信することを特徴とする。 Further, one aspect of the present invention includes a reception processing unit for displaying a message received via the network on the display unit in the simple communication system, and the recommended processing unit is for the received message. The display unit displays the image including the stamp candidate, and the transmission processing unit transmits the selected stamp to a predetermined destination including the source of the received message.

また、本発明の一態様は、利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備える簡易通信システムの簡易通信方法であって、前記携帯端末が、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、前記携帯端末が、前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、前記携帯端末が、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、前記携帯端末が、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップとを含むことを特徴とする簡易通信方法である。 Further, one aspect of the present invention is a display device that can be worn on the user's head, and when worn on the user's head, captures a first image including at least the user's lips. A display device having a possible first image pickup unit, a second image pickup unit capable of capturing a second image including the user's eyes, a display unit for displaying an image, and a portable terminal connectable to a network. A simple communication method of a simple communication system provided, wherein the mobile terminal detects the movement of the lip based on the first image captured by the first image pickup unit, and based on the detected movement of the lip. , A word identification step for identifying a word indicated by the movement of the lips, an emotion identification step for the mobile terminal to identify the facial expression of the user based on the first image, and the mobile terminal with the word. , The word identified by the word identification step and the word identified by the emotion identification step from a candidate storage unit that stores the facial expression and a stamp which is an illustration expressing the user's feelings in association with each other. A recommended processing step of acquiring a stamp candidate based on a facial expression and displaying the image including the stamp candidate on the display unit, and the second image captured by the second imaging unit by the mobile terminal. The stamp is selected from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the image, and the selected stamp is sent to a predetermined destination via the network. This is a simple communication method including a transmission processing step of transmitting the image.

また、本発明の一態様は、利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備える簡易通信システムのコンピュータに、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップとを実行させるためのプログラムである。 Further, one aspect of the present invention is a display device that can be worn on the user's head, and when worn on the user's head, images a first image including at least the user's lips. A display device having a possible first image pickup unit, a second image pickup unit capable of capturing a second image including the user's eyes, a display unit for displaying an image, and a portable terminal connectable to a network. A computer of a simple communication system provided with the device detects the movement of the lip based on the first image captured by the first image pickup unit, and outputs a word indicated by the movement of the lip based on the detected movement of the lip. A word identification step for identifying, an emotion identification step for identifying the user's facial expression based on the first image, the word, the facial expression, and a stamp which is an illustration expressing the user's feelings. From the candidate storage unit that is stored in association with each other, the stamp candidate is acquired based on the word identified by the word identification step and the facial expression identified by the emotion identification step, and the stamp candidate is obtained. The stamp displayed on the display unit by the recommended processing step of displaying the including image on the display unit and the line of sight of the user detected based on the second image imaged by the second imaging unit. This is a program for selecting the stamp from the candidates of the above and executing a transmission processing step of transmitting the selected stamp to a predetermined destination via the network.

本発明によれば、利用者の手が使用できない状況において、適切に情報を送信することができる。 According to the present invention, information can be appropriately transmitted in a situation where the user's hand cannot be used.

第1の実施形態による簡易通信システムの一例を示すシステム構成図である。It is a system block diagram which shows an example of the simple communication system by 1st Embodiment. 第1の実施形態による簡易通信システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the simple communication system by 1st Embodiment. 第1の実施形態おけるスタンプ記憶部のデータ例を示す図である。It is a figure which shows the data example of the stamp storage part in 1st Embodiment. 第1の実施形態による簡易通信システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the simple communication system by 1st Embodiment. 第1の実施形態におけるメッセージの受信画面の一例を示す図である。It is a figure which shows an example of the message reception screen in 1st Embodiment. 第1の実施形態におけるスタンプの候補の選択画面の一例を示す図である。It is a figure which shows an example of the stamp candidate selection screen in 1st Embodiment. 第1の実施形態におけるスタンプの送信完了画面の一例を示す図である。It is a figure which shows an example of the transmission completion screen of a stamp in 1st Embodiment. 第2の実施形態による簡易通信システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the simple communication system by 2nd Embodiment. 第2の実施形態おける送信履歴記憶部のデータ例を示す図である。It is a figure which shows the data example of the transmission history storage part in 2nd Embodiment. 第2の実施形態による簡易通信システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the simple communication system by 2nd Embodiment. スタンプ記憶部の変形例を示す図である。It is a figure which shows the modification of the stamp storage part.

以下、本発明の一実施形態による簡易通信システム及び簡易通信方法について図面を参照して説明する。 Hereinafter, a simple communication system and a simple communication method according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態による簡易通信システム1の一例を示すシステム構成図である。また、図2は、第1の実施形態による簡易通信システム1の一例を示す機能ブロック図である。
[First Embodiment]
FIG. 1 is a system configuration diagram showing an example of a simple communication system 1 according to the first embodiment. Further, FIG. 2 is a functional block diagram showing an example of the simple communication system 1 according to the first embodiment.

図1及び図2に示すように、簡易通信システム1は、携帯端末10と、眼鏡型表示装置20と、サーバ装置30とを備える。
なお、本実施形態による簡易通信システム1では、利用者間でメッセージを送受信するメッセージアプリケーション(以下、メッセージアプリという)を使用する場合の一例について説明する。また、本実施形態において、メッセージアプリは、メッセージの他に、利用者の心情を表現するイラストであるスタンプを、利用者間で互いに送受信できるものとする。ここで、心情とは、例えば、心の中にある思いや感情を示す。
As shown in FIGS. 1 and 2, the simple communication system 1 includes a mobile terminal 10, a glasses-type display device 20, and a server device 30.
In the simple communication system 1 according to the present embodiment, an example of using a message application (hereinafter referred to as a message application) for transmitting and receiving messages between users will be described. Further, in the present embodiment, in addition to the message, the message application can send and receive stamps, which are illustrations expressing the feelings of the users, to and from each other. Here, the emotion indicates, for example, the thoughts and feelings in the mind.

眼鏡型表示装置20(表示装置の一例)は、図1に示すように利用者U1の頭部に装着可能なカメラ付きの眼鏡型のディスプレイであり、口唇カメラ21と、視線カメラ22と、表示部23と、NW(ネットワーク)通信部24とを備えている。眼鏡型表示装置20は、例えば、無線通信によりネットワークNW1に接続可能であり、ネットワークNW1を経由して、携帯端末10との間で通信を行う。 As shown in FIG. 1, the spectacle-type display device 20 (an example of the display device) is a spectacle-type display with a camera that can be worn on the head of the user U1, and displays the lip camera 21 and the line-of-sight camera 22. A unit 23 and a NW (network) communication unit 24 are provided. The eyeglass-type display device 20 can be connected to the network NW1 by wireless communication, for example, and communicates with the mobile terminal 10 via the network NW1.

口唇カメラ21(第1撮像部の一例)は、利用者U1の口唇の動き及び表情を検出するためのカメラであり、眼鏡型表示装置20を利用者U1の頭部に装着した際に、利用者U1の口唇の周辺(例えば、顔の下半分)の画像を撮像可能に配置されている。口唇カメラ21は、利用者U1の頭部に眼鏡型表示装置20が装着された場合に、少なくとも利用者U1の口唇を含む口唇周辺画像(第1画像)を撮像する。なお、口唇画像は、例えば、利用者U1の顔の下半分を撮像した画像である。 The lip camera 21 (an example of the first imaging unit) is a camera for detecting the movement and facial expression of the lips of the user U1 and is used when the eyeglass-type display device 20 is attached to the head of the user U1. The image around the lips of the person U1 (for example, the lower half of the face) is arranged so as to be able to be captured. When the eyeglass-type display device 20 is attached to the head of the user U1, the lip camera 21 captures at least an image around the lips (first image) including the lips of the user U1. The lip image is, for example, an image obtained by capturing the lower half of the face of the user U1.

視線カメラ22(第2撮像部の一例)は、例えば、利用者U1の視線を検出するためのアイトラッキングカメラであり、眼鏡型表示装置20を利用者U1の頭部に装着した際に、利用者U1の目の周辺(例えば、顔の上半分)の画像を撮像可能に配置されている。視線カメラ22は、利用者U1の頭部に眼鏡型表示装置20が装着された場合に、利用者U1の目を含む目周辺画像(第2画像)を撮像する。 The line-of-sight camera 22 (an example of the second image pickup unit) is, for example, an eye tracking camera for detecting the line of sight of the user U1, and is used when the eyeglass-type display device 20 is attached to the head of the user U1. The image around the eyes of the person U1 (for example, the upper half of the face) is arranged so as to be able to be captured. When the eyeglass-type display device 20 is attached to the head of the user U1, the line-of-sight camera 22 captures an image around the eyes (second image) including the eyes of the user U1.

表示部23は、例えば、透過型の液晶ディスプレイであり、各種情報を表示する。表示部23は、眼鏡型表示装置20を利用者U1の頭部に装着した際に、利用者U1が表示を視認できるように配置されている。 The display unit 23 is, for example, a transmissive liquid crystal display and displays various information. The display unit 23 is arranged so that the user U1 can visually recognize the display when the eyeglass-type display device 20 is attached to the head of the user U1.

NW通信部24は、例えば、無線LAN(Local Area Network)などの無線通信により、ネットワークNW1に接続し、ネットワークNW1を経由して各種通信を行う。NW通信部24は、例えば、口唇カメラ21及び視線カメラ22が撮像した画像(口唇周辺画像及び目周辺画像)を、携帯端末10に送信するともに、表示部23に表示する情報を携帯端末10から受信する。 The NW communication unit 24 connects to the network NW1 by wireless communication such as a wireless LAN (Local Area Network), and performs various communications via the network NW1. For example, the NW communication unit 24 transmits the images (image around the lips and the image around the eyes) captured by the lip camera 21 and the line-of-sight camera 22 to the mobile terminal 10, and also transmits the information to be displayed on the display unit 23 from the mobile terminal 10. Receive.

サーバ装置30は、例えば、メッセージアプリなどのサービスを提供するアプリケーションサーバであり、各種情報を記憶する。サーバ装置30は、例えば、ネットワークNW1を経由して、携帯端末10と接続し、携帯端末10との間で各種情報を通信する。サーバ装置30は、例えば、NW通信部31と、スタンプ記憶部32とを備えている。 The server device 30 is an application server that provides services such as a message application, and stores various information. The server device 30 connects to the mobile terminal 10 via, for example, the network NW1 and communicates various information with the mobile terminal 10. The server device 30 includes, for example, a NW communication unit 31 and a stamp storage unit 32.

NW通信部31は、ネットワークNW1に接続し、ネットワークNW1を経由して各種通信を行う。NW通信部24は、例えば、後述するスタンプ記憶部32が記憶する情報を、携帯端末10との間で送受信する。 The NW communication unit 31 connects to the network NW1 and performs various communications via the network NW1. For example, the NW communication unit 24 transmits / receives information stored in the stamp storage unit 32, which will be described later, to / from the mobile terminal 10.

スタンプ記憶部32(候補記憶部の一例)は、登録されているスタンプの情報(スタンプテーブル情報)を記憶する。スタンプ記憶部32は、例えば、単語と、表情と、スタンプとを対応付けて記憶する。ここで、図3を参照して、スタンプ記憶部32のデータ例について説明する。 The stamp storage unit 32 (an example of the candidate storage unit) stores the registered stamp information (stamp table information). The stamp storage unit 32 stores, for example, a word, a facial expression, and a stamp in association with each other. Here, a data example of the stamp storage unit 32 will be described with reference to FIG.

図3は、本実施形態おけるスタンプ記憶部32のデータ例を示す図である。
図3に示すように、スタンプ記憶部32は、「ユーザID」と、「スタンプID」と、「スタンプ情報」と、「単語」と、「表情」とを対応付けたスタンプテーブル情報を記憶する。
FIG. 3 is a diagram showing a data example of the stamp storage unit 32 in the present embodiment.
As shown in FIG. 3, the stamp storage unit 32 stores stamp table information in which "user ID", "stamp ID", "stamp information", "word", and "facial expression" are associated with each other. ..

ここで、「ユーザID」は、利用者U1を識別する利用者識別情報の一例であり、「スタンプID」は、スタンプを識別するスタンプ識別情報の一例である。また、「スタンプ情報」は、スタンプの内容であるイラスト画像情報を示している。また、「単語」は、スタンプに関連する単語を示し、「表情」は、スタンプに関連する表情を示している。 Here, the "user ID" is an example of user identification information that identifies the user U1, and the "stamp ID" is an example of stamp identification information that identifies the stamp. Further, the "stamp information" indicates the illustration image information which is the content of the stamp. Further, "word" indicates a word related to the stamp, and "facial expression" indicates a facial expression related to the stamp.

図3に示す例では、例えば、「ユーザID」が“U001”のスタンプにおいて、「スタンプID」が“AAA”で、「スタンプ情報」が“スタンプA”であるスタンプに対応する「単語」が“いいね”であり、「表情」が“喜び”であることを示している。
なお、スタンプ記憶部32は、スタンプテーブル情報を、利用者U1(「ユーザID」)ごとに記憶している。
In the example shown in FIG. 3, for example, in the stamp whose "user ID" is "U001", the "word" corresponding to the stamp whose "stamp ID" is "AAA" and whose "stamp information" is "stamp A" is It is "like" and shows that "expression" is "joy".
The stamp storage unit 32 stores stamp table information for each user U1 (“user ID”).

図1及び図2の説明に戻り、携帯端末10は、例えば、スマートフォンやタブレット端末などの端末装置であり、利用者U1が携帯可能な端末装置である。携帯端末10は、例えば、NW通信部11と、入力部12と、表示部13と、端末記憶部14と、端末制御部15とを備えている。 Returning to the description of FIGS. 1 and 2, the mobile terminal 10 is, for example, a terminal device such as a smartphone or a tablet terminal, and is a terminal device that can be carried by the user U1. The mobile terminal 10 includes, for example, a NW communication unit 11, an input unit 12, a display unit 13, a terminal storage unit 14, and a terminal control unit 15.

NW通信部11は、無線LANや4G(第4世代移動通信システム)などの無線通信により、ネットワークNW1に接続し、ネットワークNW1を経由して各種通信を行う。NW通信部11は、例えば、眼鏡型表示装置20の口唇カメラ21及び視線カメラ22が撮像した画像(口唇周辺画像及び目周辺画像)を、眼鏡型表示装置20から受信するともに、表示部23に表示する情報を眼鏡型表示装置20に送信する。 The NW communication unit 11 connects to the network NW1 by wireless communication such as a wireless LAN or 4G (4th generation mobile communication system), and performs various communications via the network NW1. For example, the NW communication unit 11 receives the images (image around the lips and the image around the eyes) captured by the lip camera 21 and the line-of-sight camera 22 of the spectacle-type display device 20 from the spectacle-type display device 20 and displays the image on the display unit 23. The information to be displayed is transmitted to the glasses-type display device 20.

また、NW通信部11は、例えば、サーバ装置30のスタンプ記憶部32が記憶するスタンプテーブル情報をサーバ装置30から受信するとともに、サーバ装置30に、スタンプ記憶部32の登録情報を送信する。 Further, the NW communication unit 11 receives, for example, the stamp table information stored in the stamp storage unit 32 of the server device 30 from the server device 30, and transmits the registration information of the stamp storage unit 32 to the server device 30.

入力部12は、例えば、タッチセンサなどの入力デバイスであり、利用者U1からの各種情報の入力を受け付ける。
表示部13は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどの表示デバイスであり、携帯端末10の各種情報を表示する。
なお、入力部12及び表示部13は、例えば、タッチスクリーンとして構成されている。
The input unit 12 is, for example, an input device such as a touch sensor, and receives input of various information from the user U1.
The display unit 13 is a display device such as a liquid crystal display or an organic EL (Electro-Luminescence) display, and displays various information of the mobile terminal 10.
The input unit 12 and the display unit 13 are configured as, for example, a touch screen.

端末記憶部14は、携帯端末10が利用する各種情報を記憶する。端末記憶部14は、例えば、メッセージアプリにより送受信したメッセージやスタンプ、各種表示情報などを記憶する。 The terminal storage unit 14 stores various information used by the mobile terminal 10. The terminal storage unit 14 stores, for example, messages and stamps sent and received by the message application, various display information, and the like.

端末制御部15は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、携帯端末10を統括的に制御する。端末制御部15は、例えば、単語識別部151と、表情識別部152と、推奨処理部153と、視線検出部154と、受信処理部155と、送信処理部156と、スタンプ登録処理部157とを備えている。 The terminal control unit 15 is, for example, a processor including a CPU (Central Processing Unit) and the like, and controls the mobile terminal 10 in an integrated manner. The terminal control unit 15 includes, for example, a word identification unit 151, a facial expression identification unit 152, a recommended processing unit 153, a line-of-sight detection unit 154, a reception processing unit 155, a transmission processing unit 156, and a stamp registration processing unit 157. It has.

単語識別部151は、口唇カメラ21が撮像した口唇画像に基づいて、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。単語識別部151は、例えば、NW通信部11を介して、眼鏡型表示装置20から口唇カメラ21が撮像した口唇画像を取得し、取得した口唇画像に基づいて、利用者U1の口唇の動きを検出する。単語識別部151は、例えば、特許文献1などの既存技術を用いて、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。ここで、利用者U1の口唇の動きは、利用者U1が音声を出した発話を伴うものでなくてよく、口をぱくぱくさせて発話せずに口を動かす口唇の動きであってもよい。 The word identification unit 151 detects the movement of the lips based on the lip image captured by the lip camera 21, and identifies the word indicated by the movement of the lips based on the detected movement of the lips. The word identification unit 151 acquires, for example, a lip image captured by the lip camera 21 from the eyeglass-type display device 20 via the NW communication unit 11, and based on the acquired lip image, the movement of the lips of the user U1 is performed. To detect. The word identification unit 151 identifies a word indicated by the movement of the lips based on the detected movement of the lips by using, for example, an existing technique such as Patent Document 1. Here, the movement of the lips of the user U1 does not have to be accompanied by the utterance that the user U1 utters, and may be the movement of the lips that moves the mouth without making the mouth crisp and uttering.

表情識別部152は、口唇カメラ21が撮像した口唇画像に基づいて、利用者U1の表情を識別する。ここで、表情とは、利用者の感情が表に現れたものであり、例えば、怒り、喜び、悲しみ、などのを示す。表情識別部152は、既存技術を用いて、取得した口唇画像に基づいて、利用者U1の表情を識別する。 The facial expression identification unit 152 identifies the facial expression of the user U1 based on the lip image captured by the lip camera 21. Here, the facial expression is a manifestation of the user's emotions, and indicates, for example, anger, joy, sadness, and the like. The facial expression identification unit 152 identifies the facial expression of the user U1 based on the acquired lip image using the existing technology.

推奨処理部153は、単語識別部151が識別した単語と、表情識別部152が識別した表情とに基づいて、上述したスタンプ記憶部32から、スタンプの候補を取得し、スタンプの候補を含む画像を表示部23に表示させる。 The recommended processing unit 153 acquires stamp candidates from the stamp storage unit 32 described above based on the word identified by the word identification unit 151 and the facial expression identified by the facial expression identification unit 152, and an image including the stamp candidate. Is displayed on the display unit 23.

推奨処理部153は、例えば、サーバ装置30のスタンプ記憶部32を参照し、単語識別部151及び表情識別部152が識別した単語及び表情と一致するスタンプを、スタンプの候補として抽出し、抽出した当該スタンプID及びスタンプ情報を、スタンプ記憶部32から取得する。推奨処理部153は、取得したスタンプ情報を含む表示画像データを生成して、当該表示画像データを、NW通信部11を介して、眼鏡型表示装置20に送信して、表示部23に表示させる。推奨処理部163は、例えば、後述する受信処理部155がメッセージを受信した場合に、受信したメッセージに対するスタンプの候補を含む画像を表示部23に表示させる。 The recommended processing unit 153 refers to, for example, the stamp storage unit 32 of the server device 30, and extracts and extracts stamps matching the words and facial expressions identified by the word identification unit 151 and the facial expression identification unit 152 as stamp candidates. The stamp ID and stamp information are acquired from the stamp storage unit 32. The recommended processing unit 153 generates display image data including the acquired stamp information, transmits the display image data to the eyeglass-type display device 20 via the NW communication unit 11, and causes the display unit 23 to display the display image data. .. For example, when the reception processing unit 155, which will be described later, receives a message, the recommended processing unit 163 causes the display unit 23 to display an image including stamp candidates for the received message.

視線検出部154は、視線カメラ22が撮像した目周辺画像に基づいて利用者U1の視線を検出する。視線検出部154は、例えば、NW通信部11を介して、眼鏡型表示装置20から視線カメラ22が撮像した目周辺画像を取得し、取得した目周辺画像に含まれる瞳(眼球)の動きなどから、既存技術を用いて、利用者U1の視線を検出する。 The line-of-sight detection unit 154 detects the line of sight of the user U1 based on the image around the eyes captured by the line-of-sight camera 22. The line-of-sight detection unit 154 acquires, for example, an image around the eyes captured by the line-of-sight camera 22 from the eyeglass-type display device 20 via the NW communication unit 11, and moves the pupil (eyeball) included in the acquired image around the eyes. Therefore, the line of sight of the user U1 is detected by using the existing technology.

受信処理部155は、ネットワークNW1を経由して受信したメッセージを、表示部23に表示させる。受信処理部155は、例えば、メッセージアプリにより、NW通信部11を介して、メッセージを受信した場合に、受信したメッセージを、NW通信部11を介して、眼鏡型表示装置20に送信して、表示部23に表示させる。 The reception processing unit 155 causes the display unit 23 to display the message received via the network NW1. When the reception processing unit 155 receives a message via the NW communication unit 11, for example, the message application transmits the received message to the glasses-type display device 20 via the NW communication unit 11. It is displayed on the display unit 23.

送信処理部156は、視線カメラ22が撮像した第2画像に基づいて検出された利用者U1の視線により、表示部23に表示されているスタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先にネットワークNW1を経由して送信する。送信処理部156は、例えば、視線検出部154が検出した視線により、表示部23に表示されている画像の視線の先に対応する位置に、例えば、十字マークなどのマークを表示させる。 The transmission processing unit 156 selects a stamp from the stamp candidates displayed on the display unit 23 based on the line of sight of the user U1 detected based on the second image captured by the line-of-sight camera 22, and the selected stamp. Is transmitted to a predetermined destination via the network NW1. The transmission processing unit 156 causes, for example, a mark such as a cross mark to be displayed at a position corresponding to the tip of the line of sight of the image displayed on the display unit 23 by the line of sight detected by the line of sight detection unit 154.

送信処理部156は、表示部23に表示されているスタンプの候補のうちから、選択したいスタンプを所定の期間(例えば、3秒間)、注視することで、スタンプを選択する。送信処理部156は、選択したスタンプを、所定の送信先(例えば、受信したメッセージの送信元、あるいは、送信元を含む所定のグループなど)に、NW通信部11を介して送信する。 The transmission processing unit 156 selects a stamp by gazing at the stamp to be selected from the stamp candidates displayed on the display unit 23 for a predetermined period (for example, 3 seconds). The transmission processing unit 156 transmits the selected stamp to a predetermined destination (for example, a source of the received message or a predetermined group including the source) via the NW communication unit 11.

スタンプ登録処理部157(登録処理部の一例)は、スタンプ記憶部32に、利用者U1のスタンプテーブル情報を記憶させて登録する。なお、スタンプ記憶部32は、上述した図3に示すように、単語と、表情と、スタンプとを対応付けたスタンプテーブル情報を、利用者U1ごと(例えば、ユーザIDごと)に記憶している。スタンプ登録処理部157は、利用者U1ごとに独自のスタンプを登録する際に、例えば、入力部12の操作に応じて、指定されたスタンプのスタンプテーブル情報を、NW通信部11を介して、サーバ装置30に送信し、スタンプ記憶部32に、送信したスタンプテーブル情報を追加して記憶させる。 The stamp registration processing unit 157 (an example of the registration processing unit) stores and registers the stamp table information of the user U1 in the stamp storage unit 32. As shown in FIG. 3 described above, the stamp storage unit 32 stores stamp table information in which words, facial expressions, and stamps are associated with each user U1 (for example, for each user ID). .. When registering a unique stamp for each user U1, the stamp registration processing unit 157 transfers the stamp table information of the designated stamp to the stamp table information of the designated stamp via the NW communication unit 11, for example, in response to the operation of the input unit 12. It is transmitted to the server device 30, and the transmitted stamp table information is added and stored in the stamp storage unit 32.

次に、図面を参照して、本実施形態による簡易通信システム1の動作について説明する。
図4は、本実施形態による簡易通信システム1の動作の一例を示すフローチャートである。
Next, the operation of the simplified communication system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 4 is a flowchart showing an example of the operation of the simple communication system 1 according to the present embodiment.

図4に示すように、簡易通信システム1の携帯端末10は、メッセージアプリによるメッセージの通知を受けると、メッセージの受信処理を実行する(ステップS101)。携帯端末10の受信処理部155は、NW通信部11を介して、例えば、サーバ装置30からメッセージを受信する。 As shown in FIG. 4, when the mobile terminal 10 of the simple communication system 1 receives the notification of the message by the message application, the mobile terminal 10 executes the message reception process (step S101). The reception processing unit 155 of the mobile terminal 10 receives a message from, for example, the server device 30 via the NW communication unit 11.

次に、受信処理部155は、受信したメッセージを眼鏡型表示装置20の表示部23に表示させる(ステップS102)。受信処理部155は、受信したメッセージを、NW通信部11を介して、眼鏡型表示装置20に送信し、例えば、図5に示すように、メッセージを表示部23に表示させる。 Next, the reception processing unit 155 displays the received message on the display unit 23 of the eyeglass-type display device 20 (step S102). The reception processing unit 155 transmits the received message to the eyeglass-type display device 20 via the NW communication unit 11, and causes the display unit 23 to display the message, for example, as shown in FIG.

図5は、本実施形態におけるメッセージの受信画面の一例を示す図である。
図5に示す表示画面G1は、眼鏡型表示装置20の表示部23が表示する画面である。表示部23は、携帯端末10がメッセージアプリにより受信したメッセージを、表示画面G1のように表示する。
FIG. 5 is a diagram showing an example of a message reception screen in the present embodiment.
The display screen G1 shown in FIG. 5 is a screen displayed by the display unit 23 of the eyeglass-type display device 20. The display unit 23 displays the message received by the mobile terminal 10 by the message application like the display screen G1.

次に、携帯端末10は、口唇カメラ21の画像を取得する(ステップS103)。携帯端末10の単語識別部151(又は、表情識別部152)は、口唇カメラ21が撮像した口唇画像を、NW通信部11を介して、眼鏡型表示装置20から取得する。 Next, the mobile terminal 10 acquires an image of the lip camera 21 (step S103). The word identification unit 151 (or facial expression identification unit 152) of the mobile terminal 10 acquires the lip image captured by the lip camera 21 from the glasses-type display device 20 via the NW communication unit 11.

次に、単語識別部151は、画像から口唇の動きが示す単語を識別する(ステップS104)。単語識別部151は、眼鏡型表示装置20から取得した口唇画像から、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。 Next, the word identification unit 151 identifies the word indicated by the movement of the lips from the image (step S104). The word identification unit 151 detects the movement of the lips from the lip image acquired from the eyeglass-type display device 20, and identifies the word indicated by the movement of the lips based on the detected movement of the lips.

次に、携帯端末10の表情識別部152は、画像から利用者U1の表情を識別する(ステップS105)。表情識別部152は、眼鏡型表示装置20から取得した口唇画像から、例えば、怒り、喜び、悲しみ、など感情を示す利用者U1の表情を、既存技術を用いて識別する。 Next, the facial expression identification unit 152 of the mobile terminal 10 identifies the facial expression of the user U1 from the image (step S105). The facial expression identification unit 152 identifies the facial expression of the user U1 who shows emotions such as anger, joy, and sadness from the lip image acquired from the eyeglass-type display device 20 by using the existing technology.

次に、携帯端末10の推奨処理部153は、単語及び表情に基づいて、スタンプ記憶部32からスタンプの候補を取得する(ステップS106)。推奨処理部153は、例えば、サーバ装置30のスタンプ記憶部32を参照し、単語識別部151及び表情識別部152が識別した単語及び表情と一致するスタンプを、スタンプの候補として抽出し、抽出した当該スタンプID及びスタンプ情報を、スタンプ記憶部32から取得する。 Next, the recommended processing unit 153 of the mobile terminal 10 acquires stamp candidates from the stamp storage unit 32 based on the words and facial expressions (step S106). The recommended processing unit 153 refers to, for example, the stamp storage unit 32 of the server device 30, and extracts and extracts stamps matching the words and facial expressions identified by the word identification unit 151 and the facial expression identification unit 152 as stamp candidates. The stamp ID and stamp information are acquired from the stamp storage unit 32.

次に、推奨処理部153は、スタンプの候補を眼鏡型表示装置20の表示部23に表示させる(ステップS107)。推奨処理部153は、取得したスタンプ情報を含む表示画像データを生成して、当該表示画像データを、NW通信部11を介して、眼鏡型表示装置20に送信して、表示部23に表示させる。眼鏡型表示装置20の表示部23は、例えば、図6に示すように、スタンプの候補を表示する。 Next, the recommended processing unit 153 causes the display unit 23 of the eyeglass-type display device 20 to display the stamp candidates (step S107). The recommended processing unit 153 generates display image data including the acquired stamp information, transmits the display image data to the eyeglass-type display device 20 via the NW communication unit 11, and causes the display unit 23 to display the display image data. .. The display unit 23 of the eyeglass-type display device 20 displays stamp candidates, for example, as shown in FIG.

図6は、本実施形態におけるスタンプの候補の選択画面の一例を示す図である。
図6に示す表示画面G2は、眼鏡型表示装置20の表示部23が表示する画面である。表示部23は、携帯端末10から受信した複数のスタンプの候補(例えば、スタンプSTP1、スタンプSTP2、スタンプSTP3、・・・など)を、表示画面G2のように表示する。
FIG. 6 is a diagram showing an example of a stamp candidate selection screen in the present embodiment.
The display screen G2 shown in FIG. 6 is a screen displayed by the display unit 23 of the eyeglass-type display device 20. The display unit 23 displays a plurality of stamp candidates (for example, stamp STP1, stamp STP2, stamp STP3, ...) Received from the mobile terminal 10 like the display screen G2.

次に、携帯端末10の視線検出部154は、視線カメラ22の画像を取得し、利用者U1の視線を検出する(ステップS108)。視線検出部154は、視線カメラ22が撮像した目周辺画像を、NW通信部11を介して、眼鏡型表示装置20から取得する。視線検出部154は、取得した目周辺画像に含まれる瞳(眼球)の動きなどから、既存技術を用いて、利用者U1の視線を検出する。 Next, the line-of-sight detection unit 154 of the mobile terminal 10 acquires the image of the line-of-sight camera 22 and detects the line of sight of the user U1 (step S108). The line-of-sight detection unit 154 acquires an image around the eyes captured by the line-of-sight camera 22 from the eyeglass-type display device 20 via the NW communication unit 11. The line-of-sight detection unit 154 detects the line of sight of the user U1 by using the existing technology from the movement of the pupil (eyeball) included in the acquired image around the eyes.

次に、携帯端末10の送信処理部156は、利用者U1の視線の先の画像に、視線マークを表示させる(ステップS109)。送信処理部156は、例えば、図6に示すように、視線マークとして、十字マークMK1を、利用者U1の視線の先の表示部23の表示画面G2に表示させる。 Next, the transmission processing unit 156 of the mobile terminal 10 displays the line-of-sight mark on the image ahead of the line of sight of the user U1 (step S109). For example, as shown in FIG. 6, the transmission processing unit 156 displays the cross mark MK1 as a line-of-sight mark on the display screen G2 of the display unit 23 ahead of the line of sight of the user U1.

次に、送信処理部156は、スタンプの決定操作か否かを判定する(ステップS110)。送信処理部156は、視線検出部154による視線の検出により、例えば、3秒間、スタンプの候補が注視されたか否かによって、スタンプの決定操作か否かを判定する。送信処理部156は、例えば、3秒間、スタンプの候補が注視された場合(ステップS110:YES)に、処理をステップS111に進める。また、送信処理部156は、例えば、3秒間、スタンプの候補が注視されていない場合(ステップS110:NO)に、処理をステップS108に戻す。 Next, the transmission processing unit 156 determines whether or not the stamp determination operation is performed (step S110). The transmission processing unit 156 determines whether or not the stamp determination operation is performed by detecting the line of sight by the line-of-sight detection unit 154, for example, depending on whether or not the stamp candidate has been watched for 3 seconds. The transmission processing unit 156 advances the processing to step S111, for example, when the stamp candidate is watched for 3 seconds (step S110: YES). Further, the transmission processing unit 156 returns the processing to step S108, for example, when the stamp candidate is not watched for 3 seconds (step S110: NO).

ステップS111において、送信処理部156は、選択したスタンプをメッセージの送信元を含む送信先(所定の送信先)に送信する。推奨処理部153は、選択したスタンプを、NW通信部11を介して、メッセージの送信元を含む送信先(所定の送信先)に返信する。ステップS111の処理後に、送信処理部156は、当該処理を終了する。 In step S111, the transmission processing unit 156 transmits the selected stamp to a destination (predetermined destination) including the source of the message. The recommended processing unit 153 returns the selected stamp to a destination (predetermined destination) including the source of the message via the NW communication unit 11. After the processing of step S111, the transmission processing unit 156 ends the processing.

なお、図7は、本実施形態におけるスタンプの送信完了画面の一例を示す図である。
図7に示す表示画面G3は、眼鏡型表示装置20の表示部23が表示する画面であり、表示部23は、携帯端末10が送信したスタンプSTP4を、表示画面G2のように表示する。
Note that FIG. 7 is a diagram showing an example of a stamp transmission completion screen in the present embodiment.
The display screen G3 shown in FIG. 7 is a screen displayed by the display unit 23 of the eyeglass-type display device 20, and the display unit 23 displays the stamp STP4 transmitted by the mobile terminal 10 like the display screen G2.

以上説明したように、本実施形態による簡易通信システム1は、ネットワークNW1に接続可能な携帯端末10と、利用者U1の頭部に装着可能な眼鏡型表示装置20(表示装置)とを備える。眼鏡型表示装置20は、利用者U1の頭部に装着された場合に、少なくとも利用者U1の口唇を含む第1画像を撮像可能な口唇カメラ21(第1撮像部)と、利用者U1の目を含む第2画像を撮像可能な視線カメラ22(第2撮像部)と、画像を表示する表示部23とを有する。携帯端末10は、単語識別部151と、表情識別部152と、推奨処理部153と、送信処理部156とを備える。単語識別部151は、口唇カメラ21が撮像した第1画像に基づいて、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。表情識別部152は、第1画像に基づいて、利用者U1の表情を識別する。推奨処理部153は、スタンプ記憶部32(候補記憶部)から、単語識別部151が識別した単語と、表情識別部152が識別した表情とに基づいて、スタンプの候補を取得し、スタンプの候補を含む画像を表示部23に表示させる。ここで、スタンプ記憶部32は、単語と、表情と、利用者U1の心情を表現するイラストであるスタンプとを対応付けて記憶する。送信処理部156は、視線カメラ22が撮像した第2画像に基づいて検出された利用者U1の視線により、表示部23に表示されているスタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先(例えば、受信したメッセージの送信元)にネットワークNW1を経由して送信する。 As described above, the simple communication system 1 according to the present embodiment includes a mobile terminal 10 that can be connected to the network NW1 and a glasses-type display device 20 (display device) that can be worn on the head of the user U1. The eyeglass-type display device 20 includes a lip camera 21 (first imaging unit) capable of capturing at least a first image including the lips of the user U1 when worn on the head of the user U1 and the user U1. It has a line-of-sight camera 22 (second imaging unit) capable of capturing a second image including eyes, and a display unit 23 for displaying an image. The mobile terminal 10 includes a word identification unit 151, a facial expression identification unit 152, a recommended processing unit 153, and a transmission processing unit 156. The word identification unit 151 detects the movement of the lips based on the first image captured by the lip camera 21, and identifies the word indicated by the movement of the lips based on the detected movement of the lips. The facial expression identification unit 152 identifies the facial expression of the user U1 based on the first image. The recommended processing unit 153 acquires stamp candidates from the stamp storage unit 32 (candidate storage unit) based on the word identified by the word identification unit 151 and the facial expression identified by the facial expression identification unit 152, and obtains stamp candidates. The image including the above is displayed on the display unit 23. Here, the stamp storage unit 32 stores words, facial expressions, and stamps, which are illustrations expressing the emotions of the user U1, in association with each other. The transmission processing unit 156 selects a stamp from the stamp candidates displayed on the display unit 23 based on the line of sight of the user U1 detected based on the second image captured by the line-of-sight camera 22, and the selected stamp. Is transmitted to a predetermined destination (for example, the source of the received message) via the network NW1.

これにより、本実施形態による簡易通信システム1は、例えば、満員電車の中など利用者U1の手が使用できない状況において、利用者U1の口唇の動きから、利用者U1の意図する単語を識別するとともに、口唇周辺の画像から表情を識別し、単語及び表情に基づいて、スタンプの候補を表示部23に表示させる。そして、本実施形態による簡易通信システム1は、視線の検出により、スタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先に送信するため、適切なスタンプを送信することができる。よって、本実施形態による簡易通信システム1は、利用者U1の手が使用できない状況において、適切に情報(例えば、スタンプ)を送信することができる。 As a result, the simple communication system 1 according to the present embodiment identifies the word intended by the user U1 from the movement of the lips of the user U1 in a situation where the hand of the user U1 cannot be used, for example, in a crowded train. At the same time, the facial expression is identified from the image around the lips, and stamp candidates are displayed on the display unit 23 based on the word and the facial expression. Then, the simple communication system 1 according to the present embodiment selects a stamp from the stamp candidates by detecting the line of sight, and transmits the selected stamp to a predetermined destination, so that an appropriate stamp can be transmitted. can. Therefore, the simple communication system 1 according to the present embodiment can appropriately transmit information (for example, a stamp) in a situation where the hand of the user U1 cannot be used.

また、本実施形態では、スタンプ記憶部32は、単語と、表情と、スタンプとを対応付けたスタンプテーブル情報を、利用者U1ごとに記憶する。簡易通信システム1(携帯端末10)は、スタンプ記憶部32に、利用者U1のスタンプテーブル情報を記憶させて登録するスタンプ登録処理部157(登録処理部)を備える。 Further, in the present embodiment, the stamp storage unit 32 stores stamp table information in which words, facial expressions, and stamps are associated with each user U1. The simple communication system 1 (mobile terminal 10) includes a stamp registration processing unit 157 (registration processing unit) in which the stamp storage unit 32 stores and registers the stamp table information of the user U1.

これにより、本実施形態による簡易通信システム1は、利用者U1ごとに、独自のスタンプを登録することが可能であり、例えば、利用者U1の手が使用できない状況において、利用者U1の独自のスタンプを送信することができる。よって、本実施形態による簡易通信システム1は、スタンプの選択の自由度を高めることができるとともに、利便性を向上させることができる。 As a result, the simple communication system 1 according to the present embodiment can register a unique stamp for each user U1. For example, in a situation where the user U1's hand cannot be used, the user U1's own unique stamp can be registered. You can send a stamp. Therefore, the simple communication system 1 according to the present embodiment can increase the degree of freedom in selecting stamps and can improve convenience.

また、本実施形態による簡易通信システム1は、ネットワークNW1を経由して受信したメッセージを、表示部23に表示させる受信処理部155を備える。推奨処理部163は、受信したメッセージに対するスタンプの候補を含む画像を表示部23に表示させる。送信処理部156は、選択したスタンプを、受信したメッセージの送信元を含む所定の送信先に送信する。 Further, the simple communication system 1 according to the present embodiment includes a reception processing unit 155 that displays a message received via the network NW1 on the display unit 23. The recommended processing unit 163 causes the display unit 23 to display an image including stamp candidates for the received message. The transmission processing unit 156 transmits the selected stamp to a predetermined destination including the source of the received message.

これにより、本実施形態による簡易通信システム1は、例えば、利用者U1の手が使用できない状況において、受信したメッセージに対して、適切にスタンプを返信することができる。 As a result, the simple communication system 1 according to the present embodiment can appropriately return a stamp to the received message in a situation where the hand of the user U1 cannot be used, for example.

また、本実施形態による簡易通信方法は、上述した携帯端末10と、眼鏡型表示装置20とを備える簡易通信システム1の簡易通信方法であって、単語識別ステップと、感情識別ステップと、推奨処理ステップと、送信処理ステップとを含む。単語識別ステップにおいて、携帯端末10が、口唇カメラ21が撮像した第1画像に基づいて、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。感情識別ステップにおいて、携帯端末10が、第1画像に基づいて、利用者U1の表情を識別する。推奨処理ステップにおいて、携帯端末10が、スタンプ記憶部32から、単語識別ステップによって識別された単語と、感情識別ステップによって識別された表情とに基づいて、スタンプの候補を取得し、スタンプの候補を含む画像を表示部23に表示させる。送信処理ステップにおいて、携帯端末10が、視線カメラ22が撮像した第2画像に基づいて検出された利用者U1の視線により、表示部23に表示されているスタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先にネットワークNW1を経由して送信する。 Further, the simple communication method according to the present embodiment is a simple communication method of the simple communication system 1 including the above-mentioned mobile terminal 10 and the glasses-type display device 20, and is a word identification step, an emotion identification step, and a recommended process. Includes a step and a transmission processing step. In the word identification step, the mobile terminal 10 detects the movement of the lips based on the first image captured by the lip camera 21, and identifies the word indicated by the movement of the lips based on the detected movement of the lips. In the emotion identification step, the mobile terminal 10 identifies the facial expression of the user U1 based on the first image. In the recommended processing step, the mobile terminal 10 acquires stamp candidates from the stamp storage unit 32 based on the words identified by the word identification step and the facial expressions identified by the emotion identification step, and obtains stamp candidates. The including image is displayed on the display unit 23. In the transmission processing step, the mobile terminal 10 selects a stamp from the stamp candidates displayed on the display unit 23 based on the line of sight of the user U1 detected based on the second image captured by the line-of-sight camera 22. , The selected stamp is transmitted to a predetermined destination via the network NW1.

これにより、本実施形態による簡易通信方法は、上述した簡易通信システム1と同様の効果を奏し、利用者U1の手が使用できない状況において、適切に情報(例えば、スタンプ)を送信することができる。 As a result, the simple communication method according to the present embodiment has the same effect as the simple communication system 1 described above, and can appropriately transmit information (for example, a stamp) in a situation where the hand of the user U1 cannot be used. ..

[第2の実施形態]
次に、図面を参照して、第2の実施形態のよる簡易通信システム1aについて説明する。本実施形態では、過去のスタンプの送信履歴を利用して、スタンプの候補に、優先順位を付ける変形例について説明する。
[Second Embodiment]
Next, the simple communication system 1a according to the second embodiment will be described with reference to the drawings. In the present embodiment, a modified example of prioritizing stamp candidates by using the past stamp transmission history will be described.

図8は、第2の実施形態による簡易通信システム1aの一例を示す機能ブロック図である。
図8に示すように、簡易通信システム1aは、携帯端末10aと、眼鏡型表示装置20と、サーバ装置30aとを備える。
なお、この図において、図1及び図2と同一の構成には、同一の符号を付与して、ここではその説明を省略する。
FIG. 8 is a functional block diagram showing an example of the simple communication system 1a according to the second embodiment.
As shown in FIG. 8, the simple communication system 1a includes a mobile terminal 10a, a glasses-type display device 20, and a server device 30a.
In this figure, the same reference numerals are given to the same configurations as those in FIGS. 1 and 2, and the description thereof will be omitted here.

サーバ装置30aは、例えば、メッセージアプリなどのサービスを提供するアプリケーションサーバであり、各種情報を記憶する。サーバ装置30aは、例えば、ネットワークNW1を経由して、携帯端末10aと接続し、携帯端末10aとの間で各種情報を通信する。サーバ装置30aは、例えば、NW通信部31と、スタンプ記憶部32と、送信履歴記憶部33とを備えている。 The server device 30a is an application server that provides services such as a message application, and stores various information. The server device 30a connects to the mobile terminal 10a via, for example, the network NW1 and communicates various information with the mobile terminal 10a. The server device 30a includes, for example, a NW communication unit 31, a stamp storage unit 32, and a transmission history storage unit 33.

送信履歴記憶部33は、携帯端末10aによるスタンプの送信履歴情報を記憶する。送信履歴記憶部33は、例えば、送信日時と、送信したスタンプと、送信先と、単語と、表情とを対応付けた過去の送信履歴情報を記憶する。ここで、図9を参照して、送信履歴記憶部33のデータ例について説明する。 The transmission history storage unit 33 stores the transmission history information of the stamp by the mobile terminal 10a. The transmission history storage unit 33 stores, for example, past transmission history information in which a transmission date and time, a transmission stamp, a transmission destination, a word, and a facial expression are associated with each other. Here, a data example of the transmission history storage unit 33 will be described with reference to FIG.

図9は、本実施形態おける送信履歴記憶部33のデータ例を示す図である。
図9に示すように、送信履歴記憶部33は、「ユーザID」と、「日時」と、「スタンプID」と、「送信先」と、「単語」と、「表情」と、「場所」と、「スケジュール」とを対応付けた履歴情報を記憶する。
FIG. 9 is a diagram showing a data example of the transmission history storage unit 33 in the present embodiment.
As shown in FIG. 9, the transmission history storage unit 33 has a "user ID", a "date and time", a "stamp ID", a "destination", a "word", a "facial expression", and a "location". And the history information associated with the "schedule" is stored.

ここで、「日時」は、スタンプを送信した日時を示し、「スタンプID」は、スタンプを識別するスタンプ識別情報の一例である。また、「単語」及び「表情」は、スタンプを送信した際の携帯端末10aによる単語及び表情の認識結果を示し、「場所」は、スタンプを送信した際の利用者U1が居た場所に関する位置情報を示している。また、「スケジュール」は、スタンプを送信した際の利用者U1のスケジュールに基づく利用者U1の状況を示すスケジュール情報である。「スケジュール」の情報は、後述する携帯端末10aのスケジュール記憶部141に登録されている情報に基づいて設定される。なお、「スケジュール」の情報は、登録されている情報そのままであってもよい。 Here, the "date and time" indicates the date and time when the stamp was transmitted, and the "stamp ID" is an example of stamp identification information for identifying the stamp. Further, "word" and "facial expression" indicate the recognition result of the word and facial expression by the mobile terminal 10a when the stamp is transmitted, and "place" is the position related to the place where the user U1 was when the stamp was transmitted. Shows information. Further, the "schedule" is schedule information indicating the status of the user U1 based on the schedule of the user U1 when the stamp is transmitted. The "schedule" information is set based on the information registered in the schedule storage unit 141 of the mobile terminal 10a, which will be described later. The "schedule" information may be the registered information as it is.

図9に示す例では、例えば、「日時」が“2020/01/20 10:00”(2020年1月20日10時0分)に、「スタンプID」が“AAA”のスタンプを、「送信先」の“○○”に送信していることを示している。また、このスタンプを送信した際の「単語」が“いいね”、「表情」が“退屈”、「場所」が“XXX市”、及び「スケジュール」が“仕事”であることを示している。すなわち、このスタンプが、利用者U1が“XXX市”にいるときに、仕事中に送信されたことを示している。 In the example shown in FIG. 9, for example, the "date and time" is "2020/01/20 10:00" (January 20, 2020 10:00), the "stamp ID" is "AAA", and the stamp is ". Indicates that the message is being sent to "○○" in "Destination". Also, when this stamp is sent, the "word" is "like", the "expression" is "boring", the "location" is "XXX city", and the "schedule" is "work". .. That is, this stamp indicates that the user U1 was transmitted during work when he was in the "XXX city".

図8の説明に戻り、携帯端末10aは、例えば、スマートフォンやタブレット端末などの端末装置であり、利用者U1が携帯可能な端末装置である。携帯端末10aは、例えば、NW通信部11と、入力部12と、表示部13と、端末記憶部14aと、端末制御部15aと、位置情報検出部16とを備えている。 Returning to the description of FIG. 8, the mobile terminal 10a is, for example, a terminal device such as a smartphone or a tablet terminal, and is a terminal device that can be carried by the user U1. The mobile terminal 10a includes, for example, a NW communication unit 11, an input unit 12, a display unit 13, a terminal storage unit 14a, a terminal control unit 15a, and a position information detection unit 16.

端末記憶部14aは、携帯端末10aが利用する各種情報を記憶する。端末記憶部14aは、スケジュール記憶部141を備えている。
スケジュール記憶部141は、予め登録されている利用者U1のスケジュールを記憶する。スケジュール記憶部141は、例えば、日時情報と、スケジュール内容(“仕事”、“趣味活動”など利用者U1の状況を示す情報)とを対応付けて記憶する。スケジュール記憶部141が記憶するスケジュールは、上述した送信履歴情報や、スタンプの候補の優先順位付け行う際に利用される。
The terminal storage unit 14a stores various information used by the mobile terminal 10a. The terminal storage unit 14a includes a schedule storage unit 141.
The schedule storage unit 141 stores the schedule of the user U1 registered in advance. The schedule storage unit 141 stores, for example, the date and time information and the schedule contents (information indicating the status of the user U1 such as "work" and "hobby activity") in association with each other. The schedule stored in the schedule storage unit 141 is used when prioritizing the above-mentioned transmission history information and stamp candidates.

位置情報検出部16は、例えば、GPS(Global Positioning System)により、携帯端末10a(利用者U1)の位置情報を検出する。位置情報検出部16が検出した位置情報は、上述した送信履歴情報や、スタンプの候補の優先順位付け行う際に利用される。 The position information detection unit 16 detects the position information of the mobile terminal 10a (user U1) by, for example, GPS (Global Positioning System). The position information detected by the position information detection unit 16 is used when prioritizing the above-mentioned transmission history information and stamp candidates.

端末制御部15aは、例えば、CPUなどを含むプロセッサであり、携帯端末10aを統括的に制御する。端末制御部15aは、例えば、単語識別部151と、表情識別部152と、推奨処理部153aと、視線検出部154と、受信処理部155と、送信処理部156aと、スタンプ登録処理部157とを備えている。端末制御部15aの機能は、基本的に、上述した第1の実施形態の端末制御部15と同様であるが、本実施形態では、推奨処理部153a及び送信処理部156aの処理の一部が異なる。 The terminal control unit 15a is, for example, a processor including a CPU and the like, and controls the mobile terminal 10a in an integrated manner. The terminal control unit 15a includes, for example, a word identification unit 151, a facial expression identification unit 152, a recommended processing unit 153a, a line-of-sight detection unit 154, a reception processing unit 155, a transmission processing unit 156a, and a stamp registration processing unit 157. It has. The function of the terminal control unit 15a is basically the same as that of the terminal control unit 15 of the first embodiment described above, but in the present embodiment, a part of the processing of the recommended processing unit 153a and the transmission processing unit 156a is performed. different.

推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、スタンプの候補を表示部23に表示させる。推奨処理部153aは、例えば、表示の左上を最優先順位として、表示の左から右に進む程、優先順位が低く、表示の上から下に進む程、優先順位が低くなるように、スタンプの候補を表示部23に表示させる。 The recommended processing unit 153a determines the priority of stamp candidates based on the transmission history information stored in the transmission history storage unit 33, arranges the stamp candidates according to the priority, and displays the stamp candidates on the display unit 23. Let me. For example, the recommended processing unit 153a sets the upper left of the display as the highest priority, and the stamp has a lower priority from the left to the right of the display and a lower priority from the top to the bottom of the display. The candidate is displayed on the display unit 23.

ここで、優先順位とは、1番目が最も優先順位が高く、順位の数字が大きくなる程、優先順位が低くなるものとする。すなわち、優先順位の上位の方が、下位よりも順位の数字が小さく、優先順位の下位の方が、上位よりも順位の数字が大きいものとする。
また、本実施形態において、「優先順位を上げる」とは、優先順位を高めることであり、「優先順位を下げる」とは、優先順位を低めることである。
Here, as for the priority, the first is the highest priority, and the larger the number of the rank, the lower the priority. That is, it is assumed that the higher priority has a smaller rank number than the lower priority, and the lower priority has a higher rank number than the higher priority.
Further, in the present embodiment, "raising the priority" means raising the priority, and "lowering the priority" means lowering the priority.

推奨処理部153aは、例えば、識別した「単語」と「表情」との両方が一致するスタンプの候補の優先順位を最上位にし、「単語」と「表情」とのいずれか一方のみが一致するスタンプの候補の優先順位を下げる(低くする)ようにしてもよい。また、「単語」と「表情」とのいずれを優先するのか予め決めておいてもよい。 For example, the recommended processing unit 153a places the highest priority on the stamp candidates in which both the identified "word" and "facial expression" match, and only one of the "word" and "facial expression" matches. The priority of stamp candidates may be lowered (lowered). In addition, it may be decided in advance which of "word" and "facial expression" is prioritized.

また、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した場所情報が含まれ、推奨処理部153aは、送信履歴情報に基づいて、現在の携帯端末10aの場所に対応したスタンプの候補の優先順位を上げる(高くする)処理を実行する。推奨処理部153aは、例えば、位置情報検出部16が検出した位置情報に基づいて、現在の携帯端末10aの場所を決定し、決定した場所と送信履歴情報に含まれる「場所」とが一致する又は近いものを優先順位を上げる(高くする)ようにする。 Further, the transmission history information of the transmission history storage unit 33 described above includes the location information at which the stamp was transmitted, and the recommended processing unit 153a has the stamp corresponding to the current location of the mobile terminal 10a based on the transmission history information. Executes the process of raising (raising) the priority of the candidates. The recommended processing unit 153a determines, for example, the current location of the mobile terminal 10a based on the location information detected by the location information detection unit 16, and the determined location matches the "location" included in the transmission history information. Or try to raise (higher) the priority of those that are close.

また、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した際の状況を示すスケジュール情報が含まれ、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、現在のスケジュールに基づく利用者U1の状況に対応したスタンプの候補の優先順位を上げる(高くする)処理を実行する。推奨処理部153aは、例えば、スケジュール記憶部141に登録されている現在の利用者U1のスケジュールに基づいて、現在のスケジュール情報を決定し、決定したスケジュール情報と送信履歴情報に含まれる「スケジュール」とが一致する又は近いものを優先順位を上げる(高くする)ようにする。 Further, the transmission history information of the transmission history storage unit 33 described above includes schedule information indicating the status when the stamp is transmitted, and the recommended processing unit 153a is based on the transmission history information of the user U1 at present. A process of raising (higher) the priority of stamp candidates corresponding to the situation of the user U1 based on the schedule is executed. The recommended processing unit 153a determines the current schedule information based on the schedule of the current user U1 registered in the schedule storage unit 141, for example, and the "schedule" included in the determined schedule information and the transmission history information. Priority is given (higher) to those that match or are close to.

また、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、スタンプの使用頻度が高い程、スタンプの候補の優先順位を上げる(高くする)ようにしてもよいし、連続して同じスタンプを送信しないようにするために、直近に送信されたスタンプに対するスタンプの候補の優先順位を下げる(低くする)ようにしてもよい。 Further, the recommended processing unit 153a may raise (higher) the priority of stamp candidates as the stamp usage frequency increases, based on the transmission history information of the user U1, or the same continuously. In order not to send stamps, the priority of stamp candidates for the most recently sent stamp may be lowered (lowered).

例えば、スタンプを送信しようとしている送信先が“××”であり、単語が“いいね”であり、表情が“退屈”であった場合に、推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、次のように優先順位を決定し、スタンプの候補を表示部23に表示させる。推奨処理部153aは、例えば、送信先が“××”である場合の使用頻度が高いスタンプの候補の上位○○個(例えば、5個)と、単語が“いいね”である場合の使用頻度が高いスタンプの候補の上位○○個(例えば、5個)と、表情が“退屈”である場合の使用頻度が高いスタンプの候補の上位○○個(例えば、5個)と、を順番にスタンプの候補として表示部23に表示させる。 For example, when the destination to which the stamp is to be transmitted is "XX", the word is "like", and the facial expression is "boring", the recommended processing unit 153a has the transmission history storage unit 33. Based on the transmission history information to be stored, the priority order is determined as follows, and the stamp candidates are displayed on the display unit 23. The recommended processing unit 153a is used, for example, when the destination is "XX" and the top XX (for example, 5) stamp candidates that are frequently used and the word is "Like". The top XX candidates for stamps with high frequency (for example, 5) and the top XX candidates for stamps with high frequency of use when the facial expression is "boring" (for example, 5) are in order. Is displayed on the display unit 23 as a stamp candidate.

送信処理部156aの基本的な機能は、上述した第1の実施形態の送信処理部156と同様である。送信処理部156aは、送信したスタンプに対応する送信履歴情報を、送信履歴記憶部33に追加して記憶させる処理が追加される。送信処理部156aは、スタンプを送信した後に、例えば、図9に示すような送信したスタンプに対応する送信履歴情報を、NW通信部11を介して、サーバ装置30aに送信し、当該送信履歴情報を送信履歴記憶部33に記憶させる。 The basic function of the transmission processing unit 156a is the same as that of the transmission processing unit 156 of the first embodiment described above. The transmission processing unit 156a adds a process of adding and storing the transmission history information corresponding to the transmitted stamp to the transmission history storage unit 33. After transmitting the stamp, the transmission processing unit 156a transmits, for example, transmission history information corresponding to the transmitted stamp as shown in FIG. 9 to the server device 30a via the NW communication unit 11, and the transmission history information. Is stored in the transmission history storage unit 33.

次に、図面を参照して、本実施形態による簡易通信システム1aの動作について説明する。
図10は、本実施形態による簡易通信システム1aの動作の一例を示すフローチャートである。
Next, the operation of the simplified communication system 1a according to the present embodiment will be described with reference to the drawings.
FIG. 10 is a flowchart showing an example of the operation of the simple communication system 1a according to the present embodiment.

図10に示すステップS201からステップS206までの処理は、上述した図4に示すステップS101からステップS106までの処理と同様であるため、ここではその説明を省略する。
ステップS207において、携帯端末10aの推奨処理部153aは、送信履歴情報に基づいてスタンプの候補の優先順位を決定する。すなわち、推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、上述したように、スタンプの候補の優先順位を決定する。
Since the processing from step S201 to step S206 shown in FIG. 10 is the same as the processing from step S101 to step S106 shown in FIG. 4 described above, the description thereof will be omitted here.
In step S207, the recommended processing unit 153a of the mobile terminal 10a determines the priority of stamp candidates based on the transmission history information. That is, the recommended processing unit 153a determines the priority of stamp candidates as described above based on the transmission history information stored in the transmission history storage unit 33.

次に、推奨処理部153aは、スタンプの候補を眼鏡型表示装置20の表示部23に表示させる(ステップS208)。推奨処理部153aは、スタンプの候補を、優先順位に応じた配置(例えば、表示の左から右に進む程、優先順位が低く、表示の上から下に進む程、優先順位が低くなるようにした配置)で、表示部23に表示させる。 Next, the recommended processing unit 153a causes the display unit 23 of the eyeglass-type display device 20 to display the stamp candidates (step S208). The recommendation processing unit 153a arranges the stamp candidates according to the priority (for example, the priority is lowered as the stamp candidates are moved from the left to the right of the display, and the priority is lowered as the stamp candidates are moved from the top to the bottom of the display. It is displayed on the display unit 23 in the above arrangement).

続く、ステップS209からステップS212までの処理は、上述した図4に示すステップS108からステップS111までの処理と同様であるため、ここではその説明を省略する。
また、ステップS213において、送信処理部156aは、送信履歴情報を追加する。送信処理部156aは、送信したスタンプに対応する送信履歴情報を、送信履歴記憶部33に追加して記憶させる。ステップS213の処理後に、送信処理部156aは、当該処理を終了する。
Since the subsequent processing from step S209 to step S212 is the same as the processing from step S108 to step S111 shown in FIG. 4 described above, the description thereof will be omitted here.
Further, in step S213, the transmission processing unit 156a adds transmission history information. The transmission processing unit 156a adds and stores the transmission history information corresponding to the transmitted stamp to the transmission history storage unit 33. After the process of step S213, the transmission processing unit 156a ends the process.

以上説明したように、本実施形態による簡易通信システム1aは、送信日時と、送信したスタンプと、送信先と、単語と、表情とを対応付けた過去の送信履歴情報を記憶する送信履歴記憶部33を備える。推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、スタンプの候補を表示部23に表示させる。 As described above, the simple communication system 1a according to the present embodiment is a transmission history storage unit that stores past transmission history information in which a transmission date and time, a transmission stamp, a transmission destination, a word, and a facial expression are associated with each other. 33 is provided. The recommended processing unit 153a determines the priority of stamp candidates based on the transmission history information stored in the transmission history storage unit 33, arranges the stamp candidates according to the priority, and displays the stamp candidates on the display unit 23. Let me.

これにより、本実施形態による簡易通信システム1aは、送信履歴情報に基づいて、スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、スタンプの候補を表示部23に表示させるため、利用者U1の使用傾向に合わせた適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。 As a result, the simple communication system 1a according to the present embodiment determines the priority of stamp candidates based on the transmission history information, arranges the stamp candidates according to the priority, and displays the stamp candidates on the display unit 23. Therefore, it is possible to recommend (recommend) to the user U1 an appropriate stamp candidate according to the usage tendency of the user U1.

また、本実施形態では、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した場所情報が含まれる。推奨処理部153aは、送信履歴情報に基づいて、現在の携帯端末10aの場所に対応したスタンプの候補の優先順位を上げる(高める)。
これにより、本実施形態による簡易通信システム1aは、使用場所に応じて、適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the transmission history information of the transmission history storage unit 33 described above includes the location information where the stamp is transmitted. The recommended processing unit 153a raises (increases) the priority of stamp candidates corresponding to the current location of the mobile terminal 10a based on the transmission history information.
Thereby, the simple communication system 1a according to the present embodiment can recommend (recommend) an appropriate stamp candidate to the user U1 according to the place of use.

また、本実施形態では、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した際の状況を示すスケジュール情報が含まれる。推奨処理部153aは、利用者U1の送信履歴情報に基づいて、現在のスケジュールに基づく利用者U1の状況に対応したスタンプの候補の優先順位を上げる(高める)。
これにより、本実施形態による簡易通信システム1aは、例えば、仕事(ビジネス)や趣味活動(プライベート)などの利用者U1の状況に応じて、適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the transmission history information of the transmission history storage unit 33 described above includes schedule information indicating a situation when the stamp is transmitted. The recommended processing unit 153a raises (increases) the priority of stamp candidates corresponding to the situation of the user U1 based on the current schedule based on the transmission history information of the user U1.
As a result, the simple communication system 1a according to the present embodiment recommends (recommends) an appropriate stamp candidate to the user U1 according to the situation of the user U1 such as work (business) or hobby activity (private). )be able to.

また、本実施形態では、送信処理部156aは、送信したスタンプに対応する送信履歴情報を、送信履歴記憶部33に追加して記憶させる。推奨処理部153aは、直近に送信されたスタンプに対するスタンプの候補の優先順位を下げる(低める)。
これにより、本実施形態による簡易通信システム1aは、例えば、直近に送信したスタンプを連続して送付してしまうことを抑制することができ、適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the transmission processing unit 156a adds and stores the transmission history information corresponding to the transmitted stamp to the transmission history storage unit 33. The recommended processing unit 153a lowers (lowers) the priority of stamp candidates for the most recently transmitted stamp.
As a result, the simple communication system 1a according to the present embodiment can suppress, for example, continuously sending the most recently transmitted stamps, and recommends an appropriate stamp candidate to the user U1 (recommended). )be able to.

また、本実施形態では、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、スタンプの使用頻度が高い程、スタンプの候補の優先順位を上げる(高める)。
これにより、本実施形態による簡易通信システム1aは、使用頻度が高いスタンプの候補を優先的に表示部23に表示させるため、利用者の使用傾向に合わせた適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the recommended processing unit 153a raises (increases) the priority of stamp candidates as the stamp usage frequency increases, based on the transmission history information of the user U1.
As a result, in the simple communication system 1a according to the present embodiment, since the stamp candidates with high frequency of use are preferentially displayed on the display unit 23, the user U1 is provided with an appropriate stamp candidate according to the user's usage tendency. Can be recommended (recommended).

なお、スタンプ記憶部32は、単語と、表情と、スタンプと、スタンプのグループを示すグループ情報とを対応付けて記憶してもよい。ここで、スタンプのグループとは、例えば、同一のキャラクタを用いたスタンプの集合や、同様の用途に用いるスタンプの集合などである。 The stamp storage unit 32 may store words, facial expressions, stamps, and group information indicating stamp groups in association with each other. Here, the group of stamps is, for example, a set of stamps using the same character, a set of stamps used for the same purpose, and the like.

図11は、スタンプ記憶部32の変形例を示す図である。
図11に示すように、スタンプ記憶部32の変形例では、「ユーザID」と、「グループID」と、「スタンプID」と、「スタンプ情報」と、「単語」と、「表情」とを対応付けたスタンプテーブル情報を記憶する。ここで、「グループID」は、スタンプのグループを識別する識別情報であり、グループ情報の一例である。
FIG. 11 is a diagram showing a modified example of the stamp storage unit 32.
As shown in FIG. 11, in the modified example of the stamp storage unit 32, the "user ID", the "group ID", the "stamp ID", the "stamp information", the "word", and the "facial expression" are used. Store the associated stamp table information. Here, the "group ID" is identification information that identifies a group of stamps, and is an example of group information.

このようにスタンプテーブル情報に「グループID」が含まれる場合に、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、前回送信したスタンプのグループ情報と一致する、スタンプの候補の優先順位を上げる(高める)ようにしてもよい。
これにより、本実施形態による簡易通信システム1aは、グループ情報が一致したスタンプの候補の優先的に推薦することで、送信するスタンプに一貫性を持たせること可能であり、利便性を向上させることができる。
When the stamp table information includes the "group ID" in this way, the recommended processing unit 153a gives priority to stamp candidates that match the group information of the stamp transmitted last time based on the transmission history information of the user U1. You may try to raise (raise) the ranking.
As a result, the simple communication system 1a according to the present embodiment can make the stamps to be transmitted consistent by preferentially recommending the stamp candidates with the same group information, and improve the convenience. Can be done.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、スタンプ記憶部32及び送信履歴記憶部33をサーバ装置30(30a)が備える例を説明したが、これに限定されるものではなく、携帯端末10(10a)が、これらの記憶部を備えるようにしてもよい。
The present invention is not limited to each of the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in the above embodiment, the example in which the server device 30 (30a) includes the stamp storage unit 32 and the transmission history storage unit 33 has been described, but the present invention is not limited to this, and the mobile terminal 10 (10a) may be used. These storage units may be provided.

また、上記の実施形態において、携帯端末10(10a)と、眼鏡型表示装置20との間の通信は、ネットワークNW1を経由して行う例を説明したが、これに限定されるものではなく、有線インタフェース又は無線インタフェースによりネットワークNW1を経由せずに通信するようにしてもよい。この場合、携帯端末10(10a)と、眼鏡型表示装置20との間の無線通信は、Bluetooth(登録商標)などのインタフェースを用いてもよい。 Further, in the above embodiment, an example in which communication between the mobile terminal 10 (10a) and the eyeglass-type display device 20 is performed via the network NW1 has been described, but the present invention is not limited to this. Communication may be performed by a wired interface or a wireless interface without going through the network NW1. In this case, an interface such as Bluetooth (registered trademark) may be used for wireless communication between the mobile terminal 10 (10a) and the eyeglass-type display device 20.

また、上記の実施形態において、携帯制御部15(15a)が備える各機能部は、携帯制御部15(15a)の外部に備えるようにしてもよい。例えば、単語識別部151、表情識別部152、及び視線検出部154の一部又は全部を、眼鏡型表示装置20に備えるようにしてもよいし、サーバ装置30(30a)が備えるようにしてもよい。 Further, in the above embodiment, each functional unit included in the mobile control unit 15 (15a) may be provided outside the mobile control unit 15 (15a). For example, the word identification unit 151, the facial expression identification unit 152, and a part or all of the line-of-sight detection unit 154 may be provided in the eyeglass-type display device 20, or may be provided in the server device 30 (30a). good.

なお、上述した簡易通信システム1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した簡易通信システム1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した簡易通信システム1(1a)が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each configuration included in the simple communication system 1 (1a) described above has a computer system inside. Then, a program for realizing the functions of each configuration included in the simple communication system 1 (1a) described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system. By executing the processing, the processing in each configuration included in the simple communication system 1 (1a) described above may be performed. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices.
Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に簡易通信システム1(1a)が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The recording medium also includes an internal or external recording medium that can be accessed from the distribution server to distribute the program. Even if the program is divided into a plurality of programs, downloaded at different timings, and then combined with each configuration provided in the simple communication system 1 (1a), or the distribution server that distributes each of the divided programs is different. good. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall also include things. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, a part or all of the above-mentioned functions may be realized as an integrated circuit such as LSI (Large Scale Integration). Each of the above-mentioned functions may be made into a processor individually, or a part or all of them may be integrated into a processor. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, when an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

1、1a 簡易通信システム
10、10a 携帯端末
11、24、31 NW通信部
12 入力部
13、23 表示部
14、14a 端末記憶部
15、15a 端末制御部
16 位置情報検出部
20 眼鏡型表示装置
21 口唇カメラ
22 視線カメラ
30、30a サーバ装置
32 スタンプ記憶部
33 送信履歴記憶部
141 スケジュール記憶部
151 単語識別部
152 表情識別部
153、163a 推奨処理部
154 視線検出部
155 受信処理部
156、156a 送信処理部
157 スタンプ登録処理部
NW1 ネットワーク
1, 1a Simple communication system 10, 10a Mobile terminal 11, 24, 31 NW communication unit 12 Input unit 13, 23 Display unit 14, 14a Terminal storage unit 15, 15a Terminal control unit 16 Position information detection unit 20 Glass-type display device 21 Lip camera 22 Line-of-sight camera 30, 30a Server device 32 Stamp storage unit 33 Transmission history storage unit 141 Schedule storage unit 151 Word recognition unit 152 Expression identification unit 153, 163a Recommended processing unit 154 Line-of-sight detection unit 155 Reception processing unit 156, 156a Transmission processing Department 157 Stamp registration processing department NW1 network

Claims (11)

利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、
ネットワークに接続可能な携帯端末と
を備え、
前記携帯端末は、
前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別部と、
前記第1画像に基づいて、前記利用者の表情を識別する表情識別部と、
前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別部が識別した前記単語と、前記表情識別部が識別した前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理部と、
前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理部と
を備えることを特徴とする簡易通信システム。
A first imaging unit that is a display device that can be worn on the user's head and that can capture at least a first image including the user's lips when worn on the user's head, and the above. A display device having a second image pickup unit capable of capturing a second image including the user's eyes and a display unit for displaying the image, and a display device.
Equipped with a mobile terminal that can connect to the network
The mobile terminal
A word identification unit that detects the movement of the lips based on the first image captured by the first imaging unit and identifies the word indicated by the movement of the lips based on the detected movement of the lips.
A facial expression identification unit that identifies the user's facial expression based on the first image,
The word identified by the word identification unit and the facial expression identification unit were identified from a candidate storage unit that stores the word, the facial expression, and a stamp which is an illustration expressing the user's emotion in association with each other. A recommended processing unit that acquires the stamp candidate based on the facial expression and displays the image including the stamp candidate on the display unit.
The stamp is selected from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the second image captured by the second imaging unit, and the selected stamp is selected. A simple communication system including a transmission processing unit that transmits an image to a predetermined destination via the network.
送信日時と、送信した前記スタンプと、送信先と、前記単語と、前記表情とを対応付けた過去の送信履歴情報を記憶する送信履歴記憶部を備え、
前記推奨処理部は、前記送信履歴記憶部が記憶する前記送信履歴情報に基づいて、前記スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、前記スタンプの候補を前記表示部に表示させる
ことを特徴とする請求項1に記載の簡易通信システム。
A transmission history storage unit that stores past transmission history information in which the transmission date and time, the transmitted stamp, the transmission destination, the word, and the facial expression are associated with each other is provided.
The recommended processing unit determines the priority of the stamp candidates based on the transmission history information stored in the transmission history storage unit, arranges the stamp candidates according to the priority, and displays the stamp candidates. The simple communication system according to claim 1, wherein the communication system is displayed on a unit.
前記送信履歴情報には、前記スタンプを送信した場所情報が含まれ、
前記推奨処理部は、前記送信履歴情報に基づいて、現在の前記携帯端末の場所に対応した前記スタンプの候補の優先順位を上げる
ことを特徴とする請求項2に記載の簡易通信システム。
The transmission history information includes location information at which the stamp was transmitted.
The simple communication system according to claim 2, wherein the recommended processing unit raises the priority of the stamp candidate corresponding to the current location of the mobile terminal based on the transmission history information.
前記送信履歴情報には、前記スタンプを送信した際の状況を示すスケジュール情報が含まれ、
前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、現在のスケジュールに基づく利用者の状況に対応した前記スタンプの候補の前記優先順位を上げる
ことを特徴とする請求項2又は請求項3に記載の簡易通信システム。
The transmission history information includes schedule information indicating the situation when the stamp is transmitted.
Claim 2 or claim, wherein the recommended processing unit raises the priority of the stamp candidate corresponding to the user's situation based on the current schedule based on the transmission history information of the user. Item 3. The simple communication system according to item 3.
前記送信処理部は、送信した前記スタンプに対応する前記送信履歴情報を、前記送信履歴記憶部に追加して記憶させ、
前記推奨処理部は、直近に送信された前記スタンプに対する前記スタンプの候補の優先順位を下げる
ことを特徴とする請求項2から請求項4のいずれか一項に記載の簡易通信システム。
The transmission processing unit adds and stores the transmission history information corresponding to the transmitted stamp to the transmission history storage unit.
The simple communication system according to any one of claims 2 to 4, wherein the recommended processing unit lowers the priority of the stamp candidate with respect to the stamp transmitted most recently.
前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前記スタンプの使用頻度が高い程、前記スタンプの候補の前記優先順位を上げる
ことを特徴とする請求項2から請求項5のいずれか一項に記載の簡易通信システム。
A second to a fifth aspect of the present invention, wherein the recommended processing unit raises the priority of the stamp candidate as the stamp is used more frequently based on the transmission history information of the user. The simple communication system according to any one of the above.
前記候補記憶部は、前記単語と、前記表情と、前記スタンプと、前記スタンプのグループを示すグループ情報とを対応付けて記憶し、
前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前回送信した前記スタンプの前記グループ情報と一致する、前記スタンプの候補の前記優先順位を上げる
ことを特徴とする請求項2から請求項6のいずれか一項に記載の簡易通信システム。
The candidate storage unit stores the word, the facial expression, the stamp, and the group information indicating the group of the stamps in association with each other.
From claim 2, the recommended processing unit raises the priority of the stamp candidate, which matches the group information of the stamp transmitted last time, based on the transmission history information of the user. The simple communication system according to any one of claims 6.
前記候補記憶部は、前記単語と、前記表情と、前記スタンプとを対応付けたスタンプテーブル情報を、利用者ごとに記憶し、
前記候補記憶部に、前記利用者の前記スタンプテーブル情報を記憶させて登録する登録処理部を備える
ことを特徴とする請求項1から請求項7のいずれか一項に記載の簡易通信システム。
The candidate storage unit stores stamp table information in which the word, the facial expression, and the stamp are associated with each user.
The simple communication system according to any one of claims 1 to 7, wherein the candidate storage unit includes a registration processing unit that stores and registers the stamp table information of the user.
前記ネットワークを経由して受信したメッセージを、前記表示部に表示させる受信処理部を備え、
前記推奨処理部は、受信した前記メッセージに対する前記スタンプの候補を含む前記画像を前記表示部に表示させ、
前記送信処理部は、選択した前記スタンプを、受信した前記メッセージの送信元を含む所定の送信先に送信する
ことを特徴とする請求項1から請求項8のいずれか一項に記載の簡易通信システム。
A reception processing unit for displaying a message received via the network on the display unit is provided.
The recommended processing unit causes the display unit to display the image including the stamp candidate for the received message.
The simple communication according to any one of claims 1 to 8, wherein the transmission processing unit transmits the selected stamp to a predetermined destination including the source of the received message. system.
利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備える簡易通信システムの簡易通信方法であって、
前記携帯端末が、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、
前記携帯端末が、前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、
前記携帯端末が、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、
前記携帯端末が、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップと
を含むことを特徴とする簡易通信方法。
A first imaging unit that is a display device that can be worn on the user's head and that can capture at least a first image including the user's lips when worn on the user's head, and the above. A simple communication method of a simple communication system including a second imaging unit capable of capturing a second image including the user's eyes, a display device having a display unit for displaying an image, and a mobile terminal connectable to a network. There,
The mobile terminal detects the movement of the lips based on the first image captured by the first imaging unit, and identifies the word indicated by the movement of the lips based on the detected movement of the lips. Identification step and
An emotion identification step in which the mobile terminal identifies the facial expression of the user based on the first image,
The word identified by the word identification step and the word identified by the mobile terminal from a candidate storage unit that stores the word, the facial expression, and a stamp which is an illustration expressing the user's emotion in association with each other. A recommended processing step of acquiring a stamp candidate based on the facial expression identified by the emotion identification step and displaying the image including the stamp candidate on the display unit.
The mobile terminal selects the stamp from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the second image captured by the second imaging unit. , A simple communication method comprising a transmission processing step of transmitting the selected stamp to a predetermined destination via the network.
利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備える簡易通信システムのコンピュータに、
前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、
前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、
前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、
前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップと
を実行させるためのプログラム。
A first imaging unit that is a display device that can be worn on the user's head and that can capture at least a first image including the user's lips when worn on the user's head, and the above. A computer of a simple communication system including a second imaging unit capable of capturing a second image including the user's eyes, a display device having a display unit for displaying an image, and a mobile terminal connectable to a network.
A word identification step of detecting the movement of the lips based on the first image captured by the first imaging unit and identifying a word indicated by the movement of the lips based on the detected movement of the lips.
An emotion identification step for identifying the user's facial expression based on the first image, and
The word identified by the word identification step is identified by the emotion identification step from a candidate storage unit that stores the word, the facial expression, and a stamp which is an illustration expressing the user's emotion in association with each other. A recommended processing step of acquiring a stamp candidate based on the facial expression and displaying the image including the stamp candidate on the display unit, and
The stamp is selected from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the second image captured by the second imaging unit, and the selected stamp is selected. A program for executing a transmission processing step of transmitting an image to a predetermined destination via the network.
JP2020059399A 2020-03-30 2020-03-30 Simple communication system, simple communication method, and program Active JP6899940B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020059399A JP6899940B1 (en) 2020-03-30 2020-03-30 Simple communication system, simple communication method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020059399A JP6899940B1 (en) 2020-03-30 2020-03-30 Simple communication system, simple communication method, and program

Publications (2)

Publication Number Publication Date
JP6899940B1 JP6899940B1 (en) 2021-07-07
JP2021157681A true JP2021157681A (en) 2021-10-07

Family

ID=76649995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020059399A Active JP6899940B1 (en) 2020-03-30 2020-03-30 Simple communication system, simple communication method, and program

Country Status (1)

Country Link
JP (1) JP6899940B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4156607A1 (en) 2021-09-28 2023-03-29 Toyota Jidosha Kabushiki Kaisha Vehicle control interface and vehicle including the same, autonomous driving system and vehicle including the same, and method of controlling vehicle

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015592A (en) * 2007-07-04 2009-01-22 Sharp Corp Noncontact input device for mobile communication terminal, mobile communication terminal, and mail creation system
JP2010026731A (en) * 2008-07-17 2010-02-04 Nec Saitama Ltd Character input device, character input method, character input system, character input server and terminal
JP2014170397A (en) * 2013-03-04 2014-09-18 L Is B Corp Message system
JP2015115926A (en) * 2013-12-16 2015-06-22 株式会社日立システムズ Portable terminal device, lip-reading communication method, and program
WO2015186534A1 (en) * 2014-06-06 2015-12-10 ソニー株式会社 Information processing device and method, and program
US20160054895A1 (en) * 2014-08-21 2016-02-25 Samsung Electronics Co., Ltd. Method of providing visual sound image and electronic device implementing the same
JP2016071571A (en) * 2014-09-30 2016-05-09 大日本印刷株式会社 Message transmission device and computer program
JP2016134747A (en) * 2015-01-19 2016-07-25 株式会社イルド Telephone device, program, and telephone system
WO2016151794A1 (en) * 2015-03-25 2016-09-29 エヌ・ティ・ティ・ソフトウェア株式会社 Communication control device, user terminal, and program
JP2016224554A (en) * 2015-05-27 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Eye-mount display device
JP2017522626A (en) * 2014-07-02 2017-08-10 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Information transmitting method and transmitting apparatus
JP2018018449A (en) * 2016-07-29 2018-02-01 フォーブ インコーポレーテッド Information processing system, operation method, and operation program
JP2018109924A (en) * 2017-01-06 2018-07-12 ソニー株式会社 Information processing device, information processing method, and program
US20190019508A1 (en) * 2017-07-11 2019-01-17 Samsung Electronics Co., Ltd System and method for voice command context
JP2019102001A (en) * 2017-12-07 2019-06-24 Line株式会社 Program, information processing method, and information processing device
US10755463B1 (en) * 2018-07-20 2020-08-25 Facebook Technologies, Llc Audio-based face tracking and lip syncing for natural facial animation and lip movement

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015592A (en) * 2007-07-04 2009-01-22 Sharp Corp Noncontact input device for mobile communication terminal, mobile communication terminal, and mail creation system
JP2010026731A (en) * 2008-07-17 2010-02-04 Nec Saitama Ltd Character input device, character input method, character input system, character input server and terminal
JP2014170397A (en) * 2013-03-04 2014-09-18 L Is B Corp Message system
JP2015115926A (en) * 2013-12-16 2015-06-22 株式会社日立システムズ Portable terminal device, lip-reading communication method, and program
WO2015186534A1 (en) * 2014-06-06 2015-12-10 ソニー株式会社 Information processing device and method, and program
JP2017522626A (en) * 2014-07-02 2017-08-10 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Information transmitting method and transmitting apparatus
US20160054895A1 (en) * 2014-08-21 2016-02-25 Samsung Electronics Co., Ltd. Method of providing visual sound image and electronic device implementing the same
JP2016071571A (en) * 2014-09-30 2016-05-09 大日本印刷株式会社 Message transmission device and computer program
JP2016134747A (en) * 2015-01-19 2016-07-25 株式会社イルド Telephone device, program, and telephone system
WO2016151794A1 (en) * 2015-03-25 2016-09-29 エヌ・ティ・ティ・ソフトウェア株式会社 Communication control device, user terminal, and program
JP2016224554A (en) * 2015-05-27 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Eye-mount display device
JP2018018449A (en) * 2016-07-29 2018-02-01 フォーブ インコーポレーテッド Information processing system, operation method, and operation program
JP2018109924A (en) * 2017-01-06 2018-07-12 ソニー株式会社 Information processing device, information processing method, and program
US20190019508A1 (en) * 2017-07-11 2019-01-17 Samsung Electronics Co., Ltd System and method for voice command context
JP2019102001A (en) * 2017-12-07 2019-06-24 Line株式会社 Program, information processing method, and information processing device
US10755463B1 (en) * 2018-07-20 2020-08-25 Facebook Technologies, Llc Audio-based face tracking and lip syncing for natural facial animation and lip movement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4156607A1 (en) 2021-09-28 2023-03-29 Toyota Jidosha Kabushiki Kaisha Vehicle control interface and vehicle including the same, autonomous driving system and vehicle including the same, and method of controlling vehicle

Also Published As

Publication number Publication date
JP6899940B1 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
US11194535B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
CN105573573B (en) Apparatus and method for managing user information based on image
JP6490023B2 (en) Biological information communication apparatus, server, biometric information communication method, and biometric information communication program
US10552004B2 (en) Method for providing application, and electronic device therefor
US9858924B2 (en) Voice processing apparatus and voice processing method
KR20210047373A (en) Wearable apparatus and methods for analyzing images
JP6719072B2 (en) Customer service device, service method and service system
KR20190080377A (en) Terminal providing a video call service
JP6177998B2 (en) Information display method and information display terminal
US9020918B2 (en) Information registration device, information registration method, information registration system, information presentation device, informaton presentation method, informaton presentaton system, and program
KR20160000741A (en) Glass type terminal and control method thereof
US20130121528A1 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
KR20110088273A (en) Mobile terminal and method for forming human network using mobile terminal
JP6728863B2 (en) Information processing system
US20170091532A1 (en) Electronic device for processing image and control method thereof
JP6040745B2 (en) Information processing apparatus, information processing method, information processing program, and content providing system
US20190095867A1 (en) Portable information terminal and information processing method used in the same
US20210304111A1 (en) Information processing apparatus, information processing method, and program
JP2019061590A (en) Information processing apparatus, information processing system, and program
KR20170114356A (en) Electronic device and controling method thereof
JP6899940B1 (en) Simple communication system, simple communication method, and program
US20150145763A1 (en) Electronic device
JP6576181B2 (en) Event support system
KR20180040410A (en) Body composition apparatus and mobile terminal wireless communcating with the same
JP5989725B2 (en) Electronic device and information display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210615

R150 Certificate of patent or registration of utility model

Ref document number: 6899940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350