JP2021157681A - Simplified communication system, simplified communication method and program - Google Patents
Simplified communication system, simplified communication method and program Download PDFInfo
- Publication number
- JP2021157681A JP2021157681A JP2020059399A JP2020059399A JP2021157681A JP 2021157681 A JP2021157681 A JP 2021157681A JP 2020059399 A JP2020059399 A JP 2020059399A JP 2020059399 A JP2020059399 A JP 2020059399A JP 2021157681 A JP2021157681 A JP 2021157681A
- Authority
- JP
- Japan
- Prior art keywords
- stamp
- user
- unit
- image
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 title claims description 20
- 238000012545 processing Methods 0.000 claims abstract description 132
- 230000005540 biological transmission Effects 0.000 claims abstract description 129
- 238000003860 storage Methods 0.000 claims abstract description 91
- 230000008921 facial expression Effects 0.000 claims description 77
- 230000008451 emotion Effects 0.000 claims description 20
- 210000003128 head Anatomy 0.000 claims description 20
- 210000001508 eye Anatomy 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 18
- 230000014509 gene expression Effects 0.000 abstract description 8
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、簡易通信システム、簡易通信方法、及びプログラムに関する。 The present invention relates to a simple communication system, a simple communication method, and a program.
近年、音声や口唇の動きを検出して、メッセージなどの入力を行う技術が知られている(例えば、特許文献1を参照)。このような従来技術では、例えば、手に持ったスマートフォンなど携帯端末のマイク及びカメラを利用することで、メッセージなどの入力を行うことが可能である。 In recent years, a technique for detecting voice and lip movement and inputting a message or the like has been known (see, for example, Patent Document 1). In such a conventional technique, it is possible to input a message or the like by using, for example, a microphone and a camera of a mobile terminal such as a smartphone held in the hand.
しかしながら、上述した従来技術では、スマートフォンなど携帯端末を利用者の顔の前に持つ必要があり、例えば、満員電車などの空間が限られている状況において、メッセージなどの入力を行うことができずに、利用者が情報を送信することが困難な場合があった。 However, in the above-mentioned conventional technology, it is necessary to hold a mobile terminal such as a smartphone in front of the user's face, and it is not possible to input a message or the like in a situation where space is limited such as a crowded train. In some cases, it was difficult for the user to send the information.
本発明は、上記問題を解決すべくなされたもので、その目的は、利用者の手が使用できない状況において、適切に情報を送信することができる簡易通信システム、簡易通信方法、及びプログラムを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a simple communication system, a simple communication method, and a program capable of appropriately transmitting information in a situation where the user's hand cannot be used. To do.
上記問題を解決するために、本発明の一態様は、利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備え、前記携帯端末は、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別部と、前記第1画像に基づいて、前記利用者の表情を識別する表情識別部と、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別部が識別した前記単語と、前記表情識別部が識別した前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理部と、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理部とを備えることを特徴とする簡易通信システムである。 In order to solve the above problem, one aspect of the present invention is a display device that can be worn on the user's head, and when the display device is worn on the user's head, at least the user's lips are worn. A display device having a first image pickup unit capable of capturing a first image including the first image, a second image pickup unit capable of capturing a second image including the user's eyes, and a display unit for displaying an image is connected to a network. The mobile terminal includes a possible mobile terminal, and the mobile terminal detects the movement of the lip based on the first image captured by the first imaging unit, and based on the detected movement of the lip, the mobile terminal of the lip. An illustration expressing the word, the facial expression, and the emotion of the user, the word identification unit that identifies the word indicated by the movement, the facial expression identification unit that identifies the facial expression of the user based on the first image, and the word, the facial expression, and the emotion of the user. From the candidate storage unit that stores the stamp in association with the stamp, the stamp candidate is acquired based on the word identified by the word identification unit and the facial expression identified by the facial expression identification unit, and the stamp is obtained. It is displayed on the display unit by the recommended processing unit for displaying the image including the candidate of the above on the display unit and the line of sight of the user detected based on the second image captured by the second imaging unit. It is a simple communication system including a transmission processing unit that selects the stamp from the candidates for the stamp and transmits the selected stamp to a predetermined destination via the network.
また、本発明の一態様は、上記の簡易通信システムにおいて、送信日時と、送信した前記スタンプと、送信先と、前記単語と、前記表情とを対応付けた過去の送信履歴情報を記憶する送信履歴記憶部を備え、前記推奨処理部は、前記送信履歴記憶部が記憶する前記送信履歴情報に基づいて、前記スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、前記スタンプの候補を前記表示部に表示させることを特徴とする。 Further, one aspect of the present invention is a transmission that stores past transmission history information in which the transmission date and time, the transmitted stamp, the transmission destination, the word, and the facial expression are associated with each other in the simple communication system. The recommended processing unit includes a history storage unit, determines the priority of the stamp candidates based on the transmission history information stored in the transmission history storage unit, arranges the stamp candidates according to the priority, and arranges the stamp candidates. It is characterized in that stamp candidates are displayed on the display unit.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記送信履歴情報には、前記スタンプを送信した場所情報が含まれ、前記推奨処理部は、前記送信履歴情報に基づいて、現在の前記携帯端末の場所に対応した前記スタンプの候補の優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the above-mentioned simple communication system, the transmission history information includes the place information where the stamp is transmitted, and the recommended processing unit is currently based on the transmission history information. It is characterized in that the priority of the stamp candidate corresponding to the location of the mobile terminal is raised.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記送信履歴情報には、前記スタンプを送信した際の状況を示すスケジュール情報が含まれ、前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、現在のスケジュールに基づく利用者の状況に対応した前記スタンプの候補の前記優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the transmission history information includes schedule information indicating a situation when the stamp is transmitted, and the recommended processing unit is the user. Based on the transmission history information, the priority of the stamp candidate corresponding to the user's situation based on the current schedule is raised.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記送信処理部は、送信した前記スタンプに対応する前記送信履歴情報を、前記送信履歴記憶部に追加して記憶させ、前記推奨処理部は、直近に送信された前記スタンプに対する前記スタンプの候補の優先順位を下げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the transmission processing unit additionally stores the transmission history information corresponding to the transmitted stamp in the transmission history storage unit, and stores the recommended processing. The unit is characterized in that the priority of the stamp candidate with respect to the most recently transmitted stamp is lowered.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前記スタンプの使用頻度が高い程、前記スタンプの候補の前記優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the recommended processing unit gives priority to the stamp candidate as the frequency of use of the stamp increases based on the transmission history information of the user. It is characterized by raising the ranking.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記候補記憶部は、前記単語と、前記表情と、前記スタンプと、前記スタンプのグループを示すグループ情報とを対応付けて記憶し、前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前回送信した前記スタンプの前記グループ情報と一致する、前記スタンプの候補の前記優先順位を上げることを特徴とする。 Further, in one aspect of the present invention, in the simple communication system, the candidate storage unit stores the word, the facial expression, the stamp, and the group information indicating the group of the stamps in association with each other. The recommended processing unit is characterized in that, based on the transmission history information of the user, the priority of the stamp candidate, which matches the group information of the stamp transmitted last time, is raised.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記候補記憶部は、前記単語と、前記表情と、前記スタンプとを対応付けたスタンプテーブル情報を、利用者ごとに記憶し、前記候補記憶部に、前記利用者の前記スタンプテーブル情報を記憶させて登録する登録処理部を備えることを特徴とする。 Further, in one aspect of the present invention, in the above-mentioned simple communication system, the candidate storage unit stores stamp table information in which the word, the expression, and the stamp are associated with each user, and the above-mentioned The candidate storage unit is provided with a registration processing unit that stores and registers the stamp table information of the user.
また、本発明の一態様は、上記の簡易通信システムにおいて、前記ネットワークを経由して受信したメッセージを、前記表示部に表示させる受信処理部を備え、前記推奨処理部は、受信した前記メッセージに対する前記スタンプの候補を含む前記画像を前記表示部に表示させ、前記送信処理部は、選択した前記スタンプを、受信した前記メッセージの送信元を含む所定の送信先に送信することを特徴とする。 Further, one aspect of the present invention includes a reception processing unit for displaying a message received via the network on the display unit in the simple communication system, and the recommended processing unit is for the received message. The display unit displays the image including the stamp candidate, and the transmission processing unit transmits the selected stamp to a predetermined destination including the source of the received message.
また、本発明の一態様は、利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備える簡易通信システムの簡易通信方法であって、前記携帯端末が、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、前記携帯端末が、前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、前記携帯端末が、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、前記携帯端末が、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップとを含むことを特徴とする簡易通信方法である。 Further, one aspect of the present invention is a display device that can be worn on the user's head, and when worn on the user's head, captures a first image including at least the user's lips. A display device having a possible first image pickup unit, a second image pickup unit capable of capturing a second image including the user's eyes, a display unit for displaying an image, and a portable terminal connectable to a network. A simple communication method of a simple communication system provided, wherein the mobile terminal detects the movement of the lip based on the first image captured by the first image pickup unit, and based on the detected movement of the lip. , A word identification step for identifying a word indicated by the movement of the lips, an emotion identification step for the mobile terminal to identify the facial expression of the user based on the first image, and the mobile terminal with the word. , The word identified by the word identification step and the word identified by the emotion identification step from a candidate storage unit that stores the facial expression and a stamp which is an illustration expressing the user's feelings in association with each other. A recommended processing step of acquiring a stamp candidate based on a facial expression and displaying the image including the stamp candidate on the display unit, and the second image captured by the second imaging unit by the mobile terminal. The stamp is selected from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the image, and the selected stamp is sent to a predetermined destination via the network. This is a simple communication method including a transmission processing step of transmitting the image.
また、本発明の一態様は、利用者の頭部に装着可能な表示装置であって、前記利用者の頭部に装着された場合に、少なくとも前記利用者の口唇を含む第1画像を撮像可能な第1撮像部と、前記利用者の目を含む第2画像を撮像可能な第2撮像部と、画像を表示する表示部とを有する表示装置と、ネットワークに接続可能な携帯端末とを備える簡易通信システムのコンピュータに、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップとを実行させるためのプログラムである。 Further, one aspect of the present invention is a display device that can be worn on the user's head, and when worn on the user's head, images a first image including at least the user's lips. A display device having a possible first image pickup unit, a second image pickup unit capable of capturing a second image including the user's eyes, a display unit for displaying an image, and a portable terminal connectable to a network. A computer of a simple communication system provided with the device detects the movement of the lip based on the first image captured by the first image pickup unit, and outputs a word indicated by the movement of the lip based on the detected movement of the lip. A word identification step for identifying, an emotion identification step for identifying the user's facial expression based on the first image, the word, the facial expression, and a stamp which is an illustration expressing the user's feelings. From the candidate storage unit that is stored in association with each other, the stamp candidate is acquired based on the word identified by the word identification step and the facial expression identified by the emotion identification step, and the stamp candidate is obtained. The stamp displayed on the display unit by the recommended processing step of displaying the including image on the display unit and the line of sight of the user detected based on the second image imaged by the second imaging unit. This is a program for selecting the stamp from the candidates of the above and executing a transmission processing step of transmitting the selected stamp to a predetermined destination via the network.
本発明によれば、利用者の手が使用できない状況において、適切に情報を送信することができる。 According to the present invention, information can be appropriately transmitted in a situation where the user's hand cannot be used.
以下、本発明の一実施形態による簡易通信システム及び簡易通信方法について図面を参照して説明する。 Hereinafter, a simple communication system and a simple communication method according to an embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、第1の実施形態による簡易通信システム1の一例を示すシステム構成図である。また、図2は、第1の実施形態による簡易通信システム1の一例を示す機能ブロック図である。
[First Embodiment]
FIG. 1 is a system configuration diagram showing an example of a
図1及び図2に示すように、簡易通信システム1は、携帯端末10と、眼鏡型表示装置20と、サーバ装置30とを備える。
なお、本実施形態による簡易通信システム1では、利用者間でメッセージを送受信するメッセージアプリケーション(以下、メッセージアプリという)を使用する場合の一例について説明する。また、本実施形態において、メッセージアプリは、メッセージの他に、利用者の心情を表現するイラストであるスタンプを、利用者間で互いに送受信できるものとする。ここで、心情とは、例えば、心の中にある思いや感情を示す。
As shown in FIGS. 1 and 2, the
In the
眼鏡型表示装置20(表示装置の一例)は、図1に示すように利用者U1の頭部に装着可能なカメラ付きの眼鏡型のディスプレイであり、口唇カメラ21と、視線カメラ22と、表示部23と、NW(ネットワーク)通信部24とを備えている。眼鏡型表示装置20は、例えば、無線通信によりネットワークNW1に接続可能であり、ネットワークNW1を経由して、携帯端末10との間で通信を行う。
As shown in FIG. 1, the spectacle-type display device 20 (an example of the display device) is a spectacle-type display with a camera that can be worn on the head of the user U1, and displays the
口唇カメラ21(第1撮像部の一例)は、利用者U1の口唇の動き及び表情を検出するためのカメラであり、眼鏡型表示装置20を利用者U1の頭部に装着した際に、利用者U1の口唇の周辺(例えば、顔の下半分)の画像を撮像可能に配置されている。口唇カメラ21は、利用者U1の頭部に眼鏡型表示装置20が装着された場合に、少なくとも利用者U1の口唇を含む口唇周辺画像(第1画像)を撮像する。なお、口唇画像は、例えば、利用者U1の顔の下半分を撮像した画像である。
The lip camera 21 (an example of the first imaging unit) is a camera for detecting the movement and facial expression of the lips of the user U1 and is used when the eyeglass-
視線カメラ22(第2撮像部の一例)は、例えば、利用者U1の視線を検出するためのアイトラッキングカメラであり、眼鏡型表示装置20を利用者U1の頭部に装着した際に、利用者U1の目の周辺(例えば、顔の上半分)の画像を撮像可能に配置されている。視線カメラ22は、利用者U1の頭部に眼鏡型表示装置20が装着された場合に、利用者U1の目を含む目周辺画像(第2画像)を撮像する。
The line-of-sight camera 22 (an example of the second image pickup unit) is, for example, an eye tracking camera for detecting the line of sight of the user U1, and is used when the eyeglass-
表示部23は、例えば、透過型の液晶ディスプレイであり、各種情報を表示する。表示部23は、眼鏡型表示装置20を利用者U1の頭部に装着した際に、利用者U1が表示を視認できるように配置されている。
The
NW通信部24は、例えば、無線LAN(Local Area Network)などの無線通信により、ネットワークNW1に接続し、ネットワークNW1を経由して各種通信を行う。NW通信部24は、例えば、口唇カメラ21及び視線カメラ22が撮像した画像(口唇周辺画像及び目周辺画像)を、携帯端末10に送信するともに、表示部23に表示する情報を携帯端末10から受信する。
The
サーバ装置30は、例えば、メッセージアプリなどのサービスを提供するアプリケーションサーバであり、各種情報を記憶する。サーバ装置30は、例えば、ネットワークNW1を経由して、携帯端末10と接続し、携帯端末10との間で各種情報を通信する。サーバ装置30は、例えば、NW通信部31と、スタンプ記憶部32とを備えている。
The
NW通信部31は、ネットワークNW1に接続し、ネットワークNW1を経由して各種通信を行う。NW通信部24は、例えば、後述するスタンプ記憶部32が記憶する情報を、携帯端末10との間で送受信する。
The
スタンプ記憶部32(候補記憶部の一例)は、登録されているスタンプの情報(スタンプテーブル情報)を記憶する。スタンプ記憶部32は、例えば、単語と、表情と、スタンプとを対応付けて記憶する。ここで、図3を参照して、スタンプ記憶部32のデータ例について説明する。
The stamp storage unit 32 (an example of the candidate storage unit) stores the registered stamp information (stamp table information). The
図3は、本実施形態おけるスタンプ記憶部32のデータ例を示す図である。
図3に示すように、スタンプ記憶部32は、「ユーザID」と、「スタンプID」と、「スタンプ情報」と、「単語」と、「表情」とを対応付けたスタンプテーブル情報を記憶する。
FIG. 3 is a diagram showing a data example of the
As shown in FIG. 3, the
ここで、「ユーザID」は、利用者U1を識別する利用者識別情報の一例であり、「スタンプID」は、スタンプを識別するスタンプ識別情報の一例である。また、「スタンプ情報」は、スタンプの内容であるイラスト画像情報を示している。また、「単語」は、スタンプに関連する単語を示し、「表情」は、スタンプに関連する表情を示している。 Here, the "user ID" is an example of user identification information that identifies the user U1, and the "stamp ID" is an example of stamp identification information that identifies the stamp. Further, the "stamp information" indicates the illustration image information which is the content of the stamp. Further, "word" indicates a word related to the stamp, and "facial expression" indicates a facial expression related to the stamp.
図3に示す例では、例えば、「ユーザID」が“U001”のスタンプにおいて、「スタンプID」が“AAA”で、「スタンプ情報」が“スタンプA”であるスタンプに対応する「単語」が“いいね”であり、「表情」が“喜び”であることを示している。
なお、スタンプ記憶部32は、スタンプテーブル情報を、利用者U1(「ユーザID」)ごとに記憶している。
In the example shown in FIG. 3, for example, in the stamp whose "user ID" is "U001", the "word" corresponding to the stamp whose "stamp ID" is "AAA" and whose "stamp information" is "stamp A" is It is "like" and shows that "expression" is "joy".
The
図1及び図2の説明に戻り、携帯端末10は、例えば、スマートフォンやタブレット端末などの端末装置であり、利用者U1が携帯可能な端末装置である。携帯端末10は、例えば、NW通信部11と、入力部12と、表示部13と、端末記憶部14と、端末制御部15とを備えている。
Returning to the description of FIGS. 1 and 2, the
NW通信部11は、無線LANや4G(第4世代移動通信システム)などの無線通信により、ネットワークNW1に接続し、ネットワークNW1を経由して各種通信を行う。NW通信部11は、例えば、眼鏡型表示装置20の口唇カメラ21及び視線カメラ22が撮像した画像(口唇周辺画像及び目周辺画像)を、眼鏡型表示装置20から受信するともに、表示部23に表示する情報を眼鏡型表示装置20に送信する。
The
また、NW通信部11は、例えば、サーバ装置30のスタンプ記憶部32が記憶するスタンプテーブル情報をサーバ装置30から受信するとともに、サーバ装置30に、スタンプ記憶部32の登録情報を送信する。
Further, the
入力部12は、例えば、タッチセンサなどの入力デバイスであり、利用者U1からの各種情報の入力を受け付ける。
表示部13は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどの表示デバイスであり、携帯端末10の各種情報を表示する。
なお、入力部12及び表示部13は、例えば、タッチスクリーンとして構成されている。
The
The
The
端末記憶部14は、携帯端末10が利用する各種情報を記憶する。端末記憶部14は、例えば、メッセージアプリにより送受信したメッセージやスタンプ、各種表示情報などを記憶する。
The
端末制御部15は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、携帯端末10を統括的に制御する。端末制御部15は、例えば、単語識別部151と、表情識別部152と、推奨処理部153と、視線検出部154と、受信処理部155と、送信処理部156と、スタンプ登録処理部157とを備えている。
The
単語識別部151は、口唇カメラ21が撮像した口唇画像に基づいて、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。単語識別部151は、例えば、NW通信部11を介して、眼鏡型表示装置20から口唇カメラ21が撮像した口唇画像を取得し、取得した口唇画像に基づいて、利用者U1の口唇の動きを検出する。単語識別部151は、例えば、特許文献1などの既存技術を用いて、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。ここで、利用者U1の口唇の動きは、利用者U1が音声を出した発話を伴うものでなくてよく、口をぱくぱくさせて発話せずに口を動かす口唇の動きであってもよい。
The
表情識別部152は、口唇カメラ21が撮像した口唇画像に基づいて、利用者U1の表情を識別する。ここで、表情とは、利用者の感情が表に現れたものであり、例えば、怒り、喜び、悲しみ、などのを示す。表情識別部152は、既存技術を用いて、取得した口唇画像に基づいて、利用者U1の表情を識別する。
The facial
推奨処理部153は、単語識別部151が識別した単語と、表情識別部152が識別した表情とに基づいて、上述したスタンプ記憶部32から、スタンプの候補を取得し、スタンプの候補を含む画像を表示部23に表示させる。
The recommended
推奨処理部153は、例えば、サーバ装置30のスタンプ記憶部32を参照し、単語識別部151及び表情識別部152が識別した単語及び表情と一致するスタンプを、スタンプの候補として抽出し、抽出した当該スタンプID及びスタンプ情報を、スタンプ記憶部32から取得する。推奨処理部153は、取得したスタンプ情報を含む表示画像データを生成して、当該表示画像データを、NW通信部11を介して、眼鏡型表示装置20に送信して、表示部23に表示させる。推奨処理部163は、例えば、後述する受信処理部155がメッセージを受信した場合に、受信したメッセージに対するスタンプの候補を含む画像を表示部23に表示させる。
The recommended
視線検出部154は、視線カメラ22が撮像した目周辺画像に基づいて利用者U1の視線を検出する。視線検出部154は、例えば、NW通信部11を介して、眼鏡型表示装置20から視線カメラ22が撮像した目周辺画像を取得し、取得した目周辺画像に含まれる瞳(眼球)の動きなどから、既存技術を用いて、利用者U1の視線を検出する。
The line-of-
受信処理部155は、ネットワークNW1を経由して受信したメッセージを、表示部23に表示させる。受信処理部155は、例えば、メッセージアプリにより、NW通信部11を介して、メッセージを受信した場合に、受信したメッセージを、NW通信部11を介して、眼鏡型表示装置20に送信して、表示部23に表示させる。
The
送信処理部156は、視線カメラ22が撮像した第2画像に基づいて検出された利用者U1の視線により、表示部23に表示されているスタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先にネットワークNW1を経由して送信する。送信処理部156は、例えば、視線検出部154が検出した視線により、表示部23に表示されている画像の視線の先に対応する位置に、例えば、十字マークなどのマークを表示させる。
The
送信処理部156は、表示部23に表示されているスタンプの候補のうちから、選択したいスタンプを所定の期間(例えば、3秒間)、注視することで、スタンプを選択する。送信処理部156は、選択したスタンプを、所定の送信先(例えば、受信したメッセージの送信元、あるいは、送信元を含む所定のグループなど)に、NW通信部11を介して送信する。
The
スタンプ登録処理部157(登録処理部の一例)は、スタンプ記憶部32に、利用者U1のスタンプテーブル情報を記憶させて登録する。なお、スタンプ記憶部32は、上述した図3に示すように、単語と、表情と、スタンプとを対応付けたスタンプテーブル情報を、利用者U1ごと(例えば、ユーザIDごと)に記憶している。スタンプ登録処理部157は、利用者U1ごとに独自のスタンプを登録する際に、例えば、入力部12の操作に応じて、指定されたスタンプのスタンプテーブル情報を、NW通信部11を介して、サーバ装置30に送信し、スタンプ記憶部32に、送信したスタンプテーブル情報を追加して記憶させる。
The stamp registration processing unit 157 (an example of the registration processing unit) stores and registers the stamp table information of the user U1 in the
次に、図面を参照して、本実施形態による簡易通信システム1の動作について説明する。
図4は、本実施形態による簡易通信システム1の動作の一例を示すフローチャートである。
Next, the operation of the
FIG. 4 is a flowchart showing an example of the operation of the
図4に示すように、簡易通信システム1の携帯端末10は、メッセージアプリによるメッセージの通知を受けると、メッセージの受信処理を実行する(ステップS101)。携帯端末10の受信処理部155は、NW通信部11を介して、例えば、サーバ装置30からメッセージを受信する。
As shown in FIG. 4, when the
次に、受信処理部155は、受信したメッセージを眼鏡型表示装置20の表示部23に表示させる(ステップS102)。受信処理部155は、受信したメッセージを、NW通信部11を介して、眼鏡型表示装置20に送信し、例えば、図5に示すように、メッセージを表示部23に表示させる。
Next, the
図5は、本実施形態におけるメッセージの受信画面の一例を示す図である。
図5に示す表示画面G1は、眼鏡型表示装置20の表示部23が表示する画面である。表示部23は、携帯端末10がメッセージアプリにより受信したメッセージを、表示画面G1のように表示する。
FIG. 5 is a diagram showing an example of a message reception screen in the present embodiment.
The display screen G1 shown in FIG. 5 is a screen displayed by the
次に、携帯端末10は、口唇カメラ21の画像を取得する(ステップS103)。携帯端末10の単語識別部151(又は、表情識別部152)は、口唇カメラ21が撮像した口唇画像を、NW通信部11を介して、眼鏡型表示装置20から取得する。
Next, the
次に、単語識別部151は、画像から口唇の動きが示す単語を識別する(ステップS104)。単語識別部151は、眼鏡型表示装置20から取得した口唇画像から、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。
Next, the
次に、携帯端末10の表情識別部152は、画像から利用者U1の表情を識別する(ステップS105)。表情識別部152は、眼鏡型表示装置20から取得した口唇画像から、例えば、怒り、喜び、悲しみ、など感情を示す利用者U1の表情を、既存技術を用いて識別する。
Next, the facial
次に、携帯端末10の推奨処理部153は、単語及び表情に基づいて、スタンプ記憶部32からスタンプの候補を取得する(ステップS106)。推奨処理部153は、例えば、サーバ装置30のスタンプ記憶部32を参照し、単語識別部151及び表情識別部152が識別した単語及び表情と一致するスタンプを、スタンプの候補として抽出し、抽出した当該スタンプID及びスタンプ情報を、スタンプ記憶部32から取得する。
Next, the recommended
次に、推奨処理部153は、スタンプの候補を眼鏡型表示装置20の表示部23に表示させる(ステップS107)。推奨処理部153は、取得したスタンプ情報を含む表示画像データを生成して、当該表示画像データを、NW通信部11を介して、眼鏡型表示装置20に送信して、表示部23に表示させる。眼鏡型表示装置20の表示部23は、例えば、図6に示すように、スタンプの候補を表示する。
Next, the recommended
図6は、本実施形態におけるスタンプの候補の選択画面の一例を示す図である。
図6に示す表示画面G2は、眼鏡型表示装置20の表示部23が表示する画面である。表示部23は、携帯端末10から受信した複数のスタンプの候補(例えば、スタンプSTP1、スタンプSTP2、スタンプSTP3、・・・など)を、表示画面G2のように表示する。
FIG. 6 is a diagram showing an example of a stamp candidate selection screen in the present embodiment.
The display screen G2 shown in FIG. 6 is a screen displayed by the
次に、携帯端末10の視線検出部154は、視線カメラ22の画像を取得し、利用者U1の視線を検出する(ステップS108)。視線検出部154は、視線カメラ22が撮像した目周辺画像を、NW通信部11を介して、眼鏡型表示装置20から取得する。視線検出部154は、取得した目周辺画像に含まれる瞳(眼球)の動きなどから、既存技術を用いて、利用者U1の視線を検出する。
Next, the line-of-
次に、携帯端末10の送信処理部156は、利用者U1の視線の先の画像に、視線マークを表示させる(ステップS109)。送信処理部156は、例えば、図6に示すように、視線マークとして、十字マークMK1を、利用者U1の視線の先の表示部23の表示画面G2に表示させる。
Next, the
次に、送信処理部156は、スタンプの決定操作か否かを判定する(ステップS110)。送信処理部156は、視線検出部154による視線の検出により、例えば、3秒間、スタンプの候補が注視されたか否かによって、スタンプの決定操作か否かを判定する。送信処理部156は、例えば、3秒間、スタンプの候補が注視された場合(ステップS110:YES)に、処理をステップS111に進める。また、送信処理部156は、例えば、3秒間、スタンプの候補が注視されていない場合(ステップS110:NO)に、処理をステップS108に戻す。
Next, the
ステップS111において、送信処理部156は、選択したスタンプをメッセージの送信元を含む送信先(所定の送信先)に送信する。推奨処理部153は、選択したスタンプを、NW通信部11を介して、メッセージの送信元を含む送信先(所定の送信先)に返信する。ステップS111の処理後に、送信処理部156は、当該処理を終了する。
In step S111, the
なお、図7は、本実施形態におけるスタンプの送信完了画面の一例を示す図である。
図7に示す表示画面G3は、眼鏡型表示装置20の表示部23が表示する画面であり、表示部23は、携帯端末10が送信したスタンプSTP4を、表示画面G2のように表示する。
Note that FIG. 7 is a diagram showing an example of a stamp transmission completion screen in the present embodiment.
The display screen G3 shown in FIG. 7 is a screen displayed by the
以上説明したように、本実施形態による簡易通信システム1は、ネットワークNW1に接続可能な携帯端末10と、利用者U1の頭部に装着可能な眼鏡型表示装置20(表示装置)とを備える。眼鏡型表示装置20は、利用者U1の頭部に装着された場合に、少なくとも利用者U1の口唇を含む第1画像を撮像可能な口唇カメラ21(第1撮像部)と、利用者U1の目を含む第2画像を撮像可能な視線カメラ22(第2撮像部)と、画像を表示する表示部23とを有する。携帯端末10は、単語識別部151と、表情識別部152と、推奨処理部153と、送信処理部156とを備える。単語識別部151は、口唇カメラ21が撮像した第1画像に基づいて、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。表情識別部152は、第1画像に基づいて、利用者U1の表情を識別する。推奨処理部153は、スタンプ記憶部32(候補記憶部)から、単語識別部151が識別した単語と、表情識別部152が識別した表情とに基づいて、スタンプの候補を取得し、スタンプの候補を含む画像を表示部23に表示させる。ここで、スタンプ記憶部32は、単語と、表情と、利用者U1の心情を表現するイラストであるスタンプとを対応付けて記憶する。送信処理部156は、視線カメラ22が撮像した第2画像に基づいて検出された利用者U1の視線により、表示部23に表示されているスタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先(例えば、受信したメッセージの送信元)にネットワークNW1を経由して送信する。
As described above, the
これにより、本実施形態による簡易通信システム1は、例えば、満員電車の中など利用者U1の手が使用できない状況において、利用者U1の口唇の動きから、利用者U1の意図する単語を識別するとともに、口唇周辺の画像から表情を識別し、単語及び表情に基づいて、スタンプの候補を表示部23に表示させる。そして、本実施形態による簡易通信システム1は、視線の検出により、スタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先に送信するため、適切なスタンプを送信することができる。よって、本実施形態による簡易通信システム1は、利用者U1の手が使用できない状況において、適切に情報(例えば、スタンプ)を送信することができる。
As a result, the
また、本実施形態では、スタンプ記憶部32は、単語と、表情と、スタンプとを対応付けたスタンプテーブル情報を、利用者U1ごとに記憶する。簡易通信システム1(携帯端末10)は、スタンプ記憶部32に、利用者U1のスタンプテーブル情報を記憶させて登録するスタンプ登録処理部157(登録処理部)を備える。
Further, in the present embodiment, the
これにより、本実施形態による簡易通信システム1は、利用者U1ごとに、独自のスタンプを登録することが可能であり、例えば、利用者U1の手が使用できない状況において、利用者U1の独自のスタンプを送信することができる。よって、本実施形態による簡易通信システム1は、スタンプの選択の自由度を高めることができるとともに、利便性を向上させることができる。
As a result, the
また、本実施形態による簡易通信システム1は、ネットワークNW1を経由して受信したメッセージを、表示部23に表示させる受信処理部155を備える。推奨処理部163は、受信したメッセージに対するスタンプの候補を含む画像を表示部23に表示させる。送信処理部156は、選択したスタンプを、受信したメッセージの送信元を含む所定の送信先に送信する。
Further, the
これにより、本実施形態による簡易通信システム1は、例えば、利用者U1の手が使用できない状況において、受信したメッセージに対して、適切にスタンプを返信することができる。
As a result, the
また、本実施形態による簡易通信方法は、上述した携帯端末10と、眼鏡型表示装置20とを備える簡易通信システム1の簡易通信方法であって、単語識別ステップと、感情識別ステップと、推奨処理ステップと、送信処理ステップとを含む。単語識別ステップにおいて、携帯端末10が、口唇カメラ21が撮像した第1画像に基づいて、口唇の動きを検出し、検出した口唇の動きに基づいて、口唇の動きが示す単語を識別する。感情識別ステップにおいて、携帯端末10が、第1画像に基づいて、利用者U1の表情を識別する。推奨処理ステップにおいて、携帯端末10が、スタンプ記憶部32から、単語識別ステップによって識別された単語と、感情識別ステップによって識別された表情とに基づいて、スタンプの候補を取得し、スタンプの候補を含む画像を表示部23に表示させる。送信処理ステップにおいて、携帯端末10が、視線カメラ22が撮像した第2画像に基づいて検出された利用者U1の視線により、表示部23に表示されているスタンプの候補のうちからスタンプを選択し、選択したスタンプを、所定の送信先にネットワークNW1を経由して送信する。
Further, the simple communication method according to the present embodiment is a simple communication method of the
これにより、本実施形態による簡易通信方法は、上述した簡易通信システム1と同様の効果を奏し、利用者U1の手が使用できない状況において、適切に情報(例えば、スタンプ)を送信することができる。
As a result, the simple communication method according to the present embodiment has the same effect as the
[第2の実施形態]
次に、図面を参照して、第2の実施形態のよる簡易通信システム1aについて説明する。本実施形態では、過去のスタンプの送信履歴を利用して、スタンプの候補に、優先順位を付ける変形例について説明する。
[Second Embodiment]
Next, the
図8は、第2の実施形態による簡易通信システム1aの一例を示す機能ブロック図である。
図8に示すように、簡易通信システム1aは、携帯端末10aと、眼鏡型表示装置20と、サーバ装置30aとを備える。
なお、この図において、図1及び図2と同一の構成には、同一の符号を付与して、ここではその説明を省略する。
FIG. 8 is a functional block diagram showing an example of the
As shown in FIG. 8, the
In this figure, the same reference numerals are given to the same configurations as those in FIGS. 1 and 2, and the description thereof will be omitted here.
サーバ装置30aは、例えば、メッセージアプリなどのサービスを提供するアプリケーションサーバであり、各種情報を記憶する。サーバ装置30aは、例えば、ネットワークNW1を経由して、携帯端末10aと接続し、携帯端末10aとの間で各種情報を通信する。サーバ装置30aは、例えば、NW通信部31と、スタンプ記憶部32と、送信履歴記憶部33とを備えている。
The server device 30a is an application server that provides services such as a message application, and stores various information. The server device 30a connects to the
送信履歴記憶部33は、携帯端末10aによるスタンプの送信履歴情報を記憶する。送信履歴記憶部33は、例えば、送信日時と、送信したスタンプと、送信先と、単語と、表情とを対応付けた過去の送信履歴情報を記憶する。ここで、図9を参照して、送信履歴記憶部33のデータ例について説明する。
The transmission
図9は、本実施形態おける送信履歴記憶部33のデータ例を示す図である。
図9に示すように、送信履歴記憶部33は、「ユーザID」と、「日時」と、「スタンプID」と、「送信先」と、「単語」と、「表情」と、「場所」と、「スケジュール」とを対応付けた履歴情報を記憶する。
FIG. 9 is a diagram showing a data example of the transmission
As shown in FIG. 9, the transmission
ここで、「日時」は、スタンプを送信した日時を示し、「スタンプID」は、スタンプを識別するスタンプ識別情報の一例である。また、「単語」及び「表情」は、スタンプを送信した際の携帯端末10aによる単語及び表情の認識結果を示し、「場所」は、スタンプを送信した際の利用者U1が居た場所に関する位置情報を示している。また、「スケジュール」は、スタンプを送信した際の利用者U1のスケジュールに基づく利用者U1の状況を示すスケジュール情報である。「スケジュール」の情報は、後述する携帯端末10aのスケジュール記憶部141に登録されている情報に基づいて設定される。なお、「スケジュール」の情報は、登録されている情報そのままであってもよい。
Here, the "date and time" indicates the date and time when the stamp was transmitted, and the "stamp ID" is an example of stamp identification information for identifying the stamp. Further, "word" and "facial expression" indicate the recognition result of the word and facial expression by the
図9に示す例では、例えば、「日時」が“2020/01/20 10:00”(2020年1月20日10時0分)に、「スタンプID」が“AAA”のスタンプを、「送信先」の“○○”に送信していることを示している。また、このスタンプを送信した際の「単語」が“いいね”、「表情」が“退屈”、「場所」が“XXX市”、及び「スケジュール」が“仕事”であることを示している。すなわち、このスタンプが、利用者U1が“XXX市”にいるときに、仕事中に送信されたことを示している。 In the example shown in FIG. 9, for example, the "date and time" is "2020/01/20 10:00" (January 20, 2020 10:00), the "stamp ID" is "AAA", and the stamp is ". Indicates that the message is being sent to "○○" in "Destination". Also, when this stamp is sent, the "word" is "like", the "expression" is "boring", the "location" is "XXX city", and the "schedule" is "work". .. That is, this stamp indicates that the user U1 was transmitted during work when he was in the "XXX city".
図8の説明に戻り、携帯端末10aは、例えば、スマートフォンやタブレット端末などの端末装置であり、利用者U1が携帯可能な端末装置である。携帯端末10aは、例えば、NW通信部11と、入力部12と、表示部13と、端末記憶部14aと、端末制御部15aと、位置情報検出部16とを備えている。
Returning to the description of FIG. 8, the
端末記憶部14aは、携帯端末10aが利用する各種情報を記憶する。端末記憶部14aは、スケジュール記憶部141を備えている。
スケジュール記憶部141は、予め登録されている利用者U1のスケジュールを記憶する。スケジュール記憶部141は、例えば、日時情報と、スケジュール内容(“仕事”、“趣味活動”など利用者U1の状況を示す情報)とを対応付けて記憶する。スケジュール記憶部141が記憶するスケジュールは、上述した送信履歴情報や、スタンプの候補の優先順位付け行う際に利用される。
The
The
位置情報検出部16は、例えば、GPS(Global Positioning System)により、携帯端末10a(利用者U1)の位置情報を検出する。位置情報検出部16が検出した位置情報は、上述した送信履歴情報や、スタンプの候補の優先順位付け行う際に利用される。
The position
端末制御部15aは、例えば、CPUなどを含むプロセッサであり、携帯端末10aを統括的に制御する。端末制御部15aは、例えば、単語識別部151と、表情識別部152と、推奨処理部153aと、視線検出部154と、受信処理部155と、送信処理部156aと、スタンプ登録処理部157とを備えている。端末制御部15aの機能は、基本的に、上述した第1の実施形態の端末制御部15と同様であるが、本実施形態では、推奨処理部153a及び送信処理部156aの処理の一部が異なる。
The terminal control unit 15a is, for example, a processor including a CPU and the like, and controls the
推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、スタンプの候補を表示部23に表示させる。推奨処理部153aは、例えば、表示の左上を最優先順位として、表示の左から右に進む程、優先順位が低く、表示の上から下に進む程、優先順位が低くなるように、スタンプの候補を表示部23に表示させる。
The recommended
ここで、優先順位とは、1番目が最も優先順位が高く、順位の数字が大きくなる程、優先順位が低くなるものとする。すなわち、優先順位の上位の方が、下位よりも順位の数字が小さく、優先順位の下位の方が、上位よりも順位の数字が大きいものとする。
また、本実施形態において、「優先順位を上げる」とは、優先順位を高めることであり、「優先順位を下げる」とは、優先順位を低めることである。
Here, as for the priority, the first is the highest priority, and the larger the number of the rank, the lower the priority. That is, it is assumed that the higher priority has a smaller rank number than the lower priority, and the lower priority has a higher rank number than the higher priority.
Further, in the present embodiment, "raising the priority" means raising the priority, and "lowering the priority" means lowering the priority.
推奨処理部153aは、例えば、識別した「単語」と「表情」との両方が一致するスタンプの候補の優先順位を最上位にし、「単語」と「表情」とのいずれか一方のみが一致するスタンプの候補の優先順位を下げる(低くする)ようにしてもよい。また、「単語」と「表情」とのいずれを優先するのか予め決めておいてもよい。
For example, the recommended
また、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した場所情報が含まれ、推奨処理部153aは、送信履歴情報に基づいて、現在の携帯端末10aの場所に対応したスタンプの候補の優先順位を上げる(高くする)処理を実行する。推奨処理部153aは、例えば、位置情報検出部16が検出した位置情報に基づいて、現在の携帯端末10aの場所を決定し、決定した場所と送信履歴情報に含まれる「場所」とが一致する又は近いものを優先順位を上げる(高くする)ようにする。
Further, the transmission history information of the transmission
また、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した際の状況を示すスケジュール情報が含まれ、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、現在のスケジュールに基づく利用者U1の状況に対応したスタンプの候補の優先順位を上げる(高くする)処理を実行する。推奨処理部153aは、例えば、スケジュール記憶部141に登録されている現在の利用者U1のスケジュールに基づいて、現在のスケジュール情報を決定し、決定したスケジュール情報と送信履歴情報に含まれる「スケジュール」とが一致する又は近いものを優先順位を上げる(高くする)ようにする。
Further, the transmission history information of the transmission
また、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、スタンプの使用頻度が高い程、スタンプの候補の優先順位を上げる(高くする)ようにしてもよいし、連続して同じスタンプを送信しないようにするために、直近に送信されたスタンプに対するスタンプの候補の優先順位を下げる(低くする)ようにしてもよい。
Further, the recommended
例えば、スタンプを送信しようとしている送信先が“××”であり、単語が“いいね”であり、表情が“退屈”であった場合に、推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、次のように優先順位を決定し、スタンプの候補を表示部23に表示させる。推奨処理部153aは、例えば、送信先が“××”である場合の使用頻度が高いスタンプの候補の上位○○個(例えば、5個)と、単語が“いいね”である場合の使用頻度が高いスタンプの候補の上位○○個(例えば、5個)と、表情が“退屈”である場合の使用頻度が高いスタンプの候補の上位○○個(例えば、5個)と、を順番にスタンプの候補として表示部23に表示させる。
For example, when the destination to which the stamp is to be transmitted is "XX", the word is "like", and the facial expression is "boring", the recommended
送信処理部156aの基本的な機能は、上述した第1の実施形態の送信処理部156と同様である。送信処理部156aは、送信したスタンプに対応する送信履歴情報を、送信履歴記憶部33に追加して記憶させる処理が追加される。送信処理部156aは、スタンプを送信した後に、例えば、図9に示すような送信したスタンプに対応する送信履歴情報を、NW通信部11を介して、サーバ装置30aに送信し、当該送信履歴情報を送信履歴記憶部33に記憶させる。
The basic function of the
次に、図面を参照して、本実施形態による簡易通信システム1aの動作について説明する。
図10は、本実施形態による簡易通信システム1aの動作の一例を示すフローチャートである。
Next, the operation of the
FIG. 10 is a flowchart showing an example of the operation of the
図10に示すステップS201からステップS206までの処理は、上述した図4に示すステップS101からステップS106までの処理と同様であるため、ここではその説明を省略する。
ステップS207において、携帯端末10aの推奨処理部153aは、送信履歴情報に基づいてスタンプの候補の優先順位を決定する。すなわち、推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、上述したように、スタンプの候補の優先順位を決定する。
Since the processing from step S201 to step S206 shown in FIG. 10 is the same as the processing from step S101 to step S106 shown in FIG. 4 described above, the description thereof will be omitted here.
In step S207, the recommended
次に、推奨処理部153aは、スタンプの候補を眼鏡型表示装置20の表示部23に表示させる(ステップS208)。推奨処理部153aは、スタンプの候補を、優先順位に応じた配置(例えば、表示の左から右に進む程、優先順位が低く、表示の上から下に進む程、優先順位が低くなるようにした配置)で、表示部23に表示させる。
Next, the recommended
続く、ステップS209からステップS212までの処理は、上述した図4に示すステップS108からステップS111までの処理と同様であるため、ここではその説明を省略する。
また、ステップS213において、送信処理部156aは、送信履歴情報を追加する。送信処理部156aは、送信したスタンプに対応する送信履歴情報を、送信履歴記憶部33に追加して記憶させる。ステップS213の処理後に、送信処理部156aは、当該処理を終了する。
Since the subsequent processing from step S209 to step S212 is the same as the processing from step S108 to step S111 shown in FIG. 4 described above, the description thereof will be omitted here.
Further, in step S213, the
以上説明したように、本実施形態による簡易通信システム1aは、送信日時と、送信したスタンプと、送信先と、単語と、表情とを対応付けた過去の送信履歴情報を記憶する送信履歴記憶部33を備える。推奨処理部153aは、送信履歴記憶部33が記憶する送信履歴情報に基づいて、スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、スタンプの候補を表示部23に表示させる。
As described above, the
これにより、本実施形態による簡易通信システム1aは、送信履歴情報に基づいて、スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、スタンプの候補を表示部23に表示させるため、利用者U1の使用傾向に合わせた適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
As a result, the
また、本実施形態では、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した場所情報が含まれる。推奨処理部153aは、送信履歴情報に基づいて、現在の携帯端末10aの場所に対応したスタンプの候補の優先順位を上げる(高める)。
これにより、本実施形態による簡易通信システム1aは、使用場所に応じて、適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the transmission history information of the transmission
Thereby, the
また、本実施形態では、上述した送信履歴記憶部33の送信履歴情報には、スタンプを送信した際の状況を示すスケジュール情報が含まれる。推奨処理部153aは、利用者U1の送信履歴情報に基づいて、現在のスケジュールに基づく利用者U1の状況に対応したスタンプの候補の優先順位を上げる(高める)。
これにより、本実施形態による簡易通信システム1aは、例えば、仕事(ビジネス)や趣味活動(プライベート)などの利用者U1の状況に応じて、適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the transmission history information of the transmission
As a result, the
また、本実施形態では、送信処理部156aは、送信したスタンプに対応する送信履歴情報を、送信履歴記憶部33に追加して記憶させる。推奨処理部153aは、直近に送信されたスタンプに対するスタンプの候補の優先順位を下げる(低める)。
これにより、本実施形態による簡易通信システム1aは、例えば、直近に送信したスタンプを連続して送付してしまうことを抑制することができ、適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the
As a result, the
また、本実施形態では、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、スタンプの使用頻度が高い程、スタンプの候補の優先順位を上げる(高める)。
これにより、本実施形態による簡易通信システム1aは、使用頻度が高いスタンプの候補を優先的に表示部23に表示させるため、利用者の使用傾向に合わせた適切なスタンプの候補を利用者U1に勧める(推奨する)ことができる。
Further, in the present embodiment, the recommended
As a result, in the
なお、スタンプ記憶部32は、単語と、表情と、スタンプと、スタンプのグループを示すグループ情報とを対応付けて記憶してもよい。ここで、スタンプのグループとは、例えば、同一のキャラクタを用いたスタンプの集合や、同様の用途に用いるスタンプの集合などである。
The
図11は、スタンプ記憶部32の変形例を示す図である。
図11に示すように、スタンプ記憶部32の変形例では、「ユーザID」と、「グループID」と、「スタンプID」と、「スタンプ情報」と、「単語」と、「表情」とを対応付けたスタンプテーブル情報を記憶する。ここで、「グループID」は、スタンプのグループを識別する識別情報であり、グループ情報の一例である。
FIG. 11 is a diagram showing a modified example of the
As shown in FIG. 11, in the modified example of the
このようにスタンプテーブル情報に「グループID」が含まれる場合に、推奨処理部153aは、利用者U1の送信履歴情報に基づいて、前回送信したスタンプのグループ情報と一致する、スタンプの候補の優先順位を上げる(高める)ようにしてもよい。
これにより、本実施形態による簡易通信システム1aは、グループ情報が一致したスタンプの候補の優先的に推薦することで、送信するスタンプに一貫性を持たせること可能であり、利便性を向上させることができる。
When the stamp table information includes the "group ID" in this way, the recommended
As a result, the
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、スタンプ記憶部32及び送信履歴記憶部33をサーバ装置30(30a)が備える例を説明したが、これに限定されるものではなく、携帯端末10(10a)が、これらの記憶部を備えるようにしてもよい。
The present invention is not limited to each of the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in the above embodiment, the example in which the server device 30 (30a) includes the
また、上記の実施形態において、携帯端末10(10a)と、眼鏡型表示装置20との間の通信は、ネットワークNW1を経由して行う例を説明したが、これに限定されるものではなく、有線インタフェース又は無線インタフェースによりネットワークNW1を経由せずに通信するようにしてもよい。この場合、携帯端末10(10a)と、眼鏡型表示装置20との間の無線通信は、Bluetooth(登録商標)などのインタフェースを用いてもよい。
Further, in the above embodiment, an example in which communication between the mobile terminal 10 (10a) and the eyeglass-
また、上記の実施形態において、携帯制御部15(15a)が備える各機能部は、携帯制御部15(15a)の外部に備えるようにしてもよい。例えば、単語識別部151、表情識別部152、及び視線検出部154の一部又は全部を、眼鏡型表示装置20に備えるようにしてもよいし、サーバ装置30(30a)が備えるようにしてもよい。
Further, in the above embodiment, each functional unit included in the mobile control unit 15 (15a) may be provided outside the mobile control unit 15 (15a). For example, the
なお、上述した簡易通信システム1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した簡易通信システム1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した簡易通信システム1(1a)が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each configuration included in the simple communication system 1 (1a) described above has a computer system inside. Then, a program for realizing the functions of each configuration included in the simple communication system 1 (1a) described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system. By executing the processing, the processing in each configuration included in the simple communication system 1 (1a) described above may be performed. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices.
Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM.
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に簡易通信システム1(1a)が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The recording medium also includes an internal or external recording medium that can be accessed from the distribution server to distribute the program. Even if the program is divided into a plurality of programs, downloaded at different timings, and then combined with each configuration provided in the simple communication system 1 (1a), or the distribution server that distributes each of the divided programs is different. good. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall also include things. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.
また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, a part or all of the above-mentioned functions may be realized as an integrated circuit such as LSI (Large Scale Integration). Each of the above-mentioned functions may be made into a processor individually, or a part or all of them may be integrated into a processor. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, when an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.
1、1a 簡易通信システム
10、10a 携帯端末
11、24、31 NW通信部
12 入力部
13、23 表示部
14、14a 端末記憶部
15、15a 端末制御部
16 位置情報検出部
20 眼鏡型表示装置
21 口唇カメラ
22 視線カメラ
30、30a サーバ装置
32 スタンプ記憶部
33 送信履歴記憶部
141 スケジュール記憶部
151 単語識別部
152 表情識別部
153、163a 推奨処理部
154 視線検出部
155 受信処理部
156、156a 送信処理部
157 スタンプ登録処理部
NW1 ネットワーク
1, 1a
Claims (11)
ネットワークに接続可能な携帯端末と
を備え、
前記携帯端末は、
前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別部と、
前記第1画像に基づいて、前記利用者の表情を識別する表情識別部と、
前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別部が識別した前記単語と、前記表情識別部が識別した前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理部と、
前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理部と
を備えることを特徴とする簡易通信システム。 A first imaging unit that is a display device that can be worn on the user's head and that can capture at least a first image including the user's lips when worn on the user's head, and the above. A display device having a second image pickup unit capable of capturing a second image including the user's eyes and a display unit for displaying the image, and a display device.
Equipped with a mobile terminal that can connect to the network
The mobile terminal
A word identification unit that detects the movement of the lips based on the first image captured by the first imaging unit and identifies the word indicated by the movement of the lips based on the detected movement of the lips.
A facial expression identification unit that identifies the user's facial expression based on the first image,
The word identified by the word identification unit and the facial expression identification unit were identified from a candidate storage unit that stores the word, the facial expression, and a stamp which is an illustration expressing the user's emotion in association with each other. A recommended processing unit that acquires the stamp candidate based on the facial expression and displays the image including the stamp candidate on the display unit.
The stamp is selected from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the second image captured by the second imaging unit, and the selected stamp is selected. A simple communication system including a transmission processing unit that transmits an image to a predetermined destination via the network.
前記推奨処理部は、前記送信履歴記憶部が記憶する前記送信履歴情報に基づいて、前記スタンプの候補の優先順位を決定し、当該優先順位に応じた配置にして、前記スタンプの候補を前記表示部に表示させる
ことを特徴とする請求項1に記載の簡易通信システム。 A transmission history storage unit that stores past transmission history information in which the transmission date and time, the transmitted stamp, the transmission destination, the word, and the facial expression are associated with each other is provided.
The recommended processing unit determines the priority of the stamp candidates based on the transmission history information stored in the transmission history storage unit, arranges the stamp candidates according to the priority, and displays the stamp candidates. The simple communication system according to claim 1, wherein the communication system is displayed on a unit.
前記推奨処理部は、前記送信履歴情報に基づいて、現在の前記携帯端末の場所に対応した前記スタンプの候補の優先順位を上げる
ことを特徴とする請求項2に記載の簡易通信システム。 The transmission history information includes location information at which the stamp was transmitted.
The simple communication system according to claim 2, wherein the recommended processing unit raises the priority of the stamp candidate corresponding to the current location of the mobile terminal based on the transmission history information.
前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、現在のスケジュールに基づく利用者の状況に対応した前記スタンプの候補の前記優先順位を上げる
ことを特徴とする請求項2又は請求項3に記載の簡易通信システム。 The transmission history information includes schedule information indicating the situation when the stamp is transmitted.
Claim 2 or claim, wherein the recommended processing unit raises the priority of the stamp candidate corresponding to the user's situation based on the current schedule based on the transmission history information of the user. Item 3. The simple communication system according to item 3.
前記推奨処理部は、直近に送信された前記スタンプに対する前記スタンプの候補の優先順位を下げる
ことを特徴とする請求項2から請求項4のいずれか一項に記載の簡易通信システム。 The transmission processing unit adds and stores the transmission history information corresponding to the transmitted stamp to the transmission history storage unit.
The simple communication system according to any one of claims 2 to 4, wherein the recommended processing unit lowers the priority of the stamp candidate with respect to the stamp transmitted most recently.
ことを特徴とする請求項2から請求項5のいずれか一項に記載の簡易通信システム。 A second to a fifth aspect of the present invention, wherein the recommended processing unit raises the priority of the stamp candidate as the stamp is used more frequently based on the transmission history information of the user. The simple communication system according to any one of the above.
前記推奨処理部は、前記利用者の前記送信履歴情報に基づいて、前回送信した前記スタンプの前記グループ情報と一致する、前記スタンプの候補の前記優先順位を上げる
ことを特徴とする請求項2から請求項6のいずれか一項に記載の簡易通信システム。 The candidate storage unit stores the word, the facial expression, the stamp, and the group information indicating the group of the stamps in association with each other.
From claim 2, the recommended processing unit raises the priority of the stamp candidate, which matches the group information of the stamp transmitted last time, based on the transmission history information of the user. The simple communication system according to any one of claims 6.
前記候補記憶部に、前記利用者の前記スタンプテーブル情報を記憶させて登録する登録処理部を備える
ことを特徴とする請求項1から請求項7のいずれか一項に記載の簡易通信システム。 The candidate storage unit stores stamp table information in which the word, the facial expression, and the stamp are associated with each user.
The simple communication system according to any one of claims 1 to 7, wherein the candidate storage unit includes a registration processing unit that stores and registers the stamp table information of the user.
前記推奨処理部は、受信した前記メッセージに対する前記スタンプの候補を含む前記画像を前記表示部に表示させ、
前記送信処理部は、選択した前記スタンプを、受信した前記メッセージの送信元を含む所定の送信先に送信する
ことを特徴とする請求項1から請求項8のいずれか一項に記載の簡易通信システム。 A reception processing unit for displaying a message received via the network on the display unit is provided.
The recommended processing unit causes the display unit to display the image including the stamp candidate for the received message.
The simple communication according to any one of claims 1 to 8, wherein the transmission processing unit transmits the selected stamp to a predetermined destination including the source of the received message. system.
前記携帯端末が、前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、
前記携帯端末が、前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、
前記携帯端末が、前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、
前記携帯端末が、前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップと
を含むことを特徴とする簡易通信方法。 A first imaging unit that is a display device that can be worn on the user's head and that can capture at least a first image including the user's lips when worn on the user's head, and the above. A simple communication method of a simple communication system including a second imaging unit capable of capturing a second image including the user's eyes, a display device having a display unit for displaying an image, and a mobile terminal connectable to a network. There,
The mobile terminal detects the movement of the lips based on the first image captured by the first imaging unit, and identifies the word indicated by the movement of the lips based on the detected movement of the lips. Identification step and
An emotion identification step in which the mobile terminal identifies the facial expression of the user based on the first image,
The word identified by the word identification step and the word identified by the mobile terminal from a candidate storage unit that stores the word, the facial expression, and a stamp which is an illustration expressing the user's emotion in association with each other. A recommended processing step of acquiring a stamp candidate based on the facial expression identified by the emotion identification step and displaying the image including the stamp candidate on the display unit.
The mobile terminal selects the stamp from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the second image captured by the second imaging unit. , A simple communication method comprising a transmission processing step of transmitting the selected stamp to a predetermined destination via the network.
前記第1撮像部が撮像した前記第1画像に基づいて、前記口唇の動きを検出し、検出した前記口唇の動きに基づいて、前記口唇の動きが示す単語を識別する単語識別ステップと、
前記第1画像に基づいて、前記利用者の表情を識別する感情識別ステップと、
前記単語と、前記表情と、前記利用者の心情を表現するイラストであるスタンプとを対応付けて記憶する候補記憶部から、前記単語識別ステップによって識別された前記単語と、前記感情識別ステップによって識別された前記表情とに基づいて、前記スタンプの候補を取得し、前記スタンプの候補を含む前記画像を前記表示部に表示させる推奨処理ステップと、
前記第2撮像部が撮像した前記第2画像に基づいて検出された前記利用者の視線により、前記表示部に表示されている前記スタンプの候補のうちから前記スタンプを選択し、選択した前記スタンプを、所定の送信先に前記ネットワークを経由して送信する送信処理ステップと
を実行させるためのプログラム。 A first imaging unit that is a display device that can be worn on the user's head and that can capture at least a first image including the user's lips when worn on the user's head, and the above. A computer of a simple communication system including a second imaging unit capable of capturing a second image including the user's eyes, a display device having a display unit for displaying an image, and a mobile terminal connectable to a network.
A word identification step of detecting the movement of the lips based on the first image captured by the first imaging unit and identifying a word indicated by the movement of the lips based on the detected movement of the lips.
An emotion identification step for identifying the user's facial expression based on the first image, and
The word identified by the word identification step is identified by the emotion identification step from a candidate storage unit that stores the word, the facial expression, and a stamp which is an illustration expressing the user's emotion in association with each other. A recommended processing step of acquiring a stamp candidate based on the facial expression and displaying the image including the stamp candidate on the display unit, and
The stamp is selected from the stamp candidates displayed on the display unit based on the line of sight of the user detected based on the second image captured by the second imaging unit, and the selected stamp is selected. A program for executing a transmission processing step of transmitting an image to a predetermined destination via the network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020059399A JP6899940B1 (en) | 2020-03-30 | 2020-03-30 | Simple communication system, simple communication method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020059399A JP6899940B1 (en) | 2020-03-30 | 2020-03-30 | Simple communication system, simple communication method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6899940B1 JP6899940B1 (en) | 2021-07-07 |
JP2021157681A true JP2021157681A (en) | 2021-10-07 |
Family
ID=76649995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020059399A Active JP6899940B1 (en) | 2020-03-30 | 2020-03-30 | Simple communication system, simple communication method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6899940B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4156607A1 (en) | 2021-09-28 | 2023-03-29 | Toyota Jidosha Kabushiki Kaisha | Vehicle control interface and vehicle including the same, autonomous driving system and vehicle including the same, and method of controlling vehicle |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009015592A (en) * | 2007-07-04 | 2009-01-22 | Sharp Corp | Noncontact input device for mobile communication terminal, mobile communication terminal, and mail creation system |
JP2010026731A (en) * | 2008-07-17 | 2010-02-04 | Nec Saitama Ltd | Character input device, character input method, character input system, character input server and terminal |
JP2014170397A (en) * | 2013-03-04 | 2014-09-18 | L Is B Corp | Message system |
JP2015115926A (en) * | 2013-12-16 | 2015-06-22 | 株式会社日立システムズ | Portable terminal device, lip-reading communication method, and program |
WO2015186534A1 (en) * | 2014-06-06 | 2015-12-10 | ソニー株式会社 | Information processing device and method, and program |
US20160054895A1 (en) * | 2014-08-21 | 2016-02-25 | Samsung Electronics Co., Ltd. | Method of providing visual sound image and electronic device implementing the same |
JP2016071571A (en) * | 2014-09-30 | 2016-05-09 | 大日本印刷株式会社 | Message transmission device and computer program |
JP2016134747A (en) * | 2015-01-19 | 2016-07-25 | 株式会社イルド | Telephone device, program, and telephone system |
WO2016151794A1 (en) * | 2015-03-25 | 2016-09-29 | エヌ・ティ・ティ・ソフトウェア株式会社 | Communication control device, user terminal, and program |
JP2016224554A (en) * | 2015-05-27 | 2016-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Eye-mount display device |
JP2017522626A (en) * | 2014-07-02 | 2017-08-10 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Information transmitting method and transmitting apparatus |
JP2018018449A (en) * | 2016-07-29 | 2018-02-01 | フォーブ インコーポレーテッド | Information processing system, operation method, and operation program |
JP2018109924A (en) * | 2017-01-06 | 2018-07-12 | ソニー株式会社 | Information processing device, information processing method, and program |
US20190019508A1 (en) * | 2017-07-11 | 2019-01-17 | Samsung Electronics Co., Ltd | System and method for voice command context |
JP2019102001A (en) * | 2017-12-07 | 2019-06-24 | Line株式会社 | Program, information processing method, and information processing device |
US10755463B1 (en) * | 2018-07-20 | 2020-08-25 | Facebook Technologies, Llc | Audio-based face tracking and lip syncing for natural facial animation and lip movement |
-
2020
- 2020-03-30 JP JP2020059399A patent/JP6899940B1/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009015592A (en) * | 2007-07-04 | 2009-01-22 | Sharp Corp | Noncontact input device for mobile communication terminal, mobile communication terminal, and mail creation system |
JP2010026731A (en) * | 2008-07-17 | 2010-02-04 | Nec Saitama Ltd | Character input device, character input method, character input system, character input server and terminal |
JP2014170397A (en) * | 2013-03-04 | 2014-09-18 | L Is B Corp | Message system |
JP2015115926A (en) * | 2013-12-16 | 2015-06-22 | 株式会社日立システムズ | Portable terminal device, lip-reading communication method, and program |
WO2015186534A1 (en) * | 2014-06-06 | 2015-12-10 | ソニー株式会社 | Information processing device and method, and program |
JP2017522626A (en) * | 2014-07-02 | 2017-08-10 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Information transmitting method and transmitting apparatus |
US20160054895A1 (en) * | 2014-08-21 | 2016-02-25 | Samsung Electronics Co., Ltd. | Method of providing visual sound image and electronic device implementing the same |
JP2016071571A (en) * | 2014-09-30 | 2016-05-09 | 大日本印刷株式会社 | Message transmission device and computer program |
JP2016134747A (en) * | 2015-01-19 | 2016-07-25 | 株式会社イルド | Telephone device, program, and telephone system |
WO2016151794A1 (en) * | 2015-03-25 | 2016-09-29 | エヌ・ティ・ティ・ソフトウェア株式会社 | Communication control device, user terminal, and program |
JP2016224554A (en) * | 2015-05-27 | 2016-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Eye-mount display device |
JP2018018449A (en) * | 2016-07-29 | 2018-02-01 | フォーブ インコーポレーテッド | Information processing system, operation method, and operation program |
JP2018109924A (en) * | 2017-01-06 | 2018-07-12 | ソニー株式会社 | Information processing device, information processing method, and program |
US20190019508A1 (en) * | 2017-07-11 | 2019-01-17 | Samsung Electronics Co., Ltd | System and method for voice command context |
JP2019102001A (en) * | 2017-12-07 | 2019-06-24 | Line株式会社 | Program, information processing method, and information processing device |
US10755463B1 (en) * | 2018-07-20 | 2020-08-25 | Facebook Technologies, Llc | Audio-based face tracking and lip syncing for natural facial animation and lip movement |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4156607A1 (en) | 2021-09-28 | 2023-03-29 | Toyota Jidosha Kabushiki Kaisha | Vehicle control interface and vehicle including the same, autonomous driving system and vehicle including the same, and method of controlling vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP6899940B1 (en) | 2021-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11194535B2 (en) | Information processing apparatus, information processing system, and non-transitory computer readable medium storing program | |
CN105573573B (en) | Apparatus and method for managing user information based on image | |
JP6490023B2 (en) | Biological information communication apparatus, server, biometric information communication method, and biometric information communication program | |
US10552004B2 (en) | Method for providing application, and electronic device therefor | |
US9858924B2 (en) | Voice processing apparatus and voice processing method | |
KR20210047373A (en) | Wearable apparatus and methods for analyzing images | |
JP6719072B2 (en) | Customer service device, service method and service system | |
KR20190080377A (en) | Terminal providing a video call service | |
JP6177998B2 (en) | Information display method and information display terminal | |
US9020918B2 (en) | Information registration device, information registration method, information registration system, information presentation device, informaton presentation method, informaton presentaton system, and program | |
KR20160000741A (en) | Glass type terminal and control method thereof | |
US20130121528A1 (en) | Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program | |
KR20110088273A (en) | Mobile terminal and method for forming human network using mobile terminal | |
JP6728863B2 (en) | Information processing system | |
US20170091532A1 (en) | Electronic device for processing image and control method thereof | |
JP6040745B2 (en) | Information processing apparatus, information processing method, information processing program, and content providing system | |
US20190095867A1 (en) | Portable information terminal and information processing method used in the same | |
US20210304111A1 (en) | Information processing apparatus, information processing method, and program | |
JP2019061590A (en) | Information processing apparatus, information processing system, and program | |
KR20170114356A (en) | Electronic device and controling method thereof | |
JP6899940B1 (en) | Simple communication system, simple communication method, and program | |
US20150145763A1 (en) | Electronic device | |
JP6576181B2 (en) | Event support system | |
KR20180040410A (en) | Body composition apparatus and mobile terminal wireless communcating with the same | |
JP5989725B2 (en) | Electronic device and information display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6899940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |