JP2020187764A - クライアントおよびプログラム - Google Patents
クライアントおよびプログラム Download PDFInfo
- Publication number
- JP2020187764A JP2020187764A JP2020115002A JP2020115002A JP2020187764A JP 2020187764 A JP2020187764 A JP 2020187764A JP 2020115002 A JP2020115002 A JP 2020115002A JP 2020115002 A JP2020115002 A JP 2020115002A JP 2020187764 A JP2020187764 A JP 2020187764A
- Authority
- JP
- Japan
- Prior art keywords
- user
- gesture
- client
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1698—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
- H04L67/125—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42382—Text-based messaging services in telephone networks such as PSTN/ISDN, e.g. User-to-User Signalling or Short Message Service for fixed networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/026—Services making use of location information using location based information parameters using orientation information, e.g. compass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/12—Messaging; Mailboxes; Announcements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
1.本開示の一実施形態による情報処理システムの概要
2.構成
2−1.ユーザ端末の構成
2−2.ウェアラブル端末の構成
2−3.サーバの構成
3.動作処理
3−1.第1の実施例
3−2.第2の実施例
3−3.第3の実施例
4.応用例
5.まとめ
本実施形態による情報処理システムでは、ジェスチャにより特定の相手に対してインプレッションを通知することを可能とする。上述したように、日常生活において、良い行いまたは悪い行いをしている人に気付いた場合、褒めてあげたい、または注意したいと思うが、見知らぬ人に突然声を掛けるのは難しい。そこで、本実施形態では、特定のジェスチャが行われたことを検知すると、ユーザがジェスチャを向けた相手を認識し、良い評価または悪い評価を通知したり、さらにはジェスチャに紐付けられたメッセージを通知したりすることで、手軽にユーザの気持ちを相手に伝えることが可能となる。
<2−1.ユーザ端末の構成>
図3は、本実施形態によるユーザ端末1の構成例を示すブロック図である。図3に示すように、ユーザ端末1は、制御部100、通信部110、位置情報取得部120、カメラ130、マイクロホン140、操作入力部150、記憶部160、表示部170、およびスピーカ180を有する。
図4は、本実施形態によるウェアラブル端末2の構成例を示すブロック図である。図4に示すように、ウェアラブル端末2は、制御部200、通信部210、センサ220、操作入力部230、記憶部240、および表示部250を有する。
図5は、本実施形態によるサーバ3の構成例を示すブロック図である。図5に示すように、サーバ3は、制御部300、通信部310、ジェスチャ情報記憶部320、および評価DB(データベース)330を有する。
<3−1.第1の実施例>
まず、第1の実施例として、ゴミのポイ捨てをしている人物に対して怒りや注意の気持ちを伝えたい場合のジェスチャと相手への通知処理について説明する。図6は、本実施形態による第1の実施例のシチュエーションを説明する図である。図6に示すように、ユーザDが、ゴミのポイ捨てをしているユーザCを見つけた時に、マナー違反に対する怒りや注意したいという気持ちが生じ、「それはダメだぞ!」という気持ちを込めて指ピストルのジェスチャをユーザCに向けて行った場合を想定する。
次に、第2の実施例として、好意を持った相手に対して、好意を示す気持ちをメッセージと共に伝えたい場合のジェスチャと相手への通知処理について説明する。例えばバーのカウンターで、一人で飲んでいると、少し離れた場所に好みの人が一人で飲んでいた場合に、好意を伝えるメッセージをさりげなく送りたいというシチュエーションが想定される。以下、このようなシチュエーションにおける動作処理について、図10〜図11を参照して説明する。ここでは、ジェスチャを行うユーザ、および相手ユーザの両者ともユーザ端末1を有していることを前提とする。また、ジェスチャを行うユーザは、ウェアラブル端末2を装着している。
本実施形態による情報処理システムは、予め本サービスに登録しているユーザ間で行われるようにしてもよい。例えば、メッセージを特定した相手ユーザに送信する際に、サーバ3側で送信先を特定する必要があるが、予め本サービスに登録しているユーザであれば、登録されたアドレスを用いることができる。
続いて、本実施形態の応用例による情報処理システムについて図13〜図15を参照して説明する。上述した実施形態では、ウェアラブル端末2により検知されたジェスチャ情報がユーザ端末1からネットワーク上のサーバ3に送信され、主にサーバ3で通知処理制御が行われていたが、本実施形態はこれに限定されず、ウェアラブル端末同士で直接通信できるようにしてもよい。例えば、図13に示すように、ユーザGとユーザHが握手という接触を伴うジェスチャを行った際に、互いに装着しているウェアラブル端末20G、20Hにより準静電界通信が行われ、握手というジェスチャに対応するプラス評価が、一方のウェアラブル端末20から他方のウェアラブル端末20へ送信される。これにより、握手をした際に、さらに強い想いを伝えることができる。なお、かかる準静電界通信によるプラス評価の送信を行うか否かは、図13に示すように、ウェアラブル端末20Gに設けられているスイッチ(つまみ)により設定することが可能である。ジェスチャに応じた評価の送信を行う際は、つまみは「+」側に向けられる。
上述したように、本開示の実施形態による情報処理システムでは、ジェスチャにより特定の相手に対してインプレッションを通知することが可能となる。
(1)
ユーザが特定のジェスチャを行っているか否かを認識する認識部と、
前記特定のジェスチャが認識されたときに、通信先としてのクライアントを特定し;
認識されたジェスチャ情報が表すインプレッションを特定し;
前記クライアントに対応するユーザに、前記ジェスチャ情報が表すインプレッションが通知されるように制御する制御部と、
を備える、通信システム。
(2)
前記通信システムは、準静電界通信部をさらに備え、
前記制御部は、前記特定のジェスチャが認識されたときに、周辺に準静電界通信が可能な通信先としてのクライアントの有無を特定し、特定した前記クライアントに対応するユーザに、前記ジェスチャ情報が表すインプレッションを前記準静電界通信部を介して送信するように制御する、前記(1)に記載の通信システム。
(3)
ユーザ間で送受信されるメッセージを管理するサーバと通信する通信部を備え、
前記制御部は、前記ジェスチャ情報が表すインプレッションが、前記通信部および前記サーバを介して、前記クライアントに対応するユーザに送信されるように制御する、前記(1)に記載の通信システム。
(4)
前記通信システムは、音声入力部をさらに備え、
前記制御部は、前記ジェスチャ情報が表すインプレッションを、前記音声入力部により入力された音声を変換したメッセージに変更可能である、前記(1)〜(3)のいずれか1項に記載の通信システム。
(5)
ユーザが特定のジェスチャを行っているか否かを認識する前記認識部と;
前記特定のジェスチャが認識されたときに、本クライアントの位置を示す位置情報と、前記ユーザが指し示す方向を示す方向情報とを生成するクライアント制御部と;
前記特定のジェスチャを示すジェスチャ情報、前記位置情報、および前記方向情報をサーバに送信するクライアント通信部と;
を有するクライアントと、
複数のクライアントから、それぞれの位置を示す位置情報受信するサーバ通信部と;
前記制御部と;
前記サーバ通信部を介して前記ジェスチャ情報を受信すると、前記サーバ通信部を介して取得された、当該ジェスチャ情報を送信したクライアントに対応する前記位置情報と前記方向情報に応じて、前記ユーザが指し示すクライアントを特定し、当該クライアントに対応するユーザに、前記ジェスチャ情報が表すインプレッションが通知されるように制御するサーバ制御部と;を有するサーバと、
を備える、前記(1)〜(4)のいずれか1項に記載の通信システム。
(6)
前記サーバ制御部は、ジェスチャ情報とインプレッションが関連付けられたテーブルを保有し、当該テーブルに応じて前記ジェスチャ情報が表すインプレッションを特定する、前記(5)に記載の通信システム。
(7)
前記サーバ制御部は、
特定のメッセージングサービスに登録されているユーザに対応するクライアントの位置とそのユーザの宛先を管理し;
前記サーバ通信部を介して取得された、当該ジェスチャ情報を送信したクライアントに対応する前記位置情報と前記方向情報に応じて、前記ユーザが指し示す、前記管理しているクライアントを特定し;
当該クライアントに対応するユーザの宛先に、前記ジェスチャ情報が表すインプレッションが通知されるように制御する、前記(5)または(6)に記載の通信システム。
(8)
前記サーバ制御部は、前記ジェスチャ情報に応じて前記ユーザの評価を更新する、前記(5)〜(7)のいずれか1項に記載の通信システム。
(9)
前記サーバ制御部は、前記ジェスチャ情報に対応するメッセージが、前記ユーザに送信されるように制御する、前記(5)〜(7)のいずれか1項に記載の通信システム。
(10)
複数のクライアントから、それぞれの位置を示す位置情報を受信する通信部と、
前記通信部を介して、特定のクライアントに対応するユーザが特定のジェスチャを行っていることを示すジェスチャ情報とジェスチャの方向情報を受信すると;
前記通信部を介して取得された、当該ジェスチャ情報を送信したクライアントに対応する前記位置情報と前記方向情報に応じて、前記ユーザが指し示すクライアントを特定し;
当該クライアントに対応するユーザに、前記ジェスチャ情報が表すインプレッションが通知されるように制御する制御部と、
を備える、サーバ。
(11)
前記制御部は、ジェスチャ情報とインプレッションが関連づけられるテーブルを保有し、当該テーブルに応じて、前記ジェスチャ情報が表すインプレッションを特定する、前記(10)に記載のサーバ。
(12)
前記制御部は、
特定のメッセージングサービスに登録されているユーザに対応するクライアントの位置とそのユーザの宛先を管理し;
前記通信部を介して取得された、当該ジェスチャ情報を送信したクライアントに対応する前記位置情報と前記方向情報に応じて、前記ユーザが指し示す、前記管理しているクライアントを特定し;
当該クライアントに対応するユーザの宛先に、前記ジェスチャ情報が表すインプレッションが通知されるように制御する、前記(10)または(11)に記載のサーバ。
(13)
前記制御部は、前記ジェスチャ情報に応じて、前記ユーザの評価を更新する、前記(10)〜(12)のいずれか1項に記載のサーバ。
(14)
前記制御部は、前記ジェスチャ情報に対応するメッセージが、前記ユーザに送信されるように制御する、前記(10)〜(13)のいずれか1項に記載のサーバ。
(15)
コンピュータを、
ユーザが特定のジェスチャを行っているか否かを認識する認識部と、
前記特定のジェスチャが認識されたときに、通信先としてのクライアントを特定し;
前記認識されたジェスチャ情報が表すインプレッションを特定し;
前記クライアントに対応するユーザに、前記ジェスチャ情報が表すインプレッションが通知されるように制御する制御部と、
として機能させるプログラムが記憶された、記憶媒体。
(16)
プロセッサが、
複数のクライアントから、それぞれの位置を示す位置情報を通信部により受信することと、
前記通信部を介して、特定のクライアントに対応するユーザが特定のジェスチャを行っていることを示すジェスチャ情報とジェスチャの方向情報を受信すると;
前記通信部を介して取得された、当該ジェスチャ情報を送信したクライアントに対応する前記位置情報と前記方向情報に応じて、前記ユーザが指し示すクライアントを特定し;
当該クライアントに対応するユーザに、前記ジェスチャ情報が表すインプレッションが通知されるように制御することと、
を含む、通信制御方法。
100 制御部
110 通信部
120 位置情報取得部
130 カメラ
140 マイクロホン
150 操作入力部
160 記憶部
170 表示部
180 スピーカ
2 ウェアラブル端末
200 制御部
210 通信部
220 センサ
230 操作入力部
240 記憶部
250 表示部
3 サーバ
300 制御部
310 通信部
320 ジェスチャ情報記憶部
330 評価DB
Claims (8)
- ユーザが特定のジェスチャを行っているか否かを認識する認識部と、
前記特定のジェスチャが認識されたときに、本クライアントの位置を示す位置情報と、前記ユーザが指し示す方向を示す方向情報とを生成するクライアント制御部と、
前記特定のジェスチャを示すジェスチャ情報、前記位置情報、および前記方向情報をサーバに送信するクライアント通信部と、
を備えるクライアント。 - 前記クライアントは、音声入力部をさらに備え、
前記認識部は、
前記音声入力部により入力された音声に応じて、前記ユーザが前記特定のジェスチャを行っているか否かを認識する、
請求項1に記載のクライアント。 - 前記認識部は、
前記音声と、前記ユーザの動作と、の組み合わせに応じて、前記ユーザが前記特定のジェスチャを行っているか否かを認識する、
請求項2に記載のクライアント。 - 前記認識部は、
前記ユーザの手指の状態と腕の状態との組み合わせに応じて、前記ユーザが前記特定のジェスチャを行っているか否かを認識する、
請求項1乃至請求項3の何れか1項に記載のクライアント。 - 前記認識部は、
前記ユーザの顔の動きに応じて、前記ユーザが前記特定のジェスチャを行っているか否かを認識する、
請求項1乃至請求項4の何れか1項に記載のクライアント。 - 前記認識部は、
前記ユーザによる、前記ユーザと近接する位置の対象への接触を伴う動きに応じて、前記ユーザが前記特定のジェスチャを行っているか否かを認識する、
請求項1に記載のクライアント。 - 前記認識部は、
機械学習により構築した識別機を用いて、前記ユーザが前記特定のジェスチャを行っているか否かを認識する、
請求項1乃至請求項6の何れか1項に記載のクライアント。 - コンピュータを、
ユーザが特定のジェスチャを行っているか否かを認識する認識部と、
前記特定のジェスチャが認識されたときに、本クライアントの位置を示す位置情報と、前記ユーザが指し示す方向を示す方向情報とを生成するクライアント制御部と、
前記特定のジェスチャを示すジェスチャ情報、前記位置情報、および前記方向情報をサーバに送信するクライアント通信部と、
として機能させる、
ためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015221161 | 2015-11-11 | ||
JP2015221161 | 2015-11-11 | ||
JP2017549998A JP6733679B2 (ja) | 2015-11-11 | 2016-08-05 | 通信システム、サーバ、プログラム、および通信制御方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549998A Division JP6733679B2 (ja) | 2015-11-11 | 2016-08-05 | 通信システム、サーバ、プログラム、および通信制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187764A true JP2020187764A (ja) | 2020-11-19 |
JP6933279B2 JP6933279B2 (ja) | 2021-09-08 |
Family
ID=58695088
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549998A Active JP6733679B2 (ja) | 2015-11-11 | 2016-08-05 | 通信システム、サーバ、プログラム、および通信制御方法 |
JP2020115002A Active JP6933279B2 (ja) | 2015-11-11 | 2020-07-02 | クライアントおよびプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549998A Active JP6733679B2 (ja) | 2015-11-11 | 2016-08-05 | 通信システム、サーバ、プログラム、および通信制御方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10915178B2 (ja) |
JP (2) | JP6733679B2 (ja) |
WO (1) | WO2017081896A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6558809B2 (ja) * | 2017-06-08 | 2019-08-14 | 株式会社eNFC | 情報処理装置、情報処理システムおよび情報処理方法 |
WO2019116780A1 (ja) * | 2017-12-14 | 2019-06-20 | ソニー株式会社 | 情報処理システム、情報処理方法、および、プログラム |
US11995780B2 (en) * | 2022-09-09 | 2024-05-28 | Snap Inc. | Shooting interaction using augmented reality content in a messaging system |
US11948266B1 (en) | 2022-09-09 | 2024-04-02 | Snap Inc. | Virtual object manipulation with gestures in a messaging system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010225143A (ja) * | 2009-02-27 | 2010-10-07 | Ntt Docomo Inc | データ管理システム、データ管理方法、およびデータ管理装置ならびに携帯端末 |
JP2010537300A (ja) * | 2007-08-23 | 2010-12-02 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | ターゲットに関するデータを移動体装置へ送信する方法および装置 |
JP2013513294A (ja) * | 2009-12-03 | 2013-04-18 | オソカド リモート リミテッド ライアビリティ カンパニー | ジェスチャ制御されるハンドヘルドモバイルデバイスを使用して位置特有情報検索を実施する方法、装置、およびコンピュータプログラム |
JP2013178631A (ja) * | 2012-02-28 | 2013-09-09 | Pioneer Electronic Corp | 機器の制御装置、制御方法、プログラム及び記憶媒体 |
US20140188989A1 (en) * | 2012-12-27 | 2014-07-03 | Google Inc. | Exchanging content across multiple devices |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1996036134A1 (en) * | 1995-05-08 | 1996-11-14 | Massachusetts Institute Of Technology | System for non-contact sensing and signalling using human body as signal transmission medium |
JP2004297598A (ja) | 2003-03-27 | 2004-10-21 | Ntt Docomo Inc | 通信端末装置、動作情報交換システム、及び動作情報交換方法 |
JP2006003451A (ja) | 2004-06-15 | 2006-01-05 | Brother Ind Ltd | 対象者特定装置,催事動向分析装置及び催事動向分析システム |
JP2008126954A (ja) * | 2006-11-24 | 2008-06-05 | Tokai Rika Co Ltd | 意思伝達装置 |
CA2591808A1 (en) * | 2007-07-11 | 2009-01-11 | Hsien-Hsiang Chiu | Intelligent object tracking and gestures sensing input device |
US8457651B2 (en) | 2009-10-02 | 2013-06-04 | Qualcomm Incorporated | Device movement user interface gestures for file sharing functionality |
US20130227411A1 (en) * | 2011-12-07 | 2013-08-29 | Qualcomm Incorporated | Sensation enhanced messaging |
CN104584511B (zh) * | 2012-08-15 | 2019-12-06 | 诺基亚技术有限公司 | 用于共享数据的装置、方法和计算机程序产品 |
JP5928245B2 (ja) * | 2012-08-23 | 2016-06-01 | カシオ計算機株式会社 | データ処理装置及びプログラム |
JP5917461B2 (ja) * | 2013-08-08 | 2016-05-18 | 東芝テック株式会社 | 情報処理装置、プログラム |
US9189932B2 (en) * | 2013-11-06 | 2015-11-17 | Andrew Kerdemelidis | Haptic notification apparatus and method |
US9330666B2 (en) * | 2014-03-21 | 2016-05-03 | Google Technology Holdings LLC | Gesture-based messaging method, system, and device |
US9904463B2 (en) * | 2014-09-23 | 2018-02-27 | Sulake Corporation Oy | Method and apparatus for controlling user character for playing game within virtual environment |
-
2016
- 2016-08-05 JP JP2017549998A patent/JP6733679B2/ja active Active
- 2016-08-05 US US15/769,561 patent/US10915178B2/en active Active
- 2016-08-05 WO PCT/JP2016/073202 patent/WO2017081896A1/ja active Application Filing
-
2020
- 2020-07-02 JP JP2020115002A patent/JP6933279B2/ja active Active
-
2021
- 2021-01-06 US US17/142,749 patent/US11449148B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010537300A (ja) * | 2007-08-23 | 2010-12-02 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | ターゲットに関するデータを移動体装置へ送信する方法および装置 |
JP2010225143A (ja) * | 2009-02-27 | 2010-10-07 | Ntt Docomo Inc | データ管理システム、データ管理方法、およびデータ管理装置ならびに携帯端末 |
JP2013513294A (ja) * | 2009-12-03 | 2013-04-18 | オソカド リモート リミテッド ライアビリティ カンパニー | ジェスチャ制御されるハンドヘルドモバイルデバイスを使用して位置特有情報検索を実施する方法、装置、およびコンピュータプログラム |
JP2013178631A (ja) * | 2012-02-28 | 2013-09-09 | Pioneer Electronic Corp | 機器の制御装置、制御方法、プログラム及び記憶媒体 |
US20140188989A1 (en) * | 2012-12-27 | 2014-07-03 | Google Inc. | Exchanging content across multiple devices |
Also Published As
Publication number | Publication date |
---|---|
WO2017081896A1 (ja) | 2017-05-18 |
JP6933279B2 (ja) | 2021-09-08 |
US20180314337A1 (en) | 2018-11-01 |
JP6733679B2 (ja) | 2020-08-05 |
US10915178B2 (en) | 2021-02-09 |
US11449148B2 (en) | 2022-09-20 |
JPWO2017081896A1 (ja) | 2018-09-06 |
US20210124426A1 (en) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6933279B2 (ja) | クライアントおよびプログラム | |
US10360907B2 (en) | Smart necklace with stereo vision and onboard processing | |
US10015836B2 (en) | Master device for using connection attribute of electronic accessories connections to facilitate locating an accessory | |
US9915545B2 (en) | Smart necklace with stereo vision and onboard processing | |
US9629774B2 (en) | Smart necklace with stereo vision and onboard processing | |
JP6992761B2 (ja) | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム | |
US10744060B2 (en) | Garment with remote controlled vibration array | |
CN104008664B (zh) | 路况信息获取方法及相关装置 | |
US10685547B2 (en) | Communication device, information processing system, recording medium, and information processing method | |
CN109074237A (zh) | 信息处理装置、信息处理方法和程序 | |
RU162348U1 (ru) | Устройство тревожного оповещения об угрозе личной безопасности | |
US20230051613A1 (en) | Systems and methods for locating mobile electronic devices with ear-worn devices | |
Ong et al. | Assistive obstacle detection and navigation devices for vision-impaired users | |
JP2022540371A (ja) | 対象を追跡するための計算デバイスおよび方法 | |
KR20160013657A (ko) | 청각장애인을 위한 손목시계 | |
JP2023544496A (ja) | ウェアラブルタグ | |
US20220019285A1 (en) | Communication using biopotential sensing and tactile actions | |
JP3239665U (ja) | 視覚障害のあるユーザーを支援するためのシステム | |
JP2019016348A (ja) | 協力補助システム及び協力補助方法 | |
KR102516155B1 (ko) | 홈 오토메이션과 연동되는 음성인식 기반의 웨어러블 디바이스 | |
EP3171246A1 (en) | Method of improved finding someone or something within a larger group of people or things | |
JP2017216570A (ja) | 無線通信端末、情報処理システム、サーバ | |
JP6927567B2 (ja) | 行動評価情報蓄積システム及び行動評価情報蓄積方法 | |
RANI et al. | A New Generation Real-Time Mouse for Human-Computer Interaction | |
EP3095234A1 (en) | Method and apparatus for preclusion of causation of rendering of a notification at a notification time |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210802 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6933279 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |