JP2022033135A - サーバ、クライアント端末、制御方法、およびプログラム - Google Patents
サーバ、クライアント端末、制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2022033135A JP2022033135A JP2021196084A JP2021196084A JP2022033135A JP 2022033135 A JP2022033135 A JP 2022033135A JP 2021196084 A JP2021196084 A JP 2021196084A JP 2021196084 A JP2021196084 A JP 2021196084A JP 2022033135 A JP2022033135 A JP 2022033135A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- image
- unit
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000004044 response Effects 0.000 claims abstract description 80
- 238000004891 communication Methods 0.000 claims description 40
- 239000000284 extract Substances 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 abstract description 11
- 230000008569 process Effects 0.000 description 39
- 238000001514 detection method Methods 0.000 description 37
- 230000010365 information processing Effects 0.000 description 37
- 239000003795 chemical substances by application Substances 0.000 description 31
- 230000006870 function Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 19
- 230000006399 behavior Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000013589 supplement Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- DEXFNLNNUZKHNO-UHFFFAOYSA-N 6-[3-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperidin-1-yl]-3-oxopropyl]-3H-1,3-benzoxazol-2-one Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C1CCN(CC1)C(CCC1=CC2=C(NC(O2)=O)C=C1)=O DEXFNLNNUZKHNO-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72439—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72433—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
1.第1の実施形態
1-1.概要
1-2.構成
1-3.動作処理
1-4.表示例
1-5.補足
2.第2の実施形態
2-1.概要
2-2.構成
2-3.動作処理
2-4.応用例
2-5.補足
3.まとめ
<1-1.概要>
図1は、本開示の第1の実施形態による情報処理システムの概要について説明する図である。図1に示すように、例えばユーザが透過式のメガネ型端末1(クライアント端末の一例)を装着して街を歩いている際に、視界に入ってはいるが注視せず気付いていなかった看板30に、ユーザの注意を引くために動く「目」のキャラクタ画像34がAR(Augmented Reality)表示され、「新作スカートが入荷されたよ!」といった音声が出力される。
(1-2-1.全体構成)
図2は、第1の実施形態による情報処理システムの全体構成について説明する図である。図2に示すように、本実施形態による情報処理システムは、メガネ型端末1とサーバ2を含む。メガネ型端末1およびサーバ2は、ネットワーク3を介して接続し、データの送受信を行う。
続いて、本実施形態によるメガネ型端末1の構成について図3を参照して説明する。図3は、本実施形態によるメガネ型端末1の構成の一例を示すブロック図である。
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってメガネ型端末1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
通信部11は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部11は、Bluetooth(登録商標)、Wi-Fi(Wireless Fidelity、登録商標)、無線LAN(Local Area Network)等により、ネットワーク3に接続し、ネットワーク上のサーバ2とデータの送受信を行う。
撮像部12は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
視線検出部16は、メガネ型端末1を装着しているユーザの視線方向を検出する機能を有する。より具体的には、視線検出部16は、ユーザの眼の動きや頭部の動き、または姿勢等に基づいて、ユーザの視線方向(さらには、注視点)を検出する。ユーザの眼の動きは、例えばユーザの顔または眼を撮像した撮像画像、検知した眼電、または筋電等に基づいて解析され得る。また、頭部の動きや姿勢は、メガネ型端末1に設けられたジャイロセンサ、加速度センサ、地磁気センサ等(いずれも不図示)により検知され得る。
表示部13は、例えば液晶パネルにより実現され、制御部10は、液晶パネルの透過率を制御することで、スルー状態、即ち透明または半透明の状態にすることができる。また、表示部13は、ホログラム導光板技術により、テキスト、シンボル、画像等の情報をユーザの視界(実空間)に重ねて表示するレンズにより実現されてもよい。
音声出力部14は、音声信号を再生するスピーカと、スピーカに対するアンプ回路を有する。音声出力部14は、例えば一対のイヤホンスピーカと、そのイヤホンスピーカに対するアンプ回路により実現される。一対のイヤホンスピーカは、メガネ型端末1を装着した際にユーザの右耳孔および左耳孔に挿入される位置に設けられ得る。また、音声出力部14は、いわゆる骨伝導スピーカとして構成されてもよい。
記憶部15は、制御部10の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
次に、本実施形態によるサーバ2の構成について図4を参照して説明する。図4に示すように、本実施形態によるサーバ2は、制御部20、通信部21、ユーザ情報DB(データベース)22、およびオブジェクト情報DB23を有する。
制御部20は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ2内の動作全般を制御する。制御部20は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部20は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
通信部21は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部21は、無線または有線LAN(Local Area Network)等により、ネットワーク3に接続し、ネットワーク3を介してメガネ型端末1とデータの送受信を行う。
ユーザ情報DB22は、ユーザに関する情報を蓄積する。ここで、図5に、ユーザ情報DB22に蓄積されるユーザ情報の一例を示す。図5に示すように、ユーザ情報は、ユーザID、性別、年齢、および嗜好情報等を含む。
オブジェクト情報DB23は、オブジェクトに関する情報を蓄積する。ここで、図6に、オブジェクト情報DB23に蓄積されるオブジェクト情報の一例を示す。図6に示すように、オブジェクト情報は、オブジェクトID、タグID(タグ情報)、属性情報、提示情報(簡易情報および詳細情報)、キャラクタ画像、および特徴情報を含む。キャラクタ画像は、静止画または動画(アニメーション)であってもよい。
続いて、本実施形態による情報処理システムの動作処理について図7~図18を参照して説明する。
上述した実施形態では、図1に示すように、「目」のキャラクタ画像を用いているが、本実施形態はこれに限定されない。例えば、ユーザの視界を撮像した撮像画像に映る構造物のうち、眼に類似した部分をタグ画像として検出し、「口」のキャラクタ画像を眼に類似した部分の下に配置してAR表示することで、シミュラクラ現象を生かしたAR表示を行うことが可能である。以下、図19を参照して具体例について説明する。
以上説明した第1の実施形態では、図7を参照して説明したように、メガネ型端末1の撮像部12により継続的に撮像するユーザの視界からタグ画像が検出された場合に提示情報の取得処理が行われため、撮像部12の電源が常にONであることが必要となるが、本実施形態はこれに限定されない。例えば、撮像部12の電源をOFFにした状態で、メガネ型端末1が有する位置情報取得部(図示せず)およびジャイロセンサ(図示せず)から取得された現在位置情報および方向情報に基づいて、ユーザの視野範囲を推定し、視野範囲にタグ画像が存在する場合に撮像部12の電源をONにするようにしてもよい。以下、図21を参照して説明する。
<2-1.概要>
続いて、本開示の第2の実施形態について説明する。上述した第1の実施形態では、実空間からタグ画像を検出した際に「目」や「口」のキャラクタ画像をAR表示して実空間のポイントの見逃しを防止しているが、本開示はこれに限定されない。例えば、ユーザの友人等、登録した顔(オブジェクト(例えば友人)に対応する情報の一例)が少なくとも注視領域外(以下、視野外とも称す)から検出された際にユーザに通知を行い、近くにいるが認識していなかった友人の見逃しを防止することが可能となる。
次に、本実施形態による情報処理システムの各構成について図23を参照して説明する。図23に示すように、本実施形態による情報処理システムは、ヘッドホン装置5およびサーバ6を含む。ヘッドホン装置5およびサーバ6は、ネットワーク7を介して接続し、データの送受信を行い得る。以下、各装置の構成について具体的に説明する。
図23に示すように、本実施形態によるヘッドホン装置5は、制御部50、撮像部51、マイクロホン52、通信部53、およびスピーカ54を有する。
続いて、サーバ6の構成について説明する。図23に示すように、本実施形態によるサーバ6は、制御部60、通信部61、ユーザプロファイル記憶部62、音素DB63、および顔画像DB64を有する。
続いて、本実施形態の動作処理について図26および図27を参照して説明する。図26および図27は、本実施形態による情報処理システムの動作処理を示すシーケンス図である。
続いて、本実施形態の応用例について図面を参照して具体的に説明する。
上述した実施形態では、友達を見つけた場合にユーザにお知らせを行っているが、本実施形態はこれに限定されず、見つけられても良い友達だけをユーザに知らせるようにしてもよい。具体的には、バックグラウンドの処理で登録されている友達が見つかった場合、当該友達の通信端末に、ユーザに見つけられてもよいかの承認を得るための通知をコミュニケーションAPI(Application Programming Interface)を介して行い、見つけられてもOKな場合のみ音声エージェントがユーザに通知する。これにより、見つけられたくない友達をユーザに知らせてしまうことを回避することができる。以下、図28~図29を参照して具体的に説明する。
図28は、第1の応用例による情報処理システムの全体構成を示す図である。図28に示すように、第1の応用例による情報処理システムは、ヘッドホン装置5、サーバ6、およびメッセンジャーサーバ8を含む。
図29は、第1の応用例による情報処理システムの動作処理を示すフローチャートである。ここでは、主に図26および図27を参照して説明した動作処理と異なる部分について図示して説明する。
次に、本実施形態による情報処理システムは、友達を見つけたことを通知する際に、友達が居る方向を通知することが可能である。具体的には、バックグラウンドの処理で登録されている友達が見つかった場合、友達の位置とユーザの位置との相対関係に基づいて、友達が居る方向をユーザに通知することが可能である。以下、図30~図32を参照して具体的に説明する。
図30は、第2の応用例による情報処理システムの全体構成を示す図である。図30に示すように、第2の応用例による情報処理システムは、ヘッドホン装置5a、サーバ6a、およびメッセンジャーサーバ8を含む。ここでは、一例として上記第1の応用例で説明したメッセンジャーサーバ8も含むことで、見つけられた友達の承認が得られた場合にユーザに通知する機能も備える場合について説明する。
図31および図32は、第2の応用例による情報処理システムの動作処理を示すフローチャートである。なお、図26および図27を参照して説明した動作処理と同様の処理については、同じステップ番号を付している。
上述した実施形態および応用例では、撮像画像から登録された顔画像を認識する処理をサーバ6側で行っているが、本実施形態はこれに限定されず、ヘッドホン装置5側で友達を見つける処理を行うことも可能である。以下、図33~図34を参照して説明する。
図33は、第3の応用例による情報処理システムの全体構成を示す図である。図33に示すように、第3の応用例による情報処理システムは、ヘッドホン装置5bおよびサーバ6bを含む。
図34は、第3の応用例による情報処理システムの動作処理を示すフローチャートである。なお、図26および図27を参照して説明した動作処理と同様の処理については、同じステップ番号を付している。
以上説明した第2の実施形態について、以下補足する。
上述したように、本開示の実施形態による情報処理システムでは、ユーザが見逃している情報を提示することが可能となる。
(1)クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部と、
を備える、サーバ。
(2)前記制御部は、前記クライアント端末の撮像部により取得されたユーザの視界画像から、前記ユーザの興味情報に応じたオブジェクトに対応する情報を抽出し、前記オブジェクトに対応する情報に対して重畳表示させるキャラクタを示すキャラクタ情報と、前記ユーザに提示する提示情報を前記クライアント端末に送信するように制御する、前記(1)に記載のサーバ。
(3)前記制御部は、ユーザ情報に関連するオブジェクトに関連する情報と前記ユーザの興味情報との比較に基づいて、前記ユーザに提示する提示情報を決定する、前記(2)に記載のサーバ。
(4)ユーザ情報に関連するオブジェクトに対応する情報に対して重畳表示させるキャラクタに対する前記ユーザの視線に関連する情報を受信すると、
前記制御部は、前記ユーザの視線に関連する情報に応じて、前記ユーザに提示する提示情報の内容を変更する、前記(1)~(3)のいずれか1つに記載のサーバ。
(5)前記ユーザの視線に関連する情報は、提示情報更新依頼である、前記(4)に記載のサーバ。
(6)前記制御部は、前記提示情報更新依頼に応じて、さらに詳細な情報に変更する、前記(5)に記載のサーバ。
(7)前記重畳表示させるキャラクタに対するユーザの視線に関連する情報は、前記ユーザが前記キャラクタに注目したことに関する情報である、前記(4)に記載のサーバ。
(8)前記制御部は、
前記クライアント端末のユーザによって入力される音声の意味を理解し、対応する音声メッセージをクライアント端末に送信する機能する、前記(1)に記載のサーバ。
(9)前記制御部は、
前記クライアント端末の撮像部により撮像される、少なくとも、前記ユーザの視界外の画像から前記予め登録されている人物が検知されると、それを前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように制御する、前記(8)に記載のサーバ。
(10)前記制御部は、
前記クライアント端末の撮像部により撮像される画像と共に、当該クライアント端末の位置と向きの情報を取得し;
さらに、
前記予め登録されている人物のアカウントに、前記ユーザへの通知の許諾と現在の位置情報を要求するリクエストを送信し;
前記リクエストに応じて受信した、前記ユーザへの通知の許諾の要求に対する承認と、前記位置情報とに応じて、前記予め登録されている人物がいる方向を示す情報を前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように;
通信部を制御する、前記(8)または(9)に記載のサーバ。
(11)撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部を備えるクライアント端末。
(12)前記制御部は、
前記画像における前記ユーザの興味情報に関連するオブジェクトに対して、キャラクタ情報を重畳表示すると共に、前記ユーザに提示する提示情報を出力するように前記出力部を制御する、前記(11)に記載のクライアント端末。
(13)前記制御部は、
撮像部により撮像される画像から予め登録されている人物が検知されると、当該人物が検知されたことをユーザに通知するための音声メッセージを出力するように前記出力部を制御する、前記(11)に記載のクライアント端末。
(14)プロセッサが、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信することと、
前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信することと、
を含む、制御方法。
(15)コンピュータを、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部として機能させるためのプログラム。
(16)プロセッサが、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力することを含む、制御方法。
(17)コンピュータを、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部として機能させるためのプログラム。
2 サーバ
3 ネットワーク
5 ヘッドホン装置
6 サーバ
7 ネットワーク
8 メッセンジャーサーバ
10 制御部
101 タグ画像検出部
102 提示情報取得部
103 提示方法設定部
104 情報提示制御部
105 ユーザ行動検出部
106 提示情報更新部
11 通信部
12 撮像部
13 表示部
14 音声出力部
15 記憶部
16 視線検出部
20 制御部
201 オブジェクト情報取得部
202 注目度設定部
203 提示情報提供部
204 提示情報更新部
21 通信部
22 ユーザ情報DB
23 オブジェクト情報DB
30 看板
32 タグ画像
34 キャラクタ画像
50 制御部
51 撮像部
52 マイクロホン
53 通信部
54 スピーカ
55 位置・方向検出部
56 ユーザプロファイル記憶部
60 制御部
601 テキスト変換部
602 意味理解部
603 顔画像認識部
604 応答メッセージ生成部
605 方向算出部
61 通信部
62 ユーザプロファイル記憶部
63 音素DB
64 顔画像DB
80 制御部
81 通信部
82 メッセージ履歴記憶部
Claims (17)
- クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部を備えるサーバ。
- 前記制御部は、前記クライアント端末の撮像部により取得されたユーザの視界画像から、前記ユーザの興味情報に応じたオブジェクトに対応する情報を抽出し、前記オブジェクトに対応する情報に対して重畳表示させるキャラクタを示すキャラクタ情報と、前記ユーザに提示する提示情報を前記クライアント端末に送信するように制御する、請求項1に記載のサーバ。
- 前記制御部は、ユーザ情報に関連するオブジェクトに関連する情報と前記ユーザの興味情報との比較に基づいて、前記ユーザに提示する提示情報を決定する、請求項2に記載のサーバ。
- ユーザ情報に関連するオブジェクトに対応する情報に対して重畳表示させるキャラクタに対する前記ユーザの視線に関連する情報を受信すると、
前記制御部は、前記ユーザの視線に関連する情報に応じて、前記ユーザに提示する提示情報の内容を変更する、請求項1~3のいずれか1項に記載のサーバ。 - 前記ユーザの視線に関連する情報は、提示情報更新依頼である、請求項4に記載のサーバ。
- 前記制御部は、前記提示情報更新依頼に応じて、さらに詳細な情報に変更する、請求項5に記載のサーバ。
- 前記重畳表示させるキャラクタに対するユーザの視線に関連する情報は、前記ユーザが前記キャラクタに注目したことに関する情報である、請求項4に記載のサーバ。
- 前記制御部は、
前記クライアント端末のユーザによって入力される音声の意味を理解し、対応する音声メッセージを前記クライアント端末に送信する機能を有する、請求項1に記載のサーバ。 - 前記制御部は、
前記クライアント端末の撮像部により撮像される、少なくとも、前記ユーザの視界外の画像から前記予め登録されている人物が検知されると、それを前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように制御する、請求項8に記載のサーバ。 - 前記制御部は、
前記クライアント端末の撮像部により撮像される画像と共に、当該クライアント端末の位置と向きの情報を取得し;
さらに、
前記予め登録されている人物のアカウントに、前記ユーザへの通知の許諾と現在の位置情報を要求するリクエストを送信し;
前記リクエストに応じて受信した、前記ユーザへの通知の許諾の要求に対する承認と、前記位置情報とに応じて、前記予め登録されている人物がいる方向を示す情報を前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように;
通信部を制御する、請求項8または9に記載のサーバ。 - 撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部を備えるクライアント端末。
- 前記制御部は、
前記画像における前記ユーザの興味情報に関連するオブジェクトに対して、キャラクタ情報を重畳表示すると共に、前記ユーザに提示する提示情報を出力するように前記出力部を制御する、請求項11に記載のクライアント端末。 - 前記制御部は、
撮像部により撮像される画像から予め登録されている人物が検知されると、当該人物が検知されたことをユーザに通知するための音声メッセージを出力するように前記出力部を制御する、請求項11に記載のクライアント端末。 - プロセッサが、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信することと、
前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信することと、
を含む、制御方法。 - コンピュータを、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部として機能させるためのプログラム。 - プロセッサが、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力することを含む、制御方法。 - コンピュータを、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部として機能させるためのプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016199028 | 2016-10-07 | ||
JP2016199028 | 2016-10-07 | ||
JP2018543739A JP6992761B2 (ja) | 2016-10-07 | 2017-07-05 | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム |
PCT/JP2017/024628 WO2018066191A1 (ja) | 2016-10-07 | 2017-07-05 | サーバ、クライアント端末、制御方法、および記憶媒体 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018543739A Division JP6992761B2 (ja) | 2016-10-07 | 2017-07-05 | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022033135A true JP2022033135A (ja) | 2022-02-28 |
Family
ID=61830879
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018543739A Active JP6992761B2 (ja) | 2016-10-07 | 2017-07-05 | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム |
JP2021196084A Pending JP2022033135A (ja) | 2016-10-07 | 2021-12-02 | サーバ、クライアント端末、制御方法、およびプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018543739A Active JP6992761B2 (ja) | 2016-10-07 | 2017-07-05 | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (3) | US11283915B2 (ja) |
JP (2) | JP6992761B2 (ja) |
CN (1) | CN109804357A (ja) |
WO (1) | WO2018066191A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200082576A1 (en) | 2018-09-11 | 2020-03-12 | Apple Inc. | Method, Device, and System for Delivering Recommendations |
JP7263825B2 (ja) * | 2019-02-19 | 2023-04-25 | オムロン株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
WO2020188626A1 (ja) * | 2019-03-15 | 2020-09-24 | 和夫 金子 | 視覚支援装置 |
JP7455523B2 (ja) * | 2019-07-03 | 2024-03-26 | キヤノン株式会社 | 通信システム、制御方法およびプログラム |
JP7293991B2 (ja) * | 2019-08-28 | 2023-06-20 | 大日本印刷株式会社 | サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム |
JP6781977B1 (ja) * | 2019-09-12 | 2020-11-11 | 株式会社ぴやまる | 情報提示システム、情報分析システム、情報提示方法、情報分析方法およびプログラム |
CN111046731B (zh) * | 2019-11-11 | 2023-07-25 | 中国科学院计算技术研究所 | 基于表面肌电信号进行手势识别的迁移学习方法和识别方法 |
JP7388297B2 (ja) | 2020-06-11 | 2023-11-29 | オムロン株式会社 | コミュニケーション支援装置、コミュニケーション支援方法、及びプログラム |
JP2022022871A (ja) * | 2020-07-09 | 2022-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 処理装置および没入度導出方法 |
WO2022091177A1 (ja) * | 2020-10-26 | 2022-05-05 | 株式会社ジェイテクト | 音声広告配信システム、方法、プログラム及びユーザ端末 |
JP7187523B2 (ja) * | 2020-11-27 | 2022-12-12 | ソフトバンク株式会社 | マッチングシステム、眼鏡型デバイス、マッチングサーバ及びプログラム |
JP2022110509A (ja) * | 2021-01-18 | 2022-07-29 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7453193B2 (ja) | 2021-09-27 | 2024-03-19 | Kddi株式会社 | ユーザの周辺状況に連動して音声合成に基づく音声を制御する携帯装置、プログラム及び方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1137766A (ja) * | 1997-07-22 | 1999-02-12 | Aqueous Res:Kk | エージェント装置 |
JP2001235343A (ja) * | 2000-02-21 | 2001-08-31 | Equos Research Co Ltd | 情報出力装置 |
JP2003008767A (ja) * | 2001-06-26 | 2003-01-10 | Nippon Seiki Co Ltd | アバータ |
JP2005037181A (ja) * | 2003-07-17 | 2005-02-10 | Pioneer Electronic Corp | ナビゲーション装置、サーバ装置、ナビゲーションシステム、及びナビゲーション方法 |
JP2007514332A (ja) * | 2003-09-08 | 2007-05-31 | カライズマン,ギョーラ | 移動通信装置を使用する紹介システムおよび方法 |
JP2012063253A (ja) * | 2010-09-16 | 2012-03-29 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
KR20160015704A (ko) * | 2014-07-31 | 2016-02-15 | 넥시스 주식회사 | 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법 |
US20160063893A1 (en) * | 2014-09-03 | 2016-03-03 | Aira Tech Corporation | Media streaming methods, apparatus and systems |
JP2016130985A (ja) * | 2015-01-15 | 2016-07-21 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013009073A (ja) | 2011-06-23 | 2013-01-10 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及びサーバ |
JP6065370B2 (ja) | 2012-02-03 | 2017-01-25 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2013207357A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | サーバ、クライアント端末、システムおよびプログラム |
JP6101438B2 (ja) | 2012-06-15 | 2017-03-22 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに情報通信システム |
JP6035485B2 (ja) * | 2012-08-15 | 2016-11-30 | 株式会社北電子 | 遊技情報提供システム及び情報処理装置 |
US9966075B2 (en) | 2012-09-18 | 2018-05-08 | Qualcomm Incorporated | Leveraging head mounted displays to enable person-to-person interactions |
JP2014090386A (ja) | 2012-10-31 | 2014-05-15 | Sony Corp | 情報処理システム、情報処理装置、およびプログラム |
JP6024515B2 (ja) | 2013-02-28 | 2016-11-16 | ソニー株式会社 | 情報処理装置および記憶媒体 |
KR20140136582A (ko) * | 2013-05-20 | 2014-12-01 | 박수희 | 푸시알람 서비스 제공 시스템 및 그 방법 |
JP6079614B2 (ja) * | 2013-12-19 | 2017-02-15 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
JP6636422B2 (ja) * | 2014-06-13 | 2020-01-29 | 株式会社チカク | 画像管理システム、管理装置、プログラム及び画像出力装置 |
KR102184272B1 (ko) * | 2014-06-25 | 2020-11-30 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
KR102110208B1 (ko) * | 2015-05-08 | 2020-05-13 | 엘지전자 주식회사 | 안경형 단말기 및 이의 제어방법 |
US20190046080A1 (en) * | 2016-02-24 | 2019-02-14 | Konica Minolta, Inc. | Monitoring target person monitoring device, method, and system |
JP6754451B2 (ja) * | 2017-02-01 | 2020-09-09 | シャープ株式会社 | 監視システム、監視方法及びプログラム |
-
2017
- 2017-07-05 US US16/328,816 patent/US11283915B2/en active Active
- 2017-07-05 WO PCT/JP2017/024628 patent/WO2018066191A1/ja active Application Filing
- 2017-07-05 JP JP2018543739A patent/JP6992761B2/ja active Active
- 2017-07-05 CN CN201780060738.9A patent/CN109804357A/zh not_active Withdrawn
-
2021
- 2021-12-02 JP JP2021196084A patent/JP2022033135A/ja active Pending
-
2022
- 2022-02-04 US US17/592,977 patent/US11825012B2/en active Active
-
2023
- 2023-09-28 US US18/476,692 patent/US20240022660A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1137766A (ja) * | 1997-07-22 | 1999-02-12 | Aqueous Res:Kk | エージェント装置 |
JP2001235343A (ja) * | 2000-02-21 | 2001-08-31 | Equos Research Co Ltd | 情報出力装置 |
JP2003008767A (ja) * | 2001-06-26 | 2003-01-10 | Nippon Seiki Co Ltd | アバータ |
JP2005037181A (ja) * | 2003-07-17 | 2005-02-10 | Pioneer Electronic Corp | ナビゲーション装置、サーバ装置、ナビゲーションシステム、及びナビゲーション方法 |
JP2007514332A (ja) * | 2003-09-08 | 2007-05-31 | カライズマン,ギョーラ | 移動通信装置を使用する紹介システムおよび方法 |
JP2012063253A (ja) * | 2010-09-16 | 2012-03-29 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
KR20160015704A (ko) * | 2014-07-31 | 2016-02-15 | 넥시스 주식회사 | 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법 |
US20160063893A1 (en) * | 2014-09-03 | 2016-03-03 | Aira Tech Corporation | Media streaming methods, apparatus and systems |
JP2016130985A (ja) * | 2015-01-15 | 2016-07-21 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018066191A1 (ja) | 2018-04-12 |
US11283915B2 (en) | 2022-03-22 |
JP6992761B2 (ja) | 2022-01-13 |
CN109804357A (zh) | 2019-05-24 |
JPWO2018066191A1 (ja) | 2019-07-18 |
US20220159117A1 (en) | 2022-05-19 |
US11825012B2 (en) | 2023-11-21 |
US20240022660A1 (en) | 2024-01-18 |
US20210289068A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6992761B2 (ja) | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム | |
US11620776B2 (en) | Information processing apparatus and information processing method | |
CN109952759B (zh) | 用于具有hmd的视频会议的改进的方法和系统 | |
JP6428268B2 (ja) | 画像表示装置及び画像表示方法、並びに画像表示システム | |
US8531394B2 (en) | Unitized, vision-controlled, wireless eyeglasses transceiver | |
WO2017115618A1 (en) | Information processing apparatus, information processing method, and program | |
CN111445583B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
JP2014085796A (ja) | 情報処理装置およびプログラム | |
US10546402B2 (en) | Information processing system, information processing terminal, and information processing method | |
US20210004081A1 (en) | Information processing apparatus, information processing method, and program | |
CN108140124A (zh) | 提示信息确定方法、装置、电子设备和计算机程序产品 | |
JP6889304B1 (ja) | 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム | |
JP2018067157A (ja) | 通信装置およびその制御方法 | |
JP7130213B1 (ja) | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 | |
JP6662411B2 (ja) | 携帯情報端末およびプログラム | |
US20220311979A1 (en) | Wearable apparatus for projecting information | |
KR102262019B1 (ko) | 네트워크 속도 반응형 확장현실(xr) 커뮤니케이션 방법 및 시스템 | |
WO2021112161A1 (ja) | 情報処理装置、制御方法及び非一時的なコンピュータ可読媒体 | |
KR20220095787A (ko) | 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템 | |
EP3340013A1 (en) | A gazed object identification module, a system for implementing gaze translucency, and a related method | |
KR20180082729A (ko) | 웨어러블 스마트 안경 디바이스 및 이를 이용한 영상이미지 표시방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230328 |