JPWO2018088319A1 - 再生端末及び再生方法 - Google Patents
再生端末及び再生方法 Download PDFInfo
- Publication number
- JPWO2018088319A1 JPWO2018088319A1 JP2018550173A JP2018550173A JPWO2018088319A1 JP WO2018088319 A1 JPWO2018088319 A1 JP WO2018088319A1 JP 2018550173 A JP2018550173 A JP 2018550173A JP 2018550173 A JP2018550173 A JP 2018550173A JP WO2018088319 A1 JPWO2018088319 A1 JP WO2018088319A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- distribution
- distributor
- user
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004044 response Effects 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 36
- 230000033001 locomotion Effects 0.000 claims abstract description 27
- 238000011156 evaluation Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 20
- 230000015541 sensory perception of touch Effects 0.000 claims description 12
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 230000010365 information processing Effects 0.000 description 311
- 238000004891 communication Methods 0.000 description 78
- 230000006870 function Effects 0.000 description 35
- 230000008859 change Effects 0.000 description 30
- 230000005540 biological transmission Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 26
- 230000010349 pulsation Effects 0.000 description 24
- 238000010295 mobile communication Methods 0.000 description 13
- 238000007726 management method Methods 0.000 description 11
- 230000008451 emotion Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000035807 sensation Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008929 regeneration Effects 0.000 description 5
- 238000011069 regeneration method Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000010985 leather Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 0 C1C2=C*#*C12 Chemical compound C1C2=C*#*C12 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 229940082150 encore Drugs 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000009532 heart rate measurement Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 201000009032 substance abuse Diseases 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/681—Wristwatch-type devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02416—Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
- A61B5/02427—Details of sensor
- A61B5/02433—Details of sensor for infrared radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/486—Bio-feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/29—Arrangements for monitoring broadcast services or broadcast-related services
- H04H60/33—Arrangements for monitoring the users' behaviour or opinions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
Description
1.第1の実施形態
1.1.情報処理システムの概要
1.2.情報処理システムの構成
1.3.情報処理システムの動作
1.4.変形例
2.第2の実施形態
2.1.情報処理システムの概要
2.2.情報処理システムの構成
2.3.情報処理システムの動作
2.4.変形例
3.情報処理サーバのハードウェア構成
4.まとめ
[1.1.情報処理システムの概要]
まず、図1を参照して、本開示の第1の実施形態に係る情報処理システムの概要について説明する。図1は、本開示の第1の実施形態に係る情報処理システムの概要を説明する説明図である。
次に、図2Aおよび図2Bを参照して、本実施形態に係る情報処理システムの構成について説明する。図2Aは、本実施形態に係る情報処理システムのうち、情報処理サーバ10、情報処理装置20A、および配信端末30Aの具体的な構成を説明するブロック図であり、図2Bは、本実施形態に係る情報処理システムのうち、情報処理サーバ10、情報処理装置20B、および再生端末30Bの具体的な構成を説明するブロック図である。
マイク部315は、例えば、マイクロホン等の収音装置、およびDSPなどの信号処理回路で構成され、配信端末30Aの周囲の音声を収音する。具体的には、マイク部315は、配信端末30Aを装着している配信者が発話した音声を収音し、配信情報として用いられる音声情報を生成してもよい。
通信部211は、例えば、上述した配信端末30Aの通信部311と同じ通信方式のアンテナおよび通信回路にて構成され、配信端末30Aとの間で情報の送受信を行う。具体的には、通信部211は、配信端末30Aの通信部311との間で、配信情報、および該配信情報に対するユーザからの応答に関する情報などを送受信してもよい。
ネットワーク接続部110は、ネットワーク40に接続するためのインターフェースおよび通信回路にて構成され、ネットワーク40を介して、情報処理装置20Aおよび情報処理装置20Bとの間で情報の送受信を行う。例えば、ネットワーク接続部110は、ネットワーク接続部216、226と同様に、LAN、WAN、インターネット、衛星通信網、電話回線網、移動体通信網、またはIP−VPN等に接続可能なインターフェースおよび通信回路にて構成されてもよい。
ネットワーク接続部226は、例えば、ネットワーク40に接続するためのインターフェースおよび通信回路にて構成され、ネットワーク40を介して、情報処理サーバ10との間で情報の送受信を行う。具体的には、ネットワーク接続部226は、情報処理サーバ10から再生端末30Bにて再生される音声情報を配信情報として受信する。また、ネットワーク接続部226は、配信情報に対するユーザからのコメントおよび評価などの応答を情報処理サーバ10に送信してもよい。
通信部321は、例えば、アンテナおよび通信回路にて構成され、情報処理装置20Bとの間で情報の送受信を行う。具体的には、通信部321は、情報処理装置20Bの通信部221との間で、配信情報、および該配信情報に対するユーザからの応答に関する情報等を送受信してもよい。
続いて、図3〜図13を参照して、本実施形態に係る情報処理システムの動作について具体例を示しながら説明する。
まず、図3〜図5を参照して、本実施形態に係る情報処理システムの再生端末30B側の動作について説明する。図3は、本実施形態に係る情報処理システムの再生端末30B側の動作を説明するフローチャート図である。図4は、図3における「評価の付与処理」の具体的な動作を説明するフローチャート図であり、図5は、図3における「コメントの付与処理」の具体的な動作を説明するフローチャート図である。
続いて、図10〜図12を参照して、本実施形態に係る情報処理システムの配信端末30A側の動作について説明する。図10は、本実施形態に係る情報処理システムの配信端末30A側の動作を説明するフローチャート図である。
以上にて、本実施形態に係る情報処理システムについて説明したが、本実施形態に係る情報処理システムは、他にも以下のように種々の変形例を取ることが可能である。
本実施形態に係る情報処理システムは、外部の情報処理サーバ、または外部のアプリケーションプログラム(例えば、ソーシャルネットワーキングサービスなど)と連動して動作することも可能である。
また、本実施形態に係る情報処理システムは、情報処理装置20Bまたは再生端末30Bが取得した位置情報と連動させて動作することも可能である。
さらに、本実施形態に係る情報処理システムは、離れた場所にいる配信者と、ユーザとの間で配信情報を配信するだけでなく、コンサート会場等の同じ場所にいる配信者と、ユーザとの間で配信情報を配信することも可能である。
上記では、本実施形態に係る情報処理システムにて配信される配信情報は、音声情報などの配信者の身体性に依存する情報であるとしたが、本開示に係る技術は、上記例示に限定されない。例えば、本実施形態に係る情報処理システムにて配信される配信情報は、音楽、画像、動画又は文章などの各種コンテンツを含むコンテンツ情報であってもよい。
[2.1.情報処理システムの概要]
次に、図14を参照して、本開示の第2の実施形態に係る情報処理システムの概要について説明する。図14は、本開示の第2の実施形態に係る情報処理システムの概要を説明する説明図である。
次に、図16を参照して、本実施形態に係る情報処理システムの構成について説明する。図16は、本実施形態に係る情報処理システムの具体的な構成を説明するブロック図である。
配信情報取得部314は、例えば、触覚センサ341、または脈拍センサ343で構成され、配信端末32Aを装着した配信者の触覚または心拍数に関する情報を取得する。具体的には、配信情報取得部314は、触覚センサ341にて配信者の触覚を振動として取得し、配信者の触覚を伝達する振動情報を生成してもよい。また、配信情報取得部314は、脈拍センサ343にて配信者の心拍数を取得し、配信者の心拍を伝達する振動情報を生成してもよい。例えば、振動情報とは、配信者が物体に触れた際の振動に関する情報、または配信者の心拍数に関する情報などである。
配信情報受信部120は、情報処理装置20Aを介して、配信端末32Aから送信された配信情報を受信する。配信情報とは、配信者の身体性に依存する情報であり、配信端末32Aの配信情報取得部314にて生成された振動情報である。情報処理サーバ12は、配信者から送信された配信情報をユーザに伝達することにより、配信者の体験または感情をユーザに擬似体験させることができる。
センサ部325は、再生端末32Bに搭載された各種センサである。センサ部325は、再生端末32Bがユーザに装着されたか否かを判断する際に用いられる情報を取得するセンサを少なくとも含む。例えば、センサ部325は、再生端末32Bがユーザに装着されたか否かを判断する近接センサ、または再生端末32Bと物体との接触を検出するタッチセンサなどを含み、これらのセンサが取得した情報に基づいて再生端末32Bがユーザに装着されたか否かを判断してもよい。
次に、図22および図23を参照して、本実施形態に係る情報処理システムの動作について具体例を示しながら説明する。以下で説明する本実施形態に係る情報処理システムの動作例は、例えば、アイドル等の配信者による実演(例えば、コンサートなど)と連動して、配信者の心拍を再生端末32Bに配信する動作例である。
まず、図22を参照して、本実施形態に係る情報処理システムの第1の動作例について説明する。図22は、本実施形態に係る情報処理システムの第1の動作例を示すシーケンス図である。なお、第1の動作例は、実演の音声情報が再生端末32Bに配信されない場合の動作例である。
次に、図23を参照して、本実施形態に係る情報処理システムの第2の動作例について説明する。図23は、本実施形態に係る情報処理システムの第2の動作例を示すシーケンス図である。なお、第2の動作例は、実演の音声情報が再生端末32Bに配信される場合の動作例である。
以上にて、本実施形態に係る情報処理システムについて説明したが、本実施形態に係る情報処理システムは、他にも以下のように種々の変形例を取ることが可能である。
本実施形態に係る情報処理システムにて配信された配信情報は、記憶媒体等に記憶させることも可能である。このような場合、振動情報は、音声情報とは別に設けたチャンネルに記憶されることになる。
本実施形態に係る情報処理システムは、外部の情報処理サーバ、または外部のアプリケーションプログラム(例えば、SNSなど)と連動して動作することも可能である。
また、本実施形態に係る情報処理システムは、情報処理装置20Bまたは再生端末32Bに送信された振動情報を用いたサービスを行うことも可能である。
また、本実施形態に係る情報処理システムは、コンサートまたはライブ等の実演等の際に、配信者(アイドル、またはアーティスト)と、ユーザ(ファン)との交流に用いることも可能である。これによれば、情報処理システムは、配信者と、ユーザとの交流をより活発化させることが可能である。
上記では、本実施形態に係る情報処理システムにて配信される配信情報は、触覚若しくは心拍を伝達する振動情報などの配信者の身体性に依存する情報であるとしたが、本開示に係る技術は、上記例示に限定されない。例えば、本実施形態に係る情報処理システムにて配信される配信情報は、音楽、画像、動画又は文章などの各種コンテンツを含むコンテンツ情報であってもよい。
続いて、図24を参照して、本開示の各実施形態に係る情報処理サーバ10のハードウェア構成について説明する。図24は、本開示の各実施形態に係る情報処理サーバ10のハードウェア構成の一例を示したブロック図である。なお、情報処理サーバ10が実行する情報処理は、ソフトウェアとハードウェアとの協働によって実現される。
以上にて説明したように、本開示の各実施形態に係る情報処理システムによれば、配信情報をユーザに配信し、該配信情報に対してユーザから応答を付与してもらうシステムを提供することができる。これによれば、情報処理システムは、配信情報が配信されたユーザにより強い感情を誘起することが可能であり、かつ配信者とユーザとの心理的な距離を縮めることが可能である。
(1)
配信された配信情報を再生する再生部と、
ユーザの身体動作を検出するセンサ部と、
前記センサ部にて検出された前記身体動作に基づいて、前記配信情報への応答の付与に関する操作を処理する制御部と、
を備える、再生端末。
(2)
前記配信情報は、配信者が発話した音声情報である、前記(1)に記載の再生端末。
(3)
前記応答は、前記配信情報に対する評価を含む、前記(1)又は(2)に記載の再生端末。
(4)
前記応答は、前記配信情報に対して前記ユーザが発話した音声情報を含む、前記(1)〜(3)のいずれか一項に記載の再生端末。
(5)
前記応答は、前記再生端末の位置に関する情報をさらに含む、前記(3)又は(4)に記載の再生端末。
(6)
前記配信情報が配信されたことを前記ユーザに告知するガイド音声情報の出力を制御するガイド音声制御部をさらに備える、前記(1)〜(5)のいずれか一項に記載の再生端末。
(7)
前記配信情報は、複数の配信者から配信され、
前記ガイド音声情報は、前記複数の配信者の中から前記ユーザが指定した配信者によって発話された音声情報である、前記(6)に記載の再生端末。
(8)
前記ガイド音声制御部は、前記配信情報を配信した配信者と、前記ガイド音声情報を発話した配信者とが異なるように、前記ガイド音声情報を制御する、前記(7)に記載の再生端末。
(9)
前記再生端末は、ユーザの身体に装着され、
前記再生部は、前記再生端末の装着状態に基づいて、前記配信情報の再生を制御する、前記(1)〜(8)のいずれか一項に記載の再生端末。
(10)
前記センサ部は、前記再生端末の装着状態を検出する、前記(9)に記載の再生端末。
(11)
前記再生端末は、前記ユーザの頭部に装着され、
前記センサ部は、前記ユーザの頭部の動きを検出する、前記(10)に記載の再生端末。
(12)
前記配信情報は、配信者の触覚または心拍を伝達する振動情報である、前記(1)に記載の再生端末。
(13)
前記振動情報は、前記配信者の心拍数に関する情報、および該心拍数で振動を開始するタイミングに関する情報を含む、前記(12)に記載の再生端末。
(14)
前記振動情報は、所定の周期で配信される、前記(13)に記載の再生端末。
(15)
前記配信情報は、前記振動情報に加えて、前記配信者が発話した音声情報をさらに含む、前記(12)〜(14)のいずれか一項に記載の再生端末。
(16)
前記再生端末が消音状態に設定されている場合、前記再生部は、前記振動情報のみを再生させる、前記(15)に記載の再生端末。
(17)
前記センサ部によって前記再生端末が前記ユーザの耳に近接したことが検出された場合、
前記再生部は、前記音声情報を再生させる、前記(16)に記載の再生端末。
(18)
前記振動情報及び前記音声情報は、同一のアクチュエータによって再生される、前記(15)〜(17)のいずれか一項に記載の再生端末。
(19)
前記配信者が実演中である場合、前記配信情報は、実演中の前記配信者の前記音声情報、又は前記実演に対応する前記配信者の前記音声情報と、前記音声情報と同期した前記配信者の前記振動情報と、を含む、前記(15)〜(18)のいずれか一項に記載の再生端末。
(20)
配信された配信情報を再生することと、
ユーザの身体動作を検出することと、
演算処理装置によって、検出された前記身体動作に基づいて、前記配信情報への応答の付与に関する操作を処理することと、
を含む、再生方法。
20A 情報処理装置
20B 情報処理装置
30A、32A 配信端末
30B、32B 再生端末
40 ネットワーク
110 ネットワーク接続部
120 配信情報受信部
130 配信情報記憶部
140 配信制御部
150 配信情報送信部
160 応答付与部
161 音声認識部
162 エラーワード処理部
163 エラーワード記憶部
170 応答伝達部
181 端末管理部
182 機能制限部
311 通信部
312 制御部
313 音声再生部
314 配信情報取得部
315 マイク部
321 通信部
322 制御部
323 音声再生部
324 ガイド音声制御部
325 センサ部
326 再生制御部
327 再生部
Claims (20)
- 配信された配信情報を再生する再生部と、
ユーザの身体動作を検出するセンサ部と、
前記センサ部にて検出された前記身体動作に基づいて、前記配信情報への応答の付与に関する操作を処理する制御部と、
を備える、再生端末。 - 前記配信情報は、配信者が発話した音声情報である、請求項1に記載の再生端末。
- 前記応答は、前記配信情報に対する評価を含む、請求項1に記載の再生端末。
- 前記応答は、前記配信情報に対して前記ユーザが発話した音声情報を含む、請求項1に記載の再生端末。
- 前記応答は、前記再生端末の位置に関する情報をさらに含む、請求項3に記載の再生端末。
- 前記配信情報が配信されたことを前記ユーザに告知するガイド音声情報の出力を制御するガイド音声制御部をさらに備える、請求項1に記載の再生端末。
- 前記配信情報は、複数の配信者から配信され、
前記ガイド音声情報は、前記複数の配信者の中から前記ユーザが指定した配信者によって発話された音声情報である、請求項6に記載の再生端末。 - 前記ガイド音声制御部は、前記配信情報を配信した配信者と、前記ガイド音声情報を発話した配信者とが異なるように、前記ガイド音声情報を制御する、請求項7に記載の再生端末。
- 前記再生端末は、ユーザの身体に装着され、
前記再生部は、前記再生端末の装着状態に基づいて、前記配信情報の再生を制御する、請求項1に記載の再生端末。 - 前記センサ部は、前記再生端末の装着状態を検出する、請求項9に記載の再生端末。
- 前記再生端末は、前記ユーザの頭部に装着され、
前記センサ部は、前記ユーザの頭部の動きを検出する、請求項10に記載の再生端末。 - 前記配信情報は、配信者の触覚または心拍を伝達する振動情報である、請求項1に記載の再生端末。
- 前記振動情報は、前記配信者の心拍数に関する情報、および該心拍数で振動を開始するタイミングに関する情報を含む、請求項12に記載の再生端末。
- 前記振動情報は、所定の周期で配信される、請求項13に記載の再生端末。
- 前記配信情報は、前記振動情報に加えて、前記配信者が発話した音声情報をさらに含む、請求項12に記載の再生端末。
- 前記再生端末が消音状態に設定されている場合、前記再生部は、前記振動情報のみを再生させる、請求項15に記載の再生端末。
- 前記センサ部によって前記再生端末が前記ユーザの耳に近接したことが検出された場合、
前記再生部は、前記音声情報を再生させる、請求項16に記載の再生端末。 - 前記振動情報及び前記音声情報は、同一のアクチュエータによって再生される、請求項15に記載の再生端末。
- 前記配信者が実演中である場合、前記配信情報は、実演中の前記配信者の前記音声情報、又は前記実演に対応する前記配信者の前記音声情報と、前記音声情報と同期した前記配信者の前記振動情報と、を含む、請求項15に記載の再生端末。
- 配信された配信情報を再生することと、
ユーザの身体動作を検出することと、
演算処理装置によって、検出された前記身体動作に基づいて、前記配信情報への応答の付与に関する操作を処理することと、
を含む、再生方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220425 | 2016-11-11 | ||
JP2016220425 | 2016-11-11 | ||
PCT/JP2017/039684 WO2018088319A1 (ja) | 2016-11-11 | 2017-11-02 | 再生端末及び再生方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018088319A1 true JPWO2018088319A1 (ja) | 2019-10-03 |
Family
ID=62109739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018550173A Pending JPWO2018088319A1 (ja) | 2016-11-11 | 2017-11-02 | 再生端末及び再生方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11298080B2 (ja) |
EP (1) | EP3540603B1 (ja) |
JP (1) | JPWO2018088319A1 (ja) |
CN (1) | CN109804358B (ja) |
WO (1) | WO2018088319A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7131077B2 (ja) * | 2018-05-24 | 2022-09-06 | カシオ計算機株式会社 | 会話装置、ロボット、会話装置制御方法及びプログラム |
JP7189434B2 (ja) * | 2019-01-11 | 2022-12-14 | ダイキン工業株式会社 | 空間制御システム |
JP6871964B2 (ja) * | 2019-03-29 | 2021-05-19 | 株式会社コロプラ | 配信プログラム、配信方法、および情報端末装置 |
WO2022264203A1 (ja) * | 2021-06-14 | 2022-12-22 | 三菱電機株式会社 | 信号生成装置、信号処理システムおよび信号生成方法 |
CN117897971A (zh) | 2021-09-03 | 2024-04-16 | 索尼集团公司 | 信息处理装置、信息处理方法和程序 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003240582A (ja) * | 2002-02-15 | 2003-08-27 | Mitsubishi Electric Corp | 車両位置表示装置および音声情報取得方法 |
JP2006154087A (ja) * | 2004-11-26 | 2006-06-15 | Yamaha Corp | 楽曲データ交換フォーマットおよび携帯端末装置 |
JP2007122501A (ja) * | 2005-10-28 | 2007-05-17 | Sony Corp | 電子機器 |
JP2007148884A (ja) * | 2005-11-29 | 2007-06-14 | Mitsubishi Electric Corp | 携帯型コンテンツデータ再生装置及びその制限解除方法 |
JP2010044808A (ja) * | 2008-08-08 | 2010-02-25 | Olympus Corp | データ再生装置 |
JP2014006076A (ja) * | 2012-06-21 | 2014-01-16 | Navitime Japan Co Ltd | ナビゲーション装置、ナビゲーションシステム、端末装置、サーバ装置、ナビゲーション方法、および、プログラム |
JP2014147030A (ja) * | 2013-01-30 | 2014-08-14 | Dwango Co Ltd | 音声配信システム及び録音方法 |
WO2015029573A1 (ja) * | 2013-08-29 | 2015-03-05 | ソニー株式会社 | リストバンド型情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP2015106223A (ja) * | 2013-11-29 | 2015-06-08 | マチオリ株式会社 | コンテンツの評価装置、システム、サーバ装置及び端末装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6415257B1 (en) * | 1999-08-26 | 2002-07-02 | Matsushita Electric Industrial Co., Ltd. | System for identifying and adapting a TV-user profile by means of speech technology |
US6893396B2 (en) * | 2000-03-01 | 2005-05-17 | I-Medik, Inc. | Wireless internet bio-telemetry monitoring system and interface |
JP2001357191A (ja) | 2000-06-12 | 2001-12-26 | Toshiba Corp | コマーシャルメッセージ反応調査方法およびシステム、ならびにプログラムを記憶した記憶媒体 |
US20030159567A1 (en) * | 2002-10-18 | 2003-08-28 | Morton Subotnick | Interactive music playback system utilizing gestures |
US20110298829A1 (en) * | 2010-06-04 | 2011-12-08 | Sony Computer Entertainment Inc. | Selecting View Orientation in Portable Device via Image Analysis |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
CN101601292B (zh) * | 2007-01-22 | 2011-11-16 | 索尼株式会社 | 信息处理装置、信息处理方法和程序 |
US8428053B2 (en) * | 2009-02-26 | 2013-04-23 | Plantronics, Inc. | Presence based telephony call signaling |
US20130033971A1 (en) | 2011-08-05 | 2013-02-07 | Jeffrey Stier | System and Method for Managing and Distributing Audio Recordings |
US9823742B2 (en) * | 2012-05-18 | 2017-11-21 | Microsoft Technology Licensing, Llc | Interaction and management of devices using gaze detection |
US8868598B2 (en) * | 2012-08-15 | 2014-10-21 | Microsoft Corporation | Smart user-centric information aggregation |
US10146316B2 (en) * | 2012-10-31 | 2018-12-04 | Nokia Technologies Oy | Method and apparatus for disambiguating a plurality of targets |
CN105027206A (zh) * | 2012-11-29 | 2015-11-04 | 斯蒂芬·蔡斯 | 视频耳机、系统、平台、方法、设备和媒体 |
ITMI20132171A1 (it) * | 2013-12-20 | 2015-06-21 | Davide Macagnano | Rilevatore indossabile per il rilevamento di parametri legati ad una attività motoria |
WO2015166573A1 (ja) * | 2014-05-01 | 2015-11-05 | 貴弘 市橋 | ライブ放送システム |
US11076763B2 (en) * | 2014-10-15 | 2021-08-03 | Atlasense Biomed Ltd. | Remote physiological monitor |
US20160330258A1 (en) * | 2015-05-08 | 2016-11-10 | Charanjit Singh Sandhu | Broadcasts among electronic devices of registered users via internet protocol |
JP6226020B2 (ja) * | 2016-04-28 | 2017-11-08 | ソニー株式会社 | 車載装置、情報処理方法および情報処理システム |
-
2017
- 2017-11-02 EP EP17870232.0A patent/EP3540603B1/en active Active
- 2017-11-02 CN CN201780062302.3A patent/CN109804358B/zh active Active
- 2017-11-02 JP JP2018550173A patent/JPWO2018088319A1/ja active Pending
- 2017-11-02 US US16/339,005 patent/US11298080B2/en active Active
- 2017-11-02 WO PCT/JP2017/039684 patent/WO2018088319A1/ja unknown
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003240582A (ja) * | 2002-02-15 | 2003-08-27 | Mitsubishi Electric Corp | 車両位置表示装置および音声情報取得方法 |
JP2006154087A (ja) * | 2004-11-26 | 2006-06-15 | Yamaha Corp | 楽曲データ交換フォーマットおよび携帯端末装置 |
JP2007122501A (ja) * | 2005-10-28 | 2007-05-17 | Sony Corp | 電子機器 |
JP2007148884A (ja) * | 2005-11-29 | 2007-06-14 | Mitsubishi Electric Corp | 携帯型コンテンツデータ再生装置及びその制限解除方法 |
JP2010044808A (ja) * | 2008-08-08 | 2010-02-25 | Olympus Corp | データ再生装置 |
JP2014006076A (ja) * | 2012-06-21 | 2014-01-16 | Navitime Japan Co Ltd | ナビゲーション装置、ナビゲーションシステム、端末装置、サーバ装置、ナビゲーション方法、および、プログラム |
JP2014147030A (ja) * | 2013-01-30 | 2014-08-14 | Dwango Co Ltd | 音声配信システム及び録音方法 |
WO2015029573A1 (ja) * | 2013-08-29 | 2015-03-05 | ソニー株式会社 | リストバンド型情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP2015106223A (ja) * | 2013-11-29 | 2015-06-08 | マチオリ株式会社 | コンテンツの評価装置、システム、サーバ装置及び端末装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190223798A1 (en) | 2019-07-25 |
EP3540603A4 (en) | 2019-09-25 |
EP3540603A1 (en) | 2019-09-18 |
CN109804358B (zh) | 2023-06-20 |
US11298080B2 (en) | 2022-04-12 |
WO2018088319A1 (ja) | 2018-05-17 |
CN109804358A (zh) | 2019-05-24 |
EP3540603B1 (en) | 2021-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018088319A1 (ja) | 再生端末及び再生方法 | |
US10817251B2 (en) | Dynamic capability demonstration in wearable audio device | |
US10070213B2 (en) | Methods of generating tactile user feedback utilizing headphone devices and related systems | |
CN106162413B (zh) | 具体环境声音提醒模式的耳机装置 | |
US20180014117A1 (en) | Wearable headset with self-contained vocal feedback and vocal command | |
TW201820315A (zh) | 改良型音訊耳機裝置及其聲音播放方法、電腦程式 | |
US10205814B2 (en) | Wireless earpiece with walkie-talkie functionality | |
JP6326573B2 (ja) | 多機能イヤホンによる自律型アシスタントシステム | |
CN109429132A (zh) | 耳机系统 | |
JP7167910B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20180126474A (ko) | 시스템, 단말 장치, 방법 및 기록 매체 | |
JP2017021737A (ja) | 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム | |
US11264035B2 (en) | Audio signal processing for automatic transcription using ear-wearable device | |
US11275554B2 (en) | Information processing apparatus, information processing method, and program | |
JP2012060235A (ja) | 動作条件設定システム、ユーザ装置、設定サーバ、及び動作条件設定方法 | |
JP2018093503A (ja) | 音声コンテンツ再生イヤホン、方法、および、プログラム | |
EP3924961B1 (en) | Methods and systems for generating customized audio experiences | |
KR102083466B1 (ko) | 음악을 추천하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
CN110493681A (zh) | 具有全自然用户界面的耳机装置及其控制方法 | |
US11252497B2 (en) | Headphones providing fully natural interfaces | |
JP7099534B2 (ja) | 音声メッセージシステム、サーバ装置、サーバ装置の情報処理方法、および、プログラム | |
JP2015023534A (ja) | 情報提供装置、情報提供システム、及び情報提供プログラム | |
WO2018190099A1 (ja) | 音声提供装置、音声提供方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190426 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220708 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221025 |