JP6920449B2 - コンテンツ対話システム及び方法 - Google Patents

コンテンツ対話システム及び方法 Download PDF

Info

Publication number
JP6920449B2
JP6920449B2 JP2019543756A JP2019543756A JP6920449B2 JP 6920449 B2 JP6920449 B2 JP 6920449B2 JP 2019543756 A JP2019543756 A JP 2019543756A JP 2019543756 A JP2019543756 A JP 2019543756A JP 6920449 B2 JP6920449 B2 JP 6920449B2
Authority
JP
Japan
Prior art keywords
content
sensory
piece
interactive content
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019543756A
Other languages
English (en)
Other versions
JP2020511044A (ja
Inventor
テナコーン チャムリ
テナコーン チャムリ
サブハッシュ チャンドラ
サブハッシュ チャンドラ
アミット ゴエンカ
アミット ゴエンカ
Original Assignee
ゼット5エックス グローバル エフゼット リミテッド ライアビリティ カンパニー
ゼット5エックス グローバル エフゼット リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ゼット5エックス グローバル エフゼット リミテッド ライアビリティ カンパニー, ゼット5エックス グローバル エフゼット リミテッド ライアビリティ カンパニー filed Critical ゼット5エックス グローバル エフゼット リミテッド ライアビリティ カンパニー
Publication of JP2020511044A publication Critical patent/JP2020511044A/ja
Application granted granted Critical
Publication of JP6920449B2 publication Critical patent/JP6920449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J2005/001Auxiliaries for producing special effects on stages, or in circuses or arenas enhancing the performance by involving senses complementary to sight or hearing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J25/00Equipment specially adapted for cinemas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

〔優先権主張/関連事例〕
この国際特許出願は、その全体が組み込まれている「コンテンツ対話システム及び方法(CONTENT INTERACTION SYSTEM AND METHOD)」という名称の2017年6月21日出願の米国一般特許出願第15/629,621号、2018年5月10日出願の米国一般特許出願第15/976,590号、及び2018年5月10日出願の米国一般特許出願第15/976,599号の利益を主張するものである。
本発明の開示は、一般的に、5つの人間の感覚:触覚、嗅覚、聴覚、視覚、及び味覚を用いてコンテンツと対話するためのシステム及び方法に関する。
人間は、人間の体及び心の様々な部分によって感知される触覚を含む人間が環境を感知することができる6つの異なる感覚を有する。これらの6つの感覚は、1.感覚器官を通じて捕捉するもの全てを消費するための目、2.我々が聞く耳、3.我々が臭ぐ鼻、4.我々が食べて味わう口、5番目.触覚を通じて我々が感じる肌、及び6番目.心である感覚器官を含む。
onotes.com www.ultrahaptics.com/ www.naturalmachines.com/ www.samsung.com/us/mobile/virtual−reality/gear−vr/gear−vr−sm−r322nzwaxar/ www.oculus.com/rift/ //simple.wikipedia.org/wiki/List_of_emotions#/media/File:Plutchik−wheel.svg www.analyticsvidhya.com/blog/2014/10/introduction−k−neighbours−algorithm−clustering/
典型的なテレビ、映画等のような既存のコンテンツシステムは、典型的に、ユーザが視覚及び聴覚を通じてコンテンツを体験することを可能にする。他のシステムは、ユーザが嗅覚又は味覚によってコンテンツを体験することを可能にする場合がある。更に、ユーザが触覚フィードバックシステムのような触覚を通じてコンテンツを体験することを可能にする既存のシステムがある。5つの感覚が統合されたコンテンツ体験を提供するために5つの感覚全てをデバイスに統合する公知のコンテンツシステムは存在しない。すなわち、既存システムの技術上の問題は、これらのシステムのどれも5つの感覚が統合されたコンテンツ対話を提供しないということである。ユーザが5つの異なる感覚を用いてコンテンツと対話することを個々に可能にするシステムは存在するが、今日までどれ1つとして、これらのシステムの全てを実際に互いに統合しておらず、これは、既存のシステムの各々が必ずしも相互に通信するわけではないので容易なことではない。
コンテンツ対話システム及び方法を示す図である。 コンテンツ対話システムの一部である対話型コンテンツ配信システムのより詳細な図である。 感覚ベースの対話型コンテンツを発生させる方法を示す図である。 感覚ベースの対話型コンテンツと対話する方法を示す図である。 芳香要素、仮想現実要素、及びタッチ要素を用いてコンテンツを学習する及び自動的にホットスポットするための技術の例を示す図である。 芳香要素をビデオコンテンツのシーンに接続するのにシステムによって使用されるマッピング技術の例を示す図である。 生産のためのデバイス形状因子、構成要素、及び可能な色の例を示す図である。 生産のためのデバイス形状因子、構成要素、及び可能な色の例を示す図である。 生産のためのデバイス形状因子、構成要素、及び可能な色の例を示す図である。 ベースボード、すなわち、論理構成要素を有するコンテンツ配信システムハードウエアを示す図である。 ビデオコンテンツが異なる感覚体験のホットスポットを用いてマップされたホットスポット画面の例を示す図である。
本発明の開示は、いずれかの画面に対してビデオコンテンツを再生するビデオオンデマンド・セットトップシステムに特に適用可能である。本発明の開示を説明するのは、この状況に関してのものである。しかし、本発明による五感とコンテンツとの関連付けは、専ら第三者ハードウエアデバイスと通信するいずれのハードウエアも持たない仮想ソフトウエアのみのシステムなどに対してより高い実用性を有することは認められるであろう。一実施形態では、システム及び方法は、五感である目、耳、鼻、口、及び皮膚に対して応じることができる。別の実施形態では、システム及び方法は、心は他の感覚よりも複雑なので六感全てに対して応じることができる。
システム及び方法は、ユーザの娯楽、買い物、及び教育体験を強化するために消費者の居間で最終的に接続されたデバイスを提供することができる。現在市販されている娯楽デバイス又はアプリケーションは、人間の五感全てには応じていないが、開示するシステム及び方法は、五感の各々に対して応じるよう設計されたモジュール/デバイスを統合することにより、消費者の好みに応じて五感全てに一緒に又は個々に応じる。システム及び方法は、五感の各々のためのデバイスをコンテンツに何が必要かに基づいて統合された体験に統合する。
一実施形態では、システムは、異なる感覚のためのビデオコンテンツを感覚バグで時間符号化するマーカで1片のコンテンツを符号化することができる。従って、システムは、デバイスの実施形態に応じて、様々な五感又は六感及び五感又は六感を用いたユーザによる対話をこれらの時間コードを使用して同期することができる。ユーザは、総合システム100の一部である対話型コンテンツ配信システム106の一部であるクラウドベースのポータルインタフェース内に新規コンテンツを生成又は既存の第三者コンテンツをインポートする機能を有することになる。コンテンツがポータルインタフェース内にロードされた状態で、ポータルインタフェースが、コンテンツの様々なフレーム及びシーンを超えて移動する機能をもたらし、関連するセクションに関連の感覚バグでホットスポットすることができる。図9に示すように、要素900/901は、感覚体験をコンテンツのシーン又はセグメントに取り付ける(ホットスポット設定する)ための機能を提供するユーザインタフェースシステムである。図面902は、いかに様々な感覚ホットスポットがビデオコンテンツに取り付けられ、追跡されるかを示している。システムは、これらのホットスポットをコンテンツに取り付けて格納するために動的なクラウドベースの同期技術を使用することができる。ホットスポットが、感覚バグによりコンテンツの関連セクションに関連付けられたら(以下に説明するように)、コンテンツのこの構成(特定のシーンのための時間スタンプ、ホットスポット、及び感覚バグを含む)は、クラウドプラットフォーム上(対話型コンテンツ配信システム106の一部であるストレージ要素106C内など)に格納することができ、第三者コンテンツ又はアップロードされたオリジナルコンテンツに対して時間コード関連付けとして関連付けられる。そのような1片の感覚符号化されたコンテンツが、インテリジェントビデオプレーヤ等のデバイス102によって再生されると、図1に示すデバイス102は、適切なシーン/フレームのための感覚バグを抽出し、画面上に視覚インジケータを表示することができる。システムにおいて、ユーザは、感覚バグと対話して感覚バグを起動し、コンテンツの追加の次元/感覚を体験することができる。感覚バグの一部は、不随意とすることができ、例えば、芳香バグは、ユーザにシステムと対話させる必要はなく、芳香マップ及び芳香グラフに基づいて、単独で不随意に作動する。ユーザ入力又はアクションを必要としない感覚バグは、不随意に実行されることになる。例えば、嗅覚バグに遭遇すると、デバイス102は、嗅覚ハードウエアモジュール104Bにメッセージを送信し、この対応する臭いを自動的に分散させ、この臭いがこれに従って混合されて分散されるようにする。一方、触覚に伴って生じる感覚バグは、ユーザがシステムに接近している必要があり、ユーザの準備ができた時にのみ起動されることになる。
一実施形態では、システムは、一緒に又は独立型システムとして個々に作動可能な感覚の各々のための異なるモジュール/デバイスを有することができる。モジュールの各々は、モジュール/デバイスが互いの上に積み重ねられた状態で、モジュール/デバイス間で電力及びデータを転送する1又は2以上のコネクタを有する。これらのシステムの考えられる組合せは複数存在する。
対話型コンテンツシステム及び方法は、様々な方法で収益を生み出す/伸ばすために用いることができる。例えば、システム及び方法において、ベースデバイス(例えば、図1のユーザ対話デバイス102)は、ベースデバイスに配信される/ベースデバイス内に格納されるコンテンツと対話することになる消費者に販売することができる。その後、システムは、ベースデバイスとは別に販売可能な又は広告主としてよって助成を受けた及びベースデバイスも販売する企業によって又は広告主としてよって販売可能な1又は2以上の追加の感覚デバイス(図1の例のデバイス104A−104E)を有することができる。例えば、一実施形態では、対話型コンテンツに基づいて嗅覚応答を生成する嗅覚デバイス104B(例えば、嗅覚カートリッジなど)又は味覚デバイス104C(3D食品プリンタカートリッジなど)は、最初に第三者又は販売業者によって市販することができる。システムにおいて、広告主108は、感覚デバイス104A−104Eの1又は2以上からの応答を生成することができる対話型コンテンツ内で広告を銘柄化して広告料を支払うことができる。映画作品とすることができる対話型コンテンツに関して、広告銘柄は、ロゴの設置、銘柄化コンテンツ等に対して代価を支払うことができる。
図1は、ユーザ対話デバイス102へのアクセスを有するユーザが人間の五感(例えば、視覚、触覚、嗅覚、味覚、及び聴覚)の1又は2以上を又は全てを用いてコンテンツと対話することができるコンテンツ対話システム及び方法100を示している。システム100は、人間の五感全てに対応する統合ユーザ体験を提供する。システムは、複数のユーザ対話デバイス102を有することができ、各ユーザ対話デバイス102は、人間の五感を用いてコンテンツと対話するために1又は2以上のユーザによって使用することができる。各ユーザ対話デバイス102は、例えば、ユーザがそれによって五感の1又は2以上を用いてコンテンツと対話することができるあらゆるデバイス(ベースデバイス)とすることができる。一例では、各デバイス102は、ユーザが視覚及び聴覚を用いてコンテンツと対話することを可能にするテレビとすることができ、ユーザ対話デバイス102は、ユーザが人間の五感を用いてコンテンツと対話することができるように1又は2以上の他の感覚デバイス(嗅覚デバイス104B、味覚デバイス104C、及び触覚デバイス104A等)をユーザ対話デバイスに接続させることができる。他の実施形態では、ユーザ対話デバイス102は、5つの感覚デバイス各々をユーザ対話デバイス102内に構築させることができる。更に他の実施形態では、ユーザ対話デバイス102は、一部ではあるが全部ではない感覚デバイスをユーザ対話デバイス102内に構築させることができる。従って、ユーザ対話デバイス102は、ユーザがコンテンツと対話するのに使用可能なあらゆるデバイスとすることができ、ハードウエア、ソフトウエア、又は両方の組合せとすることができる。図1に示すように、各ユーザ対話デバイス102は、ユーザがユーザ対話デバイス102と対話することを可能にするユーザ入力デバイス103を(感覚デバイスに加えて)更に含むことができ、例えば、ユーザ対話デバイス102を起動させるための又はユーザ対話デバイス102の音量を変更するための遠隔デバイス等々である。
システム100は、各ユーザ対話デバイス102に配信されるコンテンツを受信して五感対話型コンテンツを符号化する対話型コンテンツ配信システム106を更に含むことができる。対話型コンテンツ配信システム106は、サーバコンピュータ、他のハードウエアデバイス又はソフトウエア(コンピュータコードの複数の行)、又はハードウエア及びソフトウエアの組合せを用いて実施することができる。符号化処理の一部(以下でより詳細に説明)として、対話型コンテンツ配信システム106は、1又は2以上の時間スポット/マーカを生成し、これらをコンテンツ内に挿入し、コンテンツがユーザ対話デバイス102上で再生される時に感覚デバイスの1又は2以上をいつ起動すべきかを示すことができる。更に、1又は2以上の広告主108は、対話型コンテンツ配信システム106に接続して1又は2以上の広告を提示し、各ユーザ対話デバイス102に配信される予定のコンテンツ内で特定の時間スポット/マーカ(従って、特定の感覚デバイス及び感覚対話)に関連付けるための1又は2以上の広告に対して支払うことができる。例えば、食品会社は、嗅覚又は味覚デバイスのためのマーカに関連付けるための自己の広告に対して支払うことができる。これは、感覚対話型コンテンツ体験を収益化することができる1つの仕組みを提供する。
図1のシステムの実施形態では、ユーザ対話デバイス102は、ユーザ対話デバイス102に結合された感覚対話システム104を有することができる。上述のように、システムの他の実施形態は、感覚デバイス104A−104Eのうちの1又は2以上をユーザ対話デバイス102内に埋め込ませることができる。感覚デバイスの各々は、触覚デバイス104Aが触覚対話を提供することができ、嗅覚デバイス104Bが嗅覚対話を提供することができ、味覚デバイス104Cが口腔対話を提供することができ、聴覚デバイス104Dが聴覚対話を提供することができ、視覚デバイス104Eが視覚対話を提供することができるように、異なる感覚対話を生成することができる。上述のように、感覚デバイスの各々は、コンテンツ内のマーカ/時間スポットによってトリガすることができ、コンテンツは、感覚デバイス104A−104Eの各々を個別にトリガするための独特なマーカ/時間スポットを含むことができる。一部の実施形態では、感覚対話システム104は、五感対話デバイスである図1の例には示していないマインド対話デバイスを更に含むことができる。例えば、コンテンツは、食品を表示することができ、表示された食品を生成するために味覚デバイス104Cをトリガするための時間スポットを有することができる。各デバイス104A−104Eは、(図1に示すように)単一ハウジングに収容することができ、又は各感覚デバイス104A−104Eは、相互に積み重ね可能/結合可能な異なるモジュール/ハウジングに収容することができる。従って、上述の例示的システムは、分離可能又は単一ユニットとして接続可能であり、分離される時には、最適な体験をもたらすために消費者の近くに存在することができる(例えば、嗅覚センサ又はタッチセンサ)複数の物理サブシステムを含む。結合された状態で、感覚デバイスは、単一ユニットとして一緒に作動させることができる。従って、例えば、特定のユーザのための初期システムは、感覚デバイスのうちの1−2個しか持たず、その後、ユーザが追加の感覚デバイスを購入/取得することができ、各ユーザは、トリガ可能な異なる数の感覚デバイスを有することができるが、配信される対話型コンテンツは、感覚デバイスの各々のためのマーカ/時間スポットを有することができる。
感覚デバイスの各々は、ハードウエア及びソフトウエアの組合せとして実施することができる。一例では、触覚デバイス104Aは、触覚フィードバックデバイスとすることができ、嗅覚デバイス104Bは、起動に応答して特定の臭いを生成するデバイスとすることができ、味覚デバイス104Cは、起動に応答して食べ物を生成するデバイス(3Dフードプリンタ/電子レンジなど)とすることができ、聴覚デバイス104Dは、起動に応答して聴覚対話を生成することができ(一部の実施形態では、テレビのスピーカとすることができる)、視覚デバイスは、起動に応答して視覚対話を生成することができる(一部の実施形態では、テレビの画面とすることができる)。感覚対話デバイス104A−104Eの各々は、特別製造のデバイスとすることができ、又は市販の在庫品とすることができる。例えば、市販のデジタル嗅覚センサ(嗅覚デバイス104Bとして使用可能)は、引用によって本明細書に組み込まれているVapor Communication及び現在はonotes有限会社と呼ばれる企業から利用可能なCyrano製品とすることができる(更に別の情報は、onotes.comで利用可能)。別の一例として、触覚デバイス104Aは、UltraHaptics社製品を用いて実施することができる(更に別の情報は、引用によって本明細書に組み込まれているwww.ultrahaptics.com/で利用可能)。別の一例として、味覚デバイス104Cは、Natural Machines,Inc.製の市販のFoodini製品を用いて実施することができる(更に別の情報は、引用によって本明細書に組み込まれているwww.naturalmachines.com/で利用可能)。聴覚機能は、セットトップボックス内に組み込まれた標準高精細サウンド処理システムによって提供される。それが提供するオーディオは、消費者のスピーカシステムによって再生される。視覚機能は、TVシステムによって再生される。しかし、高度な仮想現実体験は、(限定ではないが)Samsung社のGear VR(www.samsung.com/us/mobile/virtual−reality/gear−vr/gear−vr−sm−r322nzwaxar/)、又はOculus Rift(www.oculus.com/rift/)のような第三者のVRヘッドセットシステム上で作り出される。
上述の実施形態への代わりとして、システム100は、商品セットトップボックス(STB)又はUSBスティック上で実行されるソフトウエアを含むユーザ対話デバイス102を用いて実施することができ、感覚デバイス104は、システムが感覚デバイス104と対話して類似の没入体験を作り出すことができる適切なハードウエアとすることができる(例えば、第三者の嗅覚センサ)。
嗅覚デバイス104Bに関して、嗅覚に関連するマーカ/ホットスポットは、コンテンツ内のシーンに基づいて1対1でマップするか、又はユーザの芳香の好み及び関連するコンテンツの嗅覚マップ上で導出される芳香グラフに基づいてコンテンツに関連付けることができる。コンテンツベースのジャンル及び他の属性の好みに関連付けられる感覚マップ又はガイドが生成される。これに代えて、嗅覚特性は、テーマ中心のコンテンツの芳香グラフ及び芳香マップを生成させ、この両方は、コンテンツが再生されている間に一緒にマージされて芳香パレットを生成することになる。芳香グラフは、芳香の強さを示し、芳香マップは、特定の芳香トリガが特定のコンテンツ内のどこで起動されるかを定義する。嗅覚デバイス104Bは、コンテンツ内のホットスポットを識別するビデオエディタ内に埋込可能なインポート/エクスポートオプションを有することができる。
一実施形態では、触覚デバイス104A(デジタルタッチ機能)は、超音波技術に基づく場合があり、コンテンツ上に描画された物体に基づいて触覚フィードバックをエミュレート又はシミュレートすることができる。例えば、大きいモニュメント又はビルのシーンがある映画において、触覚フィードバックは、ビルの小型模型に触れている感触をエミュレートすることができ、この体験がリアルタイムに創造される。
より詳細には、対話型コンテンツ配信システム106は、1片のコンテンツ(ビデオ又は他の1片のコンテンツ)を取り出す/取得することができ、このコンテンツをプラットフォーム内にアップロードするか、又はビデオリンクをYouTube、Vimeo、及びNetflix等の外部システムから引き出すことができる。対話型コンテンツ配信システム106は、ビデオフレームに追加のセンサアイコン(バグ)をマーク付けする(ホットスポット)機能を提供することになるシステムの一部であるクラウドプラットフォームとすることができる。マーク付けされたコンテンツが、上述のシステムを通じて再生されると、関連するマーキングされた没入体験を作り出すことになる。例えば、ビデオが再生されると、システムは、一連のビデオフレーム上でマーカを検出して、画面上に「感覚バグ」を可視的に表示し、デバイスに関連付けられたデジタル的な臭いか又はデジタル的な感触を生成するために適切なセンサを起動することになる。重要な革新は、マーカ技術があらゆるビデオコンテンツに対して外部であり、従って、いずれか/全ての第三者ビデオコンテンツにマーク付けすることが可能になり、それにより、あらゆるコンテンツから感覚対話型なコンテンツを発生させることができることである。
図1に示す要素に加えて、システム100は、ユーザの関心に基づくユーザの脈拍の高まり又はスパイクを識別して捕捉するのに使用可能な神経科学ヘルメットを更に含むことができる。このデバイスからのこのデータを用いて、特定の各1片のコンテンツ内でユーザの関心を決定することができる。
システム100において、1片の対話型コンテンツが上述のようにユーザ対話デバイス102上で再生される時に、マーカは、自動的に起動することができる。これに代えて、特定の感覚対話のための各マーカは、ソリューションの性質に基づいてユーザの入力によって起動することができる。例えば、嗅覚トリガは自動的に起動するが、(仮想現実システムのような)触覚感覚は、ユーザの選択に基づいて起動することができる。
一実施形態では、ユーザ入力デバイス103は、ユーザがシステムと対話することになる動作ベースの感覚入力デバイスとすることができる。それにより、消費者は、ユーザ対話デバイス102を仮想現実体験と一緒に制御するためのオプションを選択することができるようになる。
触覚デバイス104Aは、仮想現実(VR)デバイスとすることができる。コンテンツがVR世界又はVRシーンのためのマーカを有し、シーンがコンテンツに対してマーキングされることを前提とすれば、システムは、以下に限定されるものではないが、モバイルVR機能を有することができる。一実施形態では、VRマーカが再生されると、「シーンバグ」が現れて、ユーザは、画面を大型スクリーンデバイスからモバイルZ5アプリに転送する機能を有し、VRデバイス上にVRコンテンツを直ちに表示することになる。ユーザは、デバイスを自身のVRギア内に挿入してVR世界を見る機能を有することができる。モバイルアプリケーションは、VRコンテンツがヘッドセット上に表示されている間、メインZ5システム上での再生の一時停止及び再開ができるほど十分にスマートである。「シーンバグ」画面はまた、VRモバイルアプリ又はVRシステム内にも現れることができ、セッション中にZ5デバイスとモバイルアプリ又はVRシステムとの間でシームレスなハンドオーバが存在する。デバイス(モバイル&TV)間の対話型VR転送は、モバイルと車のBluetooth技術の間の通話転送のように行うことができ、視聴しながら友人にソーシャルでコンテンツを転送するために使用することもできる。
味覚デバイス104Cは、メインシステム又は第三者システムの一部である3Dプリンタとすることができる。コンテンツに基づいて、3Dプリントマーカが存在する場合に、それは、望ましい食品をプリント(出力)する機能を有する。システムにおいて、料理コンテンツは、マーカに関連付けられ、目玉の料理番組に基づいている。選択された品目は、番組中又は番組後にデバイスによって印刷されることになる。システムは、品目を印刷するのにかかる時間を理解するほど賢く、事前準備又はプリントを実行するので、品目は、番組中に準備が整っている。例えば、忙しい両親の場合に、下校した時の子どものためのクッキー及びスナックのプリント時間をTVの時間の後にするように遠隔で決定することができる。システムはまた、コマーシャル中、後、又は合間に消費者の注目を引くための食品見本を生成するために広告主及び銘柄とのパートナーシップを有することができる。
図2は、コンテンツ対話システム100の一部である対話型コンテンツ配信システム106の更なる詳細を示している。対話型コンテンツ配信システム106は、1又は2以上の追加の要素を更に含むことができ、対話型コンテンツ配信システム106のこれらの要素の各々は、ハードウエア又はソフトウエアを用いて実施することができる。要素がハードウエアを用いて実施される場合に、各要素は、ハードウエアデバイス、専用マイクロコントローラなどとすることができる。要素がソフトウエアを用いて実施される場合に、要素は、複数行のコンピュータコード/命令とすることができ、これらは、メモリに格納されて、要素(ブレードサーバ、サーバコンピュータ、クラウドコンピュータリソース等)をホストするクラウドリソースのプロセッサによって実行することができるので、クラウドリソース/コンピュータシステムは、要素の作動及び処理を実行するように構成される。対話型コンテンツ配信システム106は、感覚のためのコンテンツ符号化エンジン106A、感覚対話型コンテンツ配信エンジン106B、並びにコンテンツストレージ及び感覚符号化されたコンテンツのストレージ106Cを更に含むことができる。感覚のためのコンテンツ符号化エンジン106Aは、コンテンツ内の異なるシーンにある時間スタンプ、ホットスポット、及び感覚バグで新規片のコンテンツ又は第三者コンテンツの符号化を実行してこのコンテンツを感覚対話型にする。例えば、感覚のためのコンテンツ符号化エンジン106Aは、認可されたユーザがコンテンツ(新規コンテンツか又は第三者コンテンツかに関係なく)を時間スタンプ、ホットスポット、及び感覚バグで編集/符号化することを可能にするツール/ユーザインタフェースを提供することができる。感覚対話型コンテンツ配信エンジン106Bは、ユーザによって閲覧されるコンテンツに基づいて、適切な感覚符号化されたコンテンツを、有線又は無線が可能な通信パスを通ってシステム100の各ユーザに配信することができる。コンテンツストレージ及び感覚符号化されたコンテンツのストレージ106Cは、生コンテンツ(新規コンテンツか又は第三者コンテンツかに関係なく)及び感覚符号化されたコンテンツを格納することができるので、生コンテンツをシステムのユーザによって符号化することができ、感覚符号化されたコンテンツをシステムの各デバイス102に配信することができる。
図3は、感覚ベースの対話型コンテンツを発生させる方法300を示している。一例では、上述の感覚のためのコンテンツ符号化エンジン106Aを使用して本方法を実行することができる。しかし、方法300はまた、本発明の開示の範囲に収まると考えられる異なる/他のハードウエアを用いて実行することができる。本方法において、コンテンツが読み出され(第三者コンテンツの場合)又は生成される(新規コンテンツの場合)(302)。次にコンテンツは、コンテンツの1又は2以上のシーンに関して、時間スタンプ、ホットスポット、及び感覚バグで符号化され(304)、異なる感覚対話型を1片のコンテンツ内に符号化する。各ホットスポット及び/又は感覚バグは、いずれの感覚デバイスがトリガされるか及びどのような応答が感覚デバイスに期待されるかに関するデータを含むことができる。例えば、嗅覚デバイスのためのホットスポットは、嗅覚デバイスによって生成される特定の臭いに関するデータ/命令を含むことができる。同様に、他の感覚デバイスのためのホットスポット及び/又は感覚バグは、類似のデータを有することになる。次に本方法は、感覚符号化されたコンテンツを各ユーザ対話デバイス102に配信することができる(306)。
図4は、感覚ベースの対話型コンテンツと対話する方法400を示している。一例では、本方法は、ユーザ対話デバイス102及び感覚対話システム104の組合せによって実行することができる。しかし、方法300も、本発明の開示の範囲に収まると考えられる異なる/他のハードウエアを用いて実行することができる。本方法において、特定の1片の符号化されたコンテンツをユーザ対話デバイス102上で再生することができる(402)。上述のように、コンテンツ内に埋め込まれたホットスポット及び感覚バグは、不随意にトリガされる又はユーザアクションによってトリガすることができる。従って、コンテンツ内のホットスポットが特定の感覚デバイスを起動して(404)、この特定の感覚デバイスが応答を生成することができる(406)。例えば、嗅覚デバイスの場合に、感覚デバイスは、ホットスポット又は感覚バグに基づいて臭いを放出することができる。
図5は、芳香、仮想現実、及びタッチ要素でコンテンツを学習して自動的にホットスポットする方法500を示している。ユーザは最初に、上述のように、システムを用いて手動ホットスポット設定(コンテンツ内にホットスポットを手動で挿入)を実行することができる(501)。コンテンツシステムは、ユーザが挿入したホットスポットについて学習してフィードバックを取得するので(503)、システムは、(アルゴリズム又は機械学習技術を用いて)学習して手動ホットスポット設定に加えて自動ホットスポット設定(504)を提供することができる。一実施形態では、クラスター化アルゴリズム等のアルゴリズムが、ホットスポット及びマーカを学習し(502)、次に自動的に感覚デバイスを待ち行列に入れるので、デバイス102及び感覚システム104は、以前に符号化された感覚コンテンツを必要とする代わりに1片のコンテンツを直ちに符号化することができる。このタイプの学習及び自動ホットスポット設定は、芳香に限定されることなく、全ての感覚に関して可能である。
図6は、芳香要素をビデオコンテンツのシーンと接続するためにシステムによって利用されるマッピング技術600の例を示している。従って、図6は、自動ホットスポット設定するのに使用可能な図5に関連して上記で参照したアルゴリズムの例を示している。システムは、他の感覚デバイスの自動ホットスポット設定のために類似の処理/方法を有することができることに注意しなければならない。アルゴリズムは、マッピング601を実行し、この場合に、システムは、どれくらいの持続時間にわたってどこで所与の芳香を再生するかを決定するために3つの要素を考慮する。図示のように、各芳香は、いずれかの所与のコンテンツ上の感情にマップすることができる。リンク(//simple.wikipedia.org/wiki/List_of_emotions#/media/File:Plutchik−wheel.svg)上に示すような人間の感情のリストからの部分集合が、コンテンツを通して捕捉される。これらの感情は、クラウドベースのポータル上で管理者又は消費者によって手動でマップされる。しかし、マッピングを学習して重大情報を静的に収集した後は、システム、アルゴリズムは、感情、芳香、及び持続時間のタプル601をクラスター化アルゴリズム602にマップし、このアルゴリズムが、このデータに対してランダムフォレスト及びK近傍法のような一連のクラスター技術を実行し、いずれかの所与の一連の感情に対する適切な芳香タプルを決定する。ビデオ上で使用されるオーディオトラックの音声認識又は従来技術を通じて感情にタグ付けすることも可能である。例えば、それが提供するシステムは、[楽しい]という感情を[ラベンダー]の香りでマップすることができる。このマッピングは、様々なビデオにわたって行われた数千の手動マッピングの全てから学習することで導出される。自動クラスター化の価値は、単一感情の単一香りへのマッピングを決定するだけでなく、一連の隣接する感情及び隣接する香りも決定することである。ここでは、以下のリンク(www.analyticsvidhya.com/blog/2014/10/introduction−k−neighbours−algorithm−clustering/)に説明するものに類似する近傍クラスター化アルゴリズムをフィードバック、並びに学習して導出された挙動を組み込む機能と一緒に使用する。
図7A−7Cは、デバイスの生産のための形状因子、構成要素、及び可能な色の例を示している。例えば、図7Aは、図1に示すようなユーザインタフェースデバイス102、感覚システム104、及び/又は別々の感覚デバイス104A−104Eの各々に関して使用可能な異なる色の全てを示している。図7Bは、互いの上に積み重ねられた3つの感覚デバイスモジュールを有する感覚システム104の別の例を示しており、味覚デバイス104Cとして外部3Dプリンタを含むこともできる。図7Cは、互いの上に積み重ねられた4つの感覚デバイスモジュール及び味覚デバイス104Cとして取り付け式3Dプリンタを有する感覚システム104の更に別の例を示している。本発明の開示により及び上述のように、感覚デバイスの多くの異なる構成が可能であり、システムは、いずれかの特定の構成に制限されない。
図8は、ベースボード800、すなわち、論理構成要素を含むコンテンツ配信システムハードウエアを示している。ビデオ(視覚)/再生感覚システムは、システムの中心であり、「ベース(Base)」と呼ばれ、この例を図8に示している。ベース800は、図8に示す他のシステム及び様々なハードウエア要素に必要な電力及び充電機構を含むことができる。ベースはまた、感覚バグ関連付けを抽出して他のシステム及び感覚デバイスに指令を分散させることができるインテリジェントなビデオプレーヤを含むこともできる。ベースは、ハードウエア又はソフトウエアの形態で存在することができる。嗅覚及び触覚システムは、ベースの上に積み重ねることができ、誘導性非触覚式機構又は触覚ベースの電力コネクタによって充電することができる。3D食品プリント構成要素が隣接しており、上述の機構によって電力供給されることになる。3D食品プリント構成要素はまた、キッチン内にあってホームコネクテッドデバイスとWIFIを通じて通信することができる。これらは、Bluetooth low energy又は発見可能なWIFIノードのような近接プロトコルを通じて通信する。システムは、個別に作動し、互いの上に積み重ねられた状態でモジュールの残りと同期する。ベースシステムは、自己の感覚ハードウエア構成要素又は第三者ハードウエア構成要素に関してディスカバリを定期的に実行する。走査でデバイスが検出されると自動的に加入が求められ、セキュリティ特権に応じて加入作動が認可される。
システム100及び感覚システム104の構成は、例えば、以下とすることができる:
・第三者のセットトップボックス上で実行され、第三者の感覚デバイスを検出するベースシステムソフトウエア、
・第三者供給の他の感覚デバイスの全てを検出して通信するベースシステムハードウエア及びソフトウエア、
・いくつかの自己の感覚デバイスと共に第三者デバイスを伴うベースシステム、
・ベース及び全感覚システムを含む自己所有のシステム一式。
以上の説明は、説明目的のために特定の実施形態を参照して説明したものである。しかし、上述の例証的な説明は包括的なものではなく、又は開示する厳密な形態に本発明の開示を限定するものではない。上述の教示に照らして多くの修正及び変更が可能である。実施形態は、本発明の開示の原理及びその実際の応用を最も良く説明するように選択して説明しており、それにより、当業者は、考えられる特定の使用に適するような様々な修正と共に本発明の開示及び様々な実施形態を最も良く利用することができるようになる。
本明細書に開示するシステム及び方法は、1又は2以上の構成要素、システム、サーバ、電気製品、他の従構成要素を通じて実施することができ、又はそのような要素間に分散させることができる。システムとして実施される場合に、そのようなシステムは、取りわけ、汎用コンピュータ内に見られるソフトウエアモジュール、汎用CPU、RAM等の構成要素を含む及び/又は伴う場合がある。サーバ上にイノベーションが存在する実施では、そのようなサーバは、汎用コンピュータ内に見られるようなCPU、RAM等の構成要素を含む又は伴う場合がある。
これに加えて、本明細書のシステム及び方法は、上記に説明するもの以外の異種の又は全く異なるソフトウエア、ハードウエア、及び/又はファームウエア構成要素による実施を通じて達成することができる。そのような他の構成要素(例えば、ソフトウエア、処理構成要素等)及び/又は本発明に関連するか又はこれを具現化するコンピュータ可読媒体に関しては、例えば、本明細書のイノベーションの態様は、多くの汎用又は専用コンピュータシステム又は構成と一致するように実施可能である。本明細書のイノベーションと共に使用するのに適する様々な例示的コンピュータシステム、環境、及び/又は構成は、以下に限定されるものではないが、パーソナルコンピュータ内の又はパーソナルコンピュータ上に具現化されたソフトウエア又は他の構成要素、経路指定/接続構成要素等のサーバ又はサーバコンピュータデバイス、手持ち式又はラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、消費者電子デバイス、ネットワークPC、他の既存のコンピュータプラットフォーム、上述のシステム又はデバイス等の1又は2以上を含む分散型コンピュータ環境を含むことができる。
一部の事例では、システム及び方法の態様は、例えば、そのような構成要素又は回路に関連して実行されるプログラムモジュールを含む論理部及び/又は論理命令を通じて達成される又はこれらによって実行することができる。一般的に、プログラムモジュールは、本明細書の特定のタスクを実行する又は特定の命令を実施するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含むことができる。本発明はまた、分散型ソフトウエア、コンピュータ、又は通信バス、回路、又はリンクを通じて回路が接続される回路設定との関連でも実施可能である。分散型設定では、制御/命令は、メモリストレージデバイスを含むローカル及び遠隔の両方のコンピュータストレージ媒体から行うことができる。
本明細書のソフトウエア、回路、及び構成要素はまた、1又は2以上のタイプのコンピュータ可読媒体を含む及び/又は利用することができる。コンピュータ可読媒体は、そのような回路及び/又はコンピュータ構成要素上に常駐し、これらに関連付けられ、又はこれらによってアクセス可能ないずれかの利用可能な媒体とすることができる。一例としてかつ以下に限定されるものではないが、コンピュータ可読媒体は、コンピュータストレージ媒体及び通信媒体を含むことができる。コンピュータストレージ媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータ等の情報の格納のためにいずれかの方法又は技術を用いて実施される揮発性及び不揮発性、着脱可能及び着脱不能な媒体を含む。コンピュータストレージ媒体は、以下に限定されるものではないが、RAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)又は他の光学式ストレージ、磁気テープ、磁気ディスクストレージ又は他の磁気ストレージデバイス、又は望ましい情報を格納するのに使用可能でコンピュータ構成要素によってアクセス可能なあらゆる他の媒体を含む。通信媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、及び/又は他の構成要素を含むことができる。更に、通信媒体は、有線ネットワーク又は直接有線接続等の有線媒体を含むことができるが、本明細書のいずれのそのようなタイプの媒体も一時的媒体は含まない。上述のいずれの組合せもコンピュータ可読媒体の範囲に含まれる。
本説明において、構成要素、モジュール、デバイス等の語は、様々な方法を用いて実施可能ないずれかのタイプの論理的又は機能的ソフトウエア要素、回路、ブロック及び/又は処理を指すことができる。例えば、様々な回路及び/又はブロックの機能を相互に組み合わせてあらゆる他の数のモジュールにすることができる。各モジュールは、有形メモリ(例えば、ランダムアクセスメモリ、読取専用メモリ、CD−ROMメモリ、ハードディスクドライブ等)上に格納されたソフトウエアプログラムとして実施することさえも可能であり、これは、本明細書のイノベーションの機能を実施するために中央演算処理装置によって読み出される。これに代えて、モジュールは、伝送搬送波を通じて汎用コンピュータに又は処理/グラフィックハードウエアに送信されるプログラミング命令を含むことができる。同じく、モジュールは、本明細書のイノベーションによって包含される機能を実施するハードウエア論理回路として実施することができる。最後に、モジュールは、専用命令(SIMD命令)、フィールドプログラマブル論理アレイ、又は望ましいレベルの性能及びコストを提供するこれらのいずれかの混合物を用いて実施可能である。
本明細書に開示するように、本発明の開示に一致する特徴は、コンピュータハードウエア、ソフトウエア、及び/又はファームウエアを通じて実施することができる。例えば、本明細書に開示するシステム及び方法は、例えば、データベース、デジタル電子回路、ファームウエア、ソフトウエア、又はその組合せも含むコンピュータ等のデータプロセッサを含む様々な形式に具現化することができる。更に、開示する実施の一部では、特定のハードウエア構成要素について説明しているが、本明細書のイノベーションに一致するシステム及び方法は、ハードウエア、ソフトウエア、及び/又はファームウエアのいずれかの組合せを用いて実施することができる。更に、本明細書のイノベーションの上述の特徴及び他の態様及び原理は、様々な環境を用いて実施することができる。そのような環境及び関連するアプリケーションは、本発明による様々なルーチン、処理、及び/又は作動を実行するように特別に構築することができ、又は必要な機能を提供するためのコードによって選択的に起動される又は再構成される汎用コンピュータ又はコンピュータプラットフォームを含むことができる。本明細書に開示する処理は、いずれかの特定のコンピュータ、ネットワーク、アーキテクチャ、環境、又は他の装置に内在的に関連するわけではなく、ハードウエア、ソフトウエア、及び/又はファームウエアの適切な組合せによって実施することができる。例えば、様々な汎用機械は、本発明の教示に従って説明したプログラムに使用することができ、又は望ましい方法及び技術を実行するために専用装置又はシステムを構築することがより好都合である場合がある。
本明細書に説明する方法及びシステムの態様、例えば、論理部は、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、プログラマブルアレイ論理(「PAL」)デバイス、電気的にプログラマブル論理及びメモリデバイス、及び標準的なセルベースのデバイス等のプログラマブル論理デバイス(「PLD」)、並びに特定用途向け集積回路を含む様々な回路のいずれかにプログラムされた機能として実施することもできる。態様を実施するためのいくつかの他の可能性は、メモリデバイス、メモリ(EEPROM等)を有するマイクロコントローラ、内蔵型マイクロプロセッサ、ファームウエア、ソフトウエアなどを含む。更に、態様は、ソフトウエアベースの回路エミュレーションを有するマイクロプロセッサ、離散論理部(連続及び組合せ)、カスタムデバイス、ファジー(ニューラル)論理部、量子デバイス、及び上述のデバイスタイプのいずれかの混成において具現化することができる。基本になるデバイス技術は、様々な構成要素タイプ、例えば、相補型金属酸化物半導体(「CMOS」)のような金属酸化物半導体電界効果トランジスタ(「MOSFET」)技術、エミッタ結合論理部(「ECL」)のようなバイポーラ技術、ポリマー技術(例えば、シリコン共役ポリマー及び金属共役ポリマー金属の構造)、及びアナログ及びデジタル混合等において提供することができる。
本明細書に開示する様々な論理部及び/又は機能は、ハードウエア、ファームウエアのあらゆる数の組合せを用いて、及び/又は様々な機械可読又はコンピュータ可読媒体に具現化されるデータ及び/又は命令として、これらの挙動、レジスタ転送、論理構成要素、及び/又は他の特性に関して可能にすることができる点にも注意しなければならない。そのようなフォーマット設定されたデータ及び/又は命令を具現化することができるコンピュータ可読媒体は、以下に限定されるものではないが、様々な形式(例えば、光学式、磁気、又は半導体ストレージ媒体)の不揮発性ストレージ媒体を含むが、ここでも一時的媒体は含まない。説明を通して「comprise」及び「comprising」等の語は、関連が明らかにそれ以外を要求しない限り、限定的又は包括的な意味とは対照的な包括的な意味、すなわち、「以下に限定されるものではないが、含む」の意味で解釈しなければならない。単数又は複数を使用する語も、複数又は単数をそれぞれ含む。これに加えて、「本明細書に」、「以下に」、「上述の」、「以下の」という語及び類似の意味の語は、この出願のいずれかを特定の部分ではなくこの出願を全体として参照している。「又は」という語が2又は3以上の項目のリストに関連して用いられる場合に、当該語は、当該語の以下の解釈、すなわち、リスト内の項目のいずれか、リスト内の項目の全て、及びリスト内の項目のいずれかの組合せの全てを網羅する。
本発明の特定の現在好ましい実施について本明細書で特に説明したが、本発明が関連する当業者には、本発明の精神及び範囲から逸脱することなくここに図示して説明した様々な実施の変形及び修正を加えることができることは明らかであろう。従って、本発明は、法律の適用規則によって要求される範囲だけに限定されることを意図している。
以上は、本発明の開示の特定の実施形態を参照したが、本発明の開示の原理及び精神から逸脱することなく実施形態に変更を加えることができ、本発明の開示の範囲は特許請求の範囲によって定められることは当業者によって認められるであろう。
300 感覚ベースの対話型コンテンツを発生させる方法
302 コンテンツを取り出す段階
304 感覚対話のためにコンテンツをホットスポットを用いて符号化する段階
306 符号化されたコンテンツをユーザ対話デバイスに配信する段階

Claims (23)

  1. コンテンツ対話システムであって、
    複数の片の対話型コンテンツを格納し、かつ少なくとも1片の対話型コンテンツをユーザデバイスに配信する対話型コンテンツ配信システムであって、各片の対話型コンテンツが、該片の対話型コンテンツを通して分散された複数の感覚マーカを有し、該感覚マーカが、触覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す触覚マーカと、嗅覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す嗅覚マーカと、味覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す味覚マーカと、聴覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す聴覚マーカと、視覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す視覚マーカとを含み、対話型コンテンツの片内の各感覚マーカが、該片の対話型コンテンツを通して分散された各特定の感覚マーカとのユーザ対話によって起動される前記対話型コンテンツ配信システム、
    を含み、
    前記ユーザデバイスは、前記片の対話型コンテンツをユーザに表示するディスプレイと、該ユーザが該片の対話型コンテンツの前記感覚マーカと対話して前記感覚マーカを起動することを可能にするデバイスとを有し、
    コンテンツ対話システムが、更に、
    前記ユーザデバイスに結合され、前記対話型コンテンツ内の前記特定の感覚マーカが起動されるのに応答して感覚応答をトリガする感覚対話システムであって、該感覚応答が、触覚応答、嗅覚応答、味覚応答、聴覚応答、及び視覚応答のうちの2又は3以上である前記感覚対話システム、
    を含み、
    前記感覚対話システムは、前記ユーザが、触覚デバイスを用いて、トリガされた前記触覚応答に応答して、前記触覚を用いて前記対話型コンテンツと対話するように該対話型コンテンツ内の前記触覚マーカに同期される触覚デバイスと、該ユーザが、嗅覚デバイスを用いて、トリガされた前記嗅覚応答に応答して、前記嗅覚を用いて該対話型コンテンツと対話するように該対話型コンテンツ内の前記嗅覚マーカに同期された信号を発する嗅覚デバイスと、該ユーザが、味覚デバイスを用いて、トリガされた前記味覚応答に応答して、前記味覚を用いて前記片のコンテンツと対話するように該対話型コンテンツ内の前記味覚マーカに同期された信号を発する味覚デバイスと、該ユーザが、聴覚デバイスを用いて、トリガされた前記聴覚応答に応答して、前記聴覚を用いて該片のコンテンツと対話するように該対話型コンテンツ内の前記聴覚マーカに同期された信号を発する聴覚デバイスと、該ユーザが、視覚デバイスを用いて、トリガされた前記視覚応答に応答して、前記視覚を用いて該片のコンテンツと対話するように該対話型コンテンツ内の前記視覚マーカに同期された信号を発する視覚デバイスとを更に含み、前記触覚デバイス、嗅覚デバイス、味覚デバイス、聴覚デバイス、及び視覚デバイスの各々が、個別のハウジングを有し、かつ互いに結合される、
    ことを特徴とするコンテンツ対話システム。
  2. 前記感覚対話システムは、前記ユーザデバイス内に埋め込まれることを特徴とする請求項1に記載のシステム。
  3. 各感覚デバイスが、該感覚デバイスに関連付けられた前記感覚を前記対話型コンテンツのシーンの上に自動的にマップすることを特徴とする請求項1に記載のシステム。
  4. 各感覚デバイスが、該感覚デバイスに関連付けられた前記感覚を前記対話型コンテンツのシーン及び前記感覚応答の持続時間の上にマップするタプルを発生させることを特徴とする請求項3に記載のシステム。
  5. 前記感覚対話システムは、前記片の対話型コンテンツ内に感覚マーカを自動的に発生させることを特徴とする請求項1に記載のシステム。
  6. 前記対話型コンテンツ配信システムは、前記片の対話型コンテンツ内に埋め込まれる1又は2以上の感覚マーカを発生させるユーザインタフェース要素を更に含むことを特徴とする請求項1に記載のシステム。
  7. 前記対話型コンテンツ配信システムは、1片のコンテンツを取り出して該片のコンテンツのための前記複数の感覚マーカを符号化して少なくとも1片の対話型コンテンツを発生させるコンテンツ符号器エンジンを更に含むことを特徴とする請求項1に記載のシステム。
  8. 前記片の対話型コンテンツは、新規片のコンテンツ及び第三者片のコンテンツのうちの一方であることを特徴とする請求項7に記載のシステム。
  9. 感覚ベースの対話型表示デバイスであって、
    1片の対話型コンテンツをユーザに表示するディスプレイを有するユーザデバイスであって、該片の対話型コンテンツが、該片の対話型コンテンツの該コンテンツを通して分散された複数の感覚マーカを有し、該感覚マーカが、触覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す触覚マーカと、味覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す味覚マーカと、嗅覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す嗅覚マーカと、聴覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す聴覚マーカと、視覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す視覚マーカとを含み、対話型コンテンツの片内の各感覚マーカが、該片の対話型コンテンツを通して分散された各特定の感覚マーカとのユーザ対話によって起動される前記ユーザデバイス、
    を含み、
    前記ユーザデバイスは、前記片の対話型コンテンツをユーザに表示するディスプレイと、該ユーザデバイスに結合された感覚対話システムが感覚応答をトリガするように該ユーザが該片の対話型コンテンツの前記感覚マーカと対話して前記感覚マーカを起動することを可能にするデバイスとを有し、
    該感覚応答は、
    該ユーザが、起動された触覚応答に応答して、触覚感覚を用いて該対話型コンテンツと対話するために触覚デバイスを使用するように該対話型コンテンツ内の前記触覚マーカに同期された触覚デバイスを使用する触覚応答と、
    該ユーザが、起動された嗅覚応答に応答して、嗅覚感覚を用いて該対話型コンテンツと対話するために嗅覚デバイスを使用するように該対話型コンテンツ内の前記嗅覚マーカに同期された信号を発する嗅覚デバイスを使用する嗅覚応答と、
    該ユーザが、起動された味覚応答に応答して、味覚感覚を用いて前記片のコンテンツと対話するために味覚デバイスを使用するように該対話型コンテンツ内の前記味覚マーカに同期された信号を発する味覚デバイスを使用する味覚応答と、
    該ユーザが、起動された聴覚応答に応答して、聴覚感覚を用いて該片のコンテンツと対話するために聴覚デバイスを使用するように該対話型コンテンツ内の前記聴覚マーカに同期された信号を発する聴覚デバイスを使用する聴覚応答と、
    該ユーザが、起動された視覚応答に応答して、前記視覚感覚を用いて該片のコンテンツと対話するために視覚デバイスを使用するように該対話型コンテンツ内の前記視覚マーカに同期された信号を発する視覚デバイスを使用する視覚応答のうちの2又は3以上であり、該触覚デバイス、嗅覚デバイス、味覚デバイス、聴覚デバイス、及び視覚デバイスの各々が、個別のハウジングを有し、かつ互いに結合される、
    ことを特徴とする感覚ベースの対話型表示デバイス。
  10. 前記ユーザデバイス内に埋め込まれた前記触覚デバイス、嗅覚デバイス、味覚デバイス、聴覚デバイス、及び視覚デバイスの各々を有する感覚対話システムを更に含むことを特徴とする請求項9に記載のデバイス。
  11. 各感覚デバイスが、該感覚デバイスに関連付けられた前記感覚を前記対話型コンテンツのシーンの上に自動的にマップすることを特徴とする請求項9に記載のデバイス。
  12. 各感覚デバイスが、該感覚デバイスに関連付けられた前記感覚を前記対話型コンテンツのシーン及び前記感覚応答の持続時間の上にマップするタプルを発生させることを特徴とする請求項11に記載のデバイス。
  13. 前記感覚対話システムは、前記片の対話型コンテンツ内に感覚マーカを自動的に発生させることを特徴とする請求項10に記載のデバイス。
  14. 前記片の対話型コンテンツ内に埋め込まれる1又は2以上の感覚マーカを発生させるユーザインタフェース要素を有する対話型コンテンツ配信システムを更に含むことを特徴とする請求項9に記載のデバイス。
  15. 1片のコンテンツを取り出して該片のコンテンツのための前記複数の感覚マーカを符号化して少なくとも1片の対話型コンテンツを発生させるコンテンツ符号器エンジンを更に含むことを特徴とする請求項9に記載のデバイス。
  16. 前記片の対話型コンテンツは、新規片のコンテンツ及び第三者片のコンテンツのうちの一方であることを特徴とする請求項15に記載のデバイス。
  17. 複数の片の対話型コンテンツを対話型コンテンツ配信システムに格納し、かつ少なくとも1片の対話型コンテンツをユーザデバイスに配信する段階であって、各片の対話型コンテンツが、該片の対話型コンテンツを通して分散された複数の感覚マーカを有し、該感覚マーカが、触覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す触覚マーカと、嗅覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す嗅覚マーカと、味覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す味覚マーカと、聴覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す聴覚マーカと、視覚対話機会を有する該対話型コンテンツ内の1片のコンテンツを示す視覚マーカとを含み、対話型コンテンツの片内の各感覚マーカが、該片の対話型コンテンツを通して分散された各特定の感覚マーカとのユーザ対話によって起動される前記格納して配信する段階と、
    前記対話型コンテンツ配信システムに接続されたユーザデバイスのディスプレイ上で前記片の対話型コンテンツをユーザに表示する段階と、
    前記ユーザデバイスの一部であるデバイスを用いて、前記ユーザが前記片の対話型コンテンツの前記感覚マーカと対話して前記感覚マーカを起動することを許す段階と、
    前記ユーザデバイスに結合された感覚対話システムにより、触覚応答、嗅覚応答、味覚応答、聴覚応答、及び視覚応答のうちの2又は3以上である感覚応答を前記感覚マーカに応答してトリガする段階と、
    触覚デバイスを使用する前記ユーザにより、前記触覚応答がトリガされることに応答して触覚を用いて前記対話型コンテンツと対話する段階と、
    嗅覚デバイスを使用する前記ユーザにより、前記嗅覚応答がトリガされることに応答して嗅覚を用いて前記対話型コンテンツと対話する段階と、
    味覚デバイスを使用する前記ユーザにより、前記味覚応答がトリガされることに応答して味覚を用いて前記対話型コンテンツと対話する段階と、
    聴覚デバイスを使用する前記ユーザにより、前記聴覚応答がトリガされることに応答して聴覚を用いて前記対話型コンテンツと対話する段階と、
    視覚デバイスを使用する前記ユーザにより、前記視覚応答がトリガされることに応答して視覚を用いて前記対話型コンテンツと対話する段階と、
    を含むことを特徴とするコンテンツ対話方法。
  18. 各感覚デバイスにより、該感覚デバイスに関連付けられた前記感覚を前記対話型コンテンツのシーンの上に自動的にマップする段階を更に含むことを特徴とする請求項17に記載の方法。
  19. 各感覚デバイスにより、該感覚デバイスに関連付けられた前記感覚を前記対話型コンテンツのシーン及び前記感覚応答の持続時間の上にマップするタプルを発生させる段階を更に含むことを特徴とする請求項18に記載の方法。
  20. 前記片の対話型コンテンツ内に感覚マーカを自動的に発生させる段階を更に含むことを特徴とする請求項17に記載の方法。
  21. ユーザインタフェース要素を用いて、前記片の対話型コンテンツ内に埋め込まれる1又は2以上の感覚マーカを発生させる段階を更に含むことを特徴とする請求項17に記載の方法。
  22. 対話型コンテンツ配信システムにより、1片のコンテンツを取り出し、かつ該片のコンテンツのための前記複数の感覚マーカを符号化して少なくとも1片の対話型コンテンツを発生させる段階を更に含むことを特徴とする請求項17に記載の方法。
  23. 前記片の対話型コンテンツは、新規片のコンテンツ及び第三者片のコンテンツのうちの一方であることを特徴とする請求項22に記載の方法。
JP2019543756A 2017-06-21 2018-06-19 コンテンツ対話システム及び方法 Active JP6920449B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US15/629,621 2017-06-21
US15/629,621 US10101804B1 (en) 2017-06-21 2017-06-21 Content interaction system and method
US15/976,599 US11009940B2 (en) 2017-06-21 2018-05-10 Content interaction system and method
US15/976,590 US10990163B2 (en) 2017-06-21 2018-05-10 Content interaction system and method
US15/976,599 2018-05-10
US15/976,590 2018-05-10
PCT/IB2018/000894 WO2018234874A1 (en) 2017-06-21 2018-06-19 SYSTEM AND METHOD FOR CONTENT INTERACTION

Publications (2)

Publication Number Publication Date
JP2020511044A JP2020511044A (ja) 2020-04-09
JP6920449B2 true JP6920449B2 (ja) 2021-08-18

Family

ID=63762049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019543756A Active JP6920449B2 (ja) 2017-06-21 2018-06-19 コンテンツ対話システム及び方法

Country Status (3)

Country Link
US (4) US10101804B1 (ja)
JP (1) JP6920449B2 (ja)
WO (1) WO2018234874A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10101804B1 (en) 2017-06-21 2018-10-16 Z5X Global FZ-LLC Content interaction system and method
US10743087B2 (en) 2017-06-21 2020-08-11 Z5X Global FZ-LLC Smart furniture content interaction system and method
US20190089691A1 (en) 2017-09-15 2019-03-21 Pearson Education, Inc. Generating digital credentials based on actions in a sensor-monitored environment
EP3518550A1 (en) * 2018-01-24 2019-07-31 Sixty AS A live video rendering and broadcasting system
US20220242050A1 (en) * 2019-06-18 2022-08-04 Bio Medical 3D Printing Co., Ltd. 3d object containing cbd and printing operating system therefor
US20210392386A1 (en) * 2020-06-12 2021-12-16 Tencent America LLC Data model for representation and streaming of heterogeneous immersive media

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3628829A (en) * 1966-03-09 1971-12-21 Morton L Heilig Experience theater
AU2001266768A1 (en) 2000-06-09 2001-12-24 Michael Weiner Method and apparatus for interactive transmission and reception of tactile information
WO2003089100A1 (en) * 2002-04-22 2003-10-30 Intellocity Usa, Inc. Method and apparatus for data receiver and controller
JP4052556B2 (ja) 2002-05-07 2008-02-27 日本放送協会 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム
KR100581060B1 (ko) 2003-11-12 2006-05-22 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
US20060084050A1 (en) 2004-01-12 2006-04-20 Haluck Randy S Portable virtual reality medical demonstration and training apparatus
US7406105B2 (en) 2004-03-03 2008-07-29 Alfred E. Mann Foundation For Scientific Research System and method for sharing a common communication channel between multiple systems of implantable medical devices
US20060017654A1 (en) 2004-07-23 2006-01-26 Romo Justin R Virtual reality interactivity system and method
GB2416962B (en) 2004-08-05 2009-04-01 Vodafone Plc New communication type for mobile telecommunications networks
EP2008199A4 (en) * 2006-03-31 2011-06-29 Imagini Holdings Ltd SYSTEM AND METHOD FOR SEGMENTING AND IDENTIFICATION OF DATA RECORDS ON THE BASIS OF PROFILE MATCH BY MEANS OF MULTIMEDIA QUESTION
US8402356B2 (en) 2006-11-22 2013-03-19 Yahoo! Inc. Methods, systems and apparatus for delivery of media
KR20090003035A (ko) 2006-12-04 2009-01-09 한국전자통신연구원 오감정보 부호화 장치 및 방법과 오감 융합 인터페이스를이용한 실감 서비스 시스템 및 방법
KR101352790B1 (ko) 2007-07-27 2014-01-16 삼성전자주식회사 환경정보 제공방법, 이를 적용한 영상기기 및 영상 시스템
US8640030B2 (en) * 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback
WO2009051428A1 (en) 2007-10-16 2009-04-23 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
US20090171902A1 (en) 2007-12-28 2009-07-02 Microsoft Corporation Life recorder
JP2009194597A (ja) 2008-02-14 2009-08-27 Sony Corp 送受信システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体
US9538142B2 (en) * 2009-02-04 2017-01-03 Google Inc. Server-side support for seamless rewind and playback of video streaming
US8560515B2 (en) * 2009-03-31 2013-10-15 Microsoft Corporation Automatic generation of markers based on social interaction
US8487749B2 (en) 2009-04-29 2013-07-16 International Business Machines Corporation Tactile virtual world
US8490132B1 (en) * 2009-12-04 2013-07-16 Google Inc. Snapshot based video advertising system
KR101651432B1 (ko) 2010-04-02 2016-08-26 삼성전자주식회사 실감 효과 처리 시스템 및 방법
US20110251902A1 (en) 2010-04-11 2011-10-13 Transaxtions Llc Target Area Based Content and Stream Monetization Using Feedback
JP2012014676A (ja) 2010-05-31 2012-01-19 Sony Computer Entertainment Inc 仮想現実空間提供システム、仮想現実空間提供方法およびそのプログラム
KR20110139614A (ko) 2010-06-23 2011-12-29 씨제이포디플렉스 주식회사 특수 효과 설비를 포함하는 영상물 상영 시설
US9143699B2 (en) * 2010-07-13 2015-09-22 Sony Computer Entertainment Inc. Overlay non-video content on a mobile device
US8988198B2 (en) 2011-06-30 2015-03-24 Nokia Technologies Oy Method and apparatus for sensory tags providing sound, smell and haptic feedback
US10586251B2 (en) 2012-02-24 2020-03-10 Netclearance Systems, Inc. Consumer interaction using proximity events
US20130339433A1 (en) * 2012-06-15 2013-12-19 Duke University Method and apparatus for content rating using reaction sensing
US20140095148A1 (en) * 2012-10-03 2014-04-03 Kanjoya, Inc. Emotion identification system and method
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9610516B2 (en) * 2013-03-15 2017-04-04 Simex Inc. System, device and method for controlling effects in a theatre
US9400766B2 (en) 2013-04-26 2016-07-26 International Business Machines Corporation Determining combinations of odors to produce a target olfactory pleasantness
KR101580717B1 (ko) 2013-07-15 2015-12-28 씨제이포디플렉스 주식회사 영화 관람용 의자 및 그 모션 제어 방법과, 영화관 관람 의자와 연동하는 상영관 관리 장치 및 그 방법
CN103761667A (zh) 2014-01-09 2014-04-30 贵州宝森科技有限公司 虚拟现实电子商务平台系统及其应用方法
US10552482B2 (en) * 2014-04-22 2020-02-04 Sumana Batchu Krishnaiahsetty Electronic system and method for marking highlights in a multimedia file and manipulating the multimedia file using the highlights
WO2015198716A1 (ja) 2014-06-24 2015-12-30 ソニー株式会社 情報処理装置及び情報処理方法並びにプログラム
KR101638151B1 (ko) * 2014-10-02 2016-07-11 씨제이포디플렉스 주식회사 상영 시설 의자에서의 효과 제어 시스템 및 방법
US10142375B2 (en) 2015-02-25 2018-11-27 Pin-Han Ho Content enabling system
JP6367748B2 (ja) 2015-04-10 2018-08-01 日本電信電話株式会社 認識装置、映像コンテンツ提示システム
CN104881123A (zh) 2015-06-06 2015-09-02 深圳市虚拟现实科技有限公司 基于虚拟现实的嗅觉模拟方法、设备和系统
EP3345350A1 (en) 2015-09-04 2018-07-11 PCMS Holdings, Inc. User interface method and apparatus for networked devices
US10699538B2 (en) 2016-07-27 2020-06-30 Neosensory, Inc. Method and system for determining and providing sensory experiences
US9824573B1 (en) 2016-09-15 2017-11-21 International Business Machines Corporation Computerized furniture-enabled monitoring and discouragement of sedentary behavior
US20180280556A1 (en) * 2017-03-31 2018-10-04 Eye Labs, LLC Predictive analytics for creating sensory stimuli events
US10743087B2 (en) 2017-06-21 2020-08-11 Z5X Global FZ-LLC Smart furniture content interaction system and method
US10101804B1 (en) 2017-06-21 2018-10-16 Z5X Global FZ-LLC Content interaction system and method

Also Published As

Publication number Publication date
US10101804B1 (en) 2018-10-16
JP2020511044A (ja) 2020-04-09
US20180373321A1 (en) 2018-12-27
US11194387B1 (en) 2021-12-07
US20180373322A1 (en) 2018-12-27
US10990163B2 (en) 2021-04-27
WO2018234874A1 (en) 2018-12-27
US11009940B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
JP6920449B2 (ja) コンテンツ対話システム及び方法
Ghinea et al. Mulsemedia: State of the art, perspectives, and challenges
US11509974B2 (en) Smart furniture content interaction system and method
Ghinea et al. Olfaction-enhanced multimedia: perspectives and challenges
Martins et al. A multisensory virtual experience model for thematic tourism: A Port wine tourism application proposal
Danieau et al. Enhancing audiovisual experience with haptic feedback: a survey on HAV
KR102253374B1 (ko) 발향 제어 장치 및 이를 지원하는 서버
Saleme et al. Mulsemedia DIY: A survey of devices and a tutorial for building your own mulsemedia environment
Yoon et al. MPEG-V: Bridging the virtual and real world
Howell et al. A reproducible olfactory display for exploring olfaction in immersive media experiences
US10861221B2 (en) Sensory effect adaptation method, and adaptation engine and sensory device to perform the same
Terlutter et al. Positive or negative effects of technology enhancement for brand placements? Memory of brand placements in 2D, 3D, and 4D movies
Chalmers et al. Real virtuality: A step change from virtual reality
Bordegoni et al. Improving multisensory user experience through olfactory stimuli
KR20130053504A (ko) 홈 미디어용 4d 이펙트 구현 시스템 및 방법
Harper ‘Unmute This’: Captioning an (audio) visual microgenre
Braun Enhancing user experience with olfaction in virtual reality
JPWO2018083852A1 (ja) 制御装置および記録媒体
US20240214650A1 (en) Content interaction system and method
KR20220064370A (ko) 성인용 애플리케이션을 위한 라이트필드 디스플레이 시스템
WO2020183235A1 (en) Smart furniture content interaction system and method
Pradana et al. Delivering haptic sensations in mobile marketing
Lee et al. Adopting new technologies in sports marketing
US20240211030A1 (en) Cost per scent system and method
Hsu Interactive e-billboard combined with guide system: Using Kinect

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190809

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210208

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20210225

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210426

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6920449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S631 Written request for registration of reclamation of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313631

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350