JP7202555B2 - パーソナライズされたユーザ環境を作成するためのシステム及び方法 - Google Patents
パーソナライズされたユーザ環境を作成するためのシステム及び方法 Download PDFInfo
- Publication number
- JP7202555B2 JP7202555B2 JP2021523979A JP2021523979A JP7202555B2 JP 7202555 B2 JP7202555 B2 JP 7202555B2 JP 2021523979 A JP2021523979 A JP 2021523979A JP 2021523979 A JP2021523979 A JP 2021523979A JP 7202555 B2 JP7202555 B2 JP 7202555B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- determining
- sounds
- environment
- actionable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 9
- 230000036772 blood pressure Effects 0.000 claims description 7
- 238000010438 heat treatment Methods 0.000 claims description 4
- 238000001816 cooling Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 230000007774 longterm Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 description 20
- 230000002040 relaxant effect Effects 0.000 description 14
- 239000003086 colorant Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 239000012141 concentrate Substances 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000027288 circadian rhythm Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000013019 agitation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/26—Pc applications
- G05B2219/2614—HVAC, heating, ventillation, climate control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
- G10H2220/355—Geolocation input, i.e. control of musical parameters based on location or geographic position, e.g. provided by GPS, WiFi network location databases or mobile phone base station position databases
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/371—Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Automation & Control Theory (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Game Theory and Decision Science (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Computer And Data Communications (AREA)
Description
本願はPCT国際特許出願として2019年11月5日に出願され、2018年11月5日に出願された米国仮特許出願第62/755,725号(その特許の開示が本明細書に全体として参照によって組み込まれる)に対する優先権を請求する。
Claims (20)
- ユーザの環境及び状態に対処するパーソナライズされた環境を作成するためのコンピュータ実施方法であって、
1以上のユーザ入力を取得し、前記1以上のユーザ入力の少なくとも一部分に基づいて、前記ユーザに応じたユーザプロファイルを生成することと、
複数のセンサから出力を受信することであって、前記出力は、少なくとも、ユーザ位置、ユーザの心拍数、ユーザの移動タイプ、及びユーザの天気についての情報を提供し、
前記複数のセンサの出力から前記ユーザの状態および前記ユーザがアクティブになる環境を決定することと、
前記生成されたユーザプロファイルと、前記ユーザの環境および決定された前記ユーザの状態に基づいて、前記ユーザのアクション可能な記述を生成することと、
前記アクション可能な記述は、少なくともユーザモード、ユーザ状態およびユーザコンテキストからなり、
前記アクション可能な記述から複数の音、映像または音および映像の両方を決定することと、
少なくとも部分的に前記アクション可能な記述に基づいて、複数のノートシーケンスファイルにアクセスすることと、
前記複数のノートシーケンスファイルの少なくともサブセットのための1以上のシーケンスを決定することと、
少なくとも部分的に前記アクション可能な記述から、複数の単一ノートを決定することと、
少なくとも部分的に前記アクション可能な記述から、1以上のサンプル音を決定することと、
前記1以上の複数の音または映像、前記1以上のシーケンス、前記1以上の複数の単一音および前記1以上のサンプル音を層化し、組み合わされた層を生成することと、
ユーザデバイスで前記ユーザに前記組み合わされた層を提示することと、1以上の前記センサからの前記出力の変化に基づいて、前記組み合わされた層を自動的に修正する。 - 前記センサ出力から、前記環境のライティング及び温度を決定することと、
少なくとも部分的に、1以上の前記センサ出力及び決定済のアクション可能な前記ユーザの記述に基づいて、前記環境の前記ライティング及び/または前記温度を変更するかどうかを決定することと、
前記環境の前記ライティング及び/または前記温度を変更するべきであることを決定すると、
前記環境の前記ライティング及び前記温度を変更する制御信号を発生させることと、
前記生成された制御信号を、前記環境の1以上の前記ライティング及び前記温度を変更するためのライティングデバイス、加熱デバイス、及び/または冷却デバイスに伝送することと、
をさらに含む、請求項1に記載の方法。 - 前記組み合わされた層の修正は、さらに以下を含む、
前記センサ出力を事前に受信したセンサ出力と比較し、前記センサ出力が変化したかどうかを決定することと、
前記センサ出力が変化していることを決定すると、前記センサ出力が、提示される前記組み合わされる層の1以上の層の変化を保証する範囲まで変化しているかどうかを決定することと、
前記組み合わされた層に対する変化を決定すると、
前記変更されたセンサ出力から、前記ユーザに関するアクション可能な記述の更新を決定することと、
前記更新された決定済のアクション可能な記述から、前記ユーザモード、前記ユーザ状態、及び前記ユーザコンテキストを決定することと、
前記ユーザプロファイルから前記更新されたアクション可能な記述に基づいて、前記複数の音、映像、前記1以上のシーケンス、前記1以上の複数の単一音、または1以上のサンプル音のうちの少なくとも更新された1つを決定することと、
前記1以上のセンサ出力及び決定された更新済みのアクション可能な前記ユーザの記述に基づいて、提示されるべき更新済みの組み合わされた層を決定することと、
前記更新済みの組み合わされた層を前記ユーザデバイスで前記ユーザに提示する、
請求項1に記載の方法。 - 音及び/または映像の好みを前記ユーザから受信することと、
前記受信されたユーザの好みの変更に基づいて、前記組み合わされた層を自動的に修正することと、
をさらに含む、請求項1に記載の方法。 - 前記組み合わされた層の音量を決定することをさらに含む、請求項1に記載の方法。
- 前記アクション可能な記述は、ユーザ物理的環境を含む、請求項1に記載の方法。
- 前記複数のセンサは、
クロック、
カレンダー、
温度計、
歩数計、
気圧計、
レインセンサ、
風センサ、
心拍数モニタ、
血圧計、
マイクロホン、及び
空間センサ、
の1以上を含む、請求項1に記載の方法。 - 前記受信された出力はリストから派生し、前記リストは、
時間、
日付、
心拍数、
血圧、
天気、
ユーザ位置、及び
移動タイプ/移動速度、
を含む、請求項1に記載の方法。 - 前記複数のセンサの出力から前記ユーザの状態を決定するステップは、前記出力の少なくとも一部を分析して1以上のユーザの活動を推測するステップを含む、請求項1に記載の方法。
- 前記1以上のユーザの活動は、静止、歩行、走行、運動、および運転を含む、請求項9に記載の方法。
- 前記ユーザの状態を決定するステップは、1以上の推定されたユーザの活動に関する前記ユーザの移動タイプを決定するステップをさらに含み、前記ユーザの移動タイプは、リラックス、ストレス、活発、慌ただしい、および長期化していることを含む、請求項9に記載の方法。
- 前記ユーザの移動タイプは、少なくとも部分的に、記憶されたセンサ出力に対する現在のセンサ出力を分析することによって決定され、前記現在のセンサ出力および前記記憶されたセンサ出力の両方は、前記ユーザに対応する、請求項11に記載の方法。
- 前記複数のセンサのうちの少なくとも1つが前記ユーザデバイスに配置される、請求項1に記載の方法。
- システムであって、
少なくとも1つのプロセッサと、
命令を格納する少なくとも1つのメモリと、を含み、前記命令が実行されるとき、前記少なくとも1つのプロセッサは以下を実行する、
1以上のユーザ入力を取得し、前記1以上のユーザ入力の少なくとも一部分に基づいて、前記ユーザに応じたユーザプロファイルを生成することと、
複数のセンサから出力を受信することであって、前記出力は、少なくとも、ユーザ位置、ユーザの心拍数、ユーザの移動タイプ、及びユーザの天気についての情報を提供し、
前記複数のセンサの出力から前記ユーザの状態および前記ユーザがアクティブになる環境を決定することと、
前記生成されたユーザプロファイルと、前記ユーザの環境および決定された前記ユーザの状態に基づいて、前記ユーザのアクション可能な記述を生成することと、
前記アクション可能な記述は、少なくともユーザモード、ユーザ状態およびユーザコンテキストからなり、
前記アクション可能な記述から複数の音、映像または音および映像の両方を決定することと、
少なくとも部分的に前記アクション可能な記述に基づいて、複数のノートシーケンスファイルにアクセスすることと、
前記複数のノートシーケンスファイルの少なくともサブセットのための1以上のシーケンスを決定することと、
少なくとも部分的に前記アクション可能な記述から、複数の単一ノートを決定することと、
少なくとも部分的に前記アクション可能な記述から、1以上のサンプル音を決定することと、
前記1以上の複数の音または映像、前記1以上のシーケンス、前記1以上の複数の単一音および前記1以上のサンプル音を層化し、組み合わされた層を生成することと、
ユーザデバイスで前記ユーザに前記組み合わされた層を提示することと、1以上の前記センサからの前記出力の変化に基づいて、前記組み合わされた層を自動的に修正する。 - 前記少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサに以下を実行させる命令をさらに含む請求項14に記載のシステム、
前記センサ出力から、前記環境のライティング及び温度を決定し、
少なくとも部分的に、1以上の前記センサ出力及び決定済のアクション可能な前記ユーザの記述に基づいて、前記環境の前記ライティング及び/または前記温度を変更するかどうかを決定し、
前記環境の前記ライティング及び/または前記温度を変更するべきであることを決定し、
前記環境の前記ライティング及び前記温度を変更する制御信号を発生させ、
前記生成された制御信号を、前記環境の1以上の前記ライティング及び前記温度を変更するためのライティングデバイス、加熱デバイス、及び/または冷却デバイスに伝送する。 - 前記少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサに以下を実行させる命令をさらに含む、
前記ユーザから音及び/または映像の好みを受信し、
前記受信されたユーザの好みの変更に基づいて、前記組み合わされた層を自動的に修正する、請求項14に記載のシステム。 - 前記少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサに、前記組み合わされた層の音量を決定させる命令をさらに含む、請求項14に記載のシステム。
- 前記アクション可能な記述は、ユーザ物理的環境を含む、請求項14に記載のシステム。
- 前記複数のセンサの出力から前記ユーザの状態の決定は、1以上のユーザの活動を推測するための前記出力の少なくとも一部の分析を含む、請求項14に記載のシステム。
- 命令を記憶する少なくとも1つの非一時的なコンピュータ可読媒体であって、
前記命令が実行されるとき、少なくとも1つのプロセッサに以下を実行させる、
1以上のユーザ入力を取得し、前記1以上のユーザ入力の少なくとも一部分に基づいて、前記ユーザに応じたユーザプロファイルを生成することと、
複数のセンサから出力を受信することであって、前記出力は、少なくとも、ユーザ位置、ユーザの心拍数、ユーザの移動タイプ、及びユーザの天気についての情報を提供し、
前記複数のセンサの出力から前記ユーザの状態および前記ユーザがアクティブになる環境を決定することと、
前記生成されたユーザプロファイルと、前記ユーザの環境および決定された前記ユーザの状態に基づいて、前記ユーザのアクション可能な記述を生成することと、
前記アクション可能な記述は、少なくともユーザモード、ユーザ状態およびユーザコンテキストからなり、
前記アクション可能な記述から複数の音、映像または音および映像の両方を決定することと、
少なくとも部分的に前記アクション可能な記述に基づいて、複数のノートシーケンスファイルにアクセスすることと、
前記複数のノートシーケンスファイルの少なくともサブセットのための1以上のシーケンスを決定することと、
少なくとも部分的に前記アクション可能な記述から、複数の単一ノートを決定することと、
少なくとも部分的に前記アクション可能な記述から、1以上のサンプル音を決定することと、
前記1以上の複数の音または映像、前記1以上のシーケンス、前記1以上の複数の単一音および前記1以上のサンプル音を層化し、組み合わされた層を生成することと、
ユーザデバイスで前記ユーザに前記組み合わされた層を提示することと、1以上の前記センサからの前記出力の変化に基づいて、前記組み合わされた層を自動的に修正する。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862755725P | 2018-11-05 | 2018-11-05 | |
US62/755,725 | 2018-11-05 | ||
PCT/IB2019/001187 WO2020095105A1 (en) | 2018-11-05 | 2019-11-05 | System and method for creating a personalized user environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022506562A JP2022506562A (ja) | 2022-01-17 |
JP7202555B2 true JP7202555B2 (ja) | 2023-01-12 |
Family
ID=69005754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523979A Active JP7202555B2 (ja) | 2018-11-05 | 2019-11-05 | パーソナライズされたユーザ環境を作成するためのシステム及び方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US11275350B2 (ja) |
EP (1) | EP3877939A1 (ja) |
JP (1) | JP7202555B2 (ja) |
KR (1) | KR102399646B1 (ja) |
CN (1) | CN112970041B (ja) |
RU (1) | RU2769275C1 (ja) |
WO (1) | WO2020095105A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022189452A (ja) * | 2021-06-11 | 2022-12-22 | 株式会社リコー | 情報処理システム、環境設定システム、データ提供方法、プログラム |
US11792559B2 (en) * | 2021-08-17 | 2023-10-17 | Sufang Liu | Earphone control method and device, and non-transitory computer readable storage medium |
WO2023211385A1 (en) * | 2022-04-27 | 2023-11-02 | Nanyang Technological University | Soundscape augmentation system and method of forming the same |
KR102595439B1 (ko) * | 2023-06-09 | 2023-11-01 | 한국건설기술연구원 | 재실자 반응형 실내환경 제어서버, 시스템 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014185061A (ja) | 2013-03-23 | 2014-10-02 | Kyocera Corp | 圧電素子 |
JP2017124165A (ja) | 2011-12-09 | 2017-07-20 | ナイキ イノベイト シーブイ | モバイル装置を用いた健康の監視 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7396990B2 (en) | 2005-12-09 | 2008-07-08 | Microsoft Corporation | Automatic music mood detection |
US7680906B2 (en) | 2006-02-22 | 2010-03-16 | Microsoft Corporation | Configuring devices using context histories |
KR100852196B1 (ko) | 2007-02-12 | 2008-08-13 | 삼성전자주식회사 | 음악 재생 시스템 및 그 방법 |
US20090108082A1 (en) | 2007-10-31 | 2009-04-30 | Richard Goldmann | Programmatic climate control of an exercise environment |
KR101460612B1 (ko) | 2008-10-10 | 2014-11-13 | 삼성전자주식회사 | 디지털 이미지 처리장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체 |
US8644971B2 (en) | 2009-11-09 | 2014-02-04 | Phil Weinstein | System and method for providing music based on a mood |
US20110125777A1 (en) * | 2009-11-25 | 2011-05-26 | At&T Intellectual Property I, L.P. | Sense and Match Advertising Content |
EP2542147A4 (en) * | 2010-03-04 | 2014-01-22 | Neumitra LLC | DEVICES AND METHOD FOR TREATING PSYCHICAL INTERFERENCE |
WO2012001566A1 (en) | 2010-06-30 | 2012-01-05 | Koninklijke Philips Electronics N.V. | Methods and apparatus for capturing ambience |
WO2013181414A1 (en) * | 2012-06-01 | 2013-12-05 | Songalbum, Llc | System and method for automatic synchronization of audio layers |
JP6040809B2 (ja) * | 2013-03-14 | 2016-12-07 | カシオ計算機株式会社 | コード選択装置、自動伴奏装置、自動伴奏方法および自動伴奏プログラム |
JP5785349B2 (ja) | 2013-05-17 | 2015-09-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | センサー搭載装置 |
WO2015006364A2 (en) * | 2013-07-08 | 2015-01-15 | Resmed Sensor Technologies Limited | Method and system for sleep management |
US20150204561A1 (en) | 2014-01-20 | 2015-07-23 | Innosys, Inc. | Control System With Mobile Sensors |
KR101637282B1 (ko) | 2014-12-09 | 2016-07-07 | 현대자동차 주식회사 | 음악 플레이리스트 생성방법, 및 음악 플레이리스트 생성장치 |
US10764079B2 (en) | 2015-02-09 | 2020-09-01 | Vivint, Inc. | System and methods for correlating sleep data to security and/or automation system operations |
US9769564B2 (en) * | 2015-02-11 | 2017-09-19 | Google Inc. | Methods, systems, and media for ambient background noise modification based on mood and/or behavior information |
US9513867B1 (en) | 2015-06-19 | 2016-12-06 | Honda Motor Co., Ltd. | System and method for managing communications on a mobile communication device based upon a user's behavior |
RU2632131C2 (ru) | 2015-08-28 | 2017-10-02 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и устройство для создания рекомендуемого списка содержимого |
US20170060519A1 (en) | 2015-08-31 | 2017-03-02 | Ubithings Sas | Method of identifying media to be played |
US9679453B2 (en) | 2015-10-20 | 2017-06-13 | Vivint, Inc. | System and methods for correlating sound events to security and/or automation system operations |
KR20170074000A (ko) * | 2015-12-21 | 2017-06-29 | 삼성전자주식회사 | 전자 장치 및 수면 관리 방법 |
US10091017B2 (en) * | 2015-12-30 | 2018-10-02 | Echostar Technologies International Corporation | Personalized home automation control based on individualized profiling |
CN105635772A (zh) * | 2015-12-30 | 2016-06-01 | 北京奇艺世纪科技有限公司 | 画中画视频播放方法和支持画中画视频播放的移动终端 |
US10354515B2 (en) | 2016-07-21 | 2019-07-16 | Vivint, Inc. | Methods and system for providing an alarm trigger bypass |
US11334070B2 (en) * | 2017-08-10 | 2022-05-17 | Patroness, LLC | Systems and methods for predictions of state of objects for a motorized mobile system |
CN108355356A (zh) * | 2018-03-14 | 2018-08-03 | 网易(杭州)网络有限公司 | 游戏场景中音频播放控制方法和装置 |
US11255567B2 (en) | 2018-10-24 | 2022-02-22 | Lennox Industries Inc. | System for personalized indoor microclimates |
-
2019
- 2019-11-05 WO PCT/IB2019/001187 patent/WO2020095105A1/en active Application Filing
- 2019-11-05 EP EP19827801.2A patent/EP3877939A1/en active Pending
- 2019-11-05 JP JP2021523979A patent/JP7202555B2/ja active Active
- 2019-11-05 US US16/674,844 patent/US11275350B2/en active Active
- 2019-11-05 KR KR1020217014628A patent/KR102399646B1/ko active IP Right Grant
- 2019-11-05 CN CN201980072750.0A patent/CN112970041B/zh active Active
- 2019-11-05 RU RU2021110619A patent/RU2769275C1/ru active
-
2020
- 2020-09-18 US US17/025,800 patent/US10948890B2/en active Active
-
2022
- 2022-02-04 US US17/665,353 patent/US20220229408A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017124165A (ja) | 2011-12-09 | 2017-07-20 | ナイキ イノベイト シーブイ | モバイル装置を用いた健康の監視 |
JP2014185061A (ja) | 2013-03-23 | 2014-10-02 | Kyocera Corp | 圧電素子 |
Also Published As
Publication number | Publication date |
---|---|
US20200142371A1 (en) | 2020-05-07 |
KR102399646B1 (ko) | 2022-05-18 |
EP3877939A1 (en) | 2021-09-15 |
KR20210068570A (ko) | 2021-06-09 |
CN112970041B (zh) | 2023-03-24 |
WO2020095105A1 (en) | 2020-05-14 |
US20220229408A1 (en) | 2022-07-21 |
RU2769275C1 (ru) | 2022-03-29 |
US20210003980A1 (en) | 2021-01-07 |
US10948890B2 (en) | 2021-03-16 |
JP2022506562A (ja) | 2022-01-17 |
US11275350B2 (en) | 2022-03-15 |
CN112970041A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7202555B2 (ja) | パーソナライズされたユーザ環境を作成するためのシステム及び方法 | |
US12029573B2 (en) | System and method for associating music with brain-state data | |
US11786163B2 (en) | System and method for associating music with brain-state data | |
US11690530B2 (en) | Entrainment sonification techniques | |
US20200243055A1 (en) | Method and System for Musical Communication | |
CN110996796B (zh) | 信息处理设备、方法和程序 | |
US20220310049A1 (en) | Systems and methods for generating a continuous music soundscape using automatic composition | |
US20210011614A1 (en) | Method and apparatus for mood based computing experience | |
US20220365504A1 (en) | Systems and methods for generating a continuous music soundscape using automatic composition | |
EP4312209A2 (en) | Systems and methods for generating a continuous music soundscape using automatic composition | |
US20220036999A1 (en) | Systems and methods to improve a users mental state | |
US20230256192A1 (en) | Systems and methods for inducing sleep of a subject | |
US20230367281A1 (en) | Systems and methods for generating a continuous music soundscape using a text-bsed sound engine | |
JP2021119426A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20220036757A1 (en) | Systems and methods to improve a users response to a traumatic event | |
US20230281244A1 (en) | Audio Content Serving and Creation Based on Modulation Characteristics and Closed Loop Monitoring | |
Jung et al. | Peripheral notification with customized embedded audio cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7202555 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |