JP2020024686A - ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体 - Google Patents

ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2020024686A
JP2020024686A JP2019129604A JP2019129604A JP2020024686A JP 2020024686 A JP2020024686 A JP 2020024686A JP 2019129604 A JP2019129604 A JP 2019129604A JP 2019129604 A JP2019129604 A JP 2019129604A JP 2020024686 A JP2020024686 A JP 2020024686A
Authority
JP
Japan
Prior art keywords
signal
human
audio signal
visual
computer interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019129604A
Other languages
English (en)
Inventor
雪▲り▼ 高
Xueli Gao
雪▲り▼ 高
祥 丁
Xiang Ding
祥 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AAC Technologies Pte Ltd
Original Assignee
AAC Technologies Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AAC Technologies Pte Ltd filed Critical AAC Technologies Pte Ltd
Publication of JP2020024686A publication Critical patent/JP2020024686A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Abstract

【課題】ヒューマンコンピュータインタラクション方法を提供する。【解決手段】ヒューマンコンピュータインタラクション方法は、端末に用いられる。当該方法は、オーディオ信号を取得するステップと、オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成するステップと、を含み、触覚感知信号は、触覚刺激をユーザに提供するために用いられ、視覚感知信号は、視覚刺激をユーザに提供するために用いられる。端末が、取得したオーディオ信号に基づいて、ユーザに触覚刺激を提供する触覚感知信号と、ユーザに視覚刺激を提供する視覚感知信号とを生成することによって、ユーザは異なる官能体験を得ることができる。ユーザの関与感が高められつつ、ユーザの体験感が向上する。【選択図】図1

Description

本発明は、通信技術分野に関し、特に、ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体に関する。
科学技術の発展に伴い、電子製品は、人々の生活でますます多く普及および応用され、また、使用過程においてユーザの電子製品に対する体験要求も徐々に高くなっている。たとえば、携帯電話またはタブレットPCなどの携帯用電子デバイスを使用して、ゲームをしたりビデオを見たりする過程において、ユーザの視聴体験またはゲーム体験を高めるために、発振器をオンにしてユーザ体験を高めている。
しかしながら、本発明の発明者は、以下のことを見出した。従来技術の電子製品は内蔵された決まったプログラムを利用して発振器をオンにして、ユーザの体験効果を高めているが、実際の応用において、ビデオシーンまたはゲームシーンが通常しばしば変更される。ユーザは、関与感を高めるために、しばしば変更されるシーンに応じて異なる官能効果を得る必要があるが、決まったプログラムだけで振動をオンにする方式ではユーザの体験要求を満たすことができない。
本発明の目的は、端末が、取得したオーディオ信号に基づいて、ユーザに触覚刺激を提供する触覚感知信号と、ユーザに視覚刺激を提供する視覚感知信号とを生成することによって、ユーザが異なる官能体験を得ることができるような、ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体を提供することにある。ユーザの関与感を向上させ、ユーザのより高い体験要求を満たす。
本発明は、上記の技術問題を解決するために、ヒューマンコンピュータインタラクション方法を提供する。当該方法は、オーディオ信号を取得するステップと、
オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成するステップと、を含み、
触覚感知信号は、触覚刺激をユーザに提供するために用いられ、視覚感知信号は、視覚刺激をユーザに提供するために用いられる。
本発明は、ヒューマンコンピュータインタラクション装置をさらに提供し、当該装置は、取得モジュールと特定モジュールとを備え、
取得モジュールは、オーディオ信号を取得し、
特定モジュールは、オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成し、前記触覚感知信号と前記視覚感知信号は、互いに関連付けられており、
触覚感知信号は、触覚刺激をユーザに提供するために用いられ、視覚感知信号は、視覚刺激をユーザに提供するために用いられる。
本発明は、端末をさらに提供し、当該端末は、少なくとも一つのプロセッサと、
少なくとも一つのプロセッサに通信接続されるメモリと、を備え、
メモリには、少なくとも一つのプロセッサで実行可能な命令が記憶され、命令が少なくとも一つのプロセッサによって実行されることによって、少なくとも一つのプロセッサが上記の実施形態におけるヒューマンコンピュータインタラクション方法を実施可能である。
本発明は、コンピュータプログラムが記憶されるコンピュータ読み取り可能な記憶媒体をさらに提供し、コンピュータプログラムがプロセッサによって実行されるとき、上記実施形態におけるヒューマンコンピュータインタラクション方法が実施される。
本発明は、従来技術と比較すると、端末が取得したオーディオ信号に基づいて、ユーザに触覚刺激を提供する触覚感知信号と、ユーザに視覚刺激を提供する視覚感知信号とを生成することによって、ユーザが異なる官能体験を得ることができる。ユーザの関与感が高められつつ、ユーザの体験感が向上する。
また、オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成するステップは、オーディオ信号の特徴情報を抽出するステップと、特徴情報に基づいて触覚感知信号と視覚感知信号とを生成するステップと、を含む。抽出した特徴情報触のみに基づいて覚感知信号と視覚感知信号とを生成し、オーディオ信号のすべての情報を使用する必要がなくなるので、触覚感知信号と視覚感知信号とを生成する速度は速くなる。
また、特徴情報は、信号強度、周波数および振幅の中の少なくとも一つを含む。
また、特徴情報に基づいて触覚感知信号と視覚感知信号とを生成するステップは、前記特徴情報に基づいて発振器の振動状態を特定し、発振器の振動状態に基づいて触覚感知信号を生成するステップと、
前記特徴情報に基づいて光源の点灯状態を特定し、光源の点灯状態に基づいて視覚感知信号を生成するステップと、を含み、
振動状態は、振動振幅と振動周波数とを含み、点灯状態は、色と輝度とを含む。
前記特徴情報に基づいて触覚感知信号と視覚感知信号とを同時に生成可能であり、ユーザが触覚刺激と視覚刺激とを得ることができるため、複数の官能体験がユーザに与えられ、ユーザの体験用件が満たされる。
また、前記特徴情報に基づいて光源の点灯状態を特定するステップの前に、前記特徴情報に基づいて光源がオン状態にあることを特定するステップをさらに含む。
また、オーディオ信号を取得するステップは、ローカルに格納されたオーディオ信号を取得するステップを含む。
また、オーディオ信号を取得するステップは、外部再生デバイスから送信されたオーディオ信号を受信するステップを含む。端末は、オーディオ信号を取得するときに、外部再生デバイスから送信されたオーディオ信号も受信できるので、端末がオーディオ信号を取得する方式の多様性は確保される。
端末が、取得したオーディオ信号に基づいて、ユーザに触覚刺激を提供する触覚感知信号と、ユーザに視覚刺激を提供する視覚感知信号とを生成するため、ユーザが異なる官能体験を得ることができる。
本発明の第1の実施形態に係るヒューマンコンピュータインタラクション方法を示すフローチャートである。 本発明の第2の実施形態に係るヒューマンコンピュータインタラクション方法を示すフローチャートである。 本発明の第3の実施形態に係るヒューマンコンピュータインタラクション装置の構成を示す模式図である。 本発明の第4の実施形態に係るヒューマンコンピュータインタラクション装置の構成を示す模式図である。 本発明の第5の実施形態の端末の構成を示す模式図である。
以下、本発明の実施例の目的、解決手段及び利点がより明瞭になるように、図面を参照して本発明の各実施形態を詳細に説明する。しかしながら、本発明の各実施形態において、読者に本発明のより良い理解を与えるためにいくつかの技術的細部を提示したことを、当業者は理解すべきである。しかし、これら技術的細部、および、以下の各実施形態に基づくいろんな変化および修正がなくても、本発明が保護請求する解決手段を実現することができる。
本発明の第1の実施形態は、ヒューマンコンピュータインタラクション方法に関し、当該ヒューマンコンピュータインタラクション方法は、端末に応用され、具体的な流れは図1に示され、具体的な流れは以下のようになる。
ステップ101において、オーディオ信号を取得する。
説明すべきことは、本発明において、オーディオ信号を取得する方式は、ローカルに格納されたオーディオ信号、または、リアルタイムで再生されるオーディオ信号を取得する方式であってもよいし、外部再生デバイスから送信されたオーディオ信号を受信する方式であってもよい。
具体的な実施において、端末は、端末中のアプリケーションがオンにされるとき、たとえば、端末中のゲームまたはビデオがオンにされるとき、ゲームまたはビデオがオンにされる命令に応じて、同期してローカルからオーディオ信号を取得する。その中、オーディオ信号は、予め記憶されたゲームまたはビデオシーンに関する情報である。
もう一つの具体的な実施において、端末は、端末中のアプリケーションがオンにされるとき、たとえば、端末中のゲームまたはビデオがオンにされるとき、外部再生デバイスから送信されたオーディオ信号を受信してもよい。その中、ユーザは、外部再生デバイスによって再生されたるオーディオ信号の種類を自発的に選択してもよく、たとえば、オーディオ信号は、テンポの速い音楽であってもよいし、テンポの遅い音楽であってもよい。当然ながら、ユーザが選択しなかった場合に、外部再生デバイスはデフォルト形式のオーディオ信号を再生してもよい。したがって、本発明は、オーディオ信号を取得する具体的な方式を限定しない同時に、オーディオ信号の具体的な種類も限定しない。
ステップ102において、オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成し、前記触覚感知信号と前記視覚感知信号は、互いに関連付けられている。
説明すべきことは、オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成するとき、具体的に、オーディオ信号の特徴情報を抽出し、特徴情報に基づいて触覚感知信号と視覚感知信号とを生成する方法を採用してもよい。
その中、触覚感知信号は、触覚刺激をユーザに提供するために用いられ、視覚感知信号は、視覚刺激をユーザに提供するために用いられる。
その中、特徴情報は、信号強度、周波数、振幅などの少なくとも一つを含む。オーディオ信号の特徴情報を抽出するとき、具体的に、音声分析技術を採用して、端末に内蔵された音声分析デバイス、および、ユーザが端末内に事前に設定した抽出信号強度命令を利用して、オーディオ信号の信号強度を抽出してもよい。あるいは、信号周波数命令によって信号周波数情報を抽出するか、または、信号振幅命令によって信号周波数情報を抽出してもよい。当然ながら、本発明でのモバイル端末は、オーディオ信号をデータに変換して、データ分析技術によって、データから信号強度などに関するデータを取得した後、取得された関連データを変換して、信号強度などの特徴情報を取得してもよい。当然ながら、以上は一例であり、本発明は特徴情報の具体的な抽出方式に対して限定しない。
具体的に、信号強度などの特徴情報に基づいて発振器の振動状態を特定し、発振器の振動状態に基づいて触覚感知信号を生成し、その中、振動状態は、振動振幅と振動周波数とを含む。
説明すべきことは、端末内には、信号強度などの特徴情報と振動振幅および振動周波数との対応関係が予め記憶されている。オーディオ信号を取得し、オーディオ信号の信号強度などの特徴情報を抽出した後に、抽出した信号強度などの特徴情報と、予め記憶された信号強度などの特徴情報と振動振幅との対応関係とをマッチングすると同時に、抽出した特徴情報と、予め記憶された信号強度などの特徴情報と振動周波数との対応関係とをマッチングして、マッチング結果に基づいて触覚感知信号を生成する。
たとえば、信号強度が1〜50であるとき、対応する振動振幅が10ミクロンであり、対応する振動周波数が5ヘルツである。振動振幅が10ミクロンであり、振動周波数が5ヘルツであると特定されると、1級触覚感知信号の生成と定義される。信号強度が51〜100であるとき、対応する振動振幅が20ミクロンであり、対応する振動周波数が10ヘルツである。振動振幅が20ミクロンであり、振動周波数が10ヘルツであると特定されると、2級触覚感知信号の生成と定義される。したがって、オーディオ信号が取得され、分析を通じて、抽出されたオーディオ信号の信号強度が60であると、このとき、発振器の振動状態は、振動振幅を20ミクロン、振動周波数を10ヘルツとして特定可能である。振動状態に基づいて、生成されたのが2級触覚感知信号であると特定する。当然ながら、上記はただ信号強度が1〜50および51〜100である例を挙げて説明したが、実際の応用では必要によって、信号強度を自発的に区分することができ、本実施形態は区分の具体的な方式に対して限定しない。
具体的に、信号強度などの特徴情報に基づいて光源の点灯状態を特定し、光源の点灯状態に基づいて視覚感知信号を生成する。その中、点灯状態は、色と輝度とを含む。
説明すべきことは、端末内には、信号強度などの特徴情報と、光源の点灯状態中の色および輝度との対応関係が予め記憶されている。オーディオ信号が取得され、オーディオ信号の信号強度などの特徴情報を抽出した後、抽出した信号強度などの特徴情報と、予め記憶された信号強度などの特徴情報と輝度との対応関係とをマッチングすると同時に、抽出した信号強度などの特徴情報と、予め記憶された信号強度などの特徴情報と色との対応関係とをマッチングして、マッチング結果に基づいて視覚感知信号を生成する。
たとえば、信号強度が50〜100であるとき、対応する輝度が10カンデラ/平方メートルであり、対応する色が赤色である。光源輝度が10カンデラ/平方メートルであり、色が赤色であると特定されると、1級視覚感知信号の生成と定義される。信号強度が101〜150であるとき、対応する輝度が20カンデラ/平方メートルであり、対応する色が紫色である。光源輝度が20カンデラ/平方メートルであり、色が紫色であると特定されると、2級視覚感知信号の生成と定義される。したがって、オーディオ信号が取得され、分析を通じて、抽出されたオーディオ信号の強度が60であると、このとき、光源の点灯状態は、輝度を10カンデラ/平方メートル、色を赤色に特定可能である。点灯状態に基づいて、生成されたのが1級視覚感知信号であると特定する。当然ながら、上記はただ信号強度が50〜100および101〜150である例を挙げて説明したが、実際の応用では必要に応じて信号強度を自発的に区分することができ、本実施形態は区分の具体的な方式に対して限定しない。
なお、実際の応用においては、本発明の光源の数は、複数含むことができ、具体的な数はユーザの実際の必要に応じて設定すればよく、本実施形態は光源の具体的な数に対して限定しない。
本実施形態においては、従来技術と比較すると、端末が、取得したオーディオ信号に基づいて、ユーザに触覚刺激を提供する触覚感知信号と、ユーザに視覚刺激を提供する視覚感知信号とを生成し、ユーザが異なる官能体験を得ることができる。ユーザの関与感が高められつつ、ユーザの体験感が向上する。
本発明の第2の実施形態は、ヒューマンコンピュータインタラクション方法に関し、本実施形態は、第1の実施形態を基に更なる改良を行って得たものであり、具体的な改良は、信号強度などの特徴情報に基づいて光源の点灯状態を特定するステップの前に、信号強度などの特徴情報に基づいて光源がオン状態にあることを特定するステップを追加することにある。本実施形態において、ヒューマンコンピュータインタラクション方法のフローチャートは、図2に示される。
具体的に言えば、本実施例は、ステップ201〜ステップ205を含む。その中、ステップ201は、第1の実施形態におけるステップ101と大体同じであり、ステップ202〜203およびステップ205は、第1の実施形態におけるステップ102と大体同じであるため、ここで繰り返して説明しない。以下では、主に異なる部分を説明し、本実施形態で詳細に説明しない技術細部は、第1の実施形態に供されるヒューマンコンピュータインタラクション方法を参考すればよく、ここで繰り返して説明しない。
ステップ204において、信号強度などの特徴情報に基づいて光源がオン状態にあることを特定する。
具体的に言えば、オーディオ信号の信号強度などの特徴情報が抽出された後、端末は信号強度などの特徴情報に基づいて光源がオン状態にあることを特定することになる。
具体的な実施において、抽出した信号強度などの特徴情報を予め設定された閾値と比較し、抽出した信号強度などの特徴情報が予め設定された閾値よりも大きいと特定されると、光源がオン状態にあると特定する。
たとえば、信号強度の予め設定された閾値を40に設定し、抽出した信号強度が40よりも大きいと特定されると、光源がオン状態にあると特定し、抽出した信号強度が40未満であると特定されると、光源がオフ状態にあると特定する。
説明すべきことは、本実施形態にとっては、抽出した信号強度などの特徴情報が予め設定された閾値未満であると、光源がオフ状態にあるが、発振器が振動される場合が発生する可能性がある。このとき、端末は、これに応じて触覚感知信号を生成するが、視覚感知信号は0である。このような状態が発生する場合は、信号強度などの特徴情報が相対的に弱いことを示し、ユーザは、触覚感知信号がもたらす触覚刺激および得られない視覚刺激に基づいて、信号強度などの特徴情報の大きさを直感的に判断することができる。
説明すべきことは、本実施形態において、ステップ203と、ステップ204およびステップ205との前後順に対して限定せず、ステップ204がステップ205の前にあれば、本実施形態の目的に合致するものとされる。
本実施形態においては、従来技術と比較すると、端末が、取得したオーディオ信号に基づいて、ユーザに触覚刺激を提供する触覚感知信号と、ユーザに視覚刺激を提供する視覚感知信号と、を生成することによって、ユーザが異なる官能体験を得ることができる。ユーザの関与感を向上させ、ユーザのより高い体験要件を満たす。信号強度などの特徴情報に基づいて光源の点灯状態を特定するステップの前に、信号強度などの特徴情報に基づいて光源がオン状態にあることを特定するステップを追加することによって、オンにされていない状態である光源に対する端末の不必要な操作は回避される。
本発明の第3の実施形態は、ヒューマンコンピュータインタラクションに装置に関し、当該装置の具体的な構成は図3に示され、ヒューマンコンピュータインタラクション装置は、具体的に、取得モジュール301と特定モジュール302とを備える。
その中、取得モジュール301は、オーディオ信号を取得する。
特定モジュール302は、オーディオ信号に基づいて触覚感知信号と視覚感知信号とを生成し、前記触覚感知信号と前記視覚感知信号は、互いに関連付けられている。
その中、触覚感知信号は、触覚刺激をユーザに提供するために用いられ、視覚感知信号は、視覚刺激をユーザに提供するために用いられる。
本実施形態は、第1の実施形態に対応する装置の実施形態であることが明らかであり、本実施形態は第1の実施形態と互いに協働して実施することができる。第1の実施形態で言及された関連技術の細部は、本実施形態においても依然として有効であり、繰り返しの説明を省略するためにここでは再度説明しない。これに応じて、本実施形態で言及される関連技術の細部も、第1の実施形態において応用できる。
本発明の第4の実施形態は、ヒューマンコンピュータインタラクション装置に関し、当該実施形態は第3の実施形態と大体同じであり、具体的な構成は図4に示される。その中、主な改良は、特定モジュール302の機能に対する具体的な説明にある。
特定モジュール302は、具体的に、抽出モジュール3021と、触覚感知信号特定モジュール3022と、オン状態特定モジュール3023と、視覚感知信号特定モジュール3024と、を備える。
その中、抽出モジュール3021は、オーディオ信号の信号強度などの特徴情報を抽出する。
触覚感知信号特定モジュール3022は、信号強度などの特徴情報に基づいて発振器の振動状態を特定し、発振器の振動状態に基づいて触覚感知信号を生成する。
オン状態特定モジュール3023は、信号強度などの特徴情報に基づいて光源がオン状態にあることを特定する。
視覚感知信号特定モジュール3024は、信号強度などの特徴情報に基づいて光源の点灯状態を特定し、光源の点灯状態に基づいて視覚感知信号を生成する。
本実施形態は、第2の実施形態に対応する装置の実施形態であることが明らかであり、本実施形態は第2の実施形態と互いに協働して実施することができる。第2の実施形態で言及された関連技術の細部は、本実施形態においても依然として有効であり、繰り返しの説明を省略するためにここでは再度説明しない。これに応じて、本実施形態で言及される関連技術の細部も、第2の実施形態において応用できる。
本発明の第5の実施形態は、端末に関し、具体的な構成は図5に示される。当該端末は、少なくとも一つのプロセッサ401と、少なくとも一つのプロセッサ401に通信接続されるメモリ402と、を備える。その中、メモリ402には、少なくとも一つのプロセッサ401で実行可能な命令が記憶され、命令が少なくとも一つのプロセッサ401によって実行されることによって、少なくとも一つのプロセッサ401がヒューマンコンピュータインタラクション方法を実行可能である。
本実施形態においては、プロセッサ401が中央処理装置(CPU:Central Processing Unit)であり、メモリ402が読み書き可能なメモリRAM(Random Access Memory)である例を挙げる。プロセッサ401とメモリ402とは、バスまたは他の方式によって接続され、図5ではバスを介して接続される例を挙げている。メモリ402は、不揮発性コンピュータ可読記憶媒体として、不揮発性ソフトウェアプログラム、不揮発性コンピュータの実行可能なプログラム及びモジュールを記憶可能である。本願の実施例に係る環境情報特定方法を実施するプログラムはメモリ402に記憶されている。プロセッサ401は、メモリ402に記憶されている不揮発性ソフトウェアプログラム、命令、および、モジュールを動作させることによって、デバイスの様々な機能アプリケーションとデータ処理とを実行し、すなわち、上記ヒューマンコンピュータインタラクションの方法を実施する。
メモリ402は、プログラム記憶領域とデータ記憶領域とを含んでもよく、その中、プログラム記憶領域はオペレーティングシステムと少なくとも一つの機能に必要なアプリケーションを記憶することができ、データ記憶領域はオプションリストなどを記憶することができる。なお、メモリは、高速ランダムアクセスメモリを含んでもよいし、不揮発性メモリを含んでもよく、たとえば、少なくとも一つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、または、他の不揮発性固体記憶デバイスなどを含んでもよい。いくつかの実施形態において、メモリ402は、プロセッサ401に対して遠隔に配置されたメモリを選択的に含んでもよく、これら遠隔メモリはネットワークを介して外部デバイスに接続されてもよい。上記ネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、および、その組み合わせを含んでもよいが、これらに限定されない。
一つまたは複数のプログラムモジュールは、メモリ402内に記憶されており、一つまたは複数のプロセッサ401によって実行されるとき、上記任意の方法実施例におけるヒューマンコンピュータインタラクション方法が実行される。
上記製品は、本願の実施例に供される方法を実行することができ、方法の実行に対応する機能モジュール及び有利な作用効果を有し、本実施形態で詳細に説明されていない技術的細部は、本願の実施形態に供される方法を参照すればよい。
本願の第6の実施形態は、コンピュータ読み取り可能な記憶媒体に関し、当該コンピュータ読み取り可能な記憶媒体には、コンピュータプログラムが記憶されている、当該コンピュータプログラムがプロセッサによって実行されるとき、本願の任意の方法の実施例形態に係るヒューマンコンピュータインタラクション方法が実施される。
当業者は、上記実施形態の方法における全部または一部のステップの実施は、プログラムが関連するハードウェアを命令して完成することができ、当該プログラムは、一つの記憶媒体に記憶され、一つの機器(ワンチップマイコン、チップなどであってもよい)、または、プロセッサ(processor)が本発明の各実施形態に記載の方法の全部または一部のステップを実行するようにするためのいくつかの命令を含むことが理解できる。前述の記憶媒体は、Uディスク、モバイルハードディスク、読み取り専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスク、または、光ディスクなどの様々な、プログラムコードを記憶できる媒体を含む。
当業者であれば、上記各実施形態は、本発明を実現するための具体的な実施形態であり、実際の応用において、本発明の精神および範囲から逸脱することなく、形態および細部上で様々な変更を加えることが可能であると理解できる。

Claims (10)

  1. ヒューマンコンピュータインタラクション方法であって、
    前記ヒューマンコンピュータインタラクション方法は、端末に用いられ、
    オーディオ信号を取得するステップと、
    前記オーディオ信号に基づいて、互いに関連付けられている触覚感知信号と視覚感知信号とを生成するステップと、を含み、
    前記触覚感知信号は、触覚刺激をユーザに提供するために用いられ、前記視覚感知信号は、視覚刺激を前記ユーザに提供するために用いられる、
    ことを特徴とするヒューマンコンピュータインタラクション方法。
  2. 前記オーディオ信号に基づいて前記触覚感知信号と前記視覚感知信号とを生成するステップは、
    前記オーディオ信号の特徴情報を抽出するステップと、
    前記特徴情報に基づいて前記触覚感知信号と前記視覚感知信号とを生成するステップと、を含む、
    ことを特徴とする請求項1に記載のヒューマンコンピュータインタラクション方法。
  3. 前記特徴情報は、信号強度、周波数および振幅の中の少なくとも一つを含む、
    ことを特徴とする請求項2に記載のヒューマンコンピュータインタラクション方法。
  4. 前記特徴情報に基づいて前記触覚感知信号と前記視覚感知信号とを生成するステップは、
    前記特徴情報に基づいて発振器の振動状態を特定し、前記発振器の前記振動状態に基づいて前記触覚感知信号を生成するステップと、
    前記特徴情報に基づいて光源の点灯状態を特定し、前記光源の前記点灯状態に基づいて前記視覚感知信号を生成するステップと、を含み、
    前記振動状態は、振動振幅と振動周波数とを含み、前記点灯状態は、色と輝度とを含む、
    ことを特徴とする請求項3に記載のヒューマンコンピュータインタラクション方法。
  5. 前記特徴情報に基づいて前記光源の前記点灯状態を特定するステップの前に、
    前記特徴情報に基づいて前記光源がオン状態にあることを特定するステップをさらに含む、
    ことを特徴とする請求項4に記載のヒューマンコンピュータインタラクション方法。
  6. 前記オーディオ信号を取得するステップは、ローカルの前記オーディオ信号を取得するステップを含む、
    ことを特徴とする請求項1に記載のヒューマンコンピュータインタラクション方法。
  7. 前記オーディオ信号を取得するステップは、外部再生デバイスから送信された前記オーディオ信号を受信するステップを含む、
    ことを特徴とする請求項1に記載のヒューマンコンピュータインタラクション方法。
  8. 取得モジュールと特定モジュールとを備え、
    前記取得モジュールは、オーディオ信号を取得し、
    前記特定モジュールは、前記オーディオ信号に基づいて、互いに関連付けられている触覚感知信号と視覚感知信号とを生成し、
    前記触覚感知信号は、触覚刺激をユーザに提供するために用いられ、前記視覚感知信号は、視覚刺激をユーザに提供するために用いられる、
    ことを特徴とする装置。
  9. 少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されるメモリと、を備え、
    前記メモリには、前記少なくとも一つのプロセッサで実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行されることによって、前記少なくとも一つのプロセッサが請求項1乃至7のいずれか1項に記載のヒューマンコンピュータインタラクション方法を実行可能である、
    ことを特徴とする端末。
  10. コンピュータプログラムが記憶されるコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1乃至7のいずれか1項に記載のヒューマンコンピュータインタラクション方法が実施される、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019129604A 2018-08-08 2019-07-11 ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体 Pending JP2020024686A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810895924.0 2018-08-08
CN201810895924.0A CN109254651A (zh) 2018-08-08 2018-08-08 一种人机交互方法及装置、终端和计算机可读存储介质

Publications (1)

Publication Number Publication Date
JP2020024686A true JP2020024686A (ja) 2020-02-13

Family

ID=65049715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129604A Pending JP2020024686A (ja) 2018-08-08 2019-07-11 ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体

Country Status (3)

Country Link
US (1) US20200050274A1 (ja)
JP (1) JP2020024686A (ja)
CN (1) CN109254651A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000157720A (ja) * 1998-11-26 2000-06-13 Square Co Ltd ゲーム装置、ゲームの制御方法並びに情報記録媒体
JP2004260649A (ja) * 2003-02-27 2004-09-16 Toshiba Corp 携帯情報端末装置
US20080136608A1 (en) * 2006-12-11 2008-06-12 Research In Motion Limited Sensory effects in a mobile device and an accessory thereof
JP2010500805A (ja) * 2006-08-11 2010-01-07 ソニー エリクソン モバイル コミュニケーションズ, エービー グラフィカルな表示
JP2014174985A (ja) * 2013-03-05 2014-09-22 Immersion Corp ハプティック効果の自動適合
WO2017006640A1 (ja) * 2015-07-08 2017-01-12 ソニー株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
JP2018011201A (ja) * 2016-07-13 2018-01-18 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
CN105472527B (zh) * 2016-01-05 2017-12-15 北京小鸟看看科技有限公司 一种马达矩阵控制方法及一种可穿戴设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000157720A (ja) * 1998-11-26 2000-06-13 Square Co Ltd ゲーム装置、ゲームの制御方法並びに情報記録媒体
JP2004260649A (ja) * 2003-02-27 2004-09-16 Toshiba Corp 携帯情報端末装置
JP2010500805A (ja) * 2006-08-11 2010-01-07 ソニー エリクソン モバイル コミュニケーションズ, エービー グラフィカルな表示
US20080136608A1 (en) * 2006-12-11 2008-06-12 Research In Motion Limited Sensory effects in a mobile device and an accessory thereof
JP2014174985A (ja) * 2013-03-05 2014-09-22 Immersion Corp ハプティック効果の自動適合
WO2017006640A1 (ja) * 2015-07-08 2017-01-12 ソニー株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
JP2018011201A (ja) * 2016-07-13 2018-01-18 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20200050274A1 (en) 2020-02-13
CN109254651A (zh) 2019-01-22

Similar Documents

Publication Publication Date Title
CN110312169B (zh) 视频数据处理方法、电子设备及存储介质
CN109600678B (zh) 信息展示方法、装置及系统、服务器、终端、存储介质
KR102207208B1 (ko) 음악 정보 시각화 방법 및 장치
CN103813126B (zh) 进行视频通话时提供用户感兴趣信息的方法及其电子装置
CN108401124A (zh) 视频录制的方法和装置
CN109640125B (zh) 视频内容处理方法、装置、服务器及存储介质
CN111031386B (zh) 基于语音合成的视频配音方法、装置、计算机设备及介质
WO2015072968A1 (en) Adapting content to augmented reality virtual objects
WO2020151491A1 (zh) 图像形变的控制方法、装置和硬件装置
CN108965981B (zh) 视频播放方法、装置、存储介质及电子设备
CN109448761B (zh) 播放歌曲的方法和装置
US20230368461A1 (en) Method and apparatus for processing action of virtual object, and storage medium
WO2020228528A1 (zh) 背景音频信号滤除方法、装置及存储介质
WO2018076939A1 (zh) 视频文件的处理方法和装置
CN110798615A (zh) 一种拍摄方法、装置、存储介质以及终端
CN109600559A (zh) 一种视频特效添加方法、装置、终端设备及存储介质
CN108922562A (zh) 演唱评价结果显示方法及装置
CN113485617A (zh) 动画展示方法、装置、电子设备及存储介质
CN110337041B (zh) 视频播放方法、装置、计算机设备及存储介质
KR20210038129A (ko) 영상 처리 방법 및 이를 지원하는 전자 장치
CN105929941B (zh) 信息处理方法、装置和终端设备
CN104822085A (zh) 互动节拍特效系统及互动节拍特效处理方法
CN113407436A (zh) 播放组件兼容性检测方法、装置、计算机设备和存储介质
JP2020024686A (ja) ヒューマンコンピュータインタラクション方法、装置、端末及びコンピュータ読み取り可能な記憶媒体
WO2015193748A1 (en) Information acquiring apparatus and method, and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201222