JP2016009133A - 言語リハビリテーション支援装置及びその制御方法 - Google Patents

言語リハビリテーション支援装置及びその制御方法 Download PDF

Info

Publication number
JP2016009133A
JP2016009133A JP2014130657A JP2014130657A JP2016009133A JP 2016009133 A JP2016009133 A JP 2016009133A JP 2014130657 A JP2014130657 A JP 2014130657A JP 2014130657 A JP2014130657 A JP 2014130657A JP 2016009133 A JP2016009133 A JP 2016009133A
Authority
JP
Japan
Prior art keywords
word
rehabilitation support
phoneme
language rehabilitation
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014130657A
Other languages
English (en)
Inventor
美雪 小山
Miyuki Koyama
美雪 小山
俊英 田中
Shunei Tanaka
俊英 田中
鮫島 正
Tadashi Samejima
正 鮫島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2014130657A priority Critical patent/JP2016009133A/ja
Priority to US14/667,152 priority patent/US20150380012A1/en
Publication of JP2016009133A publication Critical patent/JP2016009133A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F5/00Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
    • A61F5/58Apparatus for correcting stammering or stuttering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Vascular Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Nursing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biophysics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Rehabilitation Tools (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】 例えば構音障害者に対して効果的な言語リハビリテーションを行うのに有利な言語リハビリテーション支援装置を提供する。【解決手段】 言語リハビリテーション支援装置は、ターゲットとする音韻の種類を指定するとともに、指定された種類の音韻の位置として語頭、語中、語尾のうちの少なくともいずれかを指定する指定手段と、指定された種類の音韻が指定された位置に存在する単語群から選択された単語を提示する提示手段と、提示された単語を被訓練者が読み上げた音声を認識する音声認識手段と、音声認識手段による認識結果の履歴に基づいて被訓練者の読み上げ音声に関する評価値を提供する提供手段とを有する。【選択図】 図1

Description

本発明は、言語リハビリテーション支援装置及びその制御方法に関する。
言語障害の一種に、構音障害がある。構音障害は、構音運動の要素(発話明瞭度、発話速度、発話音量など)の少なくともいずれかに障害を受けている状態と考えられる。構音障害者に対しては従来、言語聴覚士によって、発話機能の改善、又は、その他の機能での代替を目的とした言語リハビリテーションが行われる。
しかし、発話明瞭度は、患者が言語聴覚士と自由に会話をしている中で、言語聴覚士の耳によって判断されており、患者自身が発話明瞭度を自覚し、明瞭度について明確な指標の下、目標を設定して訓練するということは困難であった。
言語リハビリテーションを支援する装置としては、例えば、絵又は文字を表示してこれに対応する単語を発声させ、これを音声認識して合否判定を行うものがある(特許文献1)。
特許第4048226号公報
しかし、特許文献1に開示されたような装置では、訓練の効果を把握することが難しい。また、正しく発音できない音に特化して訓練を行うといったこともできない。
本発明は、例えば構音障害者に対して効果的な言語リハビリテーションを行うのに有利な言語リハビリテーション支援装置を提供することを目的とする。
本発明の一側面によれば、ターゲットとする音韻の種類を指定するとともに、前記指定された種類の音韻の位置として語頭、語中、語尾のうちの少なくともいずれかを指定する指定手段と、前記指定された種類の音が前記指定された位置に存在する単語群から選択された単語を提示する提示手段と、前記提示された単語を被訓練者が読み上げた音声を認識する音声認識手段と、前記音声認識手段による認識結果の履歴に基づいて前記被訓練者の読み上げ音声に関する評価値を表示する表示手段とを有することを特徴とする言語リハビリテーション支援装置が提供される。
本発明によれば、例えば構音障害者に対して効果的な言語リハビリテーションを行うのに有利な言語リハビリテーション支援装置が提供される。
実施形態におけるロボットの外観構成を示す図。 実施形態におけるロボットの内部構成を示すブロック図。 実施形態における発話訓練プログラムのモジュール構成の例を示す図。 実施形態における発話訓練処理のフローチャート。 実施形態における発話訓練処理におけるホーム画面の例を示す図。 実施形態における発話訓練処理におけるメニュー画面の例を示す図。 実施形態における発話訓練処理における単語提示画面の例を示す図。 実施形態における発話訓練処理における単語提示画面の例を示す図。 実施形態における訓練評価結果の表示例を示す図。 実施形態における訓練評価結果の表示例を示す図。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。
図1は、実施形態における言語リハビリテーション支援装置としてのロボット1の外観構成を示す図である。ロボット1は、構音障害者等の患者(被訓練者)とインタラクションをとるものであって、患者に対し言語リハビリテーション用の言語表現を行う。
ロボット1は、一般的なコンピュータ装置の外観を持つものであってもよいが、患者とインタラクションをとりながらリハビリテーションを行うものであるから、患者がリラックスして親しみがわくような外観構成を有するとよいであろう。ロボット1は、例えば無線通信を行うためのアンテナ111を有する。また、ロボット1には、人の耳及び口に対応する位置にそれぞれマイクロホン114及びスピーカ112が設けられている。また、ロボット1は、言語聴覚士や患者が使用するためのタッチパネル式の表示・入力デバイスであるタブレット端末150を、ケーブル151を介して接続可能である。タブレット端末150のタッチパネルは、ユーザの指によるタップやなぞり動作を検出可能である。もっとも、このようなタブレット端末150の機能は、ロボット1自体が予め備えている構成としてもよい。
図2は、ロボット1の内部構成を示すブロック図である。ロボット1は、装置全体の制御を司るCPU101、主記憶装置として機能するRAM102、制御プログラムや固定的なデータを記憶しているROM103をはじめ、以下の構成を備える。
無線通信コントローラ105は、アンテナ111を介して行う無線通信を制御する。HDD106はハードディスク装置であり、オペレーティングシステム(OS)107や発話訓練プログラム108を格納する他、訓練に使用される単語を記述した単語リスト116、患者データベース(DB)118を記憶する。インタフェース(I/F)109は、タブレット端末150をケーブル151を介して接続する。音声コントローラ110は、不図示のA/Dコンバータ、D/Aコンバータ、アンチエイリアシングフィルタ等を含み、スピーカ112を用いた音声出力及びマイクロホン114からの音声入力を行う。
図3は、発話訓練プログラム108のモジュール構成の例を示している。患者登録/検索モジュール121は、患者DB118への新規登録処理、及び患者DB118からの患者の検索処理に係るファンクションモジュールである。発話訓練メインモジュール123は、発話訓練の実行を担う。音声再生モジュール124は、単語リスト116の単語の音響出力を行う。単語リスト116の単語の音響出力には、音声合成(テキスト合成)が用いられてもよい。また、音声再生モジュール124は、患者の録音データの再生も行うことができる。音声認識モジュール125は、患者の発話を認識する。この音声認識モジュール125によれば、例えば単語を認識単位とする音声認識が行われる。音響モデルには、例えば、HMM(Hidden Markov Model)が各状態においてGMM(Gaussian Mixture Model)に従って特徴量を出力するモデルが用いられる。音声認識用の単語辞書はこの音声認識モジュール125に含まれていてもよいし、独立にHDD106に記憶されていてもよい。ただし、本発明は、特定の音声認識アルゴリズムに限定されるものではない。
図4は、本実施形態における発話訓練処理のフローチャートである。このフローチャートに対応するプログラムは、発話訓練プログラム108に含まれ、RAM102にロードされてCPU101によって実行される。このプログラムが実行されるとまず、図5に示されるようなホーム画面がタブレット端末150に表示される。図示のように、ホーム画面は、患者登録ボタン501、患者選択ボタン502、訓練開始ボタン503を含む。ユーザ(例えば言語聴覚士。被訓練者自身でもよい。)がいずれかのボタンをタップすると、対応する画面に遷移することができる。
患者登録ボタン501又は患者選択ボタン502がタップされることで、患者の登録又は選択が行われる(S1)。患者の登録及び選択の詳細は本発明と直接関係がないので、それらの画面例を図示することは、省略する。登録時には、患者ID、氏名、障害種別等、所定の個人情報を記述していくことになる。登録又は選択が完了すると画面はホーム画面に戻るものとする。
S2では、訓練開始ボタン503がタップされるのを待機している。訓練開始ボタン503がタップされると、処理はS3の単語選択工程に移行する。ここでは図6に示されるようなメニュー画面がタブレット端末150に表示される。
図6において、ユーザ(言語聴覚士、患者、又は患者を介護する人)は、ターゲットとする音韻の種類(図示の例では、音韻「か」、「さ」、「た」、「ら」)をボタン群601から選択することができる。ユーザは、更に、ターゲットの音韻が単語中に存在する位置として、例えば語頭602、語中603、語尾604のうちの少なくともいずれかを指定することができる。
本実施形態では更に、S4において、ユーザは、再生される単語の再生速度を調整することができる(505)。再生速度によって患者の了解度が異なり、模倣する際の構音に影響するからである。「次へ」ボタン606がタップされると、処理はS5へと移行する。
S5では、S3で指定された条件の単語群が、単語リスト116から選択されて、図7,図8に示されるような単語提示画面がタブレット端末150に表示される。図7は、図6のメニュー画面において、音韻「か」がターゲットとして指定された場合の例を示す。図8は、図6のメニュー画面において、音韻「さ」がターゲットとして指定された場合の例を示している。また、図7,図8とも、ターゲットの音韻の位置として語頭、語中、語尾が全て指定された場合の例を示している。マークFが表示されている単語が現在対象の単語である。ロボット1は、例えば「後に続いて言ってください。」とアナウンスした後、この対象の単語を、S4で設定された再生速度で再生する。なお、提示されるものは単語でも文でもよいし、提示される単語は意味のある単語だけでなく、「なだなだなだ」等、無意味語でもよい。
患者は、再生された単語の後に続いて、その単語を読み上げる。この音声はマイクロホン114を介して入力され、例えばRAM102に記録される(S6)。また、実施形態において、ロボット1は、この記録した音声をただちに再生出力してもよい。これにより患者は自分の発声を確認することができる。
ロボット1は、S6で入力した音声に対して、音声認識を実行する(S7)。音声認識は、例えば次のように行われる。まず、入力音声が、LPCメルケプストラム等のパラメータのベクトル系列に変換される。次に、パラメータベクトルに対し音響モデルを作用させて、音韻ごとの尤度(音韻類似度)が算出される。その後、算出された音韻類似度に対し、単語辞書に登録されている各単語と照合することで各単語についてのスコア(単語尤度)が算出される。本実施形態では例えば、これらの単語尤度のうちの最大値が、認識結果として出力される。
音声認識完了後、認識結果のフィードバックを行う(S8)。例えば、認識結果として出力された最大単語尤度が所定のしきい値を上回れば正解とし、ロボット1が例えば「いいですね。」と音声合成により結果を提示する。一方、しきい値を上回らなければ、ロボット1は例えば「あと一息です。」と応答する。ここで、録音しておいた患者の発話を再生し、フィードバックしても構わない。
その後、認識結果を履歴として登録する(S9)。ここで、認識結果(単語尤度)は、実行日時、対象単語、再生速度等と関連付けられて履歴に登録される。
図7又は図8の「次へ」ボタンNがタップされ、未処理の対象単語がまだある場合は(S10、YES)、S5に戻り、次の対象単語について処理を繰り返す。対象単語について全て処理が完了した場合は、処理はS11に移行する。
S11では、収集された履歴情報に基づいて、評価値の計算を行う。例えば、ターゲット音「か」を含む単語の発話訓練を行った場合、評価値として、ターゲット音「か」の位置(語頭、語中、語尾)ごとの正解率、提示された単語の再生速度ごとの正解率を計算する。また、訓練実行日ごとの正解率も計算することができる。
その後、訓練評価結果を、例えばタブレット端末150に表示する(S12)。図9及び図10に表示例を示す。図9(a)は、ターゲット音「か」を含む単語の発話訓練を行った場合に表示される、ターゲット音「か」の位置(語頭、語中、語尾)ごとの正解率のグラフである。このグラフ表示によれば、特定の音韻の位置ごとに発音が正しくできるかどうかの判定が容易になる。図9(b)は、ターゲット音「か」を含む単語の発話訓練を行った場合に表示される、提示された単語の再生速度ごとの正解率のグラフである。また、図10は、訓練実施日ごとの正解率のグラフである。これらの表示によれば、訓練の効果を容易に把握することが可能になり、今後、正しく発音できないターゲット音に特化して訓練を行うことも可能になる。こうして、例えば構音障害者に対して効果的な言語リハビリテーションを行うのに有利な言語リハビリテーション支援装置が提供される。
上述の実施形態では、1単語を提示してそれを患者が復唱するようにしたが、一度に複数の単語を提示してそれを患者に復唱させるようにしてもよい。
10:言語リハビリテーション支援装置、101:CPU、112:スピーカ、114:マイクロホン、150:タブレット端末

Claims (10)

  1. ターゲットとする音韻の種類を指定するとともに、前記指定された種類の音韻の位置として語頭、語中、語尾のうちの少なくともいずれかを指定する指定手段と、
    前記指定された種類の音韻が前記指定された位置に存在する単語群から選択された単語を提示する提示手段と、
    前記提示された単語を被訓練者が読み上げた音声を認識する音声認識手段と、
    前記音声認識手段による認識結果の履歴に基づいて前記被訓練者の読み上げ音声に関する評価値を提供する提供手段と、
    を有することを特徴とする言語リハビリテーション支援装置。
  2. 前記提示手段は、前記選択された単語を再生する再生手段を含むことを特徴とする請求項1に記載の言語リハビリテーション支援装置。
  3. 前記選択された単語の再生速度を調整する調整手段を更に有することを特徴とする請求項2に記載の言語リハビリテーション支援装置。
  4. 前記被訓練者が読み上げた音声の録音及び再生を行う手段を更に有することを特徴とする請求項1に記載の言語リハビリテーション支援装置。
  5. 前記評価値は、正解率であることを特徴とする請求項1に記載の言語リハビリテーション支援装置。
  6. 前記提供手段は、前記音韻の位置ごとの正解率を表示することを特徴とする請求項5に記載の言語リハビリテーション支援装置。
  7. 前記提供手段は、前記再生速度ごとの正解率を表示することを特徴とする請求項5に記載の言語リハビリテーション支援装置。
  8. 前記提供手段は、訓練実施日ごとの正解率を表示することを特徴とする請求項5に記載の言語リハビリテーション支援装置。
  9. 言語リハビリテーション支援装置の制御方法であって、
    ターゲットとする音韻の種類を指定するとともに、前記指定された種類の音韻の位置として語頭、語中、語尾のうちの少なくともいずれかを指定する指定ステップと、
    前記指定された種類の音韻が前記指定された位置に存在する単語群から選択された単語を提示する提示ステップと、
    前記提示された単語を被訓練者が読み上げた音声を認識する音声認識ステップと、
    前記音声認識ステップでの認識結果の履歴に基づいて前記被訓練者の読み上げ音声に関する評価値を提供する提供ステップと、
    を有することを特徴とする言語リハビリテーション支援装置の制御方法。
  10. コンピュータを、請求項1乃至8のいずれか1項に記載の言語リハビリテーション支援装置が有する各手段として機能させるためのプログラム。
JP2014130657A 2014-06-25 2014-06-25 言語リハビリテーション支援装置及びその制御方法 Pending JP2016009133A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014130657A JP2016009133A (ja) 2014-06-25 2014-06-25 言語リハビリテーション支援装置及びその制御方法
US14/667,152 US20150380012A1 (en) 2014-06-25 2015-03-24 Speech rehabilitation assistance apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130657A JP2016009133A (ja) 2014-06-25 2014-06-25 言語リハビリテーション支援装置及びその制御方法

Publications (1)

Publication Number Publication Date
JP2016009133A true JP2016009133A (ja) 2016-01-18

Family

ID=54931210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130657A Pending JP2016009133A (ja) 2014-06-25 2014-06-25 言語リハビリテーション支援装置及びその制御方法

Country Status (2)

Country Link
US (1) US20150380012A1 (ja)
JP (1) JP2016009133A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021152786A1 (ja) * 2020-01-30 2021-08-05

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100024125A1 (it) 2021-09-21 2023-03-21 One Health Vision S R L Sistema per il trattamento di disturbi fonologici e della disartria

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021152786A1 (ja) * 2020-01-30 2021-08-05
WO2021152786A1 (ja) * 2020-01-30 2021-08-05 日本電信電話株式会社 訓練装置、その方法、およびプログラム

Also Published As

Publication number Publication date
US20150380012A1 (en) 2015-12-31

Similar Documents

Publication Publication Date Title
US10276164B2 (en) Multi-speaker speech recognition correction system
US20020086269A1 (en) Spoken language teaching system based on language unit segmentation
JP6172417B1 (ja) 語学学習システム及び語学学習プログラム
JPS63157184A (ja) 発音訓練装置
JP6158179B2 (ja) 情報処理装置および情報処理方法
JP5105943B2 (ja) 発話評価装置及び発話評価プログラム
JP6792091B1 (ja) 音声学習システム、および音声学習方法
JP2016009133A (ja) 言語リハビリテーション支援装置及びその制御方法
JP7376071B2 (ja) コンピュータプログラム、発音学習支援方法及び発音学習支援装置
US11386920B2 (en) Interactive group session computing systems and related methods
WO2014087571A1 (ja) 情報処理装置および情報処理方法
WO2020235089A1 (ja) 評価装置、訓練装置、それらの方法、およびプログラム
Morales et al. Speech-based human and service robot interaction: An application for Mexican dysarthric people
JP6150276B2 (ja) 発声評価装置、発声評価方法、及びプログラム
WO2021152786A1 (ja) 訓練装置、その方法、およびプログラム
JP2014240902A (ja) 学習支援装置
Grzybowska et al. Computer-assisted HFCC-based learning system for people with speech sound disorders
JP6957069B1 (ja) 学習支援システム
Zourmand et al. Intelligent malay speech therapy system
JP2006023758A (ja) 発音評価装置
JP2005241767A (ja) 音声認識装置
JP2023131648A (ja) システムおよびプログラム
JP7432879B2 (ja) 発話トレーニングシステム
JP7060857B2 (ja) 語学習得装置及び語学習得プログラム
JP2014202963A (ja) リハビリテーション支援装置及びその制御方法