TWI679654B - 自動化聽知覺評估方法 - Google Patents

自動化聽知覺評估方法 Download PDF

Info

Publication number
TWI679654B
TWI679654B TW107126071A TW107126071A TWI679654B TW I679654 B TWI679654 B TW I679654B TW 107126071 A TW107126071 A TW 107126071A TW 107126071 A TW107126071 A TW 107126071A TW I679654 B TWI679654 B TW I679654B
Authority
TW
Taiwan
Prior art keywords
sound
module
subject
picture
evaluation
Prior art date
Application number
TW107126071A
Other languages
English (en)
Other versions
TW202008384A (zh
Inventor
陳雅資
Original Assignee
陳雅資
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 陳雅資 filed Critical 陳雅資
Priority to TW107126071A priority Critical patent/TWI679654B/zh
Application granted granted Critical
Publication of TWI679654B publication Critical patent/TWI679654B/zh
Publication of TW202008384A publication Critical patent/TW202008384A/zh

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

一種自動化聽知覺評估方法適用於供一受試者受測,並包含一準備步驟、一評量步驟,及一計算步驟。該準備步驟提供一存有複數第一試題的評估裝置,每題第一試題具有一第一聲音,及複數各具有複數第一圖片的第一圖庫。該評量步驟是由該評估裝置選取一第一試題並播放該第一聲音,再於該等第一圖庫中各選取一第一圖片並同時顯示,該受試者依該第一聲音選擇其中一第一圖片產生一第一作答內容。該計算步驟是將一對應該第一試題的第一標準答案比對該第一作答內容,產生一第一結果。藉此,不需運用該受試者的口語能力,即可得到較準確的評估結果。

Description

自動化聽知覺評估方法
本發明是有關於一種評估方法,特別是指一種用於評估神經性腦傷患者知覺概念能力的自動化聽知覺評估方法。
概念能力為由知覺與動作經驗所共同建立的動態效果,是人類認知的重要組成部分,並為語言、物品辨識、動作計畫與思考的基礎。臨床治療師及研究人員一直以來皆相當重視神經性腦傷的評估與治療,許多神經性腦傷患者常合併有不同程度的認知障礙,了解神經性腦傷患者的概念能力將有助於釐清病症,以利後續治療的進行,因此,藉由了解神經性腦傷患者的認知程度,以得知患者的概念能力為進行治療前的重要步驟。
臨床上現有的評估神經性腦傷患者的工具,其所使用的語言仍以英文為主,較不適用於以中文或臺語為慣用語的患者。而近年由一位來自香港的華裔學者出版一套臺灣版的神經損傷患者概念能力的評估工具--The Main Concept Analysisfor oral discourse production(簡稱為MCA),可藉由分析受試者的口 語表達內容得知其概念能力。
然而,由於概念能力與語言能力習習相關,若受試者因神經損傷或其他因素而具有語言障礙,利用如MCA之以語言能力為主的評估工具評估其概念能力時,將可能因受試者無法以口語確實表達,而難以得到準確的評估結果。也就是說,MCA僅適用於具有口語表達能力的患者,難以適用於無口語能力或口語表達極為不佳的患者(如重度失語症患者等),而無法以口語表達的患者,其知覺概念能力仍為治療前須取得的重要訊息。因此,臨床上需要一套可控制或排除口語表達能力需求,僅以聽知覺刺激即能進行施測的概念能力評估工具。
因此,本發明之目的,即在提供一種採用非語言的方式評估知覺概念能力的自動化聽知覺評估方法。
於是,本發明自動化聽知覺評估方法適用於提供一受試者受測,並包含一準備步驟、一評量步驟,及一計算步驟。
該準備步驟提供一評估裝置,該評估裝置包含一伺服端,及一資訊連接該伺服端的使用端。該伺服端包括一儲存有複數第一試題的資料模組、一資訊連接該資料模組的處理模組,及一資訊連接該處理模組的儲存模組。該使用端包括一資訊連接該資料模 組的播音模組、一資訊連接該資料模組與該處理模組的顯示模組,及一資訊連接該顯示模組與該處理模組的輸入模組。每一題第一試題具有一個第一聲音,及複數與該第一聲音相關且分別具有複數第一圖片的第一圖庫。
該評量步驟包括一個第一評量子步驟,於該第一評量子步驟中,該伺服端自該資料模組中選取一題第一試題,並傳輸至該使用端由該受試者作答,該使用端自該播音模組播放該第一試題的第一聲音,並由該伺服端於對應該第一聲音的該等第一圖庫中分別隨機選擇一個第一圖片,再將該等第一圖片同時顯示於該顯示模組,接著由該受試者根據該第一聲音,藉由該輸入模組對應選擇一個第一圖片,再根據該受試者所選擇的該第一圖片產生一對應於該第一試題的第一作答內容,並輸入該處理模組。
該計算步驟包括一個第一計算子步驟,於該第一計算子步驟中,該處理模組根據一對應於該第一試題的第一標準答案比對該第一作答內容,產生一個第一結果,並儲存於該儲存模組中。
本發明之功效在於:利用該評估裝置選取並執行該第一試題,供該受試者根據該第一聲音對應選擇一個第一圖片,即可依序產生該第一作答內容及該第一結果,並藉所產生的該第一結果達到評估該受試者知覺概念能力的功效。由於過程中僅以聽覺及視覺進行評估,不需要運用到該受試者的口語能力即可進行評估,因 此對於無法以口語表達的患者而言,可產生較準確的評估結果。
11‧‧‧準備步驟
12‧‧‧評量步驟
121‧‧‧第一評量子步驟
122‧‧‧第二評量子步驟
13‧‧‧計算步驟
131‧‧‧第一計算子步驟
132‧‧‧第二計算子步驟
2‧‧‧評估裝置
21‧‧‧伺服端
211‧‧‧資料模組
212‧‧‧處理模組
213‧‧‧儲存模組
22‧‧‧使用端
221‧‧‧播音模組
222‧‧‧顯示模組
223‧‧‧輸入模組
31~34‧‧‧圖片
41~44‧‧‧圖片
51~54‧‧‧圖片
本發明之其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:圖1是一流程圖,說明本發明自動化聽知覺評估方法之一實施例;圖2是一方塊功能圖,說明本實施例的一準備步驟中所提供的一評估裝置;圖3是一示意圖,說明本實施例的一個第一評量子步驟的執行方式;圖4是一示意圖,說明本實施例的一個第二評量子步驟,並說明其中一個第二子試題的執行方式;及圖5是一示意圖,說明該第二評量子步驟中另一個第二子試題的執行方式。
參閱圖1與圖2,本發明自動化聽知覺評估方法之一實施例,適用於提供一受試者受測,並包含一準備步驟11、一評量步驟12,及一計算步驟13。該準備步驟11提供一評估裝置2,該評估 裝置2包含一伺服端21,及一資訊連接該伺服端21的使用端22。該伺服端21包括一儲存有多題第一試題及多題第二試題的資料模組211、一資訊連接該資料模組211的處理模組212,及一資訊連接該處理模組212的儲存模組213。該使用端22包括一資訊連接該資料模組211的播音模組221、一資訊連接該資料模組211與該處理模組212的顯示模組222,及一資訊連接該顯示模組222與該處理模組212的輸入模組223。
每題第一試題具有一個第一聲音,及多個與該第一聲音相關,且分別具有多個第一圖片的第一圖庫。在本實施例中,該等第一聲音為由人類或非人類發出的非語音而表達一訊息的環境聲音,如人類活動發出的非語言聲音、自然界的聲音、工具聲,或環境背景音等。
每題第二試題具有一個第二聲音,及多題對應該第二聲音,且分別具有多個第二圖庫的第二子試題,在本實施例中,每題第二試題分別具有四題第二子試題。其中,該等第二子試題的題目類型有地點、人物、物品、動作情境或聯想事物,而每個第二圖庫分別具有多個第二圖片。在本實施例中,該等第二聲音為以至少一個由人類或非人類發出的非語音表達一情境,或是由至少一個由人類或非人類發出的非語音配合至少一個語音,而表達一情境的情境聲音,如購物或搭車時週遭的聲音。
在本實施例中,每題第一試題分別具有四個第一圖庫,題目類型為地點、人物、物品或動作情境的該等第二子試題分別具有四個第二圖庫,每一個第一圖庫及每一個第二圖庫分別代表與該第一聲音或該第二聲音內容符合、與該第一聲音或該第二聲音內容語意相關、與該第一聲音或該第二聲音聲學特徵相關,及與該第一聲音或該第二聲音內容不相關四種不同的意義。
題目類型為聯想事物的該等第二子試題則分別具有二個第二圖庫,其中一個第二圖庫的該等第二圖片與該第二試題的第二聲音內容相關,另一個第二圖庫的該等第二圖片則與該第二試題的第二聲音內容不相關。然而,在實際執行時,該等第一圖庫及該等第二圖庫的數量與代表意義可依照評估需要而調整,而不以上述態樣為限。每個圖庫分別具有多個與所屬代表意義相關的圖片,以避免該受試者在多次以本實施例進行評估的過程中記住正確答案,進而影響評估結果,可提高本實施例的評估正確性。
在每題第一試題與每題第二子試題裡,與該第一聲音內容符合的該第一圖庫,及與該第二聲音內容符合的該第二圖庫中,分別具有發出該第一聲音或該第二聲音的對象圖片,例如該第一聲音或該第二聲音為救護車聲時,對應的該第一圖庫或該第二圖庫中則有救護車的圖片。與該第一聲音內容語意相關的該第一圖庫,及與該第二聲音內容語意相關的該第二圖庫中,為與救護車聲 具有相關潛在語意的對象圖片,例如急救箱、針筒等。
與該第一聲音聲學特徵相關的該第一圖庫,及與該第二聲音聲學特徵相關的該第二圖庫中,為以聲學合成軟體調整救護車聲的頻率、時長等聲學特徵,再根據調整後的聲音救護車聲找出類似的另一個聲音,並放入發出該聲音的對象圖片,例如警車、消防車等。與該第一聲音內容不相關的等第一圖庫,及與該第二聲音內容不相關的該第二圖庫中,則有排除與相對應的該第一聲音或相對應的該第二聲音內容符合、語意相關,及聲學特徵相關的圖片,例如電腦、電視等。與第二聲音內容相關的該第二圖庫中,則有聽到該第二聲音時所能聯想到的對象圖片,例如醫師、護理師等。
在該評量步驟12中,為確保該受試者已完全了解評估的流程,可在該受試者正式受測前,先在該評估裝置2的使用端22以文字顯示評估流程與題目,並播放預先錄製的指導語音輔助說明。接著由該伺服端21示範一示範題,再由該受試者試答一練習題,確認該受試者的應答情況,才讓該受試者正式受測。
為能使評估結果更全面化且更具鑑別度,於該評量步驟12中,將利用不同的題目種類,評估該受試者基礎與進階的知覺概念能力。因此,該評量步驟12包括一個第一評量子步驟121,及一個第二評量子步驟122,而於該第一評量子步驟121與該第二評量子步驟122中,將分別以種類不同的該第一試題與該第二試題進 行評估。
於該第一評量子步驟121中,該伺服端21自該資料模組211中隨機選取一題第一試題,並傳輸至該使用端22由該受試者作答。該使用端22自該播音模組221播放該第一試題的第一聲音,並由該伺服端21於對應該第一聲音的該等第一圖庫中分別隨機選擇一個第一圖片,再將該等第一圖片同時顯示於該顯示模組222,該等第一圖片的顯示位置為隨機分佈,避免該受試者依據顯示的規律性作答,進而影響評估結果的準確性。接著由該受試者在該第一聲音播放後,在一限定時間內以該輸入模組223,自該等第一圖片中選擇一個發出該第一聲音的對象圖片,再根據該受試者所選擇的該第一圖片產生一對應於該第一試題的第一作答內容,並將該第一作答內容輸入該處理模組212。
於該第二評量子步驟122中,該伺服端21自該資料模組211中隨機選取一個第二試題,並傳輸至該使用端22由該受試者作答,該使用端22自該播音模組221播放該第二試題的第二聲音,並由該伺服端21於對應該第二聲音的其中一個第二子試題的該等第二圖庫中,分別隨機選擇一個第二圖片,再將該等第二圖片同時顯示於該顯示模組222,該等第二圖片的顯示位置為隨機分佈,避免該受試者依據顯示的規律性作答,進而影響評估結果的準確性。
該受試者在該第二聲音播放後,在該限定時間內根據 該第二子試題的題目類型,以該輸入模組223自該等第二圖片中,選擇一個與該第二聲音直接相關或不相關的對象圖片。該第二子試題的題目類型若為地點、人物、物品或動作情境,該受試者須選擇一個與該第二聲音直接相關的對象圖片,題目類型若為聯想事物,則該受試者須選擇一個與該第二聲音不相關的對象圖片。依該受試者所選擇的該第二圖片,將產生一對應於該第二子試題的第二作答內容,並將該第二作答內容輸入該處理模組212。
執行該評量步驟12時,若該受試者在該第一聲音或該第二聲音播放後未在該限定時間內答題、受試者要求再播放一次該第一聲音或該第二聲音,或是播放該第一聲音或該第二聲音時受到外在噪音或事物干擾,該受試者可要求重新播放一次該第一聲音或該第二聲音,並以該受試者再次作答時所選擇的該第一圖片或該第二圖片為該作答內容,以排除可能影響評估結果的外在因素,並提高評估結果的準確性。在該評量步驟12中,可執行多次該第一評量子步驟121及該第二評量子步驟122,讓該受試者回答多個第一試題及多個第二試題並產生多個第一作答內容及多個第二作答內容,藉由增加可分析的該等第一作答內容及該等第二作答內容數量,提高評估結果的準確性。實際施測時,可根據該受試者的專注能力調整施測的該等第一試題及該等第二試題的數量,避免因該受試者作答時的注意力不足而影響評估結果。
該計算步驟13包括一個第一計算子步驟131,及一個第二計算子步驟132。於該第一計算子步驟131中,該處理模組212根據一對應於該第一試題的第一標準答案比對相該第一作答內容,產生一個代表意義為與該第一聲音內容符合、與該第一聲音內容語意相關、與該第一聲音聲學特徵相關,或與該第一聲音內容不相關的第一結果,並儲存於該儲存模組213中。於該第二計算子步驟132中,該處理模組212根據一對應於該第二子試題的第二標準答案比對該第二作答內容,產生一個代表意義為與該第二聲音內容符合、與該第二聲音內容語意相關、與該第二聲音聲學特徵相關、與該第二聲音內容不相關,或與該第二聲音內容相關的第二結果,並儲存於該儲存模組213中。
若該第一結果為與該第一聲音內容符合,或是題目類型為地點、人物、物品或動作情境的該第二結果為與該第二聲音內容符合,即代表該受試者選擇了符合題意的正面答案。又或者是題目類型為聯想事物的該第二結果為與該第二聲音內容不相關,也就代表該受試者的認知得以判斷所有選項,並選擇唯一一個與該第二聲音內容完全無關的反面答案,仍能藉此判斷該受試者有正確的知覺概念。如上所述的三種情況皆可視為答對一題,每答對一題即可得一分,該受試者所得的總分越高,表示其知覺概念能力越發完整。
藉由該評估裝置2執行上述步驟,可標準化評估流程, 並量化該受試者的知覺概念能力,使評估結果更為客觀,且一施測者不須花費大量時間學習評估流程與計分方式,即可以本實施例進行施測,可落實本實施例的臨床實用性與效率性。
參閱圖3,為本實施例的其中一種執行方式,以該第一聲音為救護車聲為例。該受試者聽到該第一試題播放的救護車聲,並可同時看見與該第一聲音內容符合的該第一圖庫中的一救護車的圖片31、與該第一聲音內容語意相關的該第一圖庫中的一急救箱的圖片32、與該第一聲音聲學特徵相關的該第一圖庫中的一警車的圖片33,及與該第一聲音內容不相關的該第一圖庫中的一電腦的圖片34。接著該受試者須從該等圖片31~34中選擇一個發出救護車聲的對象圖片。
參閱圖4,以該第二聲音為飛機降落聲為例。該受試者聽到該第二試題播放的飛機降落聲,並回答題目類型為地點的該第二子試題時,可同時看見與該第二聲音內容符合的該第二圖庫中的一機場的圖片41、與該第二聲音內容語意相關的該第二圖庫中的一客運站的圖片42、與該第二聲音聲學特徵相關的該第二圖庫中的一修車廠的圖片43,及與該第二聲音內容不相關的該第二圖庫中的一教室的圖片44。接著該受試者須從該等圖片41~44中,選擇一個可聽到飛機降落聲的地點的圖片。
參閱圖5,當該受試者回答題目類型為聯想事物的該第 二子試題時,可同時看見與該第二聲音內容相關的該第二圖庫中的一飛機的圖片51、一行李箱的圖片52、一機票的圖片53,及與該第二聲音內容不相關的該第二圖庫中的一牛的圖片54。接著該受試者須從該等圖片51~54中,選擇一個聽到飛機降落聲時不會聯想到的事物的圖片。
重新參閱圖3至圖5,於前述的該第一試題中,所對應產生的該第一作答內容若為該救護車的圖片31,則所產生的該第一結果為與該第一聲音內容符合。於前述的題目類型為地點的該第二子試題中,所對應產生的該第二作答內容若為該機場的圖片41,則所產生的該第二結果為與該第二聲音內容符合。於前述的題目類型為聯想事物的該第二子試題中,所對應產生的該第二作答內容若為該牛的圖片54,則所產生的該第二結果為與該第二聲音內容不相關。在前述的三種狀況中,該受試者可各得一分,表示該受試者對於該第一聲音或該第二聲音的認知正確。
若該第一或該等第二作答內容為其他圖片,表示該受試者對於該第一聲音或該第二聲音的認知,將依據該等第一圖片所對應的該第一圖庫及該等第二圖片所對應的該第二圖庫的代表意義,而有不同類型的錯誤,該施測者可再根據不同代表意義的分布狀況,進一步判斷該受試者的認知狀況。例如,該第一結果與該等第二結果集中在與該第一聲音或與該第二聲音聲學特徵相關,可能 表示該受試者的聽覺處理功能已出現異常,無法將正確的聲音訊號傳遞至高階中樞聽覺處理中心,進而影響作答。而該第一結果與該等第二結果若分散為不同的代表意義,無法顯示一特定趨勢時,表示該受試者可能因注意力不集中等因素,而多以猜測的方式作答。若該第一結果為與該第一聲音內容符合,但該等第二結果分別為不同類型的錯誤,則表示該受試者可能仍具有基礎的知覺概念能力,但高階的知覺概念能力已有部分損傷,進而影響該受試者的聽知覺處理表現。
綜上所述,本發明利用該評估裝置2選取並執行該等試題,供該受試者根據所播放的該第一聲音或該第二聲音對應選擇一個圖片,即可依序產生一個作答內容及一個結果,並藉所產生的該結果評估該受試者的知覺概念能力。過程中僅以聽覺及視覺進行評估,不需要運用到該受試者的口語能力即可進行評估,對於無法以口語表達的患者而言,可產生較準確的評估結果,故確實能達成本發明之目的。
惟以上所述者,僅為本發明之實施例而已,當不能以此限定本發明實施之範圍,凡是依本發明申請專利範圍及專利說明書內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。

Claims (9)

  1. 一種自動化聽知覺評估方法,適用於提供一受試者受測,並包含:一準備步驟,提供一評估裝置,該評估裝置包含一伺服端,及一資訊連接該伺服端的使用端,該伺服端包括一儲存有複數第一試題的資料模組、一資訊連接該資料模組的處理模組,及一資訊連接該處理模組的儲存模組,該使用端包括一資訊連接該資料模組的播音模組、一資訊連接該資料模組與該處理模組的顯示模組,及一資訊連接該顯示模組與該處理模組的輸入模組,每一題第一試題具有一個第一聲音,及複數與該第一聲音相關且分別具有複數第一圖片的第一圖庫;一評量步驟,包括一個第一評量子步驟,於該第一評量子步驟中,該伺服端自該資料模組中選取一題第一試題,並傳輸至該使用端由該受試者作答,該使用端自該播音模組播放該第一試題的第一聲音,並由該伺服端於對應該第一聲音的該等第一圖庫中分別選取一個第一圖片,再將該等第一圖片同時顯示於該顯示模組,接著由該受試者根據該第一聲音,藉由該輸入模組對應選取一個第一圖片,再根據該受試者所選取的該第一圖片產生一對應於該第一試題的第一作答內容,並輸入該處理模組;及一計算步驟,包括一個第一計算子步驟,於該第一計算子步驟中,該處理模組根據一對應於該第一試題的第一標準答案比對該第一作答內容,產生一個第一結果,並儲存於該儲存模組中。
  2. 如請求項1所述的自動化聽知覺評估方法,其中,該資料模組還儲存有複數第二試題,每一題第二試題具有一個第二聲音,及複數對應該第二聲音且分別具有複數第二圖庫的第二子試題,每一個第二圖庫具有複數第二圖片,該評量步驟還包括一個第二評量子步驟,於該第二評量子步驟中,該伺服端自該資料模組中選取一個第二試題,並傳輸至該使用端由該受試者作答,該使用端自該播音模組播放該第二試題的第二聲音,並由該伺服端於對應該第二聲音的其中一個第二子試題的該等第二圖庫中,分別選取一個第二圖片,再將該等第二圖片同時顯示於該顯示模組,由該受試者根據該第二聲音,藉由該輸入模組選取一對應該第二子試題的第二圖片,再根據該受試者所選取的該第二圖片產生一對應於該第二子試題的第二作答內容,並輸入該處理模組,該計算步驟還包括一個第二計算子步驟,於該第二計算子步驟中,該處理模組根據一對應於該第二子試題的第二標準答案比對該第二作答內容,產生一個第二結果,且儲存於該儲存模組中。
  3. 如請求項1或2所述的自動化聽知覺評估方法,其中,該等第一聲音為由人類或非人類發出的非語音,表達一訊息的環境聲音。
  4. 如請求項1或2所述的自動化聽知覺評估方法,其中,該等第一聲音是選自於人類發出的非語音、自然界的聲音、工具聲、環境背景音,或上述的組合。
  5. 如請求項2所述的自動化聽知覺評估方法,其中,該等第二聲音為以至少一由人類或非人類發出的非語音,表達一情境的情境聲音。
  6. 如請求項2所述的自動化聽知覺評估方法,其中,該等第二聲音為由至少一由人類或非人類發出的非語音及至少一語音相配合,而表達一情境的情境聲音。
  7. 如請求項1或2所述的自動化聽知覺評估方法,其中,在該評量步驟中,該受試者在該第一聲音播放後,須在一限定時間內選取一相對應的第一圖片。
  8. 如請求項2所述的自動化聽知覺評估方法,其中,在該評量步驟中,該受試者在該第二聲音播放後,須在該限定時間內選取一相對應的第二圖片。
  9. 如請求項2所述的自動化聽知覺評估方法,其中,該等第二子試題的題目類型是選自於地點、人物、物品、動作情境、聯想事物,或上述的組合。
TW107126071A 2018-07-27 2018-07-27 自動化聽知覺評估方法 TWI679654B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW107126071A TWI679654B (zh) 2018-07-27 2018-07-27 自動化聽知覺評估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107126071A TWI679654B (zh) 2018-07-27 2018-07-27 自動化聽知覺評估方法

Publications (2)

Publication Number Publication Date
TWI679654B true TWI679654B (zh) 2019-12-11
TW202008384A TW202008384A (zh) 2020-02-16

Family

ID=69582380

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107126071A TWI679654B (zh) 2018-07-27 2018-07-27 自動化聽知覺評估方法

Country Status (1)

Country Link
TW (1) TWI679654B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW505907B (en) * 1999-12-30 2002-10-11 Cerego Cayman Inc System, apparatus and method for maximizing effectiveness and efficiency of learning, retaining and retrieving knowledge and skills
TW200734981A (en) * 2006-01-17 2007-09-16 Ignite Learning Inc Multimedia standardized curriculum educational system & method of operation
US8437486B2 (en) * 2009-04-14 2013-05-07 Dan Wiggins Calibrated hearing aid tuning appliance
TW201530518A (zh) * 2014-01-28 2015-08-01 Taiwan Law Journal Co Ltd 具申論型選擇題組的法學題庫操作方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW505907B (en) * 1999-12-30 2002-10-11 Cerego Cayman Inc System, apparatus and method for maximizing effectiveness and efficiency of learning, retaining and retrieving knowledge and skills
TW200734981A (en) * 2006-01-17 2007-09-16 Ignite Learning Inc Multimedia standardized curriculum educational system & method of operation
US8437486B2 (en) * 2009-04-14 2013-05-07 Dan Wiggins Calibrated hearing aid tuning appliance
TW201530518A (zh) * 2014-01-28 2015-08-01 Taiwan Law Journal Co Ltd 具申論型選擇題組的法學題庫操作方法

Also Published As

Publication number Publication date
TW202008384A (zh) 2020-02-16

Similar Documents

Publication Publication Date Title
Januariza et al. Student’anxiety in learning speaking
Morgan et al. ‘It depends’: characterizing speech and language therapy for preschool children with developmental speech and language disorders
Di Nuovo et al. Assessment of cognitive skills via human-robot interaction and cloud computing
US20060003297A1 (en) Language disorder assessment and associated methods
CN108042147B (zh) 一种人格特质值测验的刺激信息编制方法
Sparks et al. The partners for change outcome management system: A both/and system for collaborative practice
Miller et al. Emotions in incidental language learning: An individual differences approach
Kambanaros et al. Profiling (specific) language impairment in bilingual children: Preliminary evidence from Cyprus
Luperto et al. Evaluating the acceptability of assistive robots for early detection of mild cognitive impairment
Liu et al. aiMSE: Toward an AI-based online mental status examination
Kearns et al. A systematic review of health dialog systems
Lund et al. Access to assessment? Legal and practical issues regarding psychoeducational assessment in children with sensory disabilities
Mojavezi The relationship between task repetition and language proficiency
Mujiono et al. The effect of verbal-linguistic intelligence and emotional intelligence on academic achievement of Indonesian EFL learners
Atal et al. Comparison of the anxiety levels of teacher candidates during actual and 360° video virtual reality presentations
TWI679654B (zh) 自動化聽知覺評估方法
KR101914736B1 (ko) 뇌질환 환자의 언어재활을 위한 온라인 평가 방법
Tilton-Bolowsky et al. Incorporating metacognitive strategy training into semantic treatment promotes restitutive and substitutive gains in naming: A single-subject investigation
Burmakina et al. Speech disorders testing: practices of European and Russian clinical linguistics
Cespedes-Simangas et al. Mobile application to improve the therapy process in children with delayed speech onset
US20240112810A1 (en) System for performing arabic aphasia tests on a patient
Gray et al. Research and the history of methodological flaws
Tabitha Legambi et al. Susan L. Bindon, DNP, RN, NPD-BC, CNE, CNE-cl, FAAN Institute for Educators Associate Dean for Faculty Development, University of Maryland, School of Nursing, Baltimore, MD, USA Megan Doede, PhD, RN University of Maryland, School of Nursing, Baltimore, MD, USA
McKay Language Sampling Methods for Early Adolescents with Specific Language Impairment
Bieńkowska DIAGNOSING SCHOOL READINESS OF HEARING-IMPAIRED CHILDREN