DE4403496A1 - Berichtssystem für kategorisierten Testposten - Google Patents
Berichtssystem für kategorisierten TestpostenInfo
- Publication number
- DE4403496A1 DE4403496A1 DE4403496A DE4403496A DE4403496A1 DE 4403496 A1 DE4403496 A1 DE 4403496A1 DE 4403496 A DE4403496 A DE 4403496A DE 4403496 A DE4403496 A DE 4403496A DE 4403496 A1 DE4403496 A1 DE 4403496A1
- Authority
- DE
- Germany
- Prior art keywords
- test
- answers
- resolver
- items
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012360 testing method Methods 0.000 title claims description 159
- 230000004044 response Effects 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 16
- 239000000463 material Substances 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000004090 dissolution Methods 0.000 description 3
- 238000011056 performance test Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 235000010678 Paulownia tomentosa Nutrition 0.000 description 1
- 240000002834 Paulownia tomentosa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 208000002352 blister Diseases 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/06—Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers
- G09B7/066—Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers with answer indicating cards, blocks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
Die vorliegende Erfindung betrifft ein System zur Verarbei
tung von Antworten zu Testfragen.
Das Bewerten von Testantwortbögen bringt komplexe Probleme
mit sich. Diese Testantwortbögen schließen typischerweise ei
ne Reihe von Antwortpositionen ein, wie beispielsweise "Bla
sen", Ovale oder Rechtecke. Eine an einem Test teilnehmende
Person streicht beispielsweise ein passendes Oval mit einem
Stift an, um eine Multiple-Choice-Frage zu beantworten. Die
se Testantwortbögen können auch handgeschriebene Antworten
einschließen, wie Aufsatz- oder Kurzantwortfragen. Systeme
zum Abtasten und Bewerten der Blasen auf derartigen Testant
wortbögen sind in Fachkreisen bekannt. Erhöhte Schwierigkei
ten werden jedoch aufgeworfen, wenn derartige Antwortbögen
entweder andere Arten von Antworten einschließen, wie hand
geschriebene Antworten, oder nicht maschinell eingestuft wer
den können. Falls beispielsweise der Student vergessen hat,
seinen Namen auf dem Testantwortbogen einzutragen, kann das
System unfähig sein, die Testantwort maschinell zu bewerten.
Die Ziele beim Bewerten von Testantworten, die nicht maschi
nell bewertet werden können, schließen Effizienz und Konsis
tenz ein. Die Testantwortbögen werden typischerweise bewer
tet durch Testauflöser, indem entweder der physikalische
Testantwortbogen manuell bewertet wird oder eine elektroni
sche Darstellung des Testantwortbogens an einem Computer be
wertet wird. Idealerweise sollten die durch die verschiede
nen Testauflöser für eine besondere Testfrage versehenen Be
wertungen konsistent sein, da die Bewertungen beim Lei
stungsvergleich der Studenten untereinander verwendet wer
den. Zusätzlich sollte ein Testauflöser idealerweise effi
zient arbeiten, um konsistent hohe Bewertungsraten aufrecht
zuerhalten. Der Testauflöser sollte nicht eine so hohe Bewer
tungsrate aufweisen, daß die Konsistenz oder Qualität der Be
wertung signifikant abnimmt; ebenso sollte der Testauflöser
nicht eine so niedrige Bewertungsrate aufweisen, daß zu we
nig Antwortbögen bewertet werden. Dieses manuelle Bewerten
von Testantwortbögen macht es jedoch schwierig, die Bewer
tungskonsistenz unter den verschiedenen Testauflösern zu
überwachen.
In vielen Situationen reisen Testauflöser tatsächlich an ei
nen besonderen Ort, so daß alle Testauflöser gleichzeitig
Testantwortbögen bewerten können. Von den Testauflösern zu
verlangen, an einen gegebenen Ort zu reisen, ist unbequem
für die Auflöser und kostspielig für diejenigen, welche die
Tests verwalten. Darüber hinaus kann das Verfolgen der Lei
stung von Testauflösern gegenüber sowohl ihrer eigenen Lei
stung als auch der Leistung anderer Auslöser sehr schwierig
sein mit einer manuellen Bewertungsumgebung.
Der Prozeß des Auflösens von Testfragen wird gegenwärtig ma
nuell durchgeführt, und dies bringt Probleme mit sich. Einem
Auflöser werden die tatsächlichen Testantwortbögen zur Bewer
tung manuell vorgelegt. Dieses Verfahren ist relativ un
effizient, da die Auflöser die Antwortbögen einzeln und in
der Reihenfolge, in der sie vorgelegt werden, bewerten müs
sen. Auch besitzen manuelle Bewertungssysteme nicht die Fä
higkeit, die Testantworten zur nachfolgenden Analyse effi
zient zu sammeln und zu kategorisieren. Daher ist es mit ei
nem manuellen System sehr schwierig zu bestimmen, wie Lehrme
thoden geändert werden sollten, um beispielsweise die Anzahl
von falschen Antworten zu senken.
Es gibt somit eine Notwendigkeit für ein System, das Konsis
tenz und Effizienz beim Bewerten oder Auflösen von Tests för
dert und erzielt.
Das vorliegende Berichtssystem für einen kategorisierten
Testposten gruppiert Testantworten in vordefinierte
Kategorien zur Analyse und Durchsicht. Das System empfängt
eine Vielzahl von Antworten zu Testfragen. Die Antworten
umfassen jeweils eine elektronische Darstellung wenigstens
eines Teils eines Testantwortbogens. Das System unterteilt
die Antworten gemäß vordefinierten Kategorien und gliedert
dann die unterteilten Antworten in getrennte Gruppierungen.
Schließlich berichtet das System über die Antworten in den
Gruppierungen.
Die Erfindung wird im folgenden beispielhaft anhand der
Zeichnung beschrieben; in dieser zeigt:
Fig. 1 ein Diagramm eines Netzwerks, das die vorlie
gende Erfindung einschließt,
Fig. 2 ein Blockdiagramm eines Teils des in Fig. 1
gezeigten Netzwerks,
Fig. 3 ein Blockdiagramm der Abtastkonfiguration im
Netzwerk von Fig. 1,
Fig. 4 ein Blockdiagramm des Servers im Netzwerk
von Fig. 1,
Fig. 5 ein Flußdiagramm des Empfangens und Verarbei
tens von Testposten,
Fig. 6 ein Flußdiagramm des Mehrfachpostenbe
wertens,
Fig. 7 ein Flußdiagramm des Berichtens über einen
kategorisierten (speziellen) Posten,
Fig. 8-10 ein Flußdiagramm des Zusammenarbeitsbewer
tens,
Fig. 11 ein Flußdiagramm eines Qualitätspostenver
arbeitens,
Fig. 12 ein Flußdiagramm zur Auflöserüberwachung und
-rückkopplung,
Fig. 13 ein Flußdiagramm eines Online-Bewertungsfüh
rungssystems, und
Fig. 14 ein Beispiel einer Benutzerschnittstelle zur
Verwendung mit einer Mehrfachpostenbewer
tung.
In der folgenden ausführlichen Beschreibung der bevorzugten
Ausführungsform wird auf die begleitende Zeichnung Bezug ge
nommen, die einen Teil hiervon bildet und in der veranschau
lichend eine spezifische Ausführungsform gezeigt ist, in der
die Erfindung praktiziert werden kann. Diese Ausführungsform
wird ausreichend ausführlich beschrieben, um Fachleute in
die Lage zu versetzen, die Erfindung zu praktizieren, und an
dere Ausführungsformen können benutzt und strukturelle oder
logische Änderungen durchgeführt werden, ohne vom Rahmen der
vorliegenden Erfindung abzuweichen. Die folgende aus
führliche Beschreibung ist daher nicht in einem begrenzenden
Sinn zu verstehen, und der Rahmen der vorliegenden Erfindung
ist durch die beigefügten Ansprüche definiert.
Fig. 1 zeigt ein Beispiel einer Hardware-Konfiguration für
ein Netzwerk, das die vorliegende Erfindung einschließt. Die
se Konfiguration ist lediglich als ein Beispiel gezeigt; vie
le verschiedene Hardware-Konfigurationen sind verfügbar, wie
von einem Fachmann bemerkt, um die unten beschriebenen Soft
wareverarbeitungsfunktionen auszuführen. Das gezeigte Netz
werk umfaßt einen Mainframe-Computer 20, der durch einen
Haupt-Tokenring mit einer Vielzahl von RISC-Servern 11, 12
und 13 über eine Schnittstelle verbunden ist. Jeder RISC-Ser
ver ist mit einem Tokenring über eine Schnittstelle verbun
den, der Workstations und Abtastvorrichtungen enthält. Der
RISC-Server 1 ist in Tokenring 1 mit Abtastvorrichtungen 14
und Workstations 19 verbunden. Der RISC-Server 12 ist in To
kenring 2 mit einer Abtastvorrichtung 15 und Workstations 18
verbunden. Der RISC-Server 13 ist in Tokenring 3 mit Abtast
vorrichtungen 16 und Workstations 17 verbunden. Der
Mainframe-Computer 20 ist außerdem mit einem Drucker hoher
Kapazität 22 und einem Drucker niedriger Kapazität 21 verbun
den, um Berichte gespeicherter Daten innerhalb des Systems
zu drucken.
Das System verwendet die Abtastvorrichtungen, um Testantwort
bögen einzulesen. Diese Testantwortbögen können zum Beispiel
Testvordrucke mit "Blasen" oder Ovalen umfassen, die mögli
che Antworten, handgeschriebene Aufsätze oder andere ver
schiedene Arten geschriebener oder gedruckter Informationen
repräsentieren. Nach Empfang der abgetasteten Testdaten kann
das System innerhalb der RISC-Server diese abgetasteten
Testantwortbögen verarbeiten, um Testposten von Interesse
von den Antwortbögen zu erzeugen. Ein Testposten ist daher
eine elektronische Darstellung wenigstens eines Teils eines
Testantwortbogens. Das System kann diese Testposten an die
Workstations zur Online-Bewertung verteilen. Ein Testbewer
ter an einer Workstation kann dann den Testposten bewerten
und eine Testbewertung eingeben. Das System empfängt die
Testbewertungen über das Netzwerk und die RISC-Server und
verteilt die Bewertungen an geeignete Computer zum nachfol
genden Drucken und Berichten; der geeignete Computer kann
zum Beispiel den Mainframe-Computer 20 oder einen Server ein
schließen. Das System kann auch die Testbewertungen zu bei
spielsweise einer Platte oder Telefonleitung übertragen.
Fig. 2 ist ein ausführlicheres Blockdiagramm eines Teils des
in Fig. 1 gezeigten Netzwerks. Wie in Fig. 2 gezeigt, umfas
sen die in Fig. 1 gezeigten Abtasteinheiten typischerweise
eine Abtastvorrichtung 25, die mit einem Computer 24 und Per
sonal-Computer (PC) 26 über eine Schnittstelle verbunden
ist. Fig. 3 zeigt ein ausführlicheres Blockdiagramm einer Ab
tasteinheit. Die Abtastvorrichtung 25 enthält eine Kamera
31, um optisch einen Testantwortbogen einzulesen, und ent
hält ferner Logik 32 für optische Zeichenerkennung (OMR) zur
Verarbeitung der von der Kamera 31 empfangenen abgetasteten
Daten. Der PC 26, vorzugsweise ausgeführt als ein Hoch
leistungs-486-Niveau-PC, enthält einen Rahmenpuffer 23, der
die abgetasteten Bilddaten von der Abtastvorrichtung 25 emp
fängt.
Der Computer 24, bevorzugt ausgeführt als ein HP 1000, ist
mit der Abtastvorrichtung 25 und dem PC 26 über eine Schnitt
stelle verbunden, um den Betrieb der Abtasteinheit zu steu
ern. Der Computer 24 ist optional; das System kann alter
nativ so konfiguriert sein, daß sich die gesamte Funktionali
tät des Computers 24 innerhalb des PC′s 26 befindet. Der Com
puter 24 steuert die Abtastvorrichtung über die OMR-Logik 32
und steuert somit, wann Bilddaten eingetastet und nachfol
gend zum PC 26 übertragen werden. Der PC 26 wirkt im wesent
lichen als ein Puffer zum Halten der Bilddaten. Der Computer
24 steuert ferner, wann der PC 26 die Bilddaten zur Übertra
gung zu einem Server 27 zur nachfolgenden Verarbeitung und
Bewertung abfragt. Der PC 26 kann außerdem einen Bereich von
Interesse von den Bilddaten, der wenigstens einen Teil der
abgetasteten Testantwortbögen repräsentiert, entfernen oder
"ausschneiden".
Beispiele von zwei Systemen zum Speichern und Extrahieren
von Informationen von abgetasteten Bildern von Testantwortbö
gen sind in den US-Patentschriften No. 5 134 669 und No.
5 103 490 gezeigt, die durch Bezugnahme in die vorliegende
Anmeldung einbezogen sind, als ob vollständig dargelegt. Der
Server 27 empfängt die Bilddaten, die Testposten einschlie
ßen, und sorgt für Verarbeitung und Steuerung der Bilddaten.
Dieser Teil, der ein Testposten sein kann, wird dann an die
Workstations 28, 29 und 30 zur nachfolgenden Bewertung ver
teilt. Ein Testauflöser (Bewerter) an der Workstation emp
fängt typischerweise den Testposten, führt das Bewerten
durch und überträgt die Bewertung zum Empfangscomputer.
Fig. 4 ist ein Blockdiagramm der Hardware- und Software-Funk
tionen in einem Server im Netzwerk von Fig. 1. Ein Abtast
steuerungsmodul 31 ist mit dem Abtastvorrichtungs-PC 26 über
eine Schnittstelle verbunden und empfängt die Bilddaten. Die
Bilddaten werden in einer Rohpostendatenbank 36 gespeichert.
Die zentrale Anwendungsablage (CAR) 33 speichert typischer
weise Dokumentdefinitionen und Handhabungskriterien. Die Do
kumentprozeßwarteschlange 37 wirkt als ein Puffer hinein in
ein Hauptverarbeitungsmodul 45 in Server 27.
Das Hauptverarbeitungsmodul 45 steuert die Verarbeitung von
Testposten. Es steuert die Übertragung von Testposten zu den
Workstations zur Bewertung und Übertragung von Bewertungen
zum Mainframe-Computer 20. Das Hauptverarbeitungsmodul 45
überwacht auch die Leistung der Testauflöser, um konsisten
tes und effizientes Auflösen von Testposten, wie es unten er
klärt ist, aufrechtzuerhalten.
Das Hauptverarbeitungsmodul 45 enthält typischerweise die
folgenden grundlegenden Funktionen, die durch ein Systemma
nagementmodul 32 gesteuert werden. Ein Arbeitsflußmodul 38
empfängt Bilddaten von der Datenbank 36 und steuert den Da
tenfluß hinein in ein Editierprozeßmodul 39. Das Edi
tierprozeßmodul 39 kann maschinelles Bewerten der Testposten
durchführen. Für diejenigen Testposten, die nicht maschinell
bewertet werden können, oder möglicherweise für andere Test
posten überträgt das System derartige Testposten zur Auf
tragsaufbaufunktion 40. Die Auftragsaufbaufunktion 40 be
stimmt, welcher Typ nachfolgender Bewertung erforderlich ist
für den Testposten und, zum Beispiel, welche Workstation den
Testposten empfängt. Ein Auftragssendemodul 41 empfängt den
Testposten und überträgt ihn zu einer Leitvorrichtung 42,
die ihrerseits den Testposten zu einem Sende/Empfangs-
Kommunikationsmodul 43 überträgt. Ein Editierarbeitsmodul 34
und Editierservermodul 35 steuern den Fluß von Testposten in
den Server 27 hinein und aus diesem heraus. Ankommende Da
ten, wie Testantworten von der Workstation, werden durch die
Module 34 und 35 zu einem Auftragsempfangsmodul 44 übertra
gen. Das Auftragsempfangsmodul überträgt die Daten zum Edi
tierprozeßmodul 39 zur nachfolgenden Speicherung innerhalb
der Datenbank 36.
Fig. 5 ist ein Flußdiagramm eines typischen Abtastens und
Verarbeitens von Test- und Antwortbögen. Das
Dokumentverarbeitungssystem empfängt die Testantwortbögen,
oder anderen Dokumente, bei Schritt 50 und führt eine An
fangsschreibvorbereitung der Dokumente (Schritt 51) zur Abta
stung bei Schritt 52 durch. Das System tastet bei Schritt 52
die Dokumente für OMR und andere Bilddaten ab. Das System
kann dann die OMR-Blasen bei Schritt 53 verarbeiten und die
Daten im Arbeit-im-Ablauf-Speicher (WIP) bei Schritt 54 spei
chern. Das System kann bei Schritt 56 Bereiche von Interesse
vom abgetasteten Bild "ausschneiden". Der Schritt des "Aus
schneidens" bezieht mit ein, daß elektronisch, typischerwei
se in Software, ein Teil des Testpostens oder des abgetaste
ten Bilds entfernt wird. Diese "ausgeschnittenen" Bereiche
können irgendeinen Teil eines Testantwortbogens umfassen;
zum Beispiel einen handgeschriebenen Aufsatz oder ausgewähl
te Antwortpositionen. Das System kann auch Bilddaten direkt
von fremden Quellen empfangen, magnetisch oder elektronisch,
und die Daten in der Rohpostendatenbank 36 speichern. Nach
folgende Vorgänge auf den Daten sind die gleichen, ungeach
tet der Quelle der Daten. Nach dem "Ausschneiden" von Berei
chen von Interesse vom Bild speichert das System die Test
posten bei Schritt 57 im Arbeit-im-Ablauf-Speicher 55.
Das System wartet bei Schritt 55 bis es feststellt, daß ein
Testposten bereit ist, aufgelöst oder bewertet zu werden.
Falls Mehrfachauflösungsposten innerhalb der Bilddaten vor
liegen, wie bei Schritt 59 festgestellt, sendet das System
dann den Testposten zu einer Mehrfachpostenverarbeitung bei
Schritt 63. Andernfalls führt das System andere Auflösungs
prozesse auf den Daten bei Schritt 60 durch und speichert
das Resultat im Arbeit-im-Ablauf-Speicher 55 bei Schritt 61.
Andere Auflösungsprozesse können beispielsweise maschinelles
Bewerten, Rohtasteneingabe und analytisches Auflösen ein
schließen.
Analytisches Auflösen oder Bewerten kann zum Beispiel Bild
vergleiche wie bit-abgebildete Vergleiche zwischen zwei Test
posten einschließen. Die Abbildungsvergleiche erlauben einem
Testauflöser, zum Beispiel die Antworten eines Beantworters
über die Zeit zu vergleichen, um den Fortschritt des Beant
worters zu verfolgen. Zum Beispiel kann das analytische
Bewerten einbeziehen, daß zwei handgezeichnete Kreise von
dem Beantworter verglichen werden, um festzustellen, ob sich
die Genauigkeit des Beantworters beim Zeichnen von Kreisen
über die Zeit verbessert hat. Analytisches Bewerten kann
auch zum Beispiel einschließen, daß falsch buchstabierte Wör
ter und Interpunktionsfehler in einer Antwort wie einem Auf
satz eingekreist oder elektronisch angezeigt werden.
Fig. 6 ist ein Flußdiagramm eines typischen Mehrfach
postenverarbeitens. Bei Schritt 64 hob sich das System typi
scherweise zuerst ein Mehrfachpostenbild vom Arbeit-im-Ab
lauf-Speicher. Das Bild wird gespeichert in einem Mehrfach
postendarstellungsspeicher 65 und einem Mehrfach
postendarstellungsspeicher 69 zur nachfolgenden Darstellung
zu einem Auflöser. Das System fährt fort Mehrfachposten zu
empfangen, bis entweder die Postendarstellung voll ist, wie
bei Schritt 66 bestimmt, oder keine Mehrfachposten mehr vor
liegen, wie bei Schritt 68 bestimmt. Solange die Darstellung
nicht voll ist und zusätzliche Mehrfachposten vorhanden
sind, tastet das System bevorzugt den Arbeit-im-Ablauf-Spei
cher bei Schritt 67 für zusätzliche Posten ab. Wenn die Mehr
fachpostendarstellung voll ist oder keine Mehrfachposten
mehr vorliegen, sendet das System die zusammengestellten
Mehrfachposten zu einem Auflöser bei Schritt 70 und stellt
die Mehrfachtestposten auf der Auflöserdarstellung 71 dar.
Das System überträgt typischerweise Testposten zu einem spe
ziellen Auflöser gestützt auf die Auflösungsexpertise des
Auflösers. Zum Beispiel kann ein besonderer Auflöser angewie
sen sein, all die Testposten zu bewerten, die sich auf Wis
senschaftsfragen beziehen. Auflösungsexpertisen können auch
zum Beispiel Mathematik, Englisch, Geschichte, Geographie,
Fremdsprachen oder andere Themen umfassen.
Ein Beispiel einer Schnittstelle auf der Auflöserdarstellung
ist in Fig. 14 gezeigt. Die Schnittstelle umfaßt typischer
weise eine Vielzahl von Zellen 74, wobei jede Zelle einen
aufzulösenden Posten enthält. Nach Darstellen der Mehrfach
posten in den Zellen der Auflöserdarstellung erlaubt das Sy
stem dem Auflöser bei Schritt 72, die Mehrfachposten zu be
werten. Ein Testauflöser zeigt typischerweise die Bewertung
der Antworten an durch Verwendung einer "Maus", eines Licht
stifts, eines Berührungsschirms, einer Spracheingabe oder ei
ner anderen Art von Cursorsteuerung oder Eingabevorrichtung.
Im in Fig. 14 gezeigten Beispiel ist die richtige Antwort
"vier" und die falschen Antworten sind durch Schattierung an
gedeutet. Alternativ könnte ein Auflöser die richtigen Ant
worten bezeichnen. Der Vorteil des Mehrfachpostensystems
rührt her von der gleichzeitigen Darstellung von Testposten
in den Zellen 74, die einem Testauflöser erlaubt, schnell
viele Testposten zu bewerten und somit eine schnellere Ant
wortzeit im Vergleich zur Darstellung und Bewertung von le
diglich einem einzelnen Testposten zu einem Zeitpunkt zu er
zielen. Sogar die gleichzeitige Darstellung von zwei Posten
erhöht die Antwortzeit. Wenn die Matrix von Zellen größer
wird, erzielt die gleichzeitige Darstellung von Testposten
eine signifikante Erhöhung in Antwortzeit und Auflöserauf
merksamkeit und -fokussierung.
Nach dem Bewerten oder Auflösen empfängt das System die Re
sultate bei Schritt 73 zur nachfolgenden Speicherung im Ar
beit-im-Ablauf-Speicher 55. Ein Testauflöser überträgt typi
scherweise die Resultate des Auflösens aller dargestellten
Testposten in den Zellen als eine einzige Einheit zur Stapel
verarbeitung.
Fig. 7 ist ein typisches Flußdiagramm eines Berichts über ei
nen kategorisierten (speziellen) Posten. Berichten über ei
nen kategorisierten Posten erlaubt dem System, sowohl Antwor
ten gemäß vordefinierten Kategorien zu gruppieren, als auch
Prozesse zu überwachen, die von den Studenten oder Testteil
nehmern beim Erreichen einer gegebenen Antwort verwendet wer
den. Die Kategorien, in welche Testantworten gruppiert wer
den können, schließen zum Beispiel falsche Antworten und
richtige Antworten innerhalb einer Lehrgangseinheit inner
halb einer Unterrichtsgruppierung und angeforderter Zeitrah
men ein; zum Beispiel alle falschen Mathematikantworten in
einer besonderen Klasse eines Lehrers während des vorigen
Schuljahrs. Andere Gruppierungen sind möglich in Abhängig
keit von den Bedürfnissen der Testauflöser und Lehrer, die
das Material unterrichten, auf welches sich der Test be
zieht.
Zusätzlich kann das System ein Bild eines Testpostens mit
der entsprechenden Bewertung vermengen. Um ein Unterrichten
von Material, auf welches sich der Test bezieht, zu er
leichtern, vermengt das System typischerweise einen eine fal
sche Antwort darstellenden Testposten mit der entsprechenden
Bewertung. Durch Berichten über den vorliegenden Testposten
kann ein Lehrer Einsicht gewinnen in einen Denkprozeß, der
vom Studenten beim Erreichen der falschen Antwort verwendet
wird. Dadurch kann ein Lehrer dadurch, daß er etwas Kenntnis
darüber besitzt, warum ein Schüler eine Testfrage falsch be
antwortete, Maßnahmen ergreifen, um Unterrichtsstrategien zu
ändern oder zu modifizieren und somit die Situation zu ver
bessern.
Der Bericht über einen kategorisierten Posten umfaßt normal
erweise die folgenden Funktionen. Das System tastet bei
Schritt 75 den Arbeit-im-Ablauf-Speicher für Posten ab, die
dazu bereit sind, daß über sie berichtet wird. Falls Test
posten zum Berichten bereit sind, wie bei Schritt 76 be
stimmt, verarbeitet das System die Daten bei Schritt 77 zur
Erzeugung eines geeigneten Berichts über die Daten. Bei
Schritt 78 tastet das System die zentrale Anwendungsablage
für Definitionen kategorisierter (spezieller) Posten ab.
Wenn spezielle Posten zum Berichten erhältlich sind, wie bei
Schritt 79 bestimmt, erlangt das System die speziellen Po
sten wieder bei Schritt 80 und kann sie bei Schritt 81 mit
anderen Berichtsinformationen, wie die entsprechenden Test
posten, wie oben erklärt vermengen. Das System verteilt dann
einen Bericht bei Schritt 82, der einem gedruckten Bericht
darstellen kann.
Die Fig. 8-11 sind ein Flußdiagramm eines typischen Zusammen
arbeitsbewertungssystems. Das Zusammenarbeitsbewertungs
system schafft Funktionen, um Fairneß und Objektivität beim
Auflösen von Testposten zu erzielen. Die Zusammenar
beitsbewertung erlaubt zum Beispiel zwei Auflösern, den glei
chen Posten zu bewerten, und, falls die Antworten nicht in
nerhalb eines besonderen vordefinierten Bereichs liegen,
sorgt für nachfolgendes Verarbeiten, um die Diskrepanz aufzu
lösen.
Bei den Schritten 83 und 84 stellt das System fest, ob Po
sten zur Bewertung verfügbar sind. Bei Schritt 85 empfängt
das System Zusammenarbeitsbewertungsanforderungen von der Da
tenbank und stellt bei Schritt 86 fest, ob Zu
sammenarbeitsbewertung erforderlich ist. Beispiele von Zu
sammenarbeitsbewertungsanforderung sind unten dargestellt.
Falls Zusammenarbeitsbewertung spezifiziert worden ist, er
langt das System den zu bewertenden Posten wieder von der Ar
beit-im-Ablauf-Datenbank bei Schritt 87 und sendet den Po
sten zu Auflösern 1 und 2 bei den Schritten 88 und 91.
Das System ist ferner in der Lage, Auflöser gemäß Auswahl
kriterien bei den Schritten 89 und 90 auszuwählen. Die Aus
wahlkriterien der Auflöser zur Bewertung von Antworten kön
nen zum Beispiel Rasse, Geschlecht oder geographische Lage
einschließen. Die Fähigkeit des Systems, Testauflöser anzu
weisen, besondere Testposten zu bewerten, schafft die Grund
lage für erhöhte Fairneß und Konsistenz bei der Bewertung
von Tests. Zum Beispiel kann das System Testauflösern Test
posten zuweisen, und zwar gestützt auf die gleiche Rassen
klassifikation, was bedeutet, daß der Testauflöser die glei
che Rassenklassifikation wie der Student oder Beantworter be
sitzt, dessen Test der Auflöser bewertet. Das System kann au
ßerdem Testauflösern Testposten zuweisen, und zwar gestützt
auf eine unterschiedliche, verstärkt unterschiedliche oder
bevorzugte Mischung von Klassifikationen. Das System über
wacht die Konsistenz beim Bewerten gestützt auf die Auswahl
kriterien und kann, was wichtiger ist, die Auswahlkriterien
ändern, um konsistentes und faires Bewerten von Testposten
sicherzustellen.
Fig. 9 ist ein Flußdiagramm, das zusätzliche typische Funk
tionen der Zusammenarbeitsbewertung zeigt. Bei den Schritten
92 und 93 stellt das System die Posten den Auflösern 1 und 2
zur Bewertung dar. Das System kann ferner die Durch
schnittsbewertungen von Auflösern verfolgen und den gleichen
Testposten nicht zu zwei Auflösern senden, die Durch
schnittsbewertungen innerhalb eines vordefinierten Bereiches
geliefert haben. Dies hilft ebenfalls dabei, Konsistenz beim
Bewerten zu erzielen. Falls beispielsweise zwei Bewerter je
weils hohe Durchschnittsbewertungen in der Vergangenheit ge
liefert haben, wie durch das System bestimmt, sollten diese
zwei Bewerter bevorzugt nicht zusammenarbeitend die gleichen
Testposten bewerten, da es "aufgeblähte" Bewertungen für
besondere Testposten ergeben könnte.
Das System zeichnet die Bewertungen von den Auflösern 1 bzw.
2 bei den Schritten 94 bzw. 95 auf und speichert derartige
Bewertungen in einem temporären Speicher 96. Bei Schritt 97
vergleicht das System die Bewertungen gemäß Kriterien, die
in der zentralen Anwendungsablage spezifiziert sind. Derarti
ge Kriterien können zum Beispiel einschließen, daß gefordert
wird, daß die Bewertungen innerhalb eines vordefinierten Pro
zentsatzes voneinander liegen. Falls die Bewertungen die Kri
terien erfüllen, wie bei Schritt 98 festgestellt, zeichnet
das System die Bewertung in der Arbeit-im-Ablauf-Datenbank
bei Schritt 46 auf. Andernfalls, falls die Bewertungen nicht
die Kriterien erfüllen, stellt das System bei Schritt 99
fest, ob die Bewertungen der Auflöser übereinstimmen müssen.
Falls die ersten zwei Auflöserbewertungen nicht übereinstim
men müssen, überträgt das System dann bevorzugt den Test
posten zu einem dritten Auflöser, um die Diskrepanz in den
ersten zwei Bewertungen zu "heilen". Bei Schritt 100 stellt
das System fest, ob der dritte Auflöser die ersten Bewertun
gen sehen soll.
Fig. 10 zeigt zusätzliches typisches Verarbeiten der Zusam
menarbeitsbewertung. Falls die ursprünglichen Auflöser 1 und
2 bei einer Bewertung übereinstimmen müssen, führt das Sy
stem dann die Schritte 101-105 aus. Das System stellt dann
typischerweise zuerst jedem Auflöser die Bewertung des an
deren Auflösers bei den Schritten 101 und 102 dar, so daß je
der Auflöser die durch den anderen Auflöser bestimmte Be
wertung sehen kann. Bei Schritt 103 schafft das System eine
Kommunikation zwischen den zwei Auflösern. Eine derartige
Kommunikationsverbindung kann zum Beispiel eine Elektroni
sche-Post-Verbindung sein, so daß die Bewerter Informationen
hinsichtlich der Gründe hinter der geschaffenen Bewertung
austauschen können. Bei Schritt 104 arbeiten die Auflöser zu
sammen, um eine einzelne vereinbarte Bewertung für den Test
posten zu bestimmen. Das System kann die Auflöser 1 und 2 da
ran hindern, einen weiteren Testposten zu empfangen, bis sie
eine vereinbarte Bewertung für den vorhergehenden Testposten
eingegeben haben. Schließlich, bei Schritt 105, speichert
das System die vereinbarte Bewertung in der Arbeit-im-Ab
lauf-Datenbank.
Anstatt den Auflösern zu erlauben, zusammenzuarbeiten, um ei
ne vereinbarte Bewertung aufzuzeichnen, kann das System op
tional entweder einen größeren Wert der ersten und zweiten
Testbewertungen, einen niedrigeren Wert der ersten und zwei
ten Testbewertungen oder einen Durchschnittswert der ersten
und zweiten Testbewertungen aufzeichnen.
Falls die Zusammenarbeitsbewertungskriterien spezifizieren,
daß der dritte Auflöser die Diskrepanz durch Schiedsspruch
entscheiden und eine Bewertung bestimmen soll, stellt das
System dann Bewertungen dar von den Auflösern 1 und 2 bei
Schritt 106 für Auflöser 3. Der dritte Auflöser (Auflöser 3)
gibt dann typischerweise eine Bewertung für den Testposten
bei Schritt 107 ein, und das System zeichnet die Bewertung
in der Arbeit-im-Ablauf-Datenbank bei Schritt 108 auf.
Falls die Zusammenarbeitsbewertungsanforderung spezifiziert,
daß der dritte Auflöser die zwei ersten Bewertungen nicht se
hen soll, führt das System dann die Schritte 109-111 aus.
Bei Schritt 109 stellt das System den Testposten für den
dritten Auflöser dar. Der dritte Auflöser gibt dann typi
scherweise eine Bewertung bei Schritt 110 ein, und das Sy
stem zeichnet die Bewertung in der Arbeit-im-Ablauf-Daten
bank bei Schritt 111 auf.
Fig. 11 ist ein typisches Flußdiagramm der Verwendung von
Qualitätsposten im Bewertungsprozeß. Das System kann Quali
tätsposten verwenden, um die Genauigkeit des Bewertens für
ausgewählte Testauflöser zu prüfen und zu überwachen und so
mit konsistentes und hochqualitatives Bewerten von Test
posten aufrechtzuerhalten. Bei Schritt 112 bestimmt oder emp
fängt das System die Qualitätskriterien. Die Qualtitätskrite
rien können zum Beispiel einen vorbestimmten Testposten mit
einer bekannten "richtigen" Bewertung darstellen.
Das System wartet dann für eine festgelegte Qualitätsprüfung
bei Schritt 113. Bei der Qualitätsprüfung sendet das System,
bei Schritt 114, den bekannten Qualitätsposten zum festge
legten Auflöser. Bei Schritt 116 aktualisiert das System das
Qualitätsprofil des Auflösers gestützt auf die Auswertung
bei Schritt 115. Falls der Auflöser ein Qualitätsergebnis
empfangen soll, wie bei Schritt 117 bestimmt, stellt das Sy
stem das Qualitätsprofil dem Auflöser bei Schritt 118 dar.
Bei Schritt 119 sendet das System das Qualitätsprofil zu ei
nem Manager zur nachfolgenden Durchsicht. Bei Schritt 120 un
ternimmt das System Schritte, die erforderlich sind, um
Bewertungsgenauigkeit zu gewährleisten.
Fig. 12 ist ein Flußdiagramm einer typischen Auflöserüber
wachung und -rückkopplung. Die primären Faktoren bei der
Überwachungsleistung schließen typischerweise ein:
- (1) Gültigkeit;
- (2) Zuverlässigkeit und
- (3) Geschwindigkeit.
Beim
Überwachen dieser Faktoren fördert das System Bewertungs
wiederholbarkeit. Diese Faktoren können überwacht werden, in
dem eine Leistung eines Auflösers gegenüber vergangener Lei
stung des Auflösers oder gegenüber einem bekannten Ziel ver
folgt wird.
Gültigkeit wird typischerweise gemessen, indem festgestellt
wird, ob ein besonderer Auflöser den Bewertungsschlüssel
richtig auf Testposten anwendet oder, mit anderen Worten,
Testposten bewertet, wie ein Experte die gleichen Posten be
werten würde. Zuverlässigkeit wird typischerweise gemessen,
indem festgestellt wird, ob ein Besonderer den gleichen Test
posten auf die gleiche Weise über die Zeit (Schaffen von kon
sistenter Bewertung) auflöst. Geschwindigkeit wird typischer
weise gemessen, indem eine Bewertungsrate eines Auflösers
mit vergangenen Bewertungsraten des Auflösers oder anderen
Bewertungsraten, wie Durchschnittsbewertungsraten oder Fest
punktbewertungsraten, verglichen wird.
Bei Schritt 121 überwacht das System typischerweise kontinu
ierlich die Leistung eines Auflösers und aktualisiert die
Leistung. Überwachen der Leistung des Auflösers kann ein
schließen, wie oben erklärt, daß die Gültigkeit, Zuverlässig
keit und Geschwindigkeit beim Auflösen von Testposten des
Auflösers überwacht werden. Das System führt periodisch, ge
mäß vordefinierten Kriterien, Leistungsprüfungen der Test
auflöser durch. Vordefinierte Kriterien können bei
spielsweise einschließen: eine Zeitperiode; Rückfragen (wie
oft ein Auflöser seine eigene Arbeit auswertet); Erbitten
von Hilfe; die Anzahl von Übereinstimmungen unter mehreren
Auflösern; das Ausmaß von Abweichung zwischen der Bewertung
eines Auflösers und einer bekannten Bewertung, die bestimmt
werden kann unter Verwendung von Qualitätsposten; die Fre
quenz dieser Abweichungen; die Geschwindigkeit, mit welcher
ein Auflöser eine Antwort während des Auflösens von Test
posten eingibt; die Zeitlänge zwischen von einem Test
auflöser eingegebenen Bewertungen; eine vorhergehende Bewer
tungsrate eines Testauflösers, eine Durchschnittsbewer
tungsrate eines Testauflösers; Durchschnittsbewertungsraten
anderer Testauflöser; oder eine vorbestimmte Festpunktbewer
tungsrate.
Bei Schritt 122 stellt das System fest, ob es Zeit ist für
eine festgelegte Leistungsprüfung gemäß den vorbestimmten
Kriterien. Falls es Zeit ist für eine Leistungsprüfung, ver
gleicht das System bei Schritt 123 die gegenwärtige Leistung
eines Auflösers, wie bei Schritt 121 bestimmt, mit den
gespeicherten Leistungskriterien. Bei Schritt 124 stellt das
System fest, ob es eine Diskrepanz in der Leistung des Auflö
sers gemäß den vorbestimmten Kriterien gibt. Zum Beispiel
kann das System feststellen, ob die gegenwärtige Bewertungs
rate des Auflösers innerhalb eines vorbestimmten Prozentsat
zes der Durchschnittsbewertungsrate liegt, um effizientes Be
werten durch den Testauflöser sicherzustellen. Falls es kei
ne Diskrepanz gibt, kehrt das System zum Überwachen der Lei
stung des Auflösers zurück. Zusätzlich kann das System die
gegenwärtigen Leistungswerte des Auflösers zur späteren Ver
arbeitung speichern. Andernfalls berichtet das System über
die Diskrepanz bei Schritt 125.
Bei Schritt 126 stellt das System fest, ob es dem Auflöser
eine Unterbrechung beim Bewerten empfehlen soll. Falls gemäß
vorbestimmten Leistungskriterien das System eine Unter
brechung beim Bewerten empfehlen soll, signalisiert dann das
System dem Auflöser bei Schritt 128, das Bewerten anzuhal
ten. Vordefinierte Leistungskriterien können zum Beispiel Ab
weichungen in der Gültigkeit, Zuverlässigkeit oder Geschwin
digkeit des Auflösens von Testposten des Auflösers einschlie
ßen. Beispiele vordefinierter Leistungskriterien werden oben
bezüglich des Überwachens der Leistung des Auflösers gelie
fert.
Wenn der Auflöser das Bewerten stoppt, kann das System dem
Auflöser die Option liefern, Zerstreuungsaktivitäten zu er
bitten. Zerstreuungsaktivitäten sind dazu gedacht, dem Test
auflöser eine Ruheperiode und "Unterbrechung" vom Bewerten
zu verschaffen, um die Effizienz zu erhöhen. Beispiele von
Zerstreuungsaktivitäten schließen Computerspiele und Kreuz
worträtsel ein. Falls der Auflöser derartige Zerstreuungsak
tivitäten erbeten hat, wie bei Schritt 129 bestimmt, über
trägt das System dann eine Zerstreuungsaktivität zum Auflö
ser bei Schritt 130. Andernfalls kehrt das System zum Überwa
chen der Bewertungsrate des Auflösers zurück, wenn der Auflö
ser das Bewerten wieder aufnimmt.
Falls das System bei Schritt 126 nicht eine Unterbrechung
beim Bewerten, gestützt auf die Diskrepanz, empfiehlt, kann
das System dann optional dem Auflöser Zerstreuungsaktivitä
ten, wie bei Schritt 127 bestimmt, verschaffen. Falls der
Auflöser die Zerstreuungsaktivitäten empfangen soll, sendet
das System dann derartige Aktivitäten zum Auflöser bei
Schritt 130. Andernfalls kehrt das System zum Überwachen der
Bewertungsrate des Auflösers zurück.
Fig. 13 ist ein Flußdiagramm eines typischen Online-Bewer
tungsführungssystems. Der Online-Bewertungsführer erhöht die
Bewertungseffizienz, indem dem Auflöser erlaubt wird, Bewer
tungsregeln zu erbitten, um beim Bewerten eines besonderen
Testpostens zu helfen. In Erwiderung auf die Bitte stellt
das System Bewertungsregeln dar entsprechend einer Testfrage
für den gegenwärtig dem Auflöser dargestellten Testposten.
Einem Auflöser können so schnell spezifische Bewertungsre
geln online zur Verfügung stehen, während Testposten bewer
tet werden. Dies fördert Bewertungseffizienz und reduziert
unnötige Unterbrechungszeiten, die sich daraus ergeben, daß
bestimmt wird, wie ein besonderer Testposten zu bewerten
ist.
Bei Schritt 131 sendet das System einen Testposten zu einem
Auflöser zur Bewertung und stellt den Testposten bei Schritt
132 dar. Falls der Auflöser Bewertungsregeln erbeten hat,
wie bei Schritt 133 bestimmt, fragt das System dann einen ge
speicherten Bewertungsführer ab, um Bewertungsregeln ausfin
dig zu machen, die einer Testfrage für den gegenwärtig dem
Auflöser dargestellten Testposten entsprechen. Das System er
langt diese besonderen Bewertungsregeln wieder bei Schritt
135 und stellt sie dem Auflöser bei Schritt 136 dar. Das Sy
stem verwendet bevorzugt eine Mehrprogramm-Umgebung, um
gleichzeitig die Bewertungsregeln und den Testposten darzu
stellen. Bei Schritt 134 wartet das System darauf, daß der
Auflöser den Testposten bewertet. Bei Schritt 137 speichert
das System die Testbewertung eingegeben durch den Auflöser
hinein in den Arbeit-im-Ablauf-Speicher.
Wie oben beschrieben, ist die vorliegende Erfindung ein Sy
stem, das Testposten verarbeitet. Die verschiedenen Funktio
nen, die beim Verarbeiten der Testposten verwendet werden,
fördern effizientes, hochqualitatives und konsistentes Bewer
ten von Testposten.
Während die vorliegende Erfindung in Verbindung mit ihrer be
vorzugten Ausführungsform beschrieben worden ist, wird ver
standen werden, daß viele Modifizierungen Fachleuten leicht
ersichtlich sein werden, und diese Anwendung ist dazu ge
dacht, irgendwelche Anpassungen oder Variationen davon abzu
decken. Zum Beispiel kann eine unterschiedliche Hardware-Kon
figuration verwendet werden, ohne vom Rahmen der Erfindung
abzuweichen, und viele Variationen der beschriebenen Prozes
se können verwendet werden. Es ist deutlich beabsichtigt,
daß diese Erfindung nur durch die Ansprüche und deren
Äquivalente begrenzt ist.
Claims (7)
1. System zum Verarbeiten kategorisierter Antworten zu
Tests, um das Lehren von innerhalb der Tests enthaltenem
Material zu erleichtern, wobei das System umfaßt:
- a) Empfangsmittel, die elektronisch eine Vielzahl von Antworten zu Testfragen empfangen, wobei die Antwor ten jeweils eine elektronische Darstellung wenigstens eines Teils eines Testantwortbogens umfassen;
- b) Organisationsmittel, die elektronisch die Antworten gemäß vordefinierten Kategorien unterteilen und die unterteilten Antworten in getrennte Gruppierungen gliedern; und
- c) Berichtsmittel, die elektronisch über die Antworten in den Gruppierungen berichten.
2. System nach Anspruch 1, worin:
- a) das Organisationsmittel Mittel umfaßt, die elektro nisch in jeder der Gruppierungen ein Bild einer Ar beit eines Beantworters für die entsprechende kategorisierte Antwort einschließen; und
- b) das Berichtsmittel Mittel umfaßt, die über das Bild entsprechend den Gruppierungen berichten.
3. System nach Anspruch 1,
worin das Organisationsmittel Mittel umfaßt, die elektro
nisch die Antworten gemäß unrichtigen Antworten unter
teilen und die unterteilten unrichtigen Antworten in
getrennte Gruppierungen gliedern.
4. System nach Anspruch 1,
worin das Organisationsmittel Mittel umfaßt, die elektro
nisch die Antworten gemäß richtigen Antworten untertei
len und die unterteilten richtigen Antworten in getrenn
te Gruppierungen gliedern.
5. System nach Anspruch 1,
worin das Organisationsmittel Mittel umfaßt, die elektro
nisch die Antworten gemäß einem analytischen Auflösungs
prozeß unterteilen und die unterteilten Antworten in ge
trennte Gruppierungen gliedern.
6. System nach Anspruch 5,
worin das Organisationsmittel Mittel umfaßt, die elektro
nisch die Antworten gemäß Buchstabierungsfehlern unter
teilen und die unterteilten Antworten in getrennte Grup
pierungen gliedern.
7. System nach Anspruch 5,
worin das Organisationsmittel Mittel umfaßt, die elektro
nisch die Antworten gemäß Interpunktionsfehlern untertei
len und die unterteilten Antworten in getrennte Gruppie
rungen gliedern.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/014,108 | 1993-02-05 | ||
US08/014,108 US5433615A (en) | 1993-02-05 | 1993-02-05 | Categorized test item reporting system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4403496A1 true DE4403496A1 (de) | 1994-09-01 |
DE4403496B4 DE4403496B4 (de) | 2006-11-23 |
Family
ID=21763597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4403496A Expired - Lifetime DE4403496B4 (de) | 1993-02-05 | 1994-02-04 | Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen |
Country Status (5)
Country | Link |
---|---|
US (1) | US5433615A (de) |
CA (1) | CA2107413C (de) |
DE (1) | DE4403496B4 (de) |
GB (1) | GB2274932B (de) |
HK (1) | HK1002043A1 (de) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5987149A (en) | 1992-07-08 | 1999-11-16 | Uniscore Incorporated | Method for scoring and control of scoring open-ended assessments using scorers in diverse locations |
US5437554A (en) | 1993-02-05 | 1995-08-01 | National Computer Systems, Inc. | System for providing performance feedback to test resolvers |
US5537618A (en) * | 1993-12-23 | 1996-07-16 | Diacom Technologies, Inc. | Method and apparatus for implementing user feedback |
US5841655A (en) * | 1996-04-08 | 1998-11-24 | Educational Testing Service | Method and system for controlling item exposure in computer based testing |
WO1998025195A2 (en) | 1996-12-03 | 1998-06-11 | Ergolight Ltd. | Computerized apparatus and methods for identifying usability problems of a computerized system |
IL119746A (en) * | 1996-12-03 | 2000-06-01 | Ergolight Ltd | Computerized apparatus and methods for identifying usability problems of a computerized system |
GB2337844B (en) * | 1997-03-21 | 2001-07-11 | Educational Testing Service | System and method for on-line essay evaluation |
CA2284529C (en) * | 1997-03-21 | 2005-11-15 | Educational Testing Service | System and method for evaluating raters of scoring constructed responses to test questions |
US5991595A (en) * | 1997-03-21 | 1999-11-23 | Educational Testing Service | Computerized system for scoring constructed responses and methods for training, monitoring, and evaluating human rater's scoring of constructed responses |
US20020182579A1 (en) * | 1997-03-27 | 2002-12-05 | Driscoll Gary F. | System and method for computer based creation of tests formatted to facilitate computer based testing |
US7845950B2 (en) * | 1997-03-27 | 2010-12-07 | Educational Testing Service | System and method for computer based creation of tests formatted to facilitate computer based testing |
US6259890B1 (en) * | 1997-03-27 | 2001-07-10 | Educational Testing Service | System and method for computer based test creation |
US6175841B1 (en) * | 1997-07-17 | 2001-01-16 | Bookette Software Company | Computerized systems for producing on-line instructional materials |
US6173154B1 (en) | 1997-07-31 | 2001-01-09 | The Psychological Corporation | System and method for imaging test answer sheets having open-ended questions |
US6311040B1 (en) | 1997-07-31 | 2001-10-30 | The Psychological Corporation | System and method for scoring test answer sheets having open-ended questions |
US6112049A (en) * | 1997-10-21 | 2000-08-29 | The Riverside Publishing Company | Computer network based testing system |
US6267601B1 (en) | 1997-12-05 | 2001-07-31 | The Psychological Corporation | Computerized system and method for teaching and assessing the holistic scoring of open-ended questions |
US6988895B1 (en) | 2001-01-12 | 2006-01-24 | Ncs Pearson, Inc. | Electronic test item display as an image with overlay controls |
US20060014129A1 (en) * | 2001-02-09 | 2006-01-19 | Grow.Net, Inc. | System and method for processing test reports |
US6751351B2 (en) | 2001-03-05 | 2004-06-15 | Nsc Pearson, Inc. | Test question response verification system |
US6961482B2 (en) * | 2001-03-05 | 2005-11-01 | Ncs Pearson, Inc. | System for archiving electronic images of test question responses |
US6810232B2 (en) | 2001-03-05 | 2004-10-26 | Ncs Pearson, Inc. | Test processing workflow tracking system |
US6675133B2 (en) | 2001-03-05 | 2004-01-06 | Ncs Pearsons, Inc. | Pre-data-collection applications test processing system |
US20030064354A1 (en) * | 2001-09-28 | 2003-04-03 | Lewis Daniel M. | System and method for linking content standards, curriculum, instructions and assessment |
WO2003032274A1 (en) | 2001-10-05 | 2003-04-17 | Vision Works Llc | A method and apparatus for periodically questioning a user using a computer system or other device to facilitate memorization and learning of information |
US10347145B1 (en) | 2001-10-05 | 2019-07-09 | Vision Works Ip Corporation | Method and apparatus for periodically questioning a user using a computer system or other device to facilitate memorization and learning of information |
US7162198B2 (en) * | 2002-01-23 | 2007-01-09 | Educational Testing Service | Consolidated Online Assessment System |
US20030180703A1 (en) * | 2002-01-28 | 2003-09-25 | Edusoft | Student assessment system |
US8374540B2 (en) | 2002-03-15 | 2013-02-12 | Educational Testing Service | Consolidated on-line assessment system |
US20030207246A1 (en) * | 2002-05-01 | 2003-11-06 | Scott Moulthrop | Assessment and monitoring system and method for scoring holistic questions |
US8892895B1 (en) | 2002-05-07 | 2014-11-18 | Data Recognition Corporation | Integrated system for electronic tracking and control of documents |
US6772081B1 (en) * | 2002-05-21 | 2004-08-03 | Data Recognition Corporation | Priority system and method for processing standardized tests |
AU2003239936A1 (en) * | 2002-05-31 | 2003-12-19 | Vsc Technologies, Llc | System for scoring scanned test answer sheets |
US8128414B1 (en) | 2002-08-20 | 2012-03-06 | Ctb/Mcgraw-Hill | System and method for the development of instructional and testing materials |
JP3854210B2 (ja) * | 2002-09-11 | 2006-12-06 | 富士通株式会社 | アンケート方法、アンケート装置、アンケートプログラム、アンケートプログラムを記録したコンピュータ読み取り可能な記録媒体及び回答者端末 |
US20040064472A1 (en) * | 2002-09-27 | 2004-04-01 | Oetringer Eugen H. | Method and system for information management |
US8385811B1 (en) | 2003-02-11 | 2013-02-26 | Data Recognition Corporation | System and method for processing forms using color |
CA2516160A1 (en) * | 2003-02-14 | 2004-09-02 | Ctb/Mcgraw-Hill | System and method for creating, assessing, modifying, and using a learning map |
US6993818B2 (en) * | 2003-03-17 | 2006-02-07 | Memx, Inc. | Multi-fixture assembly of cutting tools |
US20040230825A1 (en) * | 2003-05-16 | 2004-11-18 | Shepherd Eric Robert | Secure browser |
US8155578B2 (en) * | 2004-05-14 | 2012-04-10 | Educational Testing Service | Method and system for generating and processing an assessment examination |
US7980855B1 (en) | 2004-05-21 | 2011-07-19 | Ctb/Mcgraw-Hill | Student reporting systems and methods |
US8170466B2 (en) * | 2005-05-27 | 2012-05-01 | Ctb/Mcgraw-Hill | System and method for automated assessment of constrained constructed responses |
US20070009871A1 (en) * | 2005-05-28 | 2007-01-11 | Ctb/Mcgraw-Hill | System and method for improved cumulative assessment |
US20070031801A1 (en) * | 2005-06-16 | 2007-02-08 | Ctb Mcgraw Hill | Patterned response system and method |
US20070111182A1 (en) * | 2005-10-26 | 2007-05-17 | International Business Machines Corporation | Method and system for distributing answers |
CA2524527A1 (en) * | 2005-10-26 | 2007-04-26 | Ibm Canada Limited - Ibm Canada Limitee | Systems, methods and tools for facilitating group collaborations |
CA2525267A1 (en) * | 2005-10-28 | 2007-04-28 | Ibm Canada Limited - Ibm Canada Limitee | Systems, methods and tools for aggregating subsets of opinions from group collaborations |
US20080227080A1 (en) * | 2007-03-14 | 2008-09-18 | Gekl Technologies, Inc. | Student assessment system |
US8649601B1 (en) | 2007-10-22 | 2014-02-11 | Data Recognition Corporation | Method and apparatus for verifying answer document images |
US8526055B1 (en) | 2007-10-22 | 2013-09-03 | Data Recognition Corporation | Standardized test and survey imaging system |
US8488220B1 (en) | 2007-10-22 | 2013-07-16 | Data Recognition Corporation | Method and apparatus for calibrating imaging equipment |
US9195875B1 (en) | 2007-10-22 | 2015-11-24 | Data Recognition Corporation | Method and apparatus for defining fields in standardized test imaging |
US8738659B1 (en) | 2007-10-22 | 2014-05-27 | Data Recognition Corporation | Method and apparatus for managing priority in standardized test and survey imaging |
CN102923252B (zh) * | 2012-11-14 | 2014-12-31 | 武汉南华高速船舶工程股份有限公司 | 全回转舵桨装置安装方法 |
CN103101612B (zh) * | 2013-01-30 | 2015-03-25 | 福建东南造船有限公司 | 一种全回转舵桨基座安装方法 |
JP2018141846A (ja) * | 2017-02-27 | 2018-09-13 | 株式会社リコー | 情報処理装置、プログラム、情報処理システム及び情報処理方法 |
RU2657228C1 (ru) * | 2017-03-13 | 2018-06-08 | Частное образовательное учреждение высшего образования "Московский Университет им. С.Ю. Витте" | Способ оценки соответствия компетенций обучаемого заданному уровню |
CN107492275A (zh) * | 2017-09-07 | 2017-12-19 | 李卫东 | 辅助学习方法及装置 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3405457A (en) * | 1965-10-23 | 1968-10-15 | Univ Illinois | Versatile display teaching system |
US3538626A (en) * | 1968-02-16 | 1970-11-10 | Response Systems Corp | Student-responder apparatus |
US3762072A (en) * | 1971-07-16 | 1973-10-02 | Lerali Sa | Apparatus for the individual and automatic monitoring of replies given under examination |
US4151659A (en) * | 1978-06-07 | 1979-05-01 | Eric F. Burtis | Machine for teaching reading |
US4798543A (en) * | 1983-03-31 | 1989-01-17 | Bell & Howell Company | Interactive training method and system |
US4648062A (en) * | 1985-02-01 | 1987-03-03 | International Business Machines Corporation | Method for providing an on line help facility for interactive information handling systems |
US4845739A (en) * | 1985-07-10 | 1989-07-04 | Fdr Interactive Technologies | Telephonic-interface statistical analysis system |
US4908759A (en) * | 1985-08-29 | 1990-03-13 | Bell Communications Research, Inc. | Hierarchical database conversion with conditional write |
US4671772A (en) * | 1985-10-22 | 1987-06-09 | Keilty, Goldsmith & Boone | Performance appraisal and training system and method of utilizing same |
US4930077A (en) * | 1987-04-06 | 1990-05-29 | Fan David P | Information processing expert system for text analysis and predicting public opinion based information available to the public |
US4867685A (en) * | 1987-09-24 | 1989-09-19 | The Trustees Of The College Of Aeronautics | Audio visual instructional system |
US4996642A (en) * | 1987-10-01 | 1991-02-26 | Neonics, Inc. | System and method for recommending items |
US4895518A (en) * | 1987-11-02 | 1990-01-23 | The University Of Michigan | Computerized diagnostic reasoning evaluation system |
US4878175A (en) * | 1987-11-03 | 1989-10-31 | Emtek Health Care Systems | Method for generating patient-specific flowsheets by adding/deleting parameters |
US5147205A (en) * | 1988-01-29 | 1992-09-15 | Gross Theodore D | Tachistoscope and method of use thereof for teaching, particularly of reading and spelling |
US5100329A (en) * | 1990-06-22 | 1992-03-31 | Deesen Kenneth C | Computer assisted coaching method |
EP0404904A4 (en) * | 1988-11-10 | 1992-04-08 | Response Technologies, Inc | Expert data collection, analysis, and response system and method |
US5072383A (en) * | 1988-11-19 | 1991-12-10 | Emtek Health Care Systems, Inc. | Medical information system with automatic updating of task list in response to entering orders and charting interventions on associated forms |
US4958284A (en) * | 1988-12-06 | 1990-09-18 | Npd Group, Inc. | Open ended question analysis system and method |
US5105354A (en) * | 1989-01-23 | 1992-04-14 | Nippon Kayaku Kabushiki Kaisha | Method and apparatus for correlating respiration and heartbeat variability |
US5002491A (en) * | 1989-04-28 | 1991-03-26 | Comtek | Electronic classroom system enabling interactive self-paced learning |
US5011413A (en) * | 1989-07-19 | 1991-04-30 | Educational Testing Service | Machine-interpretable figural response testing |
US5059127A (en) * | 1989-10-26 | 1991-10-22 | Educational Testing Service | Computerized mastery testing system, a computer administered variable length sequential testing system for making pass/fail decisions |
US5195033A (en) * | 1990-06-08 | 1993-03-16 | Assessment Systems, Inc. | Testing system including removable storage means for transfer of test related data and means for issuing a certification upon successful completion of the test |
US5204813A (en) * | 1990-06-08 | 1993-04-20 | Assessment Systems, Inc. | Computer-controlled testing process and device for administering an examination |
US5134669A (en) * | 1990-06-13 | 1992-07-28 | National Computer Systems | Image processing system for documentary data |
US5103490A (en) * | 1990-06-13 | 1992-04-07 | National Computer Systems, Inc. | Method and apparatus for storing and merging multiple optically scanned images |
US5180309A (en) * | 1990-12-04 | 1993-01-19 | United States Of America As Represented By The Secretary Of The Navy | Automated answer evaluation and scoring system and method |
JPH04241381A (ja) * | 1991-01-16 | 1992-08-28 | Brother Ind Ltd | 電子学習機 |
US5259766A (en) * | 1991-12-13 | 1993-11-09 | Educational Testing Service | Method and system for interactive computer science testing, anaylsis and feedback |
US5294229A (en) * | 1992-01-27 | 1994-03-15 | Jonathan Hartzell | Teacher and parent interactive communication system incorporating pocket sized portable audio numeric terminals |
US5302132A (en) * | 1992-04-01 | 1994-04-12 | Corder Paul R | Instructional system and method for improving communication skills |
US5321611A (en) * | 1993-02-05 | 1994-06-14 | National Computer Systems, Inc. | Multiple test scoring system |
-
1993
- 1993-02-05 US US08/014,108 patent/US5433615A/en not_active Expired - Lifetime
- 1993-09-30 CA CA002107413A patent/CA2107413C/en not_active Expired - Lifetime
-
1994
- 1994-02-04 GB GB9402184A patent/GB2274932B/en not_active Expired - Lifetime
- 1994-02-04 DE DE4403496A patent/DE4403496B4/de not_active Expired - Lifetime
-
1998
- 1998-02-11 HK HK98101061A patent/HK1002043A1/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
DE4403496B4 (de) | 2006-11-23 |
HK1002043A1 (en) | 1998-07-24 |
US5433615A (en) | 1995-07-18 |
GB2274932A (en) | 1994-08-10 |
CA2107413C (en) | 2003-12-09 |
CA2107413A1 (en) | 1994-08-06 |
GB2274932B (en) | 1997-08-13 |
GB9402184D0 (en) | 1994-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4403496B4 (de) | Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen | |
DE4403495B4 (de) | Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen | |
DE4403497B4 (de) | Verfahren und Vorrichtung zur Verarbeitung von Antworten zu Testfragen | |
DE69717659T2 (de) | Automatische prüfung und elektronisches system für die vermittlung des lehrstoffes und die verwaltung der studenten | |
Adelman | Women at thirtysomething: Paradoxes of attainment | |
Bredeson et al. | Responding to the education reform agenda: A study of school superintendents' instructional leadership. | |
DE69324924T2 (de) | Interaktives computerunterstuetzes natuerliches lernverfahren und-geraet | |
DE112015001306T5 (de) | Automatische Bewerbungsgespräch-Frageempfehlung und Bewerbungsgesprächs-Frageanalyse | |
EP1574983A2 (de) | Verfahren und System zum Erfassen der Ergebnisse eines psychologischen Tests | |
DE112020007373T5 (de) | Verfahren und Vorrichtung zum intelligenten Vermitteln von Empfehlungen | |
DE69425336T2 (de) | Bildschirmarbeitsplatz, system und verfahren für eine pädagogische multimedia-anwendung | |
Ramsower | Telecommuting: An investigation of some organizational and behavioral effects of working at home | |
Black | Faculty support for distance education in a conventional university | |
Tatnall | Information technology and the management of Victorian schools—providing flexibility or enabling better central control? | |
Lauer | THE EFFECTS OF VARIATIONS IN INFORMATION COMPLEXITY AND FORM OF PRESENTATION ON PERFORMANCE FOR AN INFORMATION EXTRACTION TASK (MANAGEMENT INFORMATION, USER/SYSTEM INTERFACE, GRAPHICS, DECISION-SUPPORT) | |
EP1227454B1 (de) | Verfahren zur Zusammenstellung eines Testes mit Hilfe einer Datenverarbeitungsanlage | |
Claiborne | The factor structure inherent in generalizable workforce skills needed for the future | |
DE202022104194U1 (de) | Ein System zur Organisation einer Jobmesse, um Studenten bei der Suche nach einem Arbeitsplatz zu unterstützen | |
Fielding | Mproving Curriculum and Assessment Through a School-University Partnership | |
Kaiser | Differences in response patterns in a mixed mode–online/paper & pencil business survey | |
Lawson | DESIGNING ENGAGING ONLINE ASSESSMENTS TO REDUCE CONTRACT CHEATING IN HIGHER EDUCATION | |
Joyner | The development of a metric for assessing the information complexity of time-series business graphs | |
Ellis | Computer training needs of Fortune 500 companies in selected south-central United States | |
DE10061469C2 (de) | Verfahren und System zur Auskunftserteilung über ein Kommunikationsnetz | |
Kemm | The effects of using information technology to support evaluation of feedback and implementation of adjustments in an organization's strategic planning process |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right | ||
R071 | Expiry of right |