JP6750804B2 - 教師ロボットによるロボット動作プログラミング学習システム - Google Patents

教師ロボットによるロボット動作プログラミング学習システム Download PDF

Info

Publication number
JP6750804B2
JP6750804B2 JP2016218956A JP2016218956A JP6750804B2 JP 6750804 B2 JP6750804 B2 JP 6750804B2 JP 2016218956 A JP2016218956 A JP 2016218956A JP 2016218956 A JP2016218956 A JP 2016218956A JP 6750804 B2 JP6750804 B2 JP 6750804B2
Authority
JP
Japan
Prior art keywords
robot
learner
learning
motion
programming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016218956A
Other languages
English (en)
Other versions
JP2018077342A (ja
Inventor
周矢 高橋
周矢 高橋
Original Assignee
株式会社システムトランジスタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社システムトランジスタ filed Critical 株式会社システムトランジスタ
Priority to JP2016218956A priority Critical patent/JP6750804B2/ja
Publication of JP2018077342A publication Critical patent/JP2018077342A/ja
Application granted granted Critical
Publication of JP6750804B2 publication Critical patent/JP6750804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、教育の現場において教師ロボットによりロボット動作のプログラミングを教示するロボット動作プログラミング学習システムに関する。
従来、教育の現場では、学習者に対して定期的に複数の教科の授業が人間の教職員により行われている。ところが、社会環境における急速な技術発展により、生徒に教える内容が多様化、専門化している。例えば、近年では、コンピュータやインターネットに関連する技術を利用したICT「情報通信技術の略称であり、Information and Communication Technology(インフォメーション アンド コミュニケーション テクノロジー)」による新しい学習環境が現実に行われている。これにより、教職員は従来の授業とは異なる新しい学習環境に適応するため、ICT関連技術(パソコンの操作方法や通信ネットワークに関する情報等)を理解する必要があり、従来の教職員の能力以上のスキルが要求される状況が発生している。
また、外国語(例えば、英語)の教育においては、教職員は基本的に日本人であることが多く、外国語の意味や文法等は日本人の教職員でも確実に教えることができるが、実際の会話(外国語の発音や聴音)においては、十分な教育を学習者に対して行うことは困難であった。
さらに、近年では、AI(人工知能)の急速な進化により、ヒトの言語理解や推論能力が発達した人とコミュニケーションを図ることができる高機能ロボットが開発されており、このような高機能ロボットを用いて、単純な受付業務や介護業務を人の代わりに行うことが既に実用化され、広く社会に浸透しつつある。このような、高機能ロボットが人の代わりに行える業務は、技術的な革新に伴いさらに多くの業種に拡大化しつつある。
上述した高機能ロボットの運用として、認識機能(聴聞機能と、環境認識機能と)と、表現機能(発声機能と、動作機能と、表示機能)を有し、学習言語のみ聴聞・発声するロボットが、学習言語のみを用いて生徒の外国語能力を向上させる外国語会話学習システムが開示されている(特許文献1参照。)。
特開2014−145976号公報
上述した特許文献1の外国語会話学習システムは、専門の外国語に特化したロボット教師により、実際に役に立つ外国語教育を学習者に提供するだけのものである。しかしながら、近年のロボット関連技術の発達は目覚ましいものがあり、外国語教育以外の他分野においても、効率よく高機能ロボットを運用することが望まれている。
また、上述した高機能ロボットの急速な技術発展に対応する社会では、多くの優れた専門技術者を必要とする。このため、これまでは専門学校や大学等で学ぶことが主流だったロボット関連の専門技術の習得機会を若年層に広げることで、未来の高度な専門技術者を育成することが急務である。このため、上述した高機能ロボットの開発に必要な専門技術の内のロボットの動作をプログラミングする専門技術等の習得機会を、若年層(例えば、小学生等)に提供することが望ましいが、上述したように、従来の教職員の能力以上のスキルが要求されるため、実際の教育現場では、教職員の負担が大きく、この教職員の負担の軽減が最も重要な課題となっていた。
本発明は、上記課題を解決するために、若年層の教育現場に、高機能ロボットを用いてロボットの動作をプログラミングする専門技術等の習得機会を提供することで、教育現場における教職員の負担を軽減するとともに、若年層にロボットの開発に必要な技術の習得機会を提供することが可能なロボット動作プログラミング学習システムを提供することを目的とする。
上記目的を達成するために、本発明は、システムサーバと、教師ロボットと、動作ロボットが接続された学習者用端末と、を公衆通信回線網により相互に通信可能に接続したロボット動作プログラミング学習システムにおいて、前記システムサーバは、前記教師ロボットによる学習状況を把握する学習状況把握手段を備え、前記教師ロボットは、視覚及び聴覚により学習者を認識する認識手段と、学習者に音声を出音する出音手段と、前記動作ロボットの動作状態を把握する動作状態把握手段と、前記学習者端末の動作状態及び学習者のロボット動作プログラミングの内容を把握するプログラミング内容把握手段と、を備え、前記学習者端末は、前記動作ロボットの動作をプログラミングするプログラミング手段を備えていることを特徴とするロボット動作プログラミング学習システムとした。
本発明によれば、システムサーバ、教師ロボット、動作ロボットが接続された学習者用端末を公衆通信回線網(例えば、インターネット回線、電話回線、近距離無線回線等)により相互に通信可能に接続している。このため、動作ロボットの動作プログラミングの学習において、電子的なネットワークを利用したロボット動作プログラミング学習システムを構成することができる。これにより、これまでは専門学校や大学などで学ぶことが主流だったロボット関連の専門技術(特に、ロボットを動作させるプログラミング)の習得機会を、若年層に広げることができるので、未来の高度技術者を育成することが可能となる。
また、教職員に新たに余分な負担をかけることなく、ロボット関連のロボットを動作するプログラミングの習得機会を提供することができるので、教職員は従来の教科や業務に集中でき教育の質を向上することができる。さらに、学習者は、ロボットの動作プログラミングを学習することで論理思考が働き、他の教科の習得度も向上させることができる。また、ロボット教師により授業が行われることで、学習者に対してプログラミングだけではなく、ロボット全般(ハード等の構成部品を含む)にも学習者の関心を高めることができろ。
本実施形態に係るロボット動作プログラミング学習システムの構成を示す説明図である。 本実施形態に係るロボット動作プログラミング学習システムのシステムサーバの構成を説明する図である。 本実施形態のロボット動作プログラミング学習システムの処理を説明するフローチャートである。 本実施形態のロボット動作プログラミング学習システムの処理を説明するフローチャートである。 本実施形態のロボット動作プログラミング学習システムにおけるビジュアルプログラミング言語を説明する図である。 本実施形態のロボット動作プログラミング学習システムにおけるビジュアルプログラミング言語を説明する図である。 本実施形態のロボット動作プログラミング学習システムにおける動作ロボットの動作を説明する図である。
以下、本実施形態に係るロボット動作プログラミング学習システムの一例について、図1〜7を参照して説明する。
[ロボット動作プログラミング学習システムの構成]
本実施形態におけるロボット動作プログラミング学習システムの構成を、図1を参照して説明する。図1に示すように、本実施形態におけるロボット動作プログラミング学習システム1は、ロボット動作プログラミング学習システムを運用するシステム事業者が管理するシステムサーバ10と、学習場所(以下、教室50という)に配置される教師ロボット20と、同じく学習場所において複数の学習者全員の机上にそれぞれ配置される複数の学習者端末30と、この学習者端末30に無線(近距離無線通信等)又は有線(USB等)でそれぞれ接続されている動作ロボット31とが公衆通信回線網40により相互に通信可能に接続されている。なお、公衆通信回線網40は、周知の携帯電話通信回線、電話回線、インターネット回線等である。
システムサーバ10は、周知のコンピュータ(デスクトップ型、ノート型等のパソコンと称される汎用コンピュータ)が好適に用いられる。なお、学習者端末30は、マイコン等で通信を制御する周知の携帯情報端末(指やタッチペンで操作可能なタッチパネルを備えたノート型パソコン、タブレット型パソコン、通信機能を備えたPDA等)が好適に用いられる。
システムサーバ10は、ロボット動作プログラミング学習システム1を運用するシステム事業者が管理するものである。システムサーバ10は、教師ロボット20による教室50における学習状況(以下、授業状況ともいう。)を把握する学習状況把握手段を備えている。ここで、学習状況把握手段とは、例えば、学習者端末30における学習者によるプログラミングの操作状況であり、具体的には、本実施形態で使用されるビジュアルプログラミング言語の学習者による選択状況や授業中に発生したトラブル(学習者の質問内容や動作ロボット等の機器の故障)であり、後述の動作ロボット31の動作状態把握手段及びプログラミング内容把握手段で収集してシステムサーバ10に送信される各種データである。そして、学習者に選択されるビジュアルプログラミング言語の頻度等を収集して解析することで、複数のビジュアルプログラミング言語の設定の見直しを検討することができる。また、授業中に発生したトラブル等を集計することで、授業の進め方等を見直すことができ、より学習者が学びやすい授業内容を設定することができる。
このように、システムサーバ10において、教師ロボット20による学習状況を収集して分析することで、教師ロボット20による授業状況や機器の問題点等を、ロボット動作プログラミング学習システム1を運用するシステム事業者が速やかに把握・改善することを可能とし、この改善結果を、システムサーバ10の管理下にある全ての教師ロボット20による授業に速やかに反映させることを可能としている。
教師ロボット20は、教職員に代わりロボット動作のプログラミングの授業を実際に進行する役割を担うものである。このため、教室50において、複数の学習者全員が認識可能なようにある程度の大きさが必要であり、所定高さ(120cm以上)のロボットが好適に用いられる。さらに、教師ロボット20は、学習者とのコミュニケーションを図るために、授業中に複数の学習者全員を認識するための認識手段として、画像認識装置(カメラ等)、音声認識装置(集音マイク等)を搭載し、これら認識手段で検知した情報を処理するヒトの言語理解や推論能力が発達したAIを備えている。また、学習者にメッセージ(授業内容の説明等)を出音するための出音装置(スピーカ)や周辺機器(システムサーバ10、学習者端末30)とのネットワークを実現する通信機能を備えている。なお、音声による授業内容の説明では学習者に指導内容が伝わらない可能性を考慮して、授業を進行するための各種発話情報を、テキストデータとして大型のモニタに連動して表示することもできる。
また、教師ロボット20は、動作ロボット31の動作状態を把握する動作状態把握手段と、学習者による学習者端末30の操作状況(例えば、学習者によるロボット動作プログラミングの状況)を把握するプログラミング内容把握手段とを備えている。動作状態把握手段は、学習者端末30にそれぞれ接続された動作ロボット31の動作状態を、学習者端末30を経由して収集するものである。ここで収集された動作ロボット31の動作状態(例えば、動作ロボット31に発生したトラブル等)は、教師ロボット20からシステムサーバ10に送信される。プログラミング内容把握手段は、学習者が学習者端末30において実行した動作プログラム(後述のビジュアルプログラミング言語の選択状況)を収集するためのものであり、学習者端末30からシステムサーバ10に送信される。この動作状態把握手段及びプログラミング内容把握手段で収集してシステムサーバ10に送信された学習状況(所謂、授業状況)は、システムサーバ10で収集された後に解析処理されて、ロボット動作プログラミング学習システム1をよりよく運用するため改善されることになる。なお、本実施形態においては、教師ロボット20に動作状態把握手段及びプログラミング内容把握手段を同時に搭載するようにしたが、教師ロボット20の制御パソコン(図示せず)を別途設置してその機能を分担してもよい。また、この制御パソコンを教師ロボット20の起動、シャットダウン、メンテナンス等を行う教師ロボット20とは別に人間の補助教員が操作する保守パソコンとして運用することもできる。
学習者端末30は、動作ロボット31の動作をプログラミングするプログラミング手段を備えている。ここで、本実施形態においては、詳細は後述するが、若年層の学習者を考慮して、ビジュアルプログラミング言語を用いて動作ロボット31の動作をプログラミングする。このビジュアルプログラミング言語とは、プログラムコード(テキスト)を記述しなくても、視覚的な操作により動作ロボット31の動作をプログラミング可能な周知のプログラミング言語である。本実施形態のビジュアルプログラミング言語は、動作ロボットの動作状態が視覚的に認識できる複数のビジュアルプログラミング言語(図5参照)で構成されている。
このように、動作ロボット31の動作に対応した複数のビジュアルプログラミング言語を用いることで、学習者は、複数のビジュアルプログラミング言語から、任意のビジュアルプログラミング言語を選択して実行させることで、動作ロボット31の動作をプログラミングすることを可能としている。
動作ロボット31は、本実施形態において動作プログラミングを行う対象機器であり、机上(卓上)に設置可能なように、小型(全高30cm程度)のロボットが好適に用いられる。なお、小型ロボットとしては、ロボットの動きを学習者に理解させるために、最低でも発話機能(スピーカ)、手足や胴体の一部が可動する動作機能、前後に進退、回転する動作機能等を有するものが望ましい。
[システムサーバの構成]
以下、図2を参照して、本実施形態のシステム事業者が管理するシステムサーバ10の構成を説明する。システムサーバ10は、記憶部111、入出力制御部112、制御部113、外部通信制御部114などから構成されている。
記憶部111は、例えば、HDD(Hard Disk Draive)やフラッシュメモリ等の大容量記憶媒体により構成され、授業の学習内容や上述した学習状況把握手段で収集した学習情報等の各種情報が記憶されている。
入出力制御部112は、システムサーバ10に接続されている図示しない液晶表示装置や、キーボード/マウス等の入出力装置を制御する。
制御部113は、図示しないCPU(中央演算装置)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどで構成されている。また、この制御部113のCPUは、ROM及び記憶部111に予め記憶されている各種プログラムを実行することにより、教師ロボット20及び複数の学習者端末30と協同して、後述の学習状況把握手段等を実行することになる。
外部通信制御部114は、外部の公衆通信回線網40と接続され、制御部113の指示に基づいて、ロボット動作プログラミング学習システム1における教師ロボット20、複数の学習者端末30との通信を制御する。
なお、本実施形態における学習者端末30の構成も、上述したシステムサーバ10と同じ周知のコンピュータ(指やタッチペンで操作可能なタッチパネルを備えたノート型パソコン、タブレット型パソコン等)が好適に用いられるため、システムサーバ10と同様な構成である。
[ロボット教師による授業概要]
以下、図3を参照して、本実施形態のロボット動作プログラミング学習システム1におけるロボット教師による授業概要の一例を説明する。なお、このロボット教師による授業概要は、上述したロボット動作プログラミング学習システム1を構成するシステムサーバ10、教師ロボット20、複数の学習者端末及び動作ロボットが協同して実行される処理である。
図3に示すように、最初に、教師ロボット20によるロボット動作プログラミング学習システム1の学習内容の説明及び学習課題の決定を実行する(ステップS10)。この学習内容の説明は、ロボット動作プログラミング学習システム1で行われる1回の授業内容を教師ロボット20が教室50内の学習者全員に対して、出音手段(スピーカ)を用いて最適な音量の音声で説明するものである。なお、実行される学習内容は、授業を受ける学習者の習熟度に応じてシステムサーバ10が管理しているものであり、例えば、授業開始前にシステムサーバ10から教師ロボット20に実行する学習内容が指示される。具体的には、教師ロボット20は、これから始まる授業で、上述した複数のビジュアルプログラミング言語を用いて動作ロボット31の動作させること、言い換えると、動作ロボット31の動作プログラムを行うことを学習する場合の授業内容を、教師ロボット20の出音手段による音声(以下、単に音声という。)で教室50内の複数の学習者全員に説明する。
そして、学習課題の決定は、学習内容に沿って予め用意された複数の異なる難易度の学習課題から、授業の当初に行う学習課題を決定する。本実施形態においては、1回の授業において難易度(以下、レベルという。)の異なる複数の学習課題(例えば、レベル1〜レベル5等の複数の学習課題)が設定されている。例えば、動作ロボット31の可動部(例えば、手等)を単体で動作させる簡単な学習課題(例えば、レベル1)から、動作ロボット31の複数の可動部を連動して動作させるとともに、その動作に連動して動作ロボット31の発話機能(スピーカ)から所定のメッセージを出音する等のレベル1と比較すると相対的に難しい学習課題(例えば、レベル5)が段階的に複数設定されており、授業の当初はレベルの低い学習課題(例えば、レベル1)が決定される。
続いて、教師ロボット20は、動作ロボット31を動作させるための学習課題の説明を実行する(ステップS11)。この学習課題の説明は、具体的には、学習者が学習者端末30により上述した複数のビジュアルプログラミング言語から任意のビジュアルプログラミング言語を選択して、動作ロボット31の動作させる(つまり、動作プログラムの選択・実行)ことを、教師ロボット20の音声で教室50内の学習者全員に説明する。また、動作ロボット31の動作プログラムを実行するための学習者端末30の操作方法(操作手順)等も教師ロボット20の音声で教室50内の学習者全員に説明する。なお、上述したように、本実施形態における学習課題は段階的にレベルの異なる複数の学習課題が設定されており、教師ロボット20はレベルに応じた学習課題、例えば、レベル1の学習課題では、「動作ロボットの右手を1回動かしてみましょう。」等の学習課題の具体的な説明及びそれを実行するための学習者端末30の使用方法の説明等を、教室50内の学習者全員に聞こえる音量の音声で行う。
続いて、教師ロボット20は、説明した学習課題の実行指示(つまり、動作ロボット31を動作させるプログラミングの実行指示)を、学習者の学習者端末30に送信する(ステップS12)。学習課題の実行指示を受信した学習者端末30は、学習者端末30の表示画面301に複数のビジュアルプログラミング言語を表示(図5参照)する。これにより、詳細は後述するが、教師ロボット20により指示された学習課題に沿ったビジュアルプログラミング言語の選択が学習者により実行されることになる。
続いて、教師ロボット20は、学習者による学習課題の終了待ち時間を決定する(ステップS13)。本実施形態においては、上述したように1回の授業においてレベルの異なる複数の学習課題が設定されている。このため、レベルが高くなるにつれて学習課題の終了待ち時間が長くなるように、レベルに応じた学習課題の終了待ち時間を決定する。
続いて、教師ロボット20は、学習課題の終了待ち時間が経過したか、又は、全ての学習者が学習課題を終了(実行結果を受信)したか、のうちいずれか一方でも条件を満たした否かを判断(ステップS14)して、条件を満たしていないと判断(ステップS14:No)した場合は、ステップS15へ処理を移す。一方、条件を満たしていると判断(ステップS14:Yes)した場合は、ステップS16へ処理を移す。
続いて、教師ロボット20は、教室50内の複数の学習者全員の学習状況を監視する(ステップS15)。この処理では、教師ロボット20は、例えば、学習者が真剣に授業に取り組んでいるか否かを、教室50内における複数の学習者同士の私語、又は、複数の学習者全員の学習者端末30における操作状況を把握することにより監視する。そして、学習状況に応じて、例えば、教師ロボット20が備えている各種認識手段(画像認識装置、音声認識装置等)により学習者が学習に集中できていない状況(例えば、私語が多い又は離席が多い等)を検知した場合は、学習者に対して学習への集中を促す注意を音声で教室50内の学習者に対して行う。
また、教師ロボット20は、学習者の学習者端末30における操作状況を各種手段(動作状態把握手段、プログラミング内容把握手段等)により監視して、学習者端末30の操作が上手く行えていない学習者を検知した場合は、動作ロボット31の動作プログラムを実行するための学習者端末30の操作方法等の説明を、教師ロボット20の音声で繰り返し学習者に説明する。
このように、本実施形態における教師ロボット20は、学習者の学習状況を検知可能な各種手段(動作状態把握手段、プログラミング内容把握手段等)や各種認識手段(画像認識装置、音声認識装置等)を備え、検知した学習状況を処理するヒトの言語理解や推論能力が発達したAIを備えているため、学習者の学習状況を的確に認識するとともに、それに対応した的確な指導を学習者に対して行うことができる。すなわち、本実施形態の教師ロボット20によれば、人の教職員と同等又はそれ以上に、授業中の学習者の学習状況の実態を的確に把握してそれに対処可能な的確な指導を行うことができる。
続いて、教師ロボット20は、授業終了(例えば、授業終了時間に到達したか否か)を判断(ステップS16)して、授業終了でないと判断(ステップS16:No)した場合は、上述したステップS17へ処理を移す。一方、授業終了であると判断(ステップS16:Yes)した場合は、その旨を教師ロボット20の音声で教室50内の学習者全員に説明して、本実施形態における授業(ロボット動作プログラミング学習)を終了する。
続いて、教師ロボット20は、学習者による学習課題の達成割合、つまり、学習課題をクリアできた学習者の割合が所定割合以上か否かを判断(ステップS17)して、所定割合の学習者が学習課題をクリアできたと判断(ステップS17:Yes)した場合は、ステップS18へ処理を移す。一方、所定割合の学習者が学習課題をクリアできていないと判断(ステップS17:No)した場合は、再度、動作ロボット31を動作させるための同じレベルの学習課題の説明(ステップS11)から繰り返し実行する。
学習者による学習課題の達成割合は、後述の学習者端末30で実行される学習課題の実行結果の送信(図4、ステップS24)で、学習者端末30から教師ロボット20に送信された学習課題の実行結果が成功の割合が、教室50内の学習者全体のどのくらいの割合であるかを教師ロボット20が集計して算出したものである。なお、上述したステップS14において、学習課題の終了待ち時間の終了を待つ間に、学習者端末30からの学習課題の実行結果が成功・失敗にかかわらず何ら結果が送信されなかった学習者端末30は、当然のことながら学習課題の実行結果は失敗として処理されることになる。
上述したように、本実施形態においては、学習者による学習課題の達成割合を確認して、所定の割合を達成できなかった場合は、再度同じレベルの学習課題を繰り返して実行するようにしている。これにより、同じ教室50内の学習者全員に対して、学習レベルの違いができるだけ発生しないように図っている。なお、ここで判断される学習者による学習課題の達成割合は、段階的にレベルの異なる複数の学習課題に応じて、それぞれ異なる数値を設定することができる。例えば、レベル1では90%、レベル2では80%、そして、レベル5では50%というように設定することができる。これにより、1回の授業において教室50の学習者全員に対して、できるだけ基礎的なレベルの学習問題の達成割合の向上を図るとともに、全体の学習レベルの向上を図ることを可能としている。
最後に、教師ロボット20は、学習者に教示する学習問題を次のレベルの学習問題にステップアップして決定する(ステップS18)。上述したように、本実施形態における学習課題は段階的にレベルの異なる複数の学習課題が設定されている。このため、教師ロボット20は、レベルに応じた学習課題をステップアップ(例えば、レベル1の次はレベル2)というように、次の学習課題を段階的にレベルを上げて決定し、上述した学習課題の説明(ステップS11)に処理を移す。
[学習課題の実行]
以下、図4~図7を参照して、本実施形態のロボット動作プログラミング学習システム1における学習者による学習課題の実行を説明する。この学習課題の実行は、教室50内の学習者全員にそれぞれ提供されている学習者端末30及び動作ロボット31により実行される。
最初に、複数の学習者毎に提供された学習者端末30は、教師ロボット20からの学習課題の実行指示を受信する(ステップS20)。これ以降、学習者端末30は学習者により操作可能となる。このように、学習者による学習者端末30の操作を、教師ロボット20からの指示を契機として操作可能とすることにより、教師ロボット20による学習課題の説明時において、学習者の集中を教師ロボット20から逸らすことがないようにしている。
続いて、教室50内の学習者全員にそれぞれ設置された学習者端末30には、学習課題に応じた動作ロボットの動作を決定する複数のプログラム(ビジュアルプログラミング言語)が表示される(ステップS21)。このビジュアルプログラミング言語は、動作ロボット31の動作を視覚的に認識可能としたものであり、図5に示すように、学習者端末30の表示画面301(例えば、タッチパッドが付加された液晶表示装置)には、「ロボットの動作を選んでください」というテキストメッセージS1が表示され、その下方には、動作ロボット31の動作を具体的に示すビジュアルプログラミング言語が表示されている。このビジュアルプログラミング言語としては、一例として、A1「おじぎ」、A2「右手を上げる」、A3「左手を上げる」、A4「両手を上げる」、A5「前に進む」、A6「後ろに下がる」等の動作ロボット31の動作を具体的に示すビジュアルプログラミング言語が表示されている。
また、図6に示すように、学習者端末30の表示画面301には、「ロボットの音声を選んでください」というテキストメッセージS2が表示され、その下方には、動作ロボット31が発する音声を具体的に示すビジュアルプログラミング言語が表示されている。このビジュアルプログラミング言語としては、一例として、B1「おはよう」、B2「こんにちは」、B3「こんばんわ」、B4「さようなら」、B5「ありがとう」、A6「ごめんなさい」等の動作ロボット31が発する音声を具体的に示すビジュアルプログラミング言語が表示されている。
なお、この学習者端末30に表示される学習課題に応じた動作ロボットの動作を決定する複数のビジュアルプログラミング言語(図5、6参照)は、段階的にレベルの異なる複数の学習課題に応じて、表示される複数のビジュアルプログラミング言語の内容が異なる場合がある。なお、図5及び図6に示す複数のビジュアルプログラミング言語はあくまで一例であり、例えば、図5に示すビジュアルプログラミング言語においては、ロボットのキャラクタ画像を用いて具体的に動作ロボット31の動作を画像で表示するようにしてもよい。
続いて、学習者は、学習者端末30の表示画面301に表示された複数のビジュアルプログラミング言語から、学習課題に沿った動作ロボット31の動作(動態及び音声の出音)させるビジュアルプログラミング言語を選択する(ステップS22)。この動作ロボット31の動作させるビジュアルプログラミング言語の選択は、本実施形態における動作ロボット31の動作をプログラミングするプログラミング手段である。具体的には、学習者は、学習者端末30の表示画面301を指やタッチペンで操作して、カーソルMを所望するビジュアルプログラミング言語に重ねることで実行される。このとき、図5及び図6に示すように、選択されたビジュアルプログラミング言語は、表示を反転して選択されたことが学習者に視認できるようにしている。
続いて、学習者は、学習者端末30の表示画面301で選択したビジュアルプログラミング言語を実行する(ステップS23)。このジュアルプログラミング言語の実行は、上述したステップS22で学習者がビジュアルプログラミング言語を選択した後に、学習者端末30の表示画面301を指やタッチペンで操作して、カーソルMで学習者端末30の表示画面301に表示された実行G1を選択することで実行される。つまり、学習者が選択したビジュアルプログラミング言語が動作ロボット31に送信され、送信されたビジュアルプログラミング言語に従って動作ロボット31が動作することになる。
この結果、図7に示すように、動作ロボット31は、学習者端末30から送信された学習者が選択したビジュアルプログラミング言語に基づいて動作(動態及び音声の出音)することになり、学習者は、動作ロボット31の動作を確認することで、動作ロボット31の動作プログラミングの結果を視認することができる。
最後に、学習者は、学習課題の実行結果を教師ロボット20に送信する(ステップS24)。この学習者による学習課題の実行結果の送信は、上述したステップS23で、学習者が視認した動作ロボット31の動作態様により、動作ロボット31の動作プログラミングの結果を教師ロボット20に送信する。具体的には、学習者が学習課題に沿って動作ロボット31の動作を実行できた場合は、学習者端末30の表示画面301に表示された終了G2をカーソルMで選択することにより、学習課題の実行結果が成功(学習課題の達成)として教師ロボット20に送信される。また、学習者が学習課題に沿って動作ロボット31の動作を実行できなかった場合(機器の動作不良等も含む)は、学習者端末30の表示画面301に表示されたトラブルG3をカーソルMで選択することにより、学習課題の実行結果が失敗(学習課題の未達成)として教師ロボット20に送信される。
なお、上述した実施形態では、図5及び図6に示す複数のビジュアルプログラミング言語から学習者選択した一つのビジュアルプログラミング言語を実行するように説明してきたが、実行されるビジュアルプログラミング言語は一つに限定されるものではなく、例えば、複数のビジュアルプログラミング言語を選択可能とし、複数の動作を連続して実行するようにすることもできる。なお、この場合は、上述したビジュアルプログラミング言語の選択(ステップS22)において、複数のビジュアルプログラミング言語を選択できるようにし、その際、選択されたビジュアルプログラミング言語を、選択順に学習者端末30の表示画面301に表示することが望ましい。これにより、学習者は、自身が選択した動作を、動作ロボット31が順序良く実行することを認識することができるので、ロボットの動作におけるプログラミングを実体験することが可能となる。
上述してきたように、本実施形態のロボット動作プログラミング学習システム1においては、教師ロボット20による授業により、動作ロボット31の動作プログラミングを学習者に教示するので、特に若年層の学習者の教育現場においてインパクトを与えることが可能となる。また、若年層の教育現場に、高機能ロボットを用いてロボットの動作をプログラミングする専門技術等の習得機会を提供することで、未来の高度技術者の発掘や育成を図ることが可能となる。
以上、上記実施形態を通して本発明を説明してきたが、本発明はこれらに限定されるものではない。また、上述した各効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
1 ロボット動作プログラミング学習システム
10 システムサーバ
20 教師ロボット
30 学習者端末
31 動作ロボット
40 公衆通信回線網
50 教室

Claims (1)

  1. システムサーバと、教師ロボットと、動作ロボットが接続された学習者用端末と、を公衆通信回線網により相互に通信可能に接続したロボット動作プログラミング学習システムにおいて、
    前記システムサーバは、
    前記教師ロボットによる学習状況を把握する学習状況把握手段を備え、
    前記教師ロボットは、
    視覚及び聴覚により学習者を認識する認識手段と、
    学習者に音声を出音する出音手段と、
    前記動作ロボットの動作状態を把握する動作状態把握手段と、
    前記学習者端末の動作状態及び学習者のロボット動作プログラミングの内容を把握するプログラミング内容把握手段と、を備え、
    前記学習者端末は、
    前記動作ロボットの動作をプログラミングするプログラミング手段を備えていることを特徴とするロボット動作プログラミング学習システム。
JP2016218956A 2016-11-09 2016-11-09 教師ロボットによるロボット動作プログラミング学習システム Active JP6750804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016218956A JP6750804B2 (ja) 2016-11-09 2016-11-09 教師ロボットによるロボット動作プログラミング学習システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218956A JP6750804B2 (ja) 2016-11-09 2016-11-09 教師ロボットによるロボット動作プログラミング学習システム

Publications (2)

Publication Number Publication Date
JP2018077342A JP2018077342A (ja) 2018-05-17
JP6750804B2 true JP6750804B2 (ja) 2020-09-02

Family

ID=62150354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218956A Active JP6750804B2 (ja) 2016-11-09 2016-11-09 教師ロボットによるロボット動作プログラミング学習システム

Country Status (1)

Country Link
JP (1) JP6750804B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6637917B2 (ja) * 2017-03-16 2020-01-29 株式会社日立製作所 教育支援システムおよび教育支援方法
JP6803086B2 (ja) * 2018-02-19 2020-12-23 株式会社キュレオ プログラミング学習プログラム
CN109697904B (zh) * 2019-02-28 2020-12-25 苏州阿杜机器人有限公司 机器人智慧课堂辅助教学系统及方法
WO2021070748A1 (ja) * 2019-10-10 2021-04-15 ソニー株式会社 情報処理装置及び情報処理方法
CN111932961A (zh) * 2020-08-31 2020-11-13 安徽爱依特科技有限公司 一种机器人辅助远程直播授课方法、机器人系统以及授课系统
CN113674585A (zh) * 2021-08-18 2021-11-19 杭州优必学科技有限公司 一种编程学习机系统
CN116312147B (zh) * 2023-05-11 2023-07-21 深圳市亚博智能科技有限公司 基于教学机器人的编程教学方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242780A (ja) * 2000-02-29 2001-09-07 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP3853633B2 (ja) * 2001-10-26 2006-12-06 リコーエレメックス株式会社 学習支援システムおよび学習支援方法
JP2010231580A (ja) * 2009-03-27 2010-10-14 Kyoto Sangyo Univ 教育支援システムと教育支援方法
JP6308608B2 (ja) * 2013-01-30 2018-04-11 国立大学法人三重大学 ダイレクトメソッドにもとづく外国語会話学習システム
WO2015078992A1 (en) * 2013-11-27 2015-06-04 Engino.Net Ltd. System and method for teaching programming of devices

Also Published As

Publication number Publication date
JP2018077342A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6750804B2 (ja) 教師ロボットによるロボット動作プログラミング学習システム
CN103136971B (zh) 语言音素练习系统与方法
JP6468274B2 (ja) ロボット制御装置、生徒ロボット、教師ロボット、学習支援システム、ロボット制御方法及びプログラム
TWI713000B (zh) 線上學習輔助方法、系統、設備以及電腦可讀取記錄媒體
EP3063751A2 (en) Computing technologies for diagnosis and therapy of language-related disorders
Bigham et al. Inspiring blind high school students to pursue computer science with instant messaging chatbots
Bibauw et al. Dialogue systems for language learning: Chatbots and beyond
US10812575B2 (en) Performing a computerized language teaching lesson using a main computer and a mobile device
JP2005164943A (ja) 学習支援プログラム、学習支援方法、学習支援装置及び記録媒体
Kamhi-Stein et al. The Future Is Now: Implementing Mixed-Reality Learning Environments as a Tool for Language Teacher Preparation.
Por et al. Design and development of multimedia pronunciation learning management system for non-native English speakers
Crompton et al. AI and English language teaching: Affordances and challenges
Watters et al. An Artificial Intelligence Tool for Accessible Science Education.
CN111681142B (zh) 基于教育视频虚拟教学的方法、系统、设备及存储介质
US11605390B2 (en) Systems, methods, and apparatus for language acquisition using socio-neuorocognitive techniques
JP2018205771A (ja) ロボット制御装置、ロボット制御方法及びプログラム
Slattery et al. How interpreters make use of technological supports in an interactive zoo exhibit
Shafiee Rad et al. Fostering L2 Learners’ Pronunciation and Motivation via Affordances of Artificial Intelligence
Adesina iNOUN: architecture and usability of a chatbot for academic enquiries
Korslund NativeAccent
Griol et al. Conversational agents as learning facilitators: Experiences with a mobile multimodal dialogue system architecture
Tegler et al. Mobilizing device-mediated contributions in interaction involving beginner users of eye-gaze-accessed speech-generating devices
Wagner Programming by voice: A hands-free approach for motorically challenged children
Utami et al. Exploring Higher Education Learners' Experience of Utilizing Gemini Chatbot in English Language Learning
Coy On the use of automatic speech recognition to facilitate increased literacy rates in Jamaica

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R150 Certificate of patent or registration of utility model

Ref document number: 6750804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250