JP2020531964A - 拡張現実を利用したコーディング教育方法 - Google Patents

拡張現実を利用したコーディング教育方法 Download PDF

Info

Publication number
JP2020531964A
JP2020531964A JP2020508468A JP2020508468A JP2020531964A JP 2020531964 A JP2020531964 A JP 2020531964A JP 2020508468 A JP2020508468 A JP 2020508468A JP 2020508468 A JP2020508468 A JP 2020508468A JP 2020531964 A JP2020531964 A JP 2020531964A
Authority
JP
Japan
Prior art keywords
virtual robot
command
contact
virtual
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020508468A
Other languages
English (en)
Other versions
JP6940204B2 (ja
Inventor
ヒ リュウ,キュン
ヒ リュウ,キュン
Original Assignee
コーディング アンド プレイ インコーポレイテッド
コーディング アンド プレイ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コーディング アンド プレイ インコーポレイテッド, コーディング アンド プレイ インコーポレイテッド filed Critical コーディング アンド プレイ インコーポレイテッド
Publication of JP2020531964A publication Critical patent/JP2020531964A/ja
Application granted granted Critical
Publication of JP6940204B2 publication Critical patent/JP6940204B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0053Computers, e.g. programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Hardware Design (AREA)
  • Strategic Management (AREA)
  • Computer Graphics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】拡張現実を利用したコーディング教育方法を提供する。【解決手段】カメラを含むコンピューティング装置により行われる方法であって、コーディング教育のコンテンツを獲得する第1段階と、前記コーディング教育のコンテンツに含まれた一つ以上のポイントを選択する第2段階と、前記カメラから撮影された画像を獲得する第3段階と、前記撮影された画像を認識し、前記撮影された画像に含まれた一つ以上の客体と前記一つ以上のポイントとをマッチングする第4段階と、前記撮影された画像及び前記マッチングされた一つ以上のポイントを表示する第5段階と、前記撮影された画像に仮想のロボットを表示する第6段階と、前記仮想のロボットの動きを制御するための一つ以上のコマンドを各々含む一つ以上のコマンドブロックを表示する第7段階と、前記表示された一つ以上のコマンドブロックに対するユーザ入力に基づき、前記一つ以上のコマンドブロックを前記一つ以上のポイントに配置する第8段階と、前記一つ以上のコマンドブロックが配置された順序に従って前記仮想のロボットを制御し、前記仮想のロボットは、前記一つ以上のポイントに沿って移動し、各々のポイントに配置されたコマンドブロックに対応する命令を行う、第9段階と、前記制御結果による前記仮想のロボットの動きを表示する第10段階と、を含む、拡張現実を利用したコーディング教育方法が開示される。【選択図】図1

Description

本発明は、拡張現実を利用したコーディング教育方法に関する。
コーディング教育に対する関心が高まるに伴い、初心者又は児童、青少年を対象としてプログラミング言語を直接扱うのではなく、ブロック形態のコマンド集を提供し、これを配置することによってコーディング学習が可能なようにするアプリケーション及びサービスが提供されている。また、コーディングの結果を視覚的に見せて、興味を誘導することができるように、コーディングによって動作するロボットを利用した学習サービスが提供されている。
拡張現実(Augmented Reality)は、現実世界に仮想の物体を重ねて見せる技術である。現実世界にリアルタイムで付加情報を有する仮想世界を合わせて一つの画像で示しているので、複合現実(Mixed Reality、MR)ともいう。
本発明が解決しようとする課題は、拡張現実を利用したコーディング教育方法を提供することにある。
本発明が解決しようとする課題は、以上で言及された課題に制限されず、言及されていないまた別の解決課題は、以下の記載から通常の技術者にとって明確に理解されるべきである。
前述した課題を解決するための本発明の一面に従ってカメラを含むコンピューティング装置により行われる方法は、コーディング教育のコンテンツを獲得する第1段階と、前記コーディング教育のコンテンツに含まれた一つ以上のポイントを選択する第2段階と、前記カメラから撮影された画像を獲得する第3段階と、前記撮影された画像を認識し、前記撮影された画像に含まれた一つ以上の客体と前記一つ以上のポイントとをマッチングする第4段階と、前記撮影された画像及び前記マッチングされた一つ以上のポイントを表示する第5段階と、前記撮影された画像に仮想のロボットを表示する第6段階と、前記仮想のロボットの動きを制御するための一つ以上のコマンドを各々含む一つ以上のコマンドブロックを表示する第7段階と、前記表示された一つ以上のコマンドブロックに対するユーザ入力に基づき、前記一つ以上のコマンドブロックを前記一つ以上のポイントに配置する第8段階と、前記一つ以上のコマンドブロックが配置された順序に従って前記仮想のロボットを制御し、前記仮想のロボットは、前記一つ以上のポイントに沿って移動し、各々のポイントに配置されたコマンドブロックに対応する命令を行う、第9段階と、前記制御結果による前記仮想のロボットの動きを表示する第10段階と、を含む。
開示された実施例に係ると、拡張現実を利用して、実際のロボットがなくても仮想のロボットを利用したコーディング教育を提供することができるという効果がある。
本発明の効果は、以上で言及された効果に制限されず、言及されていないまた別の効果は、以下の記載から通常の技術者にとって明確に理解されるべきである。
一実施例に係る拡張現実を利用したコーディング教育方法を示すフローチャートである。 一実施例に係るコーディング教育のコンテンツ獲得方法、及びこれに対応する仮想のロボット制御方法を具体的に説明するための図である。 一実施例に係り、ミッションの達成可否を判断する方法を具体的に示すフローチャートである。 一実施例に係り、インタラクションを判断する方法を説明するフローチャートである。 一実施例に係り、接点及びインタラクションを判断する方法を具体的に説明するフローチャートである。 ミッションを獲得する一例を示すフローチャートである。 仮想の客体に基づいてミッションを獲得する一例を説明するフローチャートである。 一実施例に係り、コマンドブロックを配置する方法を説明するフローチャートである。 一実施例に係るコンピューティング装置の構成図である。
前述した課題を解決するための本発明の一面に従ってカメラを含むコンピューティング装置により行われる方法は、コーディング教育のコンテンツを獲得する第1段階と、前記コーディング教育のコンテンツに含まれた一つ以上のポイントを選択する第2段階と、前記カメラから撮影された画像を獲得する第3段階と、前記撮影された画像を認識し、前記撮影された画像に含まれた一つ以上の客体と前記一つ以上のポイントとをマッチングする第4段階と、前記撮影された画像及び前記マッチングされた一つ以上のポイントを表示する第5段階と、前記撮影された画像に仮想のロボットを表示する第6段階と、前記仮想のロボットの動きを制御するための一つ以上のコマンドを各々含む一つ以上のコマンドブロックを表示する第7段階と、前記表示された一つ以上のコマンドブロックに対するユーザ入力に基づき、前記一つ以上のコマンドブロックを前記一つ以上のポイントに配置する第8段階と、前記一つ以上のコマンドブロックが配置された順序に従って前記仮想のロボットを制御し、前記仮想のロボットは、前記一つ以上のポイントに沿って移動し、各々のポイントに配置されたコマンドブロックに対応する命令を行う、第9段階と、前記制御結果による前記仮想のロボットの動きを表示する第10段階と、を含む。
また、前記第1段階は、前記コーディング教育のコンテンツに含まれたミッションを獲得する第11段階と、前記ミッションを表示する第12段階と、を含み、前記第9段階は、前記制御結果による前記ミッションの達成可否を判断する第13段階と、前記ミッションの達成可否によるフィードバックを表示する第14段階と、を含むことができる。
また、前記第13段階は、前記一つ以上の客体と前記仮想のロボット間のインタラクションを判断する第15段階と、前記インタラクションに基づいて前記一つ以上のポイントの各々でのミッション達成可否を判断する第16段階と、を含み、前記第14段階は、前記一つ以上のポイントの各々でのミッション達成可否によるフィードバックを表示する、第17段階を含むことができる。
また、前記第15段階は、前記一つ以上の客体と前記仮想のロボット間の一つ以上の接点を判断する第18段階と、前記一つ以上の接点の各々に対応する前記一つ以上の客体及び前記仮想のロボットの部位を判断する第19段階と、前記一つ以上の接点の位置、動き、及び前記一つ以上の接点の各々に対応する部位に基づいて、前記インタラクションを判断する第20段階と、を含むことができる。
また、前記第20段階は、前記一つ以上の接点に含まれた第1接点を第2接点及び第3接点に分割する第21段階と、前記第2接点及び前記第3接点の動きを追跡する第22段階と、前記第2接点及び前記第3接点の間の距離が所定の基準値以上に離れる場合、前記第2接点及び前記第3接点の各々に対応する前記一つ以上の客体及び前記仮想のロボットの部位を判断する第23段階と、前記第2接点及び前記第3接点の位置、動き、及び前記第2接点及び前記第3接点に各々対応する部位に基づいて前記インタラクションを判断する第24段階と、を含むことができる。
また、前記第11段階は、前記一つ以上の客体の種類を判断する第25段階と、前記撮影された画像に含まれた前記一つ以上の客体の位置及び種類に基づいて前記仮想のロボットの移動経路を生成する第26段階と、前記仮想のロボットが前記移動経路に沿って移動するようにする第1ミッションを獲得する第27段階と、前記仮想のロボットが前記一つ以上の客体のうち少なくとも一つと所定のインタラクションを行うようにする第2ミッションを獲得する第28段階と、を含むことができる。
また、前記第11段階は、前記移動経路上に一つ以上の仮想の客体を生成及び表示する第29段階と、前記一つ以上の仮想の客体の種類を決定する第30段階と、前記一つ以上の仮想の客体の位置及び種類に基づいて前記移動経路をアップデートする第31段階と、前記仮想のロボットが前記アップデートされた移動経路に沿って移動するようにする第3ミッションを獲得する第32段階と、前記仮想のロボットが前記一つ以上の仮想の客体のうち少なくとも一つと所定のインタラクションを行うようにする第4ミッションを獲得する第33段階と、を含むことができる。
また、前記第8段階は、前記一つ以上のコマンドブロックのうち少なくとも一部を前記仮想のロボットに配置する第34段階をさらに含み、前記第9段階は、前記仮想のロボットに配置されたコマンドブロックに対応する命令を行う第35段階と、前記一つ以上のポイントに到着する場合、前記到着したポイントに配置されたコマンドブロックに対応する命令を行う第36段階と、前記仮想のロボットに配置されたコマンドブロックに対応する命令と、前記到着したポイントに配置されたコマンドブロックに対応する命令とが衝突する場合、動作を停止してフィードバックを表示する第37段階と、をさらに含むことができる。
本発明のその他の具体的な事項は、詳細な説明及び図に含まれている。
本発明の利点及び特徴、並びにそれらを達成する方法は、添付図と共に詳細に後述されている実施例を参照すると明確になる。しかし、本発明は、以下で開示される実施例に制限されるわけではなく、互いに異なる様々な形態で実現されることができ、単に本実施例は、本発明の開示が完全であるようにし、本発明が属する技術分野の通常の技術者に本発明の範疇を完全に知らせるために提供され、本発明は、請求項の範疇により定義されるだけである。
本明細書で使用されている用語は、実施例を説明するためであり、本発明を制限するものではない。本明細書において、単数形は、文句で特に言及しない限り、複数形も含む。明細書で使用される「含む(comprises)」及び/又は「含む(comprising)」は、言及された構成要素以外に一つ以上の他の構成要素の存在又は追加を排除しない。明細書全体にわたって同一の図面符号は同一の構成要素を指し、「及び/又は」は、言及された構成要素の各々及び一つ以上の全ての組み合わせを含む。たとえ「第1」、「第2」等が様々な構成要素を叙述するために使用されても、これらの構成要素は、これらの用語により制限されないのは勿論である。これらの用語は、単に一つの構成要素を他の構成要素と区別するために使用する。従って、以下で言及される第1構成要素は、本発明の技術的思想内で第2構成要素であることもあるのは勿論である。
別の定義がなければ、本明細書で使用される全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野における通常の技術者に共通的に理解できる意味として使用できる。また、一般的に使用される辞書に定義されている用語は、明らかに異なって定義されない限り、理想的に又は過度に解釈されない。
明細書で使用される「部」又は「モジュール」という用語は、ソフトウェア、FPGA又はASICのようなハードウェアの構成要素を意味し、「部」又は「モジュール」はいかなる役割を行う。しかし、「部」又は「モジュール」は、ソフトウェア又はハードウェアに限定される意味ではない。「部」又は「モジュール」は、アドレッシングできる格納媒体にあるように構成されてもよく、一つ又はそれ以上のプロセッサを再生させるように構成されてもよい。従って、一例として、「部」又は「モジュール」は、ソフトウェアの構成要素、客体指向ソフトウェアの構成要素、クラスの構成要素、及びタスクの構成要素のような構成要素、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、及び変数を含む。構成要素と「部」又は「モジュール」の中で提供される機能は、より小さい数の構成要素、及び「部」又は「モジュール」で結合されるか、更なる構成要素と「部」又は「モジュール」にさらに分離されることができる。
空間的に相対的な用語である「下(below)」、「下(beneath)」、「下部(lower)」、「上(above)」、「上部(upper)」等は、図に示しているように、一つの構成要素と他の構成要素との相関関係を容易に記述するために使用されることができる。空間的に相対的な用語は、図に示している方向に加えて使用時、又は動作時に構成要素の互いに異なる方向を含む用語として理解されるべきである。例えば、図に示している構成要素を覆す場合、他の構成要素の「下(below)」又は「下(beneath)」と記述された構成要素は、他の構成要素の「上(above)」に置かれ得る。従って、例示的な用語である「下」は、下と上の方向をいずれも含むことができる。構成要素は、異なる方向にも配向され得、これによって、空間的に相対的な用語は、配向によって解釈され得る。
本明細書で説明される各段階と共に記載された番号(例:第1段階、第2段階等)は、各段階を区分するためのものであり、各段階の実行順序や前後関係を特定するためのものではない。
本明細書において、「ロボット」又は「仮想のロボット」は、制御による命令を行うハードウェア装置又はソフトウェア的に構成された仮想の装置を意味し、特定の種類を限定するためのものではない。
本明細書において、コンピューティング装置は、少なくとも一つのプロセッサを含む全ての種類のハードウェア装置を意味し、実施例に係り、該当ハードウェア装置で動作するソフトウェア的構成も包括する意味として理解されることができる。例えば、コンピューティング装置は、スマートフォン、タブレットPC、コンピュータ、及び各装置で駆動されるユーザクライアント及びアプリケーションを全て含む意味として理解されることができ、また、これに制限されるわけではない。
以下、添付図を参照として、本発明の実施例を詳細に説明する。
図1乃至図8に関して説明される各段階は、コンピューティング装置により行われると説明されるが、各段階の主体はこれに制限されるわけではなく、実施例に係り、各段階の少なくとも一部が互いに異なる装置で行われることもある。
以下で開示される実施例において、コンピューティング装置はカメラを含み、カメラを利用して周辺画像を撮影し、撮影された画像に仮想のロボットを結合した拡張現実の画像を表示する。
コンピューティング装置はユーザ入力によって仮想のロボットを制御するためのコマンドを獲得し、獲得されたコマンドによって仮想のロボットを制御し、制御結果を表示する。
仮想のロボットは、制御によって撮影された画像に含まれた客体及び拡張現実の画像に含まれた仮想の客体とインタラクションして動作し、コンピューティング装置は、インタラクションの結果によるフィードバックを提供する。
図1は、一実施例に係る拡張現実を利用したコーディング教育方法を示すフローチャートである。
段階S101で、コンピューティング装置は、コーディング教育のコンテンツを獲得する第1段階を行う。
一実施例において、コンピューティング装置はネットワークを介してサーバからコーディング教育のコンテンツを獲得する。別の実施例において、コンピューティング装置はメモリに格納されたコーディング教育のコンテンツを獲得することができ、また、所定の規則に基づいてコーディング教育のコンテンツを生成することもできる。
段階S102で、コンピューティング装置は、前記コーディング教育のコンテンツに含まれた一つ以上のポイントを選択する第2段階を行う。
一実施例において、コーディング教育のコンテンツは、仮想のロボットに一つ以上の実際又は仮想の客体とインタラクションして移動するようにするコマンドを作成するためのものであり得る。
例えば、コーディング教育のコンテンツは、仮想のロボットに一つ以上の障害物を避けて特定経路に移動するようにするコマンドを作成するためのものであり得る。また、コーディング教育のコンテンツは、仮想のロボットに移動経路上で特定の客体を取って運搬するようにするコマンドを作成するためのものであり得る。
従って、コーディング教育のコンテンツに含まれた一つ以上のポイントは、仮想のロボットとインタラクションする対象になる一つ以上の客体を意味する。例えば、一つ以上の客体は、仮想のロボットが避けるべき障害物であってもよく、仮想のロボットが運搬すべき物等を含んでもよい。
段階S103で、コンピューティング装置は、前記カメラから撮影された画像を獲得する第3段階を行う。
段階S104で、コンピューティング装置は、前記撮影された画像を認識し、前記撮影された画像に含まれた一つ以上の客体と前記一つ以上のポイントとをマッチングする。
例えば、一つ以上の客体は、撮影された画像に含まれた特定の物を意味することもあり、実施例にかかり、壁や底の特定位置がコンピューティング装置の選択によって客体として認識されることもある。
コンピューティング装置は、撮影された画像に含まれた一つ以上の客体に対して、コーディング教育のコンテンツに含まれた一つ以上のポイントを各々マッチングさせる。例えば、撮影された画像に含まれた特定の物が、コーディング教育のコンテンツに含まれた障害物としてマッチングされ、仮想のロボットが該当物を避けていくようにコマンドを作成し得る。
同様に、撮影された画像に含まれた特定の物に対して、仮想のロボットが該当の物を持って移動するようにコマンドを作成し得る。この場合、仮想のロボットが実際の物を持って移動することはできないので、コンピューティング装置は、仮想のロボットの動き及び仮想のロボットと実際の物(具体的には、コンピューティング装置の画面に表示される撮影された実際の物)との位置関係に基づいて、実際の物を仮想のロボットが取ったものと判断し、仮想のロボットが動くことによって該当物が仮想のロボットと共に移動するものと判断し得る。実施例にかかり、コンピューティング装置は、仮想のロボットにより移動される実際の物を画面から除去し、実際の物又は実際の物とマッチングされたポイントに対応する仮想の物が仮想のロボットにより移動される画像を表示することができるが、これに制限されるわけではない。
コンピューティング装置が仮想のロボットと実際の物との間の位置関係を判断する方法については、具体的に後述する。
段階S105で、コンピューティング装置は、前記撮影された画像及び前記マッチングされた一つ以上のポイントを表示する第5段階を行う。
例えば、コンピューティング装置は撮影された画像を表示するが、撮影された画像で認識された一つ以上の客体が撮影された位置にコーディング教育のコンテンツに含まれたポイント(又はポイントに対応する仮想の客体)を表示する。各々の客体とマッチングされたポイントは、実際の客体の位置で客体を代替して表示されてもよく、客体とオーバーラップされて表示されてもよい。
段階S106で、コンピューティング装置は、前記撮影された画像に仮想のロボットを表示する第6段階を行う。仮想のロボットの大きさ及び形態は制限されない。実施例にかかり、仮想のロボットは、仮想の客体とインタラクションするための道具(例えば、仮想の客体を取って移動するためのトング等)を含むことができる。
段階S107で、コンピューティング装置は、前記仮想のロボットの動きを制御するための一つ以上のコマンドを各々含む一つ以上のコマンドブロックを表示する第7段階を行うことができる。
例えば、各々のコマンドブロックは、仮想のロボットを特定の方向に移動するようにするコマンド(例えば、前進、後進、左回転、右回転等)を含むことができる。
また、各々のコマンドブロックは、仮想のロボットと客体をインタラクションするようにするコマンド(例えば、客体を取る動作、客体と衝突したり客体を避ける動作、客体を押す動作等)を含むことができる。
また、各々のコマンドブロックは、特定の条件に基づいて行われるコマンド(例えば、客体が認識されると停止したり、回避したり、客体を取るようにする等)を含むことができる。
段階S108で、コンピューティング装置は、前記表示された一つ以上のコマンドブロックに対するユーザ入力に基づいて、前記一つ以上のコマンドブロックを前記一つ以上のポイントに配置する第8段階を行う。
例えば、コンピューティング装置は、タッチスクリーン装置を介してユーザから表示された一つ以上のコマンドブロックの各々を選択及びドラッグアンドドロップするタッチ入力を受信し、受信されたユーザ入力に対応する位置に各々のコマンドブロックを移動させて表示することができる、各々のコマンドブロックは、ユーザの選択によって、各々のポイントに移動して配置されることができ、各々のポイントは、前述したようにコーディング教育のコンテンツに含まれているものであって、仮想のロボットが移動する中に方向変換や特定命令の実行が必要なポイントを含む意味として理解されることができる。
例えば、各々のポイントは、仮想のロボットが避けるべき障害物や、通り過ぎるべき通路、開けて通過すべきドア、方向を変換すべき壁等を意味することができ、各々のポイントは、カメラで撮影された画像に含まれた一つ以上の客体にマッチングされる。例えば、各々のポイントは、カメラで撮影された画像に含まれた実際の壁、底の特定位置、底に位置する物等に対応してマッチングされることができ、ユーザの入力によってコマンドブロックが各々のポイントに配置されることができる。一つのポイントに複数のコマンドブロックが配置される場合、配置された順序に従って配置されることができ、順序は、ユーザ入力によって変更され得る。
段階S109で、コンピューティング装置は、前記一つ以上のコマンドブロックが配置された順序に従って前記仮想のロボットを制御するが、前記仮想のロボットは、前記一つ以上のポイントに沿って移動し、各々のポイントに配置されたコマンドブロックに対応する命令を行う、第9段階を行う。
例えば、仮想のロボットは、コーディング教育のコンテンツに含まれたポイントに沿って移動し、各々のポイントに到着する場合、各々のポイントに配置されたコマンドブロックに対応する命令を行う。
例えば、仮想のロボットは、障害物が配置されたポイントに到着し、該当ポイントに右回転して直進するようにという命令と、左回転して直進するようにという命令とを含むコマンドブロックが順通りに配置されている場合、右回転して直進した後に左回転して直進することによって、障害物を避けて前進することができる。
別の例として、仮想のロボットは、特定のポイントで、ポイントに配置された客体を取るようにという命令と、直進するようにという命令とを含むコマンドブロックが順通りに配置されている場合、ポイントに配置された客体を取った後に直進することができる。
また別の例として、仮想のロボットは、直進できる通路に対応するポイントで、該当通路に進入せずに右回転して直進するようにというコマンドブロックが配置されている場合、該当通路に進入せずに右回転して直進することができる。
段階S110で、コンピューティング装置は、前記制御結果による前記仮想のロボットの動きを表示する第10段階を行う。即ち、コンピューティング装置は、前述した制御による仮想のロボットの動きとインタラクションを表示する。
図2は、一実施例に係るコーディング教育のコンテンツ獲得方法及びこれに対応する仮想のロボット制御方法を具体的に説明するための図である。
前述した段階S101で、コンピューティング装置は、前記コーディング教育のコンテンツに含まれたミッションを獲得する第11段階(S111)を行う。
例えば、コーディング教育のコンテンツに含まれたミッションは、仮想のロボットを特定の位置から他の位置に移動するようにするミッション、特定の経路に沿って仮想のロボットを移動するようにするミッション、仮想のロボットが特定の客体を移すようにするミッション等を含むことができるが、これに制限されない。
また、コンピューティング装置は、前記ミッションを表示する第12段階(S112)を行う。
前述した段階S109で、コンピューティング装置は、前記制御結果による前記ミッションの達成可否を判断する第13段階(S113)を行う。
一実施例において、各々のミッションは、ミッション内容による一つ以上のポイントを含み、コンピューティング装置は、各々のポイントを撮影された画像とマッチングさせた後、仮想のロボットが撮影された画像内に拡張現実を介して動く間に、仮想のロボットと各々のポイント(即ち、各ポイントとマッチングされた撮影された画像の部分)間のインタラクションを判断、ミッションの達成可否を判断することができる。
また、コンピューティング装置は、前記ミッションの達成可否によるフィードバックを表示する第14段階(S114)を行う。
例えば、コンピューティング装置は、仮想のロボットの動作が完了した後、ミッションの達成可否を判断し、これに基づいてミッションの達成可否又はミッションが失敗した場合、どこで失敗し、何が問題であるかを含むフィードバックを生成及び提供することができる。
また、コンピューティング装置は、仮想のロボットの動きをリアルタイムで判断し、各々の動作に対してミッションに従っているか、又はミッションから外れているかを判断してフィードバックを提供することができる。
一実施例において、コンピューティング装置は、各々のポイントに配置されたコマンドブロックの配置に基づいてミッションの成功可否を予め判断することもでき、この場合、コマンドブロックの配置を変更することを要請するフィードバックを提供することができる。
図3は、一実施例にかかり、ミッションの達成可否を判断する方法を具体的に示すフローチャートである。
前述した段階S113で、コンピューティング装置は、前記一つ以上の客体と前記仮想のロボット間のインタラクションを判断する第15段階(S115)を行う。
例えば、コンピューティング装置は、撮影された画像に含まれた客体又はこれにマッチングされたポイントに対応する仮想のイメージと仮想のロボット間の位置関係に基づいてインタラクションを判断することができる。
一実施例において、仮想のロボットには超音波センサが含まれることができる。また、仮想のロボットには、超音波センサから感知される距離によるコマンドが配置されることができる。この場合、コンピューティング装置は、客体と仮想のロボット間の距離及び角度を判断し、これから超音波センサの仮想の出力を算出する。コンピューティング装置は、算出された仮想の出力に基づいて仮想のロボットを制御することができる。また、コンピューティング装置は、一つ以上の客体と仮想のロボット間の接点に基づいてインタラクションを判断することができ、具体的な方法について後述する。
また、コンピューティング装置は、前記インタラクションに基づいて前記一つ以上のポイントの各々でのミッション達成可否を判断する第16段階(S116)を行う。
例えば、コーディング教育のコンテンツによると、特定のポイントに対して、仮想のロボットに該当ポイントと衝突せずに避けていくようにするミッションが割り当てられていることがあり、これに対応し、コンピューティング装置は、該当ポイントに到達する前に仮想のロボットの方向を変換してこれを避けていくようにするコマンドブロックを配置することがある。この場合、仮想のロボットは、コンピューティング装置の制御によって該当ポイントと衝突せずに避けていくことになり、コンピューティング装置は、該当ポイントのミッションが達成されたものと判断することができる。
また、前述した段階S114で、コンピューティング装置は、前記一つ以上のポイントの各々でのミッション達成可否によるフィードバックを表示する、第17段階(S117)を行う。
例えば、コンピューティング装置は、各々のポイントでのミッションが達成された場合、該当ポイントの色等を異なって表現することによって、ミッションの達成可否に対するフィードバックを提供することができるが、これに制限されるわけではない。
図4は、一実施例にかかり、インタラクションを判断する方法を説明するフローチャートである。
前述した段階S115で、コンピューティング装置は、前記一つ以上の客体と前記仮想のロボット間の一つ以上の接点を判断する第18段階(S118)を行う。
例えば、コンピューティング装置は、拡張現実の画像を分析し、一つ以上の客体と仮想のロボット間の接点を判断する。例えば、接点は、拡張現実の画像で、客体と仮想のロボットとが接したり重なる部分を意味することができる。
また、コンピューティング装置は、前記一つ以上の接点の各々に対応する前記一つ以上の客体及び前記仮想のロボットの部位を判断する第19段階(S119)を行う。
例えば、コンピューティング装置は、一つ以上の接点の各々に対して、該当接点が客体と仮想のロボットのどの部位に該当するかを判断することができる。例えば、客体が仮想のロボットにより運搬されなければならないボックスである場合、接点はボックスの一部分と、仮想のロボットでボックスを運搬するのに利用されるトングの一部に対応し得る。
また、コンピューティング装置は、前記一つ以上の接点の位置、動き、及び前記一つ以上の接点の各々に対応する部位に基づいて、前記インタラクションを判断する第20段階(S120)を行う。
例えば、第1接点と第2接点が判断された場合、第1接点が運搬対象のボックスの一地点に、第2接点が他の一地点に対応し得る。同様に、第1接点が仮想のロボットに含まれたトングの一方の部分に、第2接点がトングの他方の部分に対応し得る。この場合、コンピューティング装置は、仮想のロボットがトングを利用して運搬対象のボックスを取ったことを判断することができる。また、この状態で第1接点と第2接点の位置が移動する場合、コンピューティング装置は、接点の移動方向に沿って仮想のロボットが運搬対象のボックスを持ち上げたり、持ち運ぶと判断することができる。
図5は、一実施例にかかり、接点及びインタラクションを判断する方法を具体的に説明するフローチャートである。
前述した段階S120で、コンピューティング装置は、前記一つ以上の接点に含まれた第1接点を第2接点及び第3接点に分割する第21段階(S121)を行う。
例えば、一つの接点が判断された場合にも、コンピューティング装置は、該当接点を予備として2つ又はそれ以上の複数の接点に分割するが、各々の接点が同じ位置にあると判断することができる。
また、コンピューティング装置は、前記第2接点及び前記第3接点の動きを追跡する第22段階(S122)を行う。
また、コンピューティング装置は、前記第2接点及び前記第3接点間の距離が所定の基準値以上に離れる場合、前記第2接点及び前記第3接点の各々に対応する前記一つ以上の客体及び前記仮想のロボットの部位を判断する第23段階(S123)を行う。
一実施例において、接点に対応する客体又は仮想のロボットの部位が分離されて互いに離れることがある。例えば、客体が2以上に分離できる。客体が分離できるブロックを積んだ形態であるか、又は仮想のロボットとのインタラクションにより切断される等の実施例があり得る。また、仮想のロボットのトングが閉じた状態から開いた状態に切り換えられる。このとき、トングの先端が接点に対応した場合、トングが開くにつれて、接点が2以上に分離できる。
また、コンピューティング装置は、前記第2接点及び前記第3接点の位置、動き、並びに前記第2接点及び前記第3接点に各々対応する部位に基づいて、前記インタラクションを判断する第24段階(S124)を行う。
コンピューティング装置は、接点が2以上に分離される場合、分離された各々の接点に対応する客体と仮想のロボットの部位を再度判断し、客体と仮想のロボット間のインタラクションを判断することができる。
一実施例において、客体と仮想のロボットが接触してから離れ得る。この場合、客体側の接点と仮想のロボット側の接点に既存の接点が分離でき、コンピューティング装置は、各々の接点に対応する対象体及び部位を再度判断し、客体と仮想のロボット間のインタラクションを判断することができる。
即ち、コンピューティング装置は接点の生成を判断するが、以降、接点が消えたり、2以上に分離される動作を全て追跡することによって、仮想のロボットと客体間のインタラクションを判断することができる。
図6は、ミッションを獲得する一例を示すフローチャートである。
前述した段階S111で、コンピューティング装置は、前記一つ以上の客体の種類を判断する第25段階(S125)を行う。
例えば、コンピューティング装置は、各々の客体が仮想のロボットにより運搬されなければならない客体であるか、仮想のロボットが避けなければならない客体であるか、仮想のロボットが通り過ぎることができる客体であるか等を判断することができる。
また、コンピューティング装置は、前記撮影された画像に含まれた前記一つ以上の客体の位置及び種類に基づいて、前記仮想のロボットの移動経路を生成する第26段階(S126)を行う。
例えば、コンピューティング装置は、各々の客体の種類を判断した結果に基づいて仮想のロボットが移動すべき経路を生成することができ、該当経路は、仮想のロボットが移動できる最適の経路又は経路の範囲等を含むことができるが、これに制限されるわけではない。
また、コンピューティング装置は、前記仮想のロボットが前記移動経路に沿って移動するようにする第1ミッションを獲得する第27段階(S127)を行う。
移動経路の範囲は難易度に応じて互いに異なって設定され得、仮想のロボットが所定範囲内に移動するようにするミッションが獲得されることもあり、仮想のロボットの移動経路を位相的に解釈して同一範囲の移動経路と判断される場合、ミッションを達成したものと判断するミッションが獲得されることもある。
また、コンピューティング装置は、前記仮想のロボットが前記一つ以上の客体のうち少なくとも一つと所定のインタラクションを行うようにする第2ミッションを獲得する第28段階(S128)を行う。
例えば、ミッションは仮想のロボットに特定の客体を避けて行ったり、衝突したり、運搬するようにするミッションを含むことができるが、これに制限されるわけではない。
図7は、仮想の客体に基づいてミッションを獲得する一例を説明するフローチャートである。
前述した段階S111で、コンピューティング装置は、前記移動経路上に一つ以上の仮想の客体を生成及び表示する第29段階(S129)を行う。
例えば、仮想の客体は、撮影された画像に含まれていない客体であって、撮影された画像の一地点に拡張現実を利用して表示されることができる。
また、コンピューティング装置は、前記一つ以上の仮想の客体の種類を決定する第30段階(S130)を行う。
例えば、仮想の客体の種類は、仮想のロボットにより運搬されるべき客体、仮想のロボットが避けるべき客体、仮想のロボットが通り過ぎることができる客体等を含むことができ、これに制限されるわけではない。
また、コンピューティング装置は、前記一つ以上の仮想の客体の位置及び種類に基づいて前記移動経路をアップデートする第31段階(S131)を行う。
例えば、追加された仮想の客体が仮想のロボットが避けるべき障害物である場合、これを避けて移動することができるように移動経路がアップデートできる。
また、コンピューティング装置は、前記仮想のロボットが前記アップデートされた移動経路に沿って移動するようにする第3ミッションを獲得する第32段階(S132)を行う。
また、コンピューティング装置は、前記仮想のロボットが前記一つ以上の仮想の客体のうち少なくとも一つと所定のインタラクションを行うようにする第4ミッションを獲得する第33段階(S133)を行う。
例えば、第4ミッションは、仮想のロボットが仮想の客体を運搬したり、複数の仮想の客体を利用して特定の模様を作ったり、ブロックのように複数の仮想の客体を積み上げるようにするミッション等を含むことができる。
図8は、一実施例に係り、コマンドブロックを配置する方法を説明するフローチャートである。
前述した段階S108で、コンピューティング装置は、前記一つ以上のコマンドブロックのうち少なくとも一部を前記仮想のロボットに配置する第34段階(S134)を行う。
一実施例において、コンピューティング装置は、ユーザ入力に基づいてコマンドブロックのうち少なくとも一部をコーディング教育のコンテンツから獲得されたポイントに配置するだけでなく、仮想のロボットにも配置することができる。即ち、ユーザからコマンドブロックに対するドラッグアンドドロップ入力を受信し、それによって仮想のロボットが配置された位置にコマンドブロックを配置し、仮想のロボットに複数のコマンドブロックが配置される場合、配置された順序に従ってコマンドブロックを整列することができる。コマンドブロックが配置される順序は、ユーザ入力によって変更され得る。
例えば、仮想のロボットに配置されるコマンドブロックは、ポイントと関係なく仮想のロボットが行う動作であってもよく、仮想のロボットが各々の客体又はポイントを認識して動作するようにする仮想のセンサ装備を利用する動作を含むことができる。
例えば、仮想のロボットに配置されるコマンドブロックは、仮想のロボットを直進するようにするコマンドと、障害物が認識される場合、一旦停止するようにするコマンドを含むことができる。
前述した段階S109で、コンピューティング装置は、前記仮想のロボットに配置されたコマンドブロックに対応する命令を行う第35段階(S135)を行う。
また、コンピューティング装置は、前記一つ以上のポイントに到着する場合、前記到着したポイントに配置されたコマンドブロックに対応する命令を行う第36段階(S136)を行う。
例えば、仮想のロボットは、仮想のロボットに配置されたコマンドブロックによって基本的に直進を行い、障害物が認識される場合、一旦停止することができる。
以降、該当障害物に対応するポイントに配置されたコマンドブロックによって、該当障害物を持ち上げたり、回避する動作を行うことができる。
また、コンピューティング装置は、前記仮想のロボットに配置されたコマンドブロックに対応する命令と、前記到着したポイントに配置されたコマンドブロックに対応する命令とが衝突する場合、動作を停止してフィードバックを表示する第37段階(S137)を行う。
例えば、仮想のロボットに配置されたコマンドブロックが、障害物に出会う場合、障害物に衝突するようにする命令を含み、該当障害物に対応するポイントに配置されたコマンドブロックが、障害物を回避するようにする命令が含まれる場合、衝突が発生する。この場合、誤謬を防止するために、コンピューティング装置は仮想のロボットの動作を停止させて、フィードバックを表示することができる。
また、実施例にかかり、コマンドブロックの優先順位が設定できる。例えば、仮想のロボットに配置されたコマンドブロックによる命令と各ポイントに配置されたコマンドブロックによる命令とが衝突する場合、仮想のロボットに配置されたコマンドブロックによる命令が優先するように、又はその逆になるように設定されることができる。
また、命令の種類に応じて優先順位が異なって設定されることもあり(例えば、障害物に衝突する命令より回避する命令が優先し得る)、各コマンドブロック毎に優先順位が設定されていることもある。例えば、各コマンドブロックには順次に番号が与えられており、互いに異なるコマンドブロックが衝突することになる場合、より高い番号が与えられたコマンドブロックの命令に従うようにすることができる。
一実施例において、段階S137によって、仮想のロボットの動作が停止され、フィードバックが表示される場合、ユーザの選択によって衝突するコマンドブロックのうち一つが選択され、選択されたコマンドブロックによって仮想のロボットが制御されることもできる。
また、ユーザは仮想のロボットの動作が停止された場合、デバッギングを行い、コマンドブロックの配置を変更することもできる。
図9は、一実施例に係るコンピューティング装置の構成図である。
プロセッサ102は、一つ以上のコア(core、図示せず)及びグラフィック処理部(図示せず)及び/又は他の構成要素と信号を送受信する連結通路(例えば、バス(bus)等)を含むことができる。
一実施例に係るプロセッサ102は、メモリ104に格納された一つ以上のインストラクションを実行することによって、図1乃至図8に関して説明された方法を行う。
例えば、プロセッサ102は、メモリに格納された一つ以上のインストラクションを実行することによってコーディング教育のコンテンツを獲得する第1段階と、前記コーディング教育のコンテンツに含まれた一つ以上のポイントを選択する第2段階と、前記カメラから撮影された画像を獲得する第3段階と、前記撮影された画像を認識し、前記撮影された画像に含まれた一つ以上の客体と前記一つ以上のポイントとをマッチングする第4段階と、前記撮影された画像及び前記マッチングされた一つ以上のポイントを表示する第5段階と、前記撮影された画像に仮想のロボットを表示する第6段階と、前記仮想のロボットの動きを制御するための一つ以上のコマンドを各々含む一つ以上のコマンドブロックを表示する第7段階と、前記表示された一つ以上のコマンドブロックに対するユーザ入力に基づき、前記一つ以上のコマンドブロックを前記一つ以上のポイントに配置する第8段階と、前記一つ以上のコマンドブロックが配置された順序に従って前記仮想のロボットを制御し、前記仮想のロボットは、前記一つ以上のポイントに沿って移動し、各々のポイントに配置されたコマンドブロックに対応する命令を行う、第9段階と、前記制御結果による前記仮想のロボットの動きを表示する第10段階と、を行う。
一方、プロセッサ102は、プロセッサ102の内部で処理される信号(又は、データ)を一時的及び/又は永久的に格納するラム(RAM:Random Access Memory、図示せず)及びロム(ROM:Read−Only Memory、図示せず)をさらに含むことができる。また、プロセッサ102は、グラフィック処理部、ラム、及びロムのうち少なくとも一つを含むシステムオンチップ(SoC:system on chip)の形態で実現されることができる。
メモリ104にはプロセッサ102の処理及び制御のためのプログラム(一つ以上のインストラクション)を格納することができる。メモリ104に格納されたプログラムは、機能によって複数個のモジュールに区分されることができる。
本発明の実施例に関して説明された方法又はアルゴリズムの段階は、ハードウェアで直接実現されたり、ハードウェアにより実行されるソフトウェアモジュールで実現されたり、又はこれらの結合により実現されることができる。ソフトウェアモジュールは、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、着脱型ディスク、CD−ROM、又は本発明が属する技術分野でよく知られている任意の形態のコンピュータ読取可能記録媒体に常駐することもできる。
本発明の構成要素は、ハードウェアであるコンピュータと結合されて実行されるために、プログラム(又はアプリケーション)で実現されて媒体に格納されることができる。本発明の構成要素は、ソフトウェアプログラミング又はソフトウェア要素で実行されることができ、これと同様に、実施例は、データ構造、プロセス、ルーチン又は他のプログラミングの構成の組み合わせで実現される様々なアルゴリズムを含み、C、C++、ジャバ(Java)、アセンブラー(assembler)等のようなプログラミング又はスクリプティング言語で実現されることができる。機能的な側面は、一つ以上のプロセッサで実行されるアルゴリズムで実現されることができる。
以上、添付図を参照として本発明の実施例を説明したが、本発明が属する技術分野の通常の技術者は、本発明がその技術的思想や必須的な特徴を変更せずに、他の具体的な形態で実施されることができるということを理解できる。従って、以上で記述した実施例は、あらゆる面で例示的なものであり、制限的ではないものと理解すべきである。

Claims (8)

  1. カメラを含むコンピューティング装置により行われる方法であって、
    コーディング教育のコンテンツを獲得する第1段階と、
    前記コーディング教育のコンテンツに含まれた一つ以上のポイントを選択する第2段階と、
    前記カメラから撮影された画像を獲得する第3段階と、
    前記撮影された画像を認識し、前記撮影された画像に含まれた一つ以上の客体と前記一つ以上のポイントとをマッチングする第4段階と、
    前記撮影された画像及び前記マッチングされた一つ以上のポイントを表示する第5段階と、
    前記撮影された画像に仮想のロボットを表示する第6段階と、
    前記仮想のロボットの動きを制御するための一つ以上のコマンドを各々含む一つ以上のコマンドブロックを表示する第7段階と、
    前記表示された一つ以上のコマンドブロックに対するユーザ入力に基づき、前記一つ以上のコマンドブロックを前記一つ以上のポイントに配置する第8段階と、
    前記一つ以上のコマンドブロックが配置された順序に従って前記仮想のロボットを制御し、前記仮想のロボットは、前記一つ以上のポイントに沿って移動し、各々のポイントに配置されたコマンドブロックに対応する命令を行う、第9段階と、
    前記制御結果による前記仮想のロボットの動きを表示する第10段階と、
    を含む、拡張現実を利用したコーディング教育方法。
  2. 前記第1段階は、
    前記コーディング教育のコンテンツに含まれたミッションを獲得する第11段階と、
    前記ミッションを表示する第12段階と、を含み、
    前記第9段階は、
    前記制御結果による前記ミッションの達成可否を判断する第13段階と、前記ミッションの達成可否によるフィードバックを表示する第14段階と、を含む、請求項1に記載の拡張現実を利用したコーディング教育方法。
  3. 前記第13段階は、
    前記一つ以上の客体と前記仮想のロボット間のインタラクションを判断する第15段階と、
    前記インタラクションに基づいて前記一つ以上のポイントの各々でのミッション達成可否を判断する第16段階と、を含み、
    前記第14段階は、
    前記一つ以上のポイントの各々でのミッション達成可否によるフィードバックを表示する、第17段階を含む、請求項2に記載の拡張現実を利用したコーディング教育方法。
  4. 前記第15段階は、
    前記一つ以上の客体と前記仮想のロボット間の一つ以上の接点を判断する第18段階と、
    前記一つ以上の接点の各々に対応する前記一つ以上の客体及び前記仮想のロボットの部位を判断する第19段階と、
    前記一つ以上の接点の位置、動き、及び前記一つ以上の接点の各々に対応する部位に基づいて、前記インタラクションを判断する第20段階と、を含む、請求項3に記載の拡張現実を利用したコーディング教育方法。
  5. 前記第20段階は、
    前記一つ以上の接点に含まれた第1接点を第2接点及び第3接点に分割する第21段階と、
    前記第2接点及び前記第3接点の動きを追跡する第22段階と、
    前記第2接点及び前記第3接点の間の距離が所定の基準値以上に離れる場合、前記第2接点及び前記第3接点の各々に対応する前記一つ以上の客体及び前記仮想のロボットの部位を判断する第23段階と、
    前記第2接点及び前記第3接点の位置、動き、及び前記第2接点及び前記第3接点に各々対応する部位に基づいて前記インタラクションを判断する第24段階と、を含む、請求項4に記載の拡張現実を利用したコーディング教育方法。
  6. 前記第11段階は、
    前記一つ以上の客体の種類を判断する第25段階と、
    前記撮影された画像に含まれた前記一つ以上の客体の位置及び種類に基づいて前記仮想のロボットの移動経路を生成する第26段階と、
    前記仮想のロボットが前記移動経路に沿って移動するようにする第1ミッションを獲得する第27段階と、
    前記仮想のロボットが前記一つ以上の客体のうち少なくとも一つと所定のインタラクションを行うようにする第2ミッションを獲得する第28段階と、を含む、請求項2に記載の拡張現実を利用したコーディング教育方法。
  7. 前記第11段階は、
    前記移動経路上に一つ以上の仮想の客体を生成及び表示する第29段階と、
    前記一つ以上の仮想の客体の種類を決定する第30段階と、
    前記一つ以上の仮想の客体の位置及び種類に基づいて前記移動経路をアップデートする第31段階と、
    前記仮想のロボットが前記アップデートされた移動経路に沿って移動するようにする第3ミッションを獲得する第32段階と、
    前記仮想のロボットが前記一つ以上の仮想の客体のうち少なくとも一つと所定のインタラクションを行うようにする第4ミッションを獲得する第33段階と、を含む、請求項6に記載の拡張現実を利用したコーディング教育方法。
  8. 前記第8段階は、
    前記一つ以上のコマンドブロックのうち少なくとも一部を前記仮想のロボットに配置する第34段階をさらに含み、
    前記第9段階は、
    前記仮想のロボットに配置されたコマンドブロックに対応する命令を行う第35段階と、
    前記一つ以上のポイントに到着する場合、前記到着したポイントに配置されたコマンドブロックに対応する命令を行う第36段階と、
    前記仮想のロボットに配置されたコマンドブロックに対応する命令と、前記到着したポイントに配置されたコマンドブロックに対応する命令とが衝突する場合、動作を停止してフィードバックを表示する第37段階と、をさらに含む、請求項1に記載の拡張現実を利用したコーディング教育方法。
JP2020508468A 2018-06-20 2019-05-14 拡張現実を利用したコーディング教育方法 Active JP6940204B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180071051A KR101947160B1 (ko) 2018-06-20 2018-06-20 증강현실을 이용한 코딩교육 방법
KR10-2018-0071051 2018-06-20
PCT/KR2019/005793 WO2019245166A1 (ko) 2018-06-20 2019-05-14 증강현실을 이용한 코딩교육 방법

Publications (2)

Publication Number Publication Date
JP2020531964A true JP2020531964A (ja) 2020-11-05
JP6940204B2 JP6940204B2 (ja) 2021-09-22

Family

ID=65369199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020508468A Active JP6940204B2 (ja) 2018-06-20 2019-05-14 拡張現実を利用したコーディング教育方法

Country Status (5)

Country Link
US (1) US11334325B2 (ja)
EP (1) EP3617986A4 (ja)
JP (1) JP6940204B2 (ja)
KR (1) KR101947160B1 (ja)
WO (1) WO2019245166A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102170978B1 (ko) * 2020-02-26 2020-10-28 류경희 음성 명령 및 증강 현실을 이용한 코딩 교육 장치
CN116457855A (zh) * 2021-09-10 2023-07-18 编程&游戏股份有限公司 基于历史的编程培训系统的控制方法
CN115205416B (zh) * 2022-08-12 2023-06-09 广州鼎甲计算机科技有限公司 图像生成方法、装置、计算机设备和存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330539A (ja) * 2002-05-13 2003-11-21 Sanyo Electric Co Ltd 自律移動ロボットおよびその自律移動方法
KR20090066253A (ko) * 2007-12-18 2009-06-23 (주)시뮬레이션연구소 파이썬 코드 자동생성을 통한 로봇 시뮬레이션 시스템
JP2012000156A (ja) * 2010-06-14 2012-01-05 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
KR20140033297A (ko) * 2012-09-12 2014-03-18 주식회사 호유컴즈 스마트 로봇 교육 서비스 플랫폼 시스템
JP2016197393A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20160357525A1 (en) * 2015-06-08 2016-12-08 Cisco Technology, Inc. Autonomous mobile sensor movement path simulation with an integrated developer environment
JP2017040910A (ja) * 2015-08-20 2017-02-23 スマート キッド エデュケイション リミテッド 接続された玩具を使用する教育システム
JP2017534091A (ja) * 2014-08-25 2017-11-16 エックス デベロップメント エルエルシー ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
JP2017215577A (ja) * 2016-04-27 2017-12-07 劉錦銘 バーチャルロボットを用いた教育システム
JP2018051653A (ja) * 2016-09-27 2018-04-05 株式会社デンソーウェーブ ロボット用の表示システム
JP2018075713A (ja) * 2008-07-11 2018-05-17 インタッチ・テクノロジーズ・インコーポレーテッド 遠隔制御ロボットシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284910B1 (ko) * 2011-05-23 2013-07-12 전윤주 프로그래밍 블록 조립체, 이를 이용한 프로그램에 의해 구동되는 로봇 시스템 및 그 프로그래밍 방법
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
KR20140010616A (ko) * 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법
KR20140095414A (ko) * 2013-01-24 2014-08-01 (주) 애니펜 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101913833B1 (ko) * 2016-11-16 2018-12-06 전석주 프로그래밍 교육을 위한 전자블록 시스템
KR20180007199A (ko) * 2016-07-12 2018-01-22 (주)새로운교육 코딩교육 시스템, 애플리케이션 시스템 및 그 제공방법
KR20180013487A (ko) 2016-07-29 2018-02-07 이광재 소프트웨어 교육 로봇 시스템
KR101892356B1 (ko) * 2016-10-04 2018-08-28 (주)모션블루 블록을 이용한 코딩 교육 서비스 제공 장치 및 방법
JP7138314B2 (ja) * 2017-03-15 2022-09-16 株式会社Icon 学習用玩具
WO2019212698A1 (en) * 2018-05-01 2019-11-07 Magic Leap, Inc. Avatar animation using markov decision process policies

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330539A (ja) * 2002-05-13 2003-11-21 Sanyo Electric Co Ltd 自律移動ロボットおよびその自律移動方法
KR20090066253A (ko) * 2007-12-18 2009-06-23 (주)시뮬레이션연구소 파이썬 코드 자동생성을 통한 로봇 시뮬레이션 시스템
JP2018075713A (ja) * 2008-07-11 2018-05-17 インタッチ・テクノロジーズ・インコーポレーテッド 遠隔制御ロボットシステム
JP2012000156A (ja) * 2010-06-14 2012-01-05 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
KR20140033297A (ko) * 2012-09-12 2014-03-18 주식회사 호유컴즈 스마트 로봇 교육 서비스 플랫폼 시스템
JP2017534091A (ja) * 2014-08-25 2017-11-16 エックス デベロップメント エルエルシー ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
JP2016197393A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20160357525A1 (en) * 2015-06-08 2016-12-08 Cisco Technology, Inc. Autonomous mobile sensor movement path simulation with an integrated developer environment
JP2017040910A (ja) * 2015-08-20 2017-02-23 スマート キッド エデュケイション リミテッド 接続された玩具を使用する教育システム
JP2017215577A (ja) * 2016-04-27 2017-12-07 劉錦銘 バーチャルロボットを用いた教育システム
JP2018051653A (ja) * 2016-09-27 2018-04-05 株式会社デンソーウェーブ ロボット用の表示システム

Also Published As

Publication number Publication date
KR101947160B1 (ko) 2019-02-12
WO2019245166A1 (ko) 2019-12-26
EP3617986A4 (en) 2021-01-20
EP3617986A1 (en) 2020-03-04
US20210334077A1 (en) 2021-10-28
JP6940204B2 (ja) 2021-09-22
US11334325B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP6940204B2 (ja) 拡張現実を利用したコーディング教育方法
JP7198831B2 (ja) オンデマンド遠隔操作を備えた自律ロボット
US20220151716A1 (en) Association processes and related systems for manipulators
US10789775B2 (en) Method for controlling an object
US8996175B2 (en) Training and operating industrial robots
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP2018525266A (ja) 対話方式の軌道最適化を備えた駐車システム
US11969893B2 (en) Automated personalized feedback for interactive learning applications
US10514687B2 (en) Hybrid training with collaborative and conventional robots
CN114728413A (zh) 用于控制远程机器人的图形用户界面的方法和系统
CN112008718B (zh) 一种机器人控制方法、系统、存储介质及智能机器人
CN112230649B (zh) 机器学习方法及移动机器人
CN114800535B (zh) 机器人的控制方法、机械臂控制方法、机器人及控制终端
Lambrecht et al. Spatial programming for industrial robots: Efficient, effective and user-optimised through natural communication and augmented reality
KR102007491B1 (ko) 가상의 로봇을 이용한 코딩 교육 제공 방법
KR102007493B1 (ko) 코딩용 학습 콘텐츠 제공 방법
KR102007495B1 (ko) 가상 로봇을 활용한 교육 콘텐츠 실행 방법
KR20240011998A (ko) 증강현실을 이용한 에듀케이션 프로그래밍 랭귀지(epl) 콘텐츠를 제공하는 시스템
Lunenburg et al. Tech united eindhoven team description 2012
Bolano et al. Towards a vision-based concept for gesture control of a robot providing visual feedback
US11974827B2 (en) Association processes and related systems for manipulators
KR20230122690A (ko) 가상 현실에서 로봇 및 코딩 블럭을 이용한 코딩 교육 방법
Zamani et al. Learning spatial representation for safe human-robot collaboration in joint manual tasks
WO2022259600A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2024031218A (ja) ロボット制御システム、ロボット制御方法、およびロボット制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R150 Certificate of patent or registration of utility model

Ref document number: 6940204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150