JP2018032330A - 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018032330A
JP2018032330A JP2016165971A JP2016165971A JP2018032330A JP 2018032330 A JP2018032330 A JP 2018032330A JP 2016165971 A JP2016165971 A JP 2016165971A JP 2016165971 A JP2016165971 A JP 2016165971A JP 2018032330 A JP2018032330 A JP 2018032330A
Authority
JP
Japan
Prior art keywords
data
scenario
scene
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016165971A
Other languages
English (en)
Inventor
瑞樹 横山
Mizuki Yokoyama
瑞樹 横山
田中 一成
Kazunari Tanaka
一成 田中
淳志 佐々木
Atsushi Sasaki
淳志 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2016165971A priority Critical patent/JP2018032330A/ja
Publication of JP2018032330A publication Critical patent/JP2018032330A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】コンピュータと人間とのより高度な対話内容をより簡単に拡充できるようにすること。
【解決手段】シナリオ作成支援システムは、端末装置10において、GUI形成部と、データ生成部とを備え、サーバにおいて、データ提供部を備える。GUI形成部は、シナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部と、シーンの内容を定義するシーン生成部と、定義されたシーンの内容をビジュアルプログラミングするためのプログラム編集部とを含むユーザインターフェース画面を形成する。データ生成部は、GUI形成部によって形成されたユーザインターフェース画面への入力に応じて、サーバに蓄積された要素となるデータを用いて、シナリオのデータを生成する。データ提供部は、端末装置によって要求された要素となるデータを提供する。
【選択図】図3

Description

本発明は、情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラムに関する。
従来、コンピュータと人間とが対話を行う対話システムが知られている。
このような対話システムにおいて、対話のデータ(対話のコンテンツ)を作成する場合、対話内容を考案するクリエータが作成したシナリオに従い、プログラマがプログラムを行うことにより、目的とする対話のデータが実現される。
ここで、対話とは、発話に基づくイベントをトリガとした状態遷移によって成り立つものであり、コンピュータと人間との対話のデータをプログラムする場合にも、プログラマが状態遷移に関する記述を行って、目的とする対話内容を実現している。
なお、非特許文献1には、ロボット開発におけるシナリオの作成を容易に行うための開発環境として、専用言語を用いたシナリオエディタに関する技術が開示されている。非特許文献1に記載されたシナリオエディタでは、発話、音声認識あるいはモーション等の機能ブロックを組み合わせることで、ロボットのシナリオを開発可能としている。
「シナリオエディタ」、[online]、NECソリューションイノベータ株式会社、[平成28年7月21日検索]、インターネット<URL:http://www.nec-solutioninnovators.co.jp/sl/robot/point05.html>
しかしながら、コンピュータと人間との対話内容を拡充する場合、クリエータによって考案された対話内容毎に、プログラマが状態遷移に関する記述を行って、目的とする対話内容を実現するものとすると、作業負担が多大となり、コンピュータと人間との対話内容を容易に拡充することができない。
また、非特許文献1に記載された技術は、機能ブロックを組み合わせることでシナリオの開発を可能とするものであるが、組み合わせられる機能ブロックは、種々の目的でシナリオを作成する上で必ずしも適切な粒度とはなっていない可能性がある。また、機能ブロックを構成するロジックを変更する場合には、専用言語を理解してプログラムを変更する必要があることから、その作業は容易ではない。
なお、ビジュアルプログラミングによってコンピュータ上のキャラクタの動きをプログラムする手法等が知られているが、プログラム可能な機能は単純なものに留まり、このような手法を用いて高度な対話内容を実現することは困難である。
このように、従来の技術においては、コンピュータと人間との高度な対話内容を簡単に拡充することが困難であった。
本発明は、コンピュータと人間とのより高度な対話内容をより簡単に拡充できるようにすることを目的とする。
上記目的を達成するため、本発明の一態様の情報処理システムは、
対話処理のシナリオのデータを生成する情報処理装置と、前記シナリオのデータの要素となるデータを蓄積するサーバとが通信可能に構成された情報処理システムであって、
前記情報処理装置は、
前記シナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部と、前記シーンの内容を定義するシーン生成部と、定義された前記シーンの内容をビジュアルプログラミングするためのプログラム編集部とを含むユーザインターフェース画面を形成するインターフェース形成手段と、
前記インターフェース形成手段によって形成された前記ユーザインターフェース画面への入力に応じて、前記サーバに蓄積された前記要素となるデータを用いて、前記シナリオのデータを生成するデータ生成手段と、を備え、
前記サーバは、
前記情報処理装置によって要求された前記要素となるデータを提供するデータ提供手段を備えることを特徴とする。
本発明によれば、コンピュータと人間とのより高度な対話内容をより簡単に拡充することができる。
本発明に係るシナリオ作成支援システムのシステム構成を示す図である。 端末装置及びサーバを構成する情報処理装置のハードウェア構成を示す図である。 端末装置の機能構成を示すブロック図である。 シナリオ作成GUIの一例を示す模式図である。 サーバの機能構成を示すブロック図である。 端末装置が実行するGUI提供処理の流れを示すフローチャートである。 端末装置が実行するフロービルダー入出力処理の流れを示すフローチャートである。 端末装置が実行するシーンビルダー入出力処理の流れを示すフローチャートである。 端末装置が実行するブロックエディタ入出力処理の流れを示すフローチャートである。 サーバが実行するシナリオ作成支援処理の流れを示すフローチャートである。 キャラクタと人間とが対話を行う際に、キャラクタが人間の名前を尋ねるシナリオの一例を模式的に示す図である。 ユーザ定義イベントが作成される手順の一例を模式的に示す図である。 ユーザ定義イベントが作成される手順の一例を模式的に示す図である。 ユーザ定義イベントが作成される手順の一例を模式的に示す図である。 ユーザ定義イベントが作成される手順の一例を模式的に示す図である。 フロービルダー部におけるシナリオのフローの表示例を示す模式図である。
以下、本発明の実施形態について、図面を用いて説明する。
[構成]
[システム構成]
図1は、本発明に係るシナリオ作成支援システム1のシステム構成を示す図である。
シナリオ作成支援システム1は、本発明に係る情報処理システムの一実施形態として構成されるものであり、コンピュータ上に生成されたキャラクタが人間と対話する際のシナリオ(対話処理のシナリオ)の作成を支援するシステムである。
本実施形態において、シナリオ作成支援システム1では、キャラクタの一連の対話のフローを表すシナリオのデータが、シーンのデータを構成単位として構築される。シーンとは、対話のフローを構成する要素であり、各シーンは、対話における対話者の発話や操作あるいはシーンの遷移等に基づいて発生する各種イベントによって構成される。また、イベントが発生すると、そのイベントの内容が定義(ビジュアルプログラム)されたアクションが実行される。
また、シナリオ作成支援システム1において、シナリオのデータが構築される場合、ユーザに対して、後述するように、フロービルダー、シーンビルダー及びブロックエディタを含むGUI(Graphical User Interface)が提供される。本実施形態において、フロービルダーでは、シーンを表すアイコンを配列することで、一連の対話のフローを表すシナリオを構築することができる。また、シーンビルダーでは、各シーンの内容(音声認識等のシーンを構成するイベント)を定義することができる。さらに、ブロックエディタでは、シーンにおける動作内容(具体的には、シーンを構成するイベントで実行されるアクションの内容)を、ロジックを表すブロックと、データを表すブロックとを組み合わせることでビジュアルプログラムによって編集することができる。
図1に示すように、シナリオ作成支援システム1は、複数の端末装置10と、サーバ20とを含んで構成され、複数の端末装置10とサーバ20とは、ネットワーク30を介して互いに通信可能に構成されている。
端末装置10は、クリエータ等のユーザによって使用され、後述するGUI提供処理を実行することにより、シナリオのデータを構築するためのGUI(以下、「シナリオ作成GUI」と称する。)を提供する。端末装置10は、シナリオ作成GUIにおいて、シナリオを構成するための部品データをサーバ20から取得し、ユーザが選択可能な形態で提供する。また、端末装置10は、シナリオ作成GUIにおいて作成されたシナリオのデータをサーバ20にアップロードする。サーバ20にアップロードされたシナリオのデータは、他のシナリオのデータを作成する際に、部品データとして再利用することが可能となっている。
サーバ20は、複数の部品データを格納した部品データベース(部品DB)と、複数のシナリオのデータを格納したシナリオデータベース(シナリオDB)とを備えている。そして、サーバ20は、後述するシナリオ作成支援処理を実行することにより、端末装置10においてシナリオ作成GUIがユーザに提供される際に、部品DBに格納されている部品データ及びシナリオDBに格納されているシナリオのデータを端末装置10に適宜提供する。
[ハードウェア構成]
次に、シナリオ作成支援システム1の端末装置10及びサーバ20のハードウェア構成について説明する。
端末装置10及びサーバ20は、情報処理装置によって構成され、例えば端末装置10はPC(Personal Computer)、サーバ20はサーバコンピュータによって構成することができる。
図2は、端末装置10及びサーバ20を構成する情報処理装置800のハードウェア構成を示す図である。
図2に示すように、情報処理装置800は、CPU(Central Processing Unit)811と、ROM(Read Only Memory)812と、RAM(Random Access Memory)813と、バス814と、入力部815と、出力部816と、記憶部817と、通信部818と、ドライブ819と、を備えている。
CPU811は、ROM812に記録されているプログラム、または、記憶部817からRAM813にロードされたプログラムに従って各種の処理を実行する。
RAM813には、CPU811が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU811、ROM812及びRAM813は、バス814を介して相互に接続されている。バス814には、入力部815、出力部816、記憶部817、通信部818及びドライブ819が接続されている。
入力部815は、各種釦等で構成され、指示操作に応じて各種情報を入力する。
出力部816は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部817は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各サーバで管理される各種データを記憶する。
通信部818は、ネットワークを介して他の装置との間で行う通信を制御する。
ドライブ819には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア821が適宜装着される。ドライブ819によってリムーバブルメディア821から読み出されたプログラムは、必要に応じて記憶部817にインストールされる。
なお、上記ハードウェア構成は、情報処理装置800の基本的構成であり、端末装置10あるいはサーバ20を構成する場合、適宜、付加的なハードウェアを備えることができる。例えば、端末装置10を構成する場合、デジタル画像を撮像する撮像部を備えること等が可能である。
[機能的構成]
次に、端末装置10及びサーバ20の機能構成について説明する。
図3は、端末装置10の機能構成を示すブロック図である。
図3に示すように、端末装置10のCPU811がGUI提供処理を実行することにより、CPU811において、GUI形成部111と、GUI入力受付部112と、データ生成部113と、データ実行部114と、シナリオデータ登録部115とが機能する。また、端末装置10の記憶部817には、シナリオデータ記憶部121が形成される。
シナリオデータ記憶部121には、シナリオ作成GUIにおいて作成されたシナリオのデータが記憶される。
GUI形成部111は、GUI提供処理の実行開始と共に、表示画面上にシナリオ作成GUIを形成する。
図4は、シナリオ作成GUIの一例を示す模式図である。
図4に示すように、シナリオ作成GUIには、フロービルダー部131と、シーンビルダー部132と、ブロックエディタ部133とが含まれている。
フロービルダー部131は、シナリオ全体のフローを構成するためのGUIである。フロービルダー部131において、ユーザは、シナリオを構成するシーンを表すアイコンを配列することで、目的とする対話の流れの枠組みを有するシナリオを構成することができる。即ち、ユーザは、シナリオをシーンの状態遷移として定義することができる。本実施形態において、フロービルダー部131では、シナリオを構成するシーンを予め用意された各種属性のシーンから選択して追加することが可能となっている。例えば、図4においては、シーンの属性として、円形のアイコンで表される通常のシーンと、四角形のアイコンで表される参照用のシーンとが用意されている。通常のシーンは、イベントやアクション等を定義することが可能であり、参照用のシーンは、他のシーンを参照するのみで、イベントやアクション等を定義することはできない。
なお、本実施形態においては、通常のシーンとして、シナリオ作成支援システム1において予め用意されている特定の内容を表すシーンのデータ(部品データ)を選択可能となっている。例えば、シナリオの作成時に、高い頻度で組み込まれる内容のシーンのデータを部品データとして予め用意しておくことができる。具体的には、キャラクタが挨拶するシーンのデータ等を部品データとして用意しておくことができる。また、上述のように、本実施形態においては、サーバ20にアップロードされたシナリオのデータも、部品データとして再利用することが可能となっている。
また、フロービルダー部131において、予め用意されている部品データあるいはシナリオのデータを配列する場合、GUI形成部111が、配列の適否を示すナビゲーション表示を実行する。具体的には、ユーザが部品データあるいはシナリオのデータのアイコンをドラッグし、作成中のシナリオのデータにおけるいずれかの位置に配列しようとした場合、ドラッグ中の状態において、GUI形成部111は、配列後のシナリオのフローを表す接続線を一時的に表示する。即ち、GUI形成部111は、作成中のシナリオのデータに、追加される部品データ等がドラッグされた場合、追加される部品データ等の親となるシーンのアイコンを識別して表示すると共に、親となるシーンのアイコンから、追加される部品データ等に繋がる仮想的な接続線を表示する。なお、この仮想的な接続線は、親となるシーンのアイコンから追加される部品データ等に接続可能な場合にのみ表示される。そのため、ユーザは、追加される部品データ等を当該位置に配列した場合に、適切なシナリオのフローとなるか否かを予め確認することができる。
なお、追加される部品データ等が、既に配列されているシーンのアイコンを接続する接続線の位置に重ねてドラッグされた場合、前後のシーンのアイコンとの間に、仮想的な接続線を表示してもよい。この場合にも、仮想的な接続線は、前後のシーンのアイコンと追加される部品データ等とを接続可能な場合にのみ表示される。これにより、ユーザは、前後のシーンとの関係において、追加される部品データ等が当該位置に配列可能であるか否かを予め確認することができる。例えば、前のシーン(親となるシーン)において音声認識した結果を受けて、複数の分岐先のシーン(後のシーン)に繋がることを前提とするフローの位置に、フローが終了するシーンや無関係なシーンにジャンプするシーンが配列されることを防ぐことができる。
このように、GUI形成部111のナビゲーション表示機能により、シナリオ作成GUIにおいては、シーン間の整合性(ロジックあるいは引き渡されるデータ等の整合性)を担保しながら、シナリオのデータを作成することができる。
シーンビルダー部132は、各シーンの内容を定義するためのGUIである。シーンビルダー部132において、ユーザは、シーンを構成するイベントをシーンに追加または削除することができると共に、各イベントの発生条件や分岐条件等、イベントの論理的な内容を定義することができる。また、1つのイベントの論理的な内容は、1つのアクションとして定義され、アクションの内容はブロックエディタ部133によって編集することができる。本実施形態において、各シーンには、シーンの開始時の内容を表す「シーン開始イベント」が少なくとも含まれ、「シーン開始イベント」に続く各種イベントを追加することができる。例えば、各シーンには、特定の発話パターンが音声認識によって検出された場合に開始される「音声認識パターン検出イベント」や、発話において特定のクラスに属する単語が音声認識によって検出された場合に開始される「音声認識クラス検出イベント」や、発話において特定の意図が音声認識によって検出された場合に開始される「意図検出イベント」等を追加することができる。ここで、単語のクラスとは、例えば、駅名や地名等、予め定義された特定の属性であり、発話における意図とは、例えば、人工知能等による自然言語処理で取得可能な意図である。
また、本実施形態において、シーンビルダー部132では、条件分岐によって発生するイベントの内容をそれぞれ独立したアクションとして定義することができる。そのため、音声認識パターン検出イベント等における分岐処理を定義する場合に、一般のプログラミングのように、分岐条件の判断及びそれぞれの分岐先における処理を一体として記述する必要がなく、それぞれの判断結果を含むイベントを定義し、各イベントに対する処理を記述することでプログラミングすることが可能となる。例えば、キャラクタが「お出かけしますか?」と発話するイベントに続いて、音声認識パターン検出イベントとして、音声認識結果に「はい」が含まれる場合のイベント及び「いいえ」が含まれる場合のイベントをそれぞれ定義しておくことにより、分岐条件の判断結果に対応したイベントを実行することができる。これにより、複雑で長大なプログラムを記述する必要がなくなり、シンプルなプログラミングの積み重ねによって、目的とする対話処理の内容を記述することが可能となる。
また、シーンビルダー部132には、キャラクタの振る舞いを表示するキャラクタ表示ウィンドウが形成されている。本実施形態において、キャラクタ表示ウィンドウに表示されるキャラクタの動作は、作成されるシナリオのデータに合わせて、MMD(MikuMikuDance)等の3Dコンピュータグラフィックスソフトウェアによって作成することが可能となっている。さらに、シーンビルダー部132におけるキャラクタ表示ウィンドウには、ユーザによって特定の機能が設定されたボタンアイコンを配置することができる。キャラクタ表示ウィンドウに配置されたボタンアイコンは、キャラクタが人間と対話する際に、キャラクタと共に表示される。キャラクタ表示ウィンドウにおけるボタンアイコンは、例えばシーン毎に定義することができ、ボタンアイコンが操作された場合の動作については、ブロックエディタ部133においてプログラムすることが可能である。
なお、本実施形態において、イベントには、イベントの発生条件が予め決められている「システム標準イベント」と、イベントの発生条件をユーザが定義可能な「ユーザ定義イベント」とが含まれる。上述の「シーン開始イベント」は「システム標準イベント」に該当し、「音声認識パターン検出イベント」、「音声認識クラス検出イベント」及び「意図検出イベント」等は「ユーザ定義イベント」に該当する。
ブロックエディタ部133は、シーンにおける動作内容をビジュアルプログラムによって編集するためのGUIである。ブロックエディタ部133において、ユーザは、ロジックを表すブロックと、データを表すブロックとを組み合わせることで、ビジュアルプログラムによって、シーンにおける動作内容(シーンを構成するイベントで実行されるアクションの内容)を編集することができる。本実施形態において、ブロックエディタ部133では、イベントで実行されるアクションを予め用意された各種属性のブロックのサンプルから選択することが可能となっている。例えば、図4において、ブロックエディタ部133の領域の左端には、各種属性のブロックのサンプルが格納されたブロックサンプルメニューの領域が表示されている。これらブロックサンプルメニューのいずれかを選択すると、その属性のブロックのサンプルが一覧表示され、ユーザは、これらの中から目的とするブロックを選択することが可能となる。即ち、ブロックエディタ部133において選択可能なブロックには、音声認識、音声合成あるいはキャラクタの動作等の属性のブロックが含まれ、ユーザは、目的とするブロックを選択して、シーンにおける具体的な動作内容を編集することができる。
一例として、ブロックサンプルメニューの「音声合成」の中には、「発話する」というロジックを表すブロックが格納されており、図4においては、この「発話する」というブロックが選択されている。また、図4に示す例では、「発話する」というブロックの後に「文字列」というブロック及び「行き先」というブロックが配列されている。「文字列」のブロックは、後ろに配列されるブロックのデータを文字列として解釈する命令を表すものである。また、「行き先」のブロックは、変数「行き先」に格納されているデータを表し、例えば、図4に示す例では、「音声認識パターン検出イベント」で検出された地名(「京都」等)が格納されている。さらに、図4に示す例では、「行き先」というブロックの後に「定型句(に行くんだね)」のブロックが配列されている。「定型句(に行くんだね)」のブロックは、キャラクタの発話パターンの1つであり、キャラクタの対話相手である人間が、いずれかの場所に行く内容の対話を行った場合に、キャラクタの応答に用いられる。なお、「文字列」のブロック等、一部のブロックは、標準の設定を決めておくこと等により、ビジュアルプログラムにおける配列を省略できる構成としてもよい。
また、本実施形態において、ブロックエディタ部133において配列されるロジックあるいはデータのブロックは、ブロックの形状によって、前後のブロックとの整合性を示すものとなっている。即ち、ブロックの左右には、ブロックの内容に応じて所定の形状(凹凸形状)が形成されており、前に配列されたブロックと文法的あるいは論理的に整合しないブロックの場合、前に配列されたブロックの右端の形状とは、左端の形状が嵌まり合わない形状となっている。
これにより、ユーザは、文法的あるいは論理的に整合しないブロック同士であることを容易に認識できるため、不適切なプログラムが行われることを防ぐことが可能となる。
また、本実施形態においては、ロジックのブロックとして、並列処理を行うためのブロックが用意されている。この並列処理を行うためのブロックは、キャラクタに発話をさせながら、対応する動作をさせるためのプログラムを行う場合等に用いることができる。例えば、キャラクタに「こんにちは」と発話させながら、「おじぎする」という動作をさせる場合、並列処理を行うためのブロックにおける第1の処理(アクション)として、「発話する」というロジックのブロック及び「こんにちは」というデータのブロックを配列する。また、並列処理を行うためのブロックにおける第2の処理(アクション)として、「モーション実行」というロジックのブロック及び「おじぎ」というデータのブロックを配列する。このとき、並列処理を行うためのブロックが実行されると、キャラクタによる「こんにちは」の発音と、「おじぎ」の動作とが同時に行われる。
これにより、キャラクタに並列的な動作を行わせる場合に、並列的な動作の組み合わせ毎に命令を用意する必要がなくなり、要素となる動作を組み合わせることで、種々の並列的な動作を簡単にキャラクタに実行させることが可能となる。
なお、並列処理を行うためのブロックに定義された複数の処理(アクション)は、これらの全てが終了した時点で並列処理が終了したものとされ、この時点が次のイベントに移行する基準のタイミングとなる。
図3に戻り、GUI入力受付部112は、シナリオ作成GUIの各部に対するユーザの入力を受け付け、受け付けた入力内容をGUI形成部111、データ生成部113、データ実行部114、あるいは、シナリオデータ登録部115に出力する。例えば、GUI入力受付部112は、フロービルダー部131におけるシーンを表すアイコンの選択を受け付けたり、シーンビルダー部132におけるイベントを追加する指示の入力を受け付けたり、ブロックエディタ部133におけるブロックの選択を受け付けたりする。
データ生成部113は、シナリオ作成GUIの各部に対するユーザの入力に応じて、シナリオの作成に関する各種のデータを生成する。例えば、データ生成部113は、フロービルダー部131においてシーンを表すアイコンが選択された場合、作成中のシナリオのデータに、選択されたアイコンに対応するシーンのデータを追加する。また、データ生成部113は、シーンビルダー部132においてイベントを追加する指示が行われた場合、作成中のシナリオのデータにおいて、シーンのデータにイベントのデータを追加する。さらに、データ生成部113は、ブロックエディタ部133においてイベントで実行されるアクションのブロックが選択された場合、作成中のシナリオのデータに、選択されたブロックに対応するアクションのデータを追加する。
データ実行部114は、シナリオ作成GUIにおいて作成されたシナリオのデータを実行し、キャラクタによる人間との対話を進行する。
なお、データ実行部114は、ユーザの指定に応じて、シナリオ作成GUIにおいて作成されているシナリオのデータの一部を実行することも可能である。
これにより、ユーザは、作成中のシナリオのデータが実行された場合のシミュレーションを行いながら、シナリオのデータを作成することができる。
シナリオデータ登録部115は、ユーザの指示に応じて、シナリオ作成GUIにおいて作成されたシナリオのデータをサーバ20に送信し、シナリオDBに登録する。
シナリオDBに登録されたシナリオのデータは、他のユーザがシナリオ作成GUIにおいてシナリオのデータを作成する際に、部品のデータとして再利用可能となる。
次に、サーバ20の機能構成について説明する。
図5は、サーバ20の機能構成を示すブロック図である。
図5に示すように、サーバ20のCPU811がシナリオ作成支援処理を実行することにより、CPU811において、シナリオ登録受付部211と、データ要求取得部212と、提供データ取得部213と、データ提供部214とが機能する。また、サーバ20の記憶部817には、シナリオDB221と、部品DB222とが形成される。
シナリオDB221には、キャラクタと人間との種々の対話内容を表すシナリオのデータが記憶されている。
部品DB222には、特定の内容を表す種々の部品データが記憶されている。
シナリオ登録受付部211は、端末装置10においてシナリオ作成GUIによって作成され、シナリオDBに登録するために送信されたシナリオのデータを受信し、シナリオDB221に登録する。
データ要求取得部212は、シナリオ作成GUIで選択される部品データを要求するためのデータ要求を、端末装置10から取得する。
提供データ取得部213は、データ要求取得部212によって取得されたデータ要求に示される部品データを部品DB222から取得する。なお、提供データ取得部213は、データ要求が部品データとしてのシナリオデータを要求するものである場合、データ要求に示されるシナリオデータをシナリオDB221から取得する。
データ提供部214は、提供データ取得部213によって取得された部品データあるいはシナリオのデータを、データ要求を行った端末装置10に提供する。
[動作]
次に、シナリオ作成支援システム1の動作を説明する。
初めに、端末装置10の動作について説明する。
[GUI提供処理]
図6は、端末装置10が実行するGUI提供処理の流れを示すフローチャートである。
GUI提供処理は、端末装置10において、GUI提供処理の実行を指示する操作が行われることに対応して開始される。
ステップS1において、GUI形成部111は、表示画面上にシナリオ作成GUI(図4参照)を形成する。
ステップS2において、GUI形成部111は、GUI入力受付部112を介してシナリオ作成GUIへの入力が行われたか否かの判定を行う。
GUI入力受付部112を介してシナリオ作成GUIへの入力が行われた場合、ステップS2においてYESと判定されて、処理はステップS3に移行する。
一方、GUI入力受付部112を介してシナリオ作成GUIへの入力が行われていない場合、ステップS2においてNOと判定されて、処理はステップS11に移行する。
ステップS3において、GUI形成部111は、シナリオ作成GUIへの入力がフロービルダー部131への入力であるか否かの判定を行う。
シナリオ作成GUIへの入力がフロービルダー部131への入力である場合、ステップS3においてYESと判定されて、処理はステップS4に移行する。
一方、シナリオ作成GUIへの入力がフロービルダー部131への入力でない場合、ステップS3においてNOと判定されて、処理はステップS5に移行する。
ステップS4において、GUI形成部111は、フロービルダー入出力処理(後述)を実行する。
ステップS4の後、処理はステップS11に移行する。
ステップS5において、GUI形成部111は、シナリオ作成GUIへの入力がシーンビルダー部132への入力であるか否かの判定を行う。
シナリオ作成GUIへの入力がシーンビルダー部132への入力である場合、ステップS5においてYESと判定されて、処理はステップS6に移行する。
一方、シナリオ作成GUIへの入力がシーンビルダー部132への入力でない場合、ステップS5においてNOと判定されて、処理はステップS7に移行する。
ステップS6において、GUI形成部111は、シーンビルダー入出力処理(後述)を実行する。
ステップS6の後、処理はステップS11に移行する。
ステップS7において、GUI形成部111は、シナリオ作成GUIへの入力がブロックエディタ部133への入力であるか否かの判定を行う。
シナリオ作成GUIへの入力がブロックエディタ部133への入力である場合、ステップS7においてYESと判定されて、処理はステップS8に移行する。
一方、シナリオ作成GUIへの入力がブロックエディタ部133への入力でない場合、ステップS7においてNOと判定されて、処理はステップS9に移行する。
ステップS8において、GUI形成部111は、ブロックエディタ入出力処理(後述)を実行する。
ステップS8の後、処理はステップS11に移行する。
ステップS9において、GUI形成部111は、シナリオ作成GUIへの入力が作成中のシナリオの実行を指示する操作であるか否かの判定を行う。なお、ステップS9においては、作成中のシナリオの一部(1シーンのみ等)または全体の実行の指示が受け付けられる。
シナリオ作成GUIへの入力が作成中のシナリオの実行を指示する操作である場合、ステップS9においてYESと判定されて、処理はステップS10に移行する。
一方、シナリオ作成GUIへの入力が作成中のシナリオの実行を指示する操作でない場合、ステップS9においてNOと判定されて、処理はステップS11に移行する。
ステップS10において、データ実行部114は、ステップS9において実行が指示されたシナリオ(一部または全体)を実行する。
ステップS11において、GUI形成部111は、シナリオ作成GUIへの入力がシナリオのデータをサーバ20のシナリオDBに登録する指示のための操作であるか否かの判定を行う。
シナリオ作成GUIへの入力がシナリオのデータをサーバ20のシナリオDBに登録する指示のための操作である場合、ステップS11においてYESと判定されて、処理はステップS12に移行する。
一方、シナリオ作成GUIへの入力がシナリオのデータをサーバ20のシナリオDBに登録する指示のための操作でない場合、ステップS11においてNOと判定されて、処理はステップS13に移行する。
ステップS12において、シナリオデータ登録部115は、シナリオのデータをシナリオDBに登録するためにサーバ20に送信する。
ステップS13において、GUI形成部111は、シナリオ作成GUIの終了を指示する操作が行われたか否かの判定を行う。
シナリオ作成GUIの終了を指示する操作が行われた場合、ステップS13においてYESと判定されて、GUI提供処理は終了となる。
一方、シナリオ作成GUIの終了を指示する操作が行われていない場合、ステップS13においてNOと判定されて、処理はステップS2に移行する。
[フロービルダー入出力処理]
次に、GUI提供処理のステップS4で実行されるフロービルダー入出力処理について説明する。
図7は、端末装置10が実行するフロービルダー入出力処理の流れを示すフローチャートである。
ステップS41において、GUI形成部111は、シーンを表すアイコンのドラッグが行われたか否かの判定を行う。
シーンを表すアイコンのドラッグが行われた場合、ステップS41においてYESと判定されて、処理はステップS42に移行する。
一方、シーンを表すアイコンのドラッグが行われていない場合、ステップS41においてNOと判定されて、処理はステップS43に移行する。
ステップS42において、GUI形成部111は、シーンを表すアイコンの配列の適否をナビゲーション表示すると共に、シーンを表すアイコンの選択を受け付ける。ステップS42で受け付けられたアイコンの選択は、逐次、データ生成部113によってシナリオのデータに反映される。即ち、ステップS42では、適切なシナリオのフローとなるか否かを予め確認しながら、シーンを表すアイコンを配列することができる。
ステップS43において、GUI形成部111は、プロパティの編集を指示する操作が行われたか否かの判定を行う。なお、プロパティとは、シナリオのデータの作者、更新日時等の属性情報である。本実施形態において、シナリオのデータのプロパティには、シナリオのデータのカテゴリを定義するための「分類項目」を設定することが可能である。例えば、「分類項目」として、「グルメ検索」−「渋谷」と階層的に設定しておくことより、他のユーザ等によって「渋谷のグルメ検索シナリオ」というシーンの検索が行われた場合に、容易に適切なシナリオのデータを検索することが可能となる。
プロパティの編集を指示する操作が行われた場合、ステップS43においてYESと判定されて、処理はステップS44に移行する。
一方、プロパティの編集を指示する操作が行われていない場合、ステップS43においてNOと判定されて、処理はステップS45に移行する。
ステップS44において、GUI形成部111は、プロパティの編集のための画面を表示し、プロパティの編集を受け付ける。ステップS44で受け付けられたプロパティの編集内容は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS45において、GUI形成部111は、シナリオ変数の編集を指示する操作が行われたか否かの判定を行う。なお、シナリオ変数とは、1つのシナリオの実行中は常に有効となる変数であり、シナリオに含まれるシーンに共通して用いることが可能な変数である。
シナリオ変数の編集を指示する操作が行われた場合、ステップS44においてYESと判定されて、処理はステップS46に移行する。
一方、シナリオ変数の編集を指示する操作が行われていない場合、ステップS44においてNOと判定されて、処理はステップS47に移行する。
ステップS46において、GUI形成部111は、シナリオ変数の編集のための画面を表示し、シナリオ変数の編集を受け付ける。ステップS46で受け付けられたシナリオ変数の編集内容は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS47において、GUI形成部111は、シーン変数の編集を指示する操作が行われたか否かの判定を行う。なお、シーン変数とは、シナリオにおける1つのシーンの実行中にのみ有効となる変数であり、その1つのシーン内でのみ用いることが可能な変数である。
シーン変数の編集を指示する操作が行われた場合、ステップS47においてYESと判定されて、処理はステップS48に移行する。
一方、シーン変数の編集を指示する操作が行われていない場合、ステップS47においてNOと判定されて、処理はGUI提供処理に戻る。
ステップS48において、GUI形成部111は、シーン変数の編集のための画面を表示し、シーン変数の編集を受け付ける。ステップS48で受け付けられたシーン変数の編集内容は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS48の後、処理はGUI提供処理に戻る。
[シーンビルダー入出力処理]
次に、GUI提供処理のステップS6において実行されるシーンビルダー入出力処理について説明する。
図8は、端末装置10が実行するシーンビルダー入出力処理の流れを示すフローチャートである。
ステップS61において、GUI形成部111は、イベントの追加または削除を指示する操作が行われたか否かの判定を行う。
イベントの追加または削除を指示する操作が行われた場合、ステップS61においてYESと判定されて、処理はステップS62に移行する。
一方、イベントの追加または削除を指示する操作が行われていない場合、ステップS61においてNOと判定されて、処理はステップS63に移行する。
ステップS62において、GUI形成部111は、イベントの追加または削除を受け付ける。ステップS62で受け付けられたイベントの追加または削除は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS63において、GUI形成部111は、キャラクタ表示ウィンドウへのボタンアイコンの配置を指示する操作が行われたか否かの判定を行う。
キャラクタ表示ウィンドウへのボタンアイコンの配置を指示する操作が行われた場合、ステップS63においてYESと判定されて、処理はステップS64に移行する。
一方、キャラクタ表示ウィンドウへのボタンアイコンの配置を指示する操作が行われていない場合、ステップS63においてNOと判定されて、処理はGUI提供処理に戻る。
ステップS64において、GUI形成部111は、キャラクタ表示ウィンドウにボタンアイコンを配置する。ステップS62で実行されたボタンアイコンの配置は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS64の後、処理はGUI提供処理に戻る。
[ブロックエディタ入出力処理]
次に、GUI提供処理のステップS8で実行されるブロックエディタ入出力処理について説明する。
図9は、端末装置10が実行するブロックエディタ入出力処理の流れを示すフローチャートである。
ステップS81において、GUI形成部111は、ブロックサンプルメニューの選択を指示する操作が行われたか否かの判定を行う。
ブロックサンプルメニューの選択を指示する操作が行われた場合、ステップS81においてYESと判定されて、処理はステップS82に移行する。
一方、ブロックサンプルメニューの選択を指示する操作が行われていない場合、ステップS81においてNOと判定されて、処理はステップS87に移行する。
ステップS82において、GUI形成部111は、選択されたサンプルメニューに対応するブロックのサンプルを一覧表示する。
ステップS83において、GUI形成部111は、一覧表示されたサンプルのいずれかの選択を指示する操作が行われたか否かの判定を行う。
一覧表示されたサンプルのいずれかの選択を指示する操作が行われた場合、ステップS83においてYESと判定されて、処理はステップS84に移行する。
一方、一覧表示されたサンプルのいずれかの選択を指示する操作が行われていない場合、ステップS83においてNOと判定されて、処理はステップS87に移行する。
ステップS84において、GUI形成部111は、選択されたサンプルのブロックが前後に配置されたブロックと整合するか否かの判定を行う。
選択されたサンプルのブロックが前後に配置されたブロックと整合する場合、ステップS84においてYESと判定されて、処理はステップS85に移行する。
一方、選択されたサンプルのブロックが前後に配置されたブロックと整合しない場合、ステップS84においてNOと判定されて、処理はステップS86に移行する。
ステップS85において、GUI形成部111は、選択されたサンプルのブロックを配列する。ステップS85で受け付けられたサンプルのブロックの配列は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS85の後、処理はステップS87に移行する。
ステップS86において、GUI形成部111は、選択されたサンプルのブロックが前後に配置されたブロックと整合しない旨のアラートを報知(例えば、表示あるいは音声出力等)する。
ステップS87において、GUI形成部111は、配列されたサンプルのブロックにデータの入力を行う操作が行われたか否かの判定を行う。
配列されたサンプルのブロックにデータの入力を行う操作が行われた場合、ステップS87においてYESと判定されて、処理はステップS88に移行する。
一方、配列されたサンプルのブロックにデータの入力を行う操作が行われていない場合、ステップS87においてNOと判定されて、処理はGUI提供処理に戻る。
ステップS88において、GUI形成部111は、サンプルのブロックをデータの入力を受け付ける状態で表示し、データの入力を受け付ける。ステップS87で受け付けられたデータの入力は、逐次、データ生成部113によってシナリオのデータに反映される。
ステップS88の後、処理はGUI提供処理に戻る。
次に、サーバ20の動作について説明する。
[シナリオ作成支援処理]
図10は、サーバ20が実行するシナリオ作成支援処理の流れを示すフローチャートである。
シナリオ作成支援処理は、サーバ20において、シナリオ作成処理の実行を指示する操作が行われることに対応して開始される。
ステップS101において、データ要求取得部212は、シナリオ作成GUIで選択される部品データを要求するためのデータ要求を、端末装置10から取得したか否かの判定を行う。
シナリオ作成GUIで選択される部品データを要求するためのデータ要求を、端末装置10から取得した場合、ステップS101においてYESと判定されて、処理はステップS102に移行する。
一方シナリオ作成GUIで選択される部品データを要求するためのデータ要求を、端末装置10から取得していない場合、ステップS101においてNOと判定されて、処理はステップS104に移行する。
ステップS102において、提供データ取得部213は、データ要求取得部212によって取得されたデータ要求に示される部品データを部品DB222から取得する。このとき、提供データ取得部213は、データ要求が部品データとしてのシナリオデータを要求するものである場合、データ要求に示されるシナリオデータをシナリオDB221から取得する。
ステップS103において、データ提供部214は、提供データ取得部213によって取得された部品データあるいはシナリオのデータを、データ要求を行った端末装置10に提供する。
ステップS104において、シナリオ登録受付部211は、シナリオDBに登録するためのシナリオのデータを受信したか否かの判定を行う。
シナリオDBに登録するためにシナリオのデータを受信した場合、ステップS104においてYESと判定されて、処理はステップS105に移行する。
一方、シナリオDBに登録するためにシナリオのデータを受信していない場合、ステップS104においてNOと判定されて、シナリオ作成支援処理が繰り返される。
ステップS105において、シナリオ登録受付部211は、受信したシナリオのデータをシナリオDB221に登録する。
ステップS105の後、シナリオ作成支援処理が繰り返される。
このように、本実施形態におけるシナリオ作成支援システム1では、シナリオ作成GUIによって視覚的にわかり易い形態でシナリオの作成を可能とすると共に、シーンにおけるイベントを、基本的な動作のブロックを選択してプログラムすることを可能としている。また、高い頻度でシナリオに組み込まれる内容のシーンのデータ等が部品データとして用意され、この部品データをシナリオのフローとして選択することを可能としている。さらに、作成されたシナリオのデータは、以降、他のシナリオのデータを作成する際に、部品データとして利用することが可能となっている。
そのため、幅広いクリエータが簡単にシナリオの考案からプログラムまでを行えるシナリオ作成環境を提供でき、シナリオ(コンテンツ)の開発を活発化させることが可能となる。また、作成されたシナリオの共有(再利用)を可能とすることで、クリエータのコミュニティの形成・発展に貢献することができる。
[シナリオの具体例]
次に、上述のような処理により、シナリオ作成支援システム1において作成されるシナリオの具体例について説明する。
図11は、キャラクタと人間(対話者)とが対話を行う際に、キャラクタが対話者の名前を尋ねるシナリオの一例を模式的に示す図である。
図11において、シーン構成内容の欄には、各シーンにおけるイベント及びアクションの内容が示され、シーン実行内容の欄には、シナリオを実行した場合のキャラクタと人間との対話内容の例が示されている。
図11に示すように、シーン1は、キャラクタが対話者に挨拶を行うために作成されたシーンである。
シーン1には、シーン開始イベントが含まれ、シーン開始イベントのアクションとして、キャラクタが「はじめまして。「あおい」といいます。あなたのことは何て呼べばいいかな?」と発話する内容(キャラクタ発話)がプログラムされている。
また、シーン1には、シーン開始イベントのアクションとして、キャラクタ発話に次いで、シーン2に遷移する内容(シーン遷移)がプログラムされている。
シーン2は、対話者の回答待ちのために作成されたシーンである。
シーン2には、シーン開始イベントが含まれ、シーン開始イベントのアクションとして、音声認識を開始する内容(音声認識開始)がプログラムされている。
また、シーン2には、音声認識パターン検出イベントが含まれ、音声認識パターン検出イベントには、名前の単語のみが回答される発話パターンである「{name}」、名前と“って呼んで。”という語句の発話パターンである「{name}って呼んで。」、「私の名前は」と、名前と、「です。」という語句のパターンである「私の名前は{name}です。」といった発話パターンが定義されている。なお、{name}は、図11に示すシナリオで用いられるシナリオ変数である。音声認識パターン検出イベントでは、これらの発話パターンにおけるシナリオ変数{name}に該当する単語が抜き出され、シナリオ変数に格納される。
また、シーン2には、音声認識パターン検出イベントのアクションとして、シーン3に遷移する内容(シーン遷移)がプログラムされている。
さらに、シーン2には、音声認識終了イベントが含まれ、音声認識終了イベントのアクションとして、キャラクタが「ごめんなさい。よく聞こえなかったよ。名前を教えてほしいな。」と発話する内容(キャラクタ発話)及び音声認識を開始する内容(音声認識開始)がプログラムされている。
シーン3は、名前の確認のために作成されたシーンである。
シーン3には、シーン開始イベントが含まれ、シーン開始イベントのアクションとして、キャラクタが名前({name})と、“さんって呼びますね。”という語句を発話する内容(キャラクタ発話)及び音声認識を開始する内容(音声認識開始)がプログラムされている。
また、シーン3には、音声認識パターン検出イベントが含まれ、音声認識パターン検出イベントには、“はい。”、“いいよ。”といった発話パターンが定義されている。
また、シーン3には、音声認識パターン検出イベントのアクションとして、シーン4に遷移する内容(シーン遷移)がプログラムされている。
さらに、シーン3には、音声認識終了イベントが含まれ、音声認識終了イベントのアクションとして、キャラクタが「ごめんなさい。よく聞こえなかったよ。名前を教えてほしいな。」と発話する内容(キャラクタ発話)及びシーン2に遷移する内容(シーン遷移)がプログラムされている。
シーン4は、名前の確定のために作成されたシーンである。
シーン4には、シーン開始イベントが含まれ、シーン開始イベントのアクションとして、キャラクタが名前({name})と、“さん、ヨロシクね。”という語句を発話する内容(キャラクタ発話)がプログラムされている。
なお、シーン3において、発話パターンが検出されなかった場合、シーン2にジャンプする。
このようなシーン構成内容の下、シーンのデータが実行された場合、シーン1においては、キャラクタが、「はじめまして。「あおい」といいます。あなたのことは何て呼べばいいかな?」と発話する。
そして、シーン2において、対話者が、「山田って呼んで。」と発話したとすると、シーン3において、キャラクタが、「山田さんって呼びますね。」と発話する。
これに対して、シーン3において、対話者が、「はい。」と発話すると、シーン4において、キャラクタが、「山田さん、ヨロシクね。」と発話する。
このように、各シーンの実行時には、システム標準イベント及びユーザ定義イベントを含む種々のイベントが発生する。例えば、システム標準イベントとして、各シーンの開始時には、シーンの開始時に1度のみ発生するシーン開始イベントが発生する。また、各シーンにおいて、特定のパターンが発話された場合にイベントが発生するようユーザによって定義された各種ユーザ定義イベントが発生する。これらのイベントに対して、シナリオの作成者が、種々のアクションを設定することで、シナリオが構成される。
なお、各アクションは、ブロックエディタ部133においてブロックを配列することでプログラムされる。
[ユーザ定義イベントの作成例]
次に、シナリオ作成支援システム1において作成されるユーザ定義イベントの具体例について説明する。
図12〜図15は、ユーザ定義イベントが作成される手順の一例を模式的に示す図である。
図12〜図15では、シーン2にシーン変数「行き先」を定義すると共に、行き先を尋ねる音声認識パターン検出イベントを定義し、さらに、音声認識検出イベントで検出された行き先を示す発話内容をシーン変数「行き先」に格納するためのプログラムをブロックエディタ部133によって作成する例を示している。
図12に示すように、まず、フロービルダー部131においてシーン2が選択され、シーン2のシーン変数として、「行き先」が作成される。また、シーンビルダー部132において、音声認識パターン検出イベントの作成の指示が入力される。
次に、図13に示すように、新しく生成された音声認識パターン検出イベントにおいて、イベント発生ルールを編集するための指示が入力される。ここで編集されるイベント発生ルールは、音声認識パターン検出イベントが発生するための条件を表すものである。
次に、図14に示すように、音声認識パターン検出イベントのイベント発生ルールを編集するための画面において、今回定義する音声認識パターン検出イベントが発生するための発話パターンの定義が行われる。本実施形態において、発話パターンの定義には、一般的な「正規表現」を用いることができる。ここで、対話者の発話の中から情報を抽出する場合、抽出した情報を保存するための変数(シーン変数またはシナリオ変数)が指定される。図14の例では、対話者が「○○に行きたい。」と発話した場合に、「○○」の情報がシーン変数「行き先」に保存されるよう設定されている。
次に、図15に示すように、ブロックエディタ部133において、対話者が「○○に行きたい。」と発話した場合のアクションがビジュアルプログラミングで作成される。図15に示す例では、対話者が「京都に行きたい」と発話した場合に、「京都に行くんだね。」とキャラクタが応答するアクションがプログラムされている。
このような手順により、ユーザが目的とするユーザ定義イベントのプログラムを容易に行うことができる。
[フロービルダー部におけるフローの表示例]
次に、フロービルダー部131においてシナリオのフローを表示する場合の表示例について説明する。
図16は、フロービルダー部131におけるシナリオのフローの表示例を示す模式図である。
上述のように、シナリオのフローが作成される場合、ユーザがシナリオのアイコンをドラッグすることにより、目的とするフローの配列を作成する。
そこで、フローの前後関係及び並列関係をユーザにわかり易くするため、フロービルダー部131においては、フローの作成領域をマトリクス表示することができる。
即ち、図16に示すように、先頭のシーンのアイコン(最上位のシーンのアイコン)が左端の列に配置され、後続のフローのアイコンは、順次、右側の列に配置される。また、分岐等により並列的な関係にあるシーンのアイコンは、同一の列において異なる行に配置される。なお、最後尾のシーンのアイコン(末尾のシーンのアイコン)の後ろのマスは、シーンを追加可能とするために空白のマスとされている。
このような表示形態において、同一の親(1つ上位)のシーンから分岐した並列的な関係にあるシーンのアイコン間については、それらの位置が置換可能となっている。
また、図16において、破線で示すように、ナビゲーション表示が行われる場合、ドラッグされたアイコンが特定の列に位置している場合に、その親となるシーンのアイコンが識別して表示されると共に、親となるシーンのアイコンから、追加されるシーンのアイコンに繋がる仮想的な接続線が表示される。
このような表示形態により、ユーザは、シナリオのフローの作成をより容易に行うことが可能となる。
[変形例1]
上述の実施形態において示したものに加え、対話処理のシナリオ中で発生するイベントとして、種々のものを定義することが可能である。
例えば、端末装置10の位置情報を契機として発生するイベントを定義することができる。
この場合、端末装置10に、GPS(Global Positioning System)や、携帯電話基地局からの電波強度等を用いて現在位置を取得する現在位置取得部を備えておき、端末装置10の現在位置が予め設定された位置の範囲に入った場合に発生するイベントを定義することが可能である。
これにより、端末装置10に備えられているハードウェアと連携すること等により、多様な契機によって発生する種々のイベントを定義することができる。
以上のように構成されるシナリオ作成支援システム1は、端末装置10と、サーバ20とを含む。端末装置10は、GUI形成部111と、データ生成部113とを備える。また、サーバ20は、データ提供部214を備える。
GUI形成部111は、シナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部(フロービルダー部131)と、シーンの内容を定義するシーン生成部(シーンビルダー部132)と、定義されたシーンの内容をビジュアルプログラミングするためのプログラム編集部(ブロックエディタ部133)とを含むユーザインターフェース画面(シナリオ作成GUI)を形成する。
データ生成部113は、GUI形成部111によって形成されたユーザインターフェース画面への入力に応じて、サーバ20に蓄積された要素となるデータ(部品データ)を用いて、シナリオのデータを生成する。
データ提供部214は、端末装置10によって要求された要素となるデータを提供する。
これにより、ユーザは、視覚的にわかり易いユーザインターフェース画面において、シナリオを構成する要素となるデータを選択し、シナリオにおけるシーンの内容を定義しつつ、シーンの内容をビジュアルプログラミングすることができる。また、ユーザは、シナリオを構成する要素となるデータとして、サーバ20から提供されたものを用いることができる。
したがって、コンピュータと人間とのより高度な対話内容をより簡単に拡充することが可能となる。
GUI形成部111は、フロー生成部において、シーンを表す画像情報を配列するための入力を受け付け、シーンを表す画像情報の配列が確定される前に、当該シーンを表す画像情報が配列された場合のシナリオにおけるシーンの流れを表示するナビゲーション表示処理を実行する。
これにより、ユーザは、追加しようとしているシーンをその位置に配列した場合に、適切なシナリオのフローとなるか否かを予め確認することが可能となる。
GUI形成部111は、ナビゲーション表示処理において、シーンを表す画像情報に対応するシーンが、当該シーンの前または後のシーンと整合するか否かを報知する。
これにより、シーン間の整合性を担保しながら、シナリオのデータを作成することが可能となる。
GUI形成部111は、シーン生成部において、シーンにおいて実行されるイベントを定義するために、対話処理を実行するコンピュータの振る舞いを表す1または複数のアクションの入力を受け付ける。
これにより、ユーザは、イベントの内容を柔軟に定義することが可能となる。
GUI形成部111は、プログラム編集部において、シーンにおいて実行されるイベントのロジックを表すブロックと、当該ロジックで用いられるデータを表すブロックとを配列するための入力を受け付ける。
これにより、ユーザは、ロジックを表すブロックと、データを表すブロックとを組み合わせることで、ビジュアルプログラムによって、シーンの内容を入力することが可能となる。
GUI形成部111は、ロジックを表すブロックとして、複数のイベントを並列処理するためのブロックの配列を受け付ける。
データ生成部113は、複数のイベントを並列処理するシナリオのデータを生成する。
これにより、要素となるイベントを組み合わせることで、種々の並列的な動作を簡単にプログラムすることが可能となる。
GUI形成部111は、フロー生成部において、生成されるシナリオのデータに関する分類項目の設定を受け付ける。
データ生成部113は、分類項目が設定されたシナリオのデータを生成する。
これにより、容易に適切なシナリオのデータを検索することが可能となる。
データ生成部113は、要素となるデータとして、他のシナリオのデータを提供する。
GUI形成部111は、フロー生成部において、他のシナリオをシーンとする入力を受け付ける。
データ生成部113は、他のシナリオをシーンに含む新たなシナリオを生成する。
これにより、他のシナリオのデータをシーンのデータとして利用することが可能となる。
また、端末装置10は、シナリオデータ登録部115を備える。
シナリオデータ登録部115は、データ生成部113によって生成されたシナリオのデータをサーバ20に蓄積するために送信する。
これにより、ユーザは、自らが作成したシナリオのデータをシーンのデータとして提供することができる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述の実施形態において、サーバ20の構成は一例として示したものであり、シナリオ作成支援システム1全体として、サーバ20の機能が備えられていれば、サーバ20の機能を複数のサーバに分割して実装したり、端末装置10にサーバ20の機能の一部を実装したりすることができる。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3及び図5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能がシナリオ作成支援システム1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3及び図5の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア821により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア821は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM812や、図2の記憶部817に含まれるDRAM等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
1 シナリオ作成支援システム、10 端末装置、20 サーバ、30 ネットワーク、111 GUI形成部、112 GUI入力受付部、113 データ生成部、114 データ実行部、115 シナリオデータ登録部、121 シナリオデータ記憶部、131 フロービルダー部、132 シーンビルダー部、133 ブロックエディタ部、211 シナリオ登録受付部、212 データ要求取得部、213 提供データ取得部、214 データ提供部、221 シナリオDB、222 部品DB、800 情報処理装置、811 CPU、812 ROM、813 RAM、814 バス、815 入力部、816 出力部、817 記憶部、818 通信部、819 ドライブ、821 リムーバブルメディア

Claims (15)

  1. 対話処理のシナリオのデータを生成する情報処理装置と、前記シナリオのデータの要素となるデータを蓄積するサーバとが通信可能に構成された情報処理システムであって、
    前記情報処理装置は、
    前記シナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部と、前記シーンの内容を定義するシーン生成部と、定義された前記シーンの内容をビジュアルプログラミングするためのプログラム編集部とを含むユーザインターフェース画面を形成するインターフェース形成手段と、
    前記インターフェース形成手段によって形成された前記ユーザインターフェース画面への入力に応じて、前記サーバに蓄積された前記要素となるデータを用いて、前記シナリオのデータを生成するデータ生成手段と、を備え、
    前記サーバは、
    前記情報処理装置によって要求された前記要素となるデータを提供するデータ提供手段を備えることを特徴とする情報処理システム。
  2. 前記インターフェース形成手段は、前記フロー生成部において、前記シーンを表す画像情報を配列するための入力を受け付け、前記シーンを表す画像情報の配列が確定される前に、当該シーンを表す画像情報が配列された場合の前記シナリオにおけるシーンの流れを表示するナビゲーション表示処理を実行することを特徴とする請求項1に記載の情報処理システム。
  3. 前記インターフェース形成手段は、前記ナビゲーション表示処理において、前記シーンを表す画像情報に対応する前記シーンが、当該シーンの前または後のシーンと整合するか否かを報知することを特徴とする請求項2に記載の情報処理システム。
  4. 前記インターフェース形成手段は、前記シーン生成部において、前記シーンにおいて実行されるイベントを定義するために、前記対話処理を実行するコンピュータの振る舞いを表す1または複数のアクションの入力を受け付けることを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。
  5. 前記インターフェース形成手段は、前記プログラム編集部において、前記シーンにおいて実行されるイベントのロジックを表すブロックと、当該ロジックで用いられるデータを表すブロックとを配列するための入力を受け付けることを特徴とする請求項1から4のいずれか1項に記載の情報処理システム。
  6. 前記インターフェース形成手段は、前記ロジックを表すブロックとして、複数の前記イベントを並列処理するためのブロックの配列を受け付け、
    前記データ生成手段は、複数の前記イベントを並列処理する前記シナリオのデータを生成することを特徴とする請求項5に記載の情報処理システム。
  7. 前記インターフェース形成手段は、前記フロー生成部において、生成される前記シナリオのデータに関する分類項目の設定を受け付け、
    前記データ生成手段は、前記分類項目が設定された前記シナリオのデータを生成することを特徴とする請求項1から6に記載の情報処理システム。
  8. 前記データ提供手段は、前記要素となるデータとして、他の前記シナリオのデータを提供し、
    前記インターフェース形成手段は、前記フロー生成部において、他の前記シナリオを前記シーンとする入力を受け付け、
    前記データ生成手段は、他の前記シナリオを前記シーンに含む新たな前記シナリオを生成することを特徴とする請求項1から7のいずれか1項に記載の情報処理システム。
  9. 前記データ生成手段によって生成された前記シナリオのデータを前記サーバに蓄積するために送信するシナリオデータ送信手段を備えることを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。
  10. 対話処理のシナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部と、前記シーンの内容を定義するシーン生成部と、定義された前記シーンの内容をビジュアルプログラミングするためのプログラム編集部とを含むユーザインターフェース画面を形成するインターフェース形成手段と、
    前記インターフェース形成手段によって形成された前記ユーザインターフェース画面への入力に応じて、前記シナリオのデータを生成するデータ生成手段と、
    を備えることを特徴とする情報処理装置。
  11. 対話処理のシナリオのデータを生成する情報処理装置と、前記シナリオのデータの要素となるデータを蓄積するサーバとが通信可能に構成された情報処理システムにおけるサーバであって、
    前記情報処理装置によって要求された前記要素となるデータを提供するデータ提供手段と、
    前記情報処理装置によって生成された前記シナリオのデータを、前記データ提供手段によって提供される前記要素となるデータとして蓄積するデータ蓄積手段と、
    を備えることを特徴とするサーバ。
  12. 対話処理のシナリオのデータを生成する情報処理装置が実行する情報処理方法であって、
    前記シナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部と、前記シーンの内容を定義するシーン生成部と、定義された前記シーンの内容をビジュアルプログラミングするためのプログラム編集部とを含むユーザインターフェース画面を形成するインターフェース形成ステップと、
    前記インターフェース形成ステップにおいて形成された前記ユーザインターフェース画面への入力に応じて、前記シナリオのデータを生成するデータ生成ステップと、
    を含むことを特徴とする情報処理方法。
  13. 対話処理のシナリオのデータを生成する情報処理装置と、前記シナリオのデータの要素となるデータを蓄積するサーバとが通信可能に構成された情報処理システムにおけるサーバが実行する情報処理方法であって、
    前記情報処理装置によって要求された前記要素となるデータを提供するデータ提供ステップと、
    前記情報処理装置によって生成された前記シナリオのデータを、前記データ提供ステップにおいて提供される前記要素となるデータとして蓄積するデータ蓄積ステップと、
    を含むことを特徴とする情報処理方法。
  14. コンピュータに、
    対話処理のシナリオにおけるシーンの流れを表すフローを構成するためのフロー生成部と、前記シーンの内容を定義するシーン生成部と、定義された前記シーンの内容をビジュアルプログラミングするためのプログラム編集部とを含むユーザインターフェース画面を形成するインターフェース形成機能と、
    前記インターフェース形成機能によって形成された前記ユーザインターフェース画面への入力に応じて、前記シナリオのデータを生成するデータ生成機能と、
    を実現させることを特徴とするプログラム。
  15. 対話処理のシナリオのデータを生成する情報処理装置と、前記シナリオのデータの要素となるデータを蓄積するサーバとが通信可能に構成された情報処理システムにおけるサーバを構成するコンピュータに、
    前記情報処理装置によって要求された前記要素となるデータを提供するデータ提供機能と、
    前記情報処理装置によって生成された前記シナリオのデータを、前記データ提供機能によって提供される前記要素となるデータとして蓄積するデータ蓄積機能と、
    を実現させることを特徴とするプログラム。
JP2016165971A 2016-08-26 2016-08-26 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム Pending JP2018032330A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016165971A JP2018032330A (ja) 2016-08-26 2016-08-26 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016165971A JP2018032330A (ja) 2016-08-26 2016-08-26 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2018032330A true JP2018032330A (ja) 2018-03-01

Family

ID=61303445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016165971A Pending JP2018032330A (ja) 2016-08-26 2016-08-26 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2018032330A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188982A1 (ja) * 2018-03-29 2019-10-03 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
WO2019216053A1 (ja) * 2018-05-11 2019-11-14 株式会社Nttドコモ 対話装置
WO2020105773A1 (ko) * 2018-11-23 2020-05-28 샘코포레이션 주식회사 이미지 카드를 이용한 갈등 구조 이야기 생성 방법
WO2020141611A1 (ja) * 2018-12-31 2020-07-09 株式会社コンシェルジュ 対話型サービス提供システム、対話型サービス提供方法、シナリオ生成編集システム及びシナリオ生成編集方法
JP2021007736A (ja) * 2019-06-28 2021-01-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声スキルゲームの編集方法、装置、機器及び読み取り可能な記憶媒体
WO2021166231A1 (ja) * 2020-02-21 2021-08-26 日本電気株式会社 シナリオ生成装置、シナリオ生成方法、及びコンピュータ読み取り可能な記録媒体
WO2022075479A1 (ja) * 2020-10-09 2022-04-14 株式会社バンダイ 情報処理装置およびプログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03109603A (ja) * 1989-09-22 1991-05-09 Mitsubishi Electric Corp プログラマブルコントローラのプログラミング装置
JPH04125728A (ja) * 1990-09-18 1992-04-27 Oki Electric Ind Co Ltd 図形によるデータフロー制御装置
JPH04318623A (ja) * 1991-04-17 1992-11-10 Nippon Avionics Co Ltd 制御装置
JPH0683601A (ja) * 1992-09-02 1994-03-25 Fuji Facom Corp プログラム開発支援装置
JPH06295231A (ja) * 1993-04-07 1994-10-21 Sony Corp 情報処理装置
JPH09114623A (ja) * 1995-10-13 1997-05-02 Toshiba Corp ユーザインタフェース設計ツール
JP2000089944A (ja) * 1998-07-15 2000-03-31 Hitachi Software Eng Co Ltd 接続ガイドマ―カ表示方法およびシステム、記録媒体
JP2001056694A (ja) * 1999-08-19 2001-02-27 Denso Corp 対話型ユーザインタフェース装置
JP2004287192A (ja) * 2003-03-24 2004-10-14 Equos Research Co Ltd 合成音声編集装置及び合成音声編集プログラム
JP2005181196A (ja) * 2003-12-22 2005-07-07 Equos Research Co Ltd 車載装置及びデータ作成装置
JP2014186508A (ja) * 2013-03-22 2014-10-02 Canon Inc プログラミング装置、プログラミング支援方法及びプログラム
JP2016103270A (ja) * 2014-11-12 2016-06-02 株式会社アドバンスト・メディア 情報処理システム、受付サーバ、情報処理方法及びプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03109603A (ja) * 1989-09-22 1991-05-09 Mitsubishi Electric Corp プログラマブルコントローラのプログラミング装置
JPH04125728A (ja) * 1990-09-18 1992-04-27 Oki Electric Ind Co Ltd 図形によるデータフロー制御装置
JPH04318623A (ja) * 1991-04-17 1992-11-10 Nippon Avionics Co Ltd 制御装置
JPH0683601A (ja) * 1992-09-02 1994-03-25 Fuji Facom Corp プログラム開発支援装置
JPH06295231A (ja) * 1993-04-07 1994-10-21 Sony Corp 情報処理装置
JPH09114623A (ja) * 1995-10-13 1997-05-02 Toshiba Corp ユーザインタフェース設計ツール
JP2000089944A (ja) * 1998-07-15 2000-03-31 Hitachi Software Eng Co Ltd 接続ガイドマ―カ表示方法およびシステム、記録媒体
JP2001056694A (ja) * 1999-08-19 2001-02-27 Denso Corp 対話型ユーザインタフェース装置
JP2004287192A (ja) * 2003-03-24 2004-10-14 Equos Research Co Ltd 合成音声編集装置及び合成音声編集プログラム
JP2005181196A (ja) * 2003-12-22 2005-07-07 Equos Research Co Ltd 車載装置及びデータ作成装置
JP2014186508A (ja) * 2013-03-22 2014-10-02 Canon Inc プログラミング装置、プログラミング支援方法及びプログラム
JP2016103270A (ja) * 2014-11-12 2016-06-02 株式会社アドバンスト・メディア 情報処理システム、受付サーバ、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
飯塚 遼、李 晃伸: "ユーザ生成型音声対話システムにおけるクリエイターとユーザの相互刺激によるインセンティブ向上の検討", 情報処理学会 研究報告 音声言語情報処理(SLP)2014−SLP−101[ONLINE], vol. Vol.2014-SLP-101, No.6, JPN6018014185, 15 May 2014 (2014-05-15), JP, pages 1 - 6, ISSN: 0003781376 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019174732A (ja) * 2018-03-29 2019-10-10 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
WO2019188982A1 (ja) * 2018-03-29 2019-10-03 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
US11430440B2 (en) 2018-05-11 2022-08-30 Ntt Docomo, Inc. Dialog device
WO2019216053A1 (ja) * 2018-05-11 2019-11-14 株式会社Nttドコモ 対話装置
JPWO2019216053A1 (ja) * 2018-05-11 2021-01-07 株式会社Nttドコモ 対話装置
WO2020105773A1 (ko) * 2018-11-23 2020-05-28 샘코포레이션 주식회사 이미지 카드를 이용한 갈등 구조 이야기 생성 방법
US11527029B2 (en) 2018-11-23 2022-12-13 Sam corporation Inc. Method of creating conflict structure story by using image card
WO2020141611A1 (ja) * 2018-12-31 2020-07-09 株式会社コンシェルジュ 対話型サービス提供システム、対話型サービス提供方法、シナリオ生成編集システム及びシナリオ生成編集方法
US20220083317A1 (en) * 2018-12-31 2022-03-17 Concierge U Inc. Interactive service providing system, interactive service providing method, scenario generation and editing system, and scenario generation and editing method
JP2020109558A (ja) * 2018-12-31 2020-07-16 株式会社コンシェルジュ 対話型サービス提供システム、シナリオ生成編集システム及びプログラム
US11822905B2 (en) 2018-12-31 2023-11-21 Kuzen Inc. Interactive service providing system, interactive service providing method, scenario generation and editing system, and scenario generation and editing method
US11383162B2 (en) 2019-06-28 2022-07-12 Baidu Online Network Technology (Beijing) Co., Ltd. Voice skill game editing method, apparatus, device and readable storage medium
JP2021007736A (ja) * 2019-06-28 2021-01-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声スキルゲームの編集方法、装置、機器及び読み取り可能な記憶媒体
JP7150778B2 (ja) 2019-06-28 2022-10-11 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声スキルゲームの編集方法、装置、機器及び読み取り可能な記憶媒体
WO2021166231A1 (ja) * 2020-02-21 2021-08-26 日本電気株式会社 シナリオ生成装置、シナリオ生成方法、及びコンピュータ読み取り可能な記録媒体
WO2022075479A1 (ja) * 2020-10-09 2022-04-14 株式会社バンダイ 情報処理装置およびプログラム

Similar Documents

Publication Publication Date Title
JP2018032330A (ja) 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
JP6850805B2 (ja) コンピューティングデバイスにおけるユーザ対話動作の自動実行
US8717915B2 (en) Process-integrated tree view control for interactive voice response design
JP5509066B2 (ja) 入力メソッドエディタの統合
JP4006338B2 (ja) 情報処理装置及びその方法、プログラム
JP5089213B2 (ja) グラフィカル・インターフェースを音声使用可能インターフェースに変換するための部分的に自動化された方法およびシステム
JP6840379B2 (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
US20140028780A1 (en) Producing content to provide a conversational video experience
JP2011102862A (ja) 音声認識結果管理装置および音声認識結果表示方法
Pérez-Soler et al. Towards Conversational Syntax for Domain-Specific Languages using Chatbots.
KR102527107B1 (ko) 음성에 기반하여 기능을 실행하기 위한 방법 및 이를 지원하는 사용자 전자 장치
JP2015138103A (ja) 支援装置、支援方法およびプログラム
US20210383813A1 (en) Storage medium, editing support method, and editing support device
JP2020052262A (ja) 修正候補提示方法、修正候補提示プログラムおよび情報処理装置
JP2009223720A (ja) 自然言語対話エージェントのためのスクリプト作成支援方法及びプログラム
JP6601545B2 (ja) 支援装置、支援方法およびプログラム
KR102377038B1 (ko) 화자가 표지된 텍스트 생성 방법
Cenek et al. A framework for rapid multimodal application design
KR102446300B1 (ko) 음성 기록을 위한 음성 인식률을 향상시키는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
JP7128222B2 (ja) 映像コンテンツに対する合成音のリアルタイム生成を基盤としたコンテンツ編集支援方法およびシステム
WO2019188981A1 (ja) 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
Girón Bastidas et al. Natural Language Processing Services in Assistive Technology
JP2023051950A (ja) 情報処理システム、プログラム及び情報処理方法
JP2022052695A (ja) 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体
KR20210050410A (ko) 영상 컨텐츠에 대한 합성음 실시간 생성에 기반한 컨텐츠 편집 지원 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180223

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180223

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181113