JP6944548B2 - 自動コード生成 - Google Patents

自動コード生成 Download PDF

Info

Publication number
JP6944548B2
JP6944548B2 JP2019570927A JP2019570927A JP6944548B2 JP 6944548 B2 JP6944548 B2 JP 6944548B2 JP 2019570927 A JP2019570927 A JP 2019570927A JP 2019570927 A JP2019570927 A JP 2019570927A JP 6944548 B2 JP6944548 B2 JP 6944548B2
Authority
JP
Japan
Prior art keywords
gui
component
image
model
gui screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019570927A
Other languages
English (en)
Other versions
JP2021501382A (ja
Inventor
クマール,サティシュ・エス・ビィ
セン,プランティク
Original Assignee
オラクル・インターナショナル・コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オラクル・インターナショナル・コーポレイション filed Critical オラクル・インターナショナル・コーポレイション
Publication of JP2021501382A publication Critical patent/JP2021501382A/ja
Application granted granted Critical
Publication of JP6944548B2 publication Critical patent/JP6944548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/35Creation or generation of source code model driven
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本願は、2018年2月12日に出願され「AUTOMATED CODE GENERATION」と題されたインド仮特許出願第201841005130号に基づく優先権の利益を主張する2018年6月1日に出願され「AUTOMATED CODE GENERATION」と題された米国非仮特許出願第15/996,311号に基づく利益および優先権を主張し、あらゆる目的のために上記特許出願の内容全体を本明細書に引用により援用する。
背景
典型的なグラフィックユーザインターフェイス(graphic user interface)(GUI)開発プロセスにおいて、GUIは、設計者が、顧客またはクライアント調査、マーケティング調査、および、開発するGUIに含まれるべき機能および外観を伝える他の情報源に基づいて設計することができる。GUIは、アプリケーションのための各種画面のモックアップ画像、画面の設計およびルック・アンド・フィール(look and feel)、画面と画面との間の移行などのような、アプリケーションの所望のユーザインターフェイス(UI)を記述することができる。画面のモックアップ画像に加えて、GUIは、GUIに関する情報をユーザに提供するテキストコンテンツも含み得る。
アプリケーションのためのGUI(GUI画面の画像を含む)は、設計者が文書(たとえば設計文書)または仕様書(たとえば画像ファイルもしくは概略スケッチ)において文書化することができる。次に、このGUI設計文書を用いて、アプリケーションのためのGUIを実現するためのコードを作成または開発することができる。たとえば、開発段階において、アプリケーションのためのGUI画面の1つ以上の画像またはスケッチを含むGUI設計文書は、GUI設計文書に基づいてGUIおよび/またはアプリケーションを実現するためのコードを記述するタスクが課された技術者または開発者を含む工学技術組織に提供することができる。これらの開発者は、手作業でこのコードを記述する、または「ドラッグ&ドロップ」ベースの開発ツールを用いて所望のGUI画面を構築しGUI設計文書に記載されている所望の外観および機能を有するGUIを実現するコードを生成することができる。
このように、実行可能なアプリケーションのためのGUIを設計文書から開発することは、相当な開発者の手作業の手間を要する場合がある。これは、開発者が、設計文書を検討し、GUI画面の所望の機能および外観を含む要件を理解し、それからコードを記述してGUIおよび/またはアプリケーションを実現することを必要とする場合がある。これはまた、開発者が、GUIの開発に使用されるアプリケーション開発プラットフォームおよびプログラミング言語に関する知識を有すること、ならびに、GUIおよびアプリケーションの開発対象である特定のターゲットシステムまたはプラットフォーム(たとえばiOS(登録商標)またはAndroid(登録商標)、モバイルまたはデスクトップ)に関する知識を有することも、必要とする場合がある。このため、GUIの開発には特定の専門技術を有する開発者が必要であることが極めて多い。これらの要因はすべて、開発段階を、冗長で、時間がかかり、大きな労働力を要し、高コストなものにする。
簡単な概要
本開示は、アプリケーション開発に関し、より具体的には、アプリケーションのためのグラフィックユーザインターフェイス(GUI)を、当該アプリケーションの1つ以上のGUI画面用の1つ以上の画像またはスケッチ等の設計文書から開発することを自動化する技術に関する。方法、システム、1つ以上のプロセッサによる実行が可能なプログラム、コードまたは命令を格納する非一時的なコンピュータ読取可能記憶媒体などを含む、発明の各種実施形態が、本明細書に記載される。
特定の実施形態において、アプリケーションのためのGUIは、1つ以上のGUI画面を含み得る。各画面は、ボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、アイコン、表などのような1つ以上のユーザインターフェイス(UI)コンポーネントを含む。GUI画面はまた、UIコンポーネントに加えてテキストコンテンツを含む部分を含み得る。テキストコンテンツは、特定のUIコンポーネントに対応付けることができ、たとえば、UIコンポーネントに入力される情報、UIコンポーネントの機能、URLリンクその他を記述することができる。
特定の実施形態において、たとえばGUI設計者が設計したGUI画面の画像(GUI画面画像とも呼ぶ)を解析することにより、GUI画面画像からテキスト情報を抽出するとともに、GUI画面に含まれるUIコンポーネントを特定する。各種の機械学習ベースの技術を用いることによりGUI画面画像を解析することができる。たとえば、UIコンポーネントを、機械学習ベースの分類器(たとえばサポートベクターマシン分類器または畳み込みニューラルネットワークベースの分類器)によって検出および分類することができ、この分類器は、入力GUI画面画像を提供し、画面画像に存在するUIコンポーネントおよび画像内の検出したUIコンポーネントの位置を特定するように構成されている。加えて、機械学習ベースの分類器は、検出された各UIコンポーネントのタイプおよび/または検出された各UIコンポーネントに対応付けられた機能を特定するように構成されてもよい。GUI画面画像内のテキストコンテンツアイテムおよび対応するそれぞれの位置を検出し認識してもよい。
次に、たとえば、検出したUIコンポーネント、UIコンポーネントのタイプ、UIコンポーネントの位置、UIコンポーネントの対応付けられたテキスト情報、および、どのUIコンポーネントにも対応付けられていない可能性があるその他のテキスト情報に基づいて、アプリケーションのためのGUIについて、GUIモデルを生成することができる。GUIモデルは、言語から独立しかつプラットフォームから独立している。アプリケーションのためのGUIを記述する情報は、アプリケーションのための1つ以上のGUI画面を記述する情報と、各GUI画面ごとの、GUI画面上の、検出したUIコンポーネント、テキスト部分その他に関する情報とを含み得る。
アプリケーションのために生成されたモデルを格納するために各種異なるフォーマットを使用することができる。たとえば、特定の実施形態において、生成したモデルは、JavaScript(登録商標)オブジェクト表記(JavaScript Object Notation)(JSON)フォーマットのような、言語および/またはプラットフォームから独立したデータ交換フォーマットで記述することができる。いくつかの実装例において、GUIモデルは、アプリケーションに対応付けることができるメタデータとして生成してもよい。
続いて、アプリケーションのためのGUIの解析に基づいて生成されたGUIモデルを用いて、このモデルに記述されているアプリケーションのためのGUIを実現するコードを生成することができる。生成されるこのコードは、実行または解釈されると、アプリケーションGUIを記述する設計文書(たとえばGUIを表す一組の画像を含む設計文書)に示されるルック・アンド・フィールおよび機能を有するGUIを生成するものである。生成された同じモデルを、各種の異なるプラットフォーム(たとえばiOS(登録商標)、アンドロイド(登録商標)など)のための潜在的に異なる言語でコードを生成するために使用してもよい。
先に述べたように、GUI画面を表す画像を解析することにより、この画像内に存在する1つ以上のテキストコンテンツアイテムおよびUIコンポーネントを検出することができる。いくつかの実施形態において、UIコンポーネントを分類する前に、テキストコンテンツアイテムを、UIコンポーネントの画像から抽出してもよく、テキストコンテンツを含まないプレースホルダに置き換えてもよい。いくつかの実施形態において、テキストコンテンツアイテムを含む画像の部分の画素に基づいてヒストグラムを生成することができる。ヒストグラムを用いて、テキストコンテンツアイテムの強度が背景の強度よりも低いか否かを判断することができる。次に、画像のこの部分の画素を反転させることにより、この画像の部分のテキストコンテンツアイテムを、この画像の部分の背景よりも暗くすることができる。次に、反転させた画像の部分に基づいて、テキストコンテンツアイテムを認識することができる。いくつかの実施形態において、この画像の部分のテキストコンテンツアイテムを、画素の予め定められたパターンを有する、またはこの画像の部分の背景の画素値を有する画素アレイに置き換えてもよい。この画素アレイの置き換えにより、実際のおテキストコンテンツが画像部分から削除されるだけでなく、画像内のテキストコンテンツの位置および協会が識別される。いくつかの実施形態において、画素の予め定められたパターンにより、テキストコンテンツアイテムの位置および/またはUIコンポーネントのタイプを判断し易くすることができる。
特定の実施形態において、アプリケーションのためのGUIについて生成されたGUIモデルは、このアプリケーションのための1つ以上のGUI画面に対応する情報をカプセル化することができる。各GUI画面ごとに、GUIモデルは、GUI画面に含まれる1つ以上のユーザインターフェイス(UI)コンポーネントを特定する情報を含み得る。各GUI画面ごとに、このモデルはまた、ユーザインターフェイスコンポーネントの階層的組織を特定する情報およびGUI画面上のテキストコンテンツアイテム等の、GUI画面の構造に関する情報を含み得る。たとえば、いくつかの実施形態において、UIコンポーネントを、たとえば、UIコンポーネントのタイプおよび位置に基づいてグルーピングすることにより、UIコンポーネントのサブグループ(たとえば表またはリスト)を形成することができる。サブグループをさらにクラスタ化することによって、GUI画面のより高いレベルのレイアウトを決定することができる。いくつかの実施形態において、テキストコンテンツアイテムもグルーピングすることにより、たとえば、テキストのラインまたはテキストのパラグラフを形成することができる。いくつかの実施形態において、たとえば、テキストコンテンツアイテムおよびUIコンポーネントの位置情報に基づいて、テキストコンテンツアイテムをグルーピングするかまたはUIコンポーネントに対応付けることができる。
特定の実施形態において、GUI画面の画像を解析することにより、テキストコンテンツアイテムおよびUIコンポーネントを含む画像の部分を特定することができる。テキストコンテンツアイテムの位置および性質に応じて、テキストコンテンツアイテムは画面上で検出されたUIコンポーネントに対応付けられていると判断することができる、または、特定の実施形態において、テキストコンテンツアイテムは独立しており検出されたどのUIコンポーネントにも対応付けられていないと判断することができる。生成されたGUIモデルはこの情報をカプセル化する。いくつかの実施形態において、GUIモデルはこのようにして、特定のテキストコンテンツアイテムは独立しておりどのUIコンポーネントにも対応付けられていないことを示すことができる。特定の実施形態において、対応付けられていないテキストコンテンツアイテムを検出し、クリックされるとアクションを開始できるクリッカブルテキスト(またはリンク)に分類することができる。この情報はGUIモデルに格納することができる。
いくつかの実施形態において、GUIモデルは、設計されたGUI画面のルック・アンド・フィールを再現できるようにGUI画面の各種UIコンポーネントを如何にして表示すべきかを記述することができる。特定の実施形態において、GUIモデルはまた、GUI画面上の特定のUIコンポーネントに対応付けられる機能に関する情報を含み得る。ユーザインターフェイスコンポーネントに対応付けられる機能は、たとえば、機械学習ベースの分類器によって分類されたユーザインターフェイスコンポーネントのタイプ、および/または対応付けられたテキストコンテンツアイテム(もしあれば)に基づいて、判断することができる。
いくつかの実施形態において、生成したGUIモデルに関するフィードバックをユーザが編集および提供できるようにするインフラストラクチャが提供される。ユーザフィードバックは、たとえば、自動的に生成されたモデルの部分に対して行われる訂正(たとえばUIコンポーネントに対応付けられたタイプの変更)を含み得る。フィードバックはまた、ユーザがモデルに追加される追加情報を提供することを含み得る。次に、ユーザフィードバックは、機械学習ベースの分類器を改善する(たとえば再訓練する)ために使用することができる。
GUI設計情報に基づいてGUIについて生成されたGUIモデルは、さまざまなダウンストリームコンシューマによって使用されることができる。たとえば、ダウンストリームコンシューマは、このモデルを使用することにより、GUIを実現するためのコードを自動でかつ実質的に手作業によるコーディングなしで、生成することができる。このコードは、たとえば、GUIモデルを生成するために使用された一組の画像に示されている所望のルック・アンド・フィールおよび/または機能と実質的に同様のルック・アンド・フィールおよび/または機能を有するGUIを表示するために、ウェブブラウザによって解釈されることが可能な解釈可能プログラムまたは1つ以上のプロセッサによって実行されることが可能な実行可能プログラムであってもよい。同じGUIモデルを異なるコンシューマが使用してもよい。たとえば、第1のコンシューマが第1のプラットフォーム(たとえばiOS(登録商標))に対して実行可能なものを自動的に生成するためにこのGUIモデルを使用してもよく、第2のコンシューマが異なるプラットフォーム(たとえばAndroid(登録商標))に対して第2の実行可能なものを自動的に生成するためにこの同じGUIモデルを使用してもよい。また、GUIモデル(たとえばJSONフォーマット)を用いて、マークアップ言語(たとえばHTMLもしくはXML)またはスタイルシート言語(たとえばカスケーディングスタイルシート(cascading style sheet)(CSS))のような異なるプログラミング言語でコードを生成することもできる。
特定の実施形態に従うと、コンピュータによって実現される方法は、入力画像から、グラフィックユーザインターフェイス(GUI)のGUI画面を示すGUI画面画像を検出するステップと、第1のテキストコンテンツアイテムを含むGUI画面画像の第1の領域を検出するステップと、GUI画面画像内の第1の領域の位置を判断するステップと、第1の領域のコンテンツを、テキストコンテンツを含まないプレースホルダに置き換えるステップとを含み得る。このコンピュータによって実現される方法はさらに、GUI画面画像の第2の領域内に位置する第1のユーザインターフェイス(UI)コンポーネントを検出するステップを含み得る。第2の領域はプレースホルダを有する第1の領域を含む。さらに、GUI画面画像内の第1のUIコンポーネントの位置を判断するステップと、機械学習ベースの分類器を用いて、第1のUIコンポーネントのUIコンポーネントタイプを判断するステップとを含み得る。機械学習ベースの分類器は、複数の訓練画像を含む訓練データを用いて訓練されてもよく、複数の訓練画像のうちの各訓練画像はUIコンポーネントを含み得る。訓練データはさらに、各訓練画像ごとに、訓練画像内のUIコンポーネントのUIコンポーネントタイプを特定する情報を含み得る。次に、GUIを実現するためのコードを生成するために使用可能なGUIモデルが生成されてもよい。GUIモデルは、第1のUIコンポーネントの情報と、第1のテキストコンテンツアイテムの情報とを含み得る。第1のUIコンポーネントの情報は、第1のUIコンポーネントについて判断したUIコンポーネントタイプと、GUI画面画像内の第1のUIコンポーネントの位置とを示す情報を含み得る。
この方法のいくつかの実施形態において、第1のUIコンポーネントを検出するステップは、機械学習ベースの分類器がGUI画面画像内の第1のUIコンポーネントを検出するステップを含み得る。訓練データはさらに、各訓練画像ごとに、訓練画像内のUIコンポーネントの位置を含み得る。いくつかの実施形態において、この方法はさらに、GUI画面画像内の第1の領域の位置およびGUI画面画像内の第1のUIコンポーネントの位置に基づいて、第1のテキストコンテンツアイテムとともに第1のUIコンポーネントをグルーピングするステップをさらに含み、
GUIモデルを生成するステップはさらに、GUIモデルに、グルーピングを示す情報を含めるステップを含む。
いくつかの実施形態において、このコンピュータによって実現される方法はさらに、第2のテキストコンテンツアイテムを含み得るGUI画面画像の第3の領域を検出するステップと、GUI画面画像内の第3の領域の位置を判断するステップと、GUI画面画像内に位置する第2のUIコンポーネントを検出するステップと、GUI画面画像内の第2のUIコンポーネントの位置を判断するステップと、機械学習ベースの分類器を用いて、第2のUIコンポーネントのUIコンポーネントタイプを判断するステップとを含み得る。このコンピュータによって実現される方法はさらに、第1の領域の位置、第3の領域の位置、第1のUIコンポーネントのUIコンポーネントタイプおよび位置、ならびに第2のUIコンポーネントのUIコンポーネントタイプおよび位置に基づいて、第1のテキストコンテンツアイテム、第2のテキストコンテンツアイテム、第1のUIコンポーネント、および第2のUIコンポーネントをグルーピングするステップと、グルーピングに基づいてGUI画面のレイアウトを決定するステップとを含み得る。GUIモデルを生成するステップはさらに、GUIモデルに、グルーピングおよびGUI画面のレイアウトを示す情報を含めるステップを含み得る。
いくつかの実施形態において、このコンピュータによって実現される方法はさらに、GUI画面画像内の第3の領域の位置に基づいて、第2のテキストコンテンツはGUI画面画像内のいずれのUIコンポーネントにも対応付けられていないと判断するステップと、第2のテキストコンテンツアイテムはアクションを示すと判断するステップとをさらに含み得る。GUIモデルを生成するステップは、GUIモデルにおいて、GUI画面画像の第3の領域内の第2のテキストコンテンツアイテムはクリッカブルテキストであることを示すステップを含み得る。第2のテキストコンテンツのクリックはアクションを開始させることができる。
いくつかの実施形態において、第1の領域は、背景上の第1のテキストコンテンツアイテムを含み得る。このコンピュータによって実現される方法はさらに、GUI画面画像の第1の領域内の画素の強度値に基づいてヒストグラムを生成するステップと、GUI画面画像の第1の領域内の、第1のテキストコンテンツアイテムに対応する画素の数と背景に対応する画素の数とに基づいて、ヒストグラムから、第1のテキストコンテンツアイテムの画素の強度値は背景の画素の強度値よりも高いと判断するステップと、第1の領域内の画素の強度値を反転させるステップとを含み得る。反転により、第1のテキストコンテンツアイテムの画素の画素値は、第1の領域内の背景の画素の強度値よりも低くなり得る。反転の実施後に第1の領域内の第1のテキストコンテンツアイテムを認識するステップを含み得る。ヒストグラムを生成する前に、第1の領域内の各画素の強度値に基づいて、GUI画面画像の第1の領域を、RGBサブ画像から2値サブ画像に変換するステップをさらに含む。
この方法のいくつかの実施形態において、プレースホルダは画素の予め定められたパターンを含み得る。第1のUIコンポーネントのUIコンポーネントタイプを判断するステップは、第2の領域内のプレースホルダの存在とプレースホルダ内の画素の予め定められたパターンとに基づいて、GUI画面画像の第2の領域を分類するステップを含み得る。いくつかの実施形態において、画素の予め定められたパターンの画素値は、予め定められた値、または第1の領域の背景内の画素の画素値を含み得る。
いくつかの実施形態において、GUIモデルを生成するステップは、GUIモデルの情報を、JavaScriptオブジェクト表記(JSON)フォーマットで格納するステップを含み得る。いくつかの実施形態において、この方法は、GUIモデルに基づいてGUIの1つ以上のインプリメンテーションを生成するステップをさらに含み得る。いくつかの実施形態において、GUIモデルに基づいてGUIの1つ以上のインプリメンテーションを生成するステップは、GUIモデルを用いて、第1のプラットフォームのためのGUIの第1のインプリメンテーションを生成するステップと、GUIモデルを用いて、第2のプラットフォームのためのGUIの第2のインプリメンテーションを生成するステップとを含み得る。第2のプラットフォームは第1のプラットフォームと異なる。いくつかの実施形態において、GUIモデルに基づいてGUIの1つ以上のインプリメンテーションを生成するステップは、GUIモデルを用いて、第1のプログラミング言語でGUIの第1のインプリメンテーションを生成するステップと、GUIモデルを用いて、第2のプログラミング言語でGUIの第2のインプリメンテーションを生成するステップとを含み得る。第2のプログラミング言語は第1のプログラミング言語と異なる。いくつかの実施形態において、GUIモデルに基づいてGUIの1つ以上のインプリメンテーションを生成するステップは、GUIモデルと1つ以上のコード生成テンプレートとを用いてGUIの1つ以上のインプリメンテーションを生成するステップを含み、各コード生成テンプレートはプラットフォームまたはプログラミング言語に対応付けられている。
いくつかの実施形態において、機械学習ベースの分類器は、機械学習ベースの分類器は、画像ヒストグラムベースの非線形サポートベクターマシン分類器、または、人工ニューラルネットワークベースの分類器を含み得る。いくつかの実施形態において、この方法はGUIモデルに関するユーザフィードバックを受けるステップをさらに含み得る。ユーザフィードバックは、GUIモデルにおいて第1のUIコンポーネントについて指定されたUIコンポーネントタイプの代わりに第1のUIコンポーネントに対応付けられる新たなUIコンポーネントタイプを特定する情報、または、GUI画面内に存在するがGUIモデルに含まれない新たなUIコンポーネントを特定する情報、および新たなUIコンポーネントのUIコンポーネントタイプを示す情報を含み得る。この方法は、ユーザフィードバックに基づいて機械学習ベースの分類器を再訓練するステップをさらに含み得る。
いくつかの実施形態において、ユーザフィードバックは、第1のUIコンポーネントまたは新たなUIコンポーネントのサブ画像を含み得る。この方法はさらに、複数の訓練画像から特徴を抽出するステップと、複数の訓練画像から抽出した特徴を、多次元空間内のデータポイントにマッピングするステップとを含み得る。データポイントは、多次元空間内の一組のクラスタを形成し、第1のUIコンポーネントまたは新たなUIコンポーネントのサブ画像から特徴を抽出するステップと、第1のUIコンポーネントまたは新たなUIコンポーネントのサブ画像から抽出した特徴を、多次元空間内のデータポイントにマッピングするステップと、第1のUIコンポーネントまたは新たなUIコンポーネントのサブ画像に対応するデータポイントと、一組のクラスタの各クラスタの中心との間の距離を判断するステップと、距離がしきい値未満であるという判断に応じて、第1のUIコンポーネントまたは新たなUIコンポーネントのサブ画像を訓練データに含めるステップとを含み得る。
特定の実施形態に従うと、非一時的なコンピュータ読取可能媒体は、1つ以上のプロセッサによる実行が可能な複数の命令を格納し得る。これら複数の命令は、上記1つ以上のプロセッサによって実行されると、当該1つ以上のプロセッサに上記方法を実行させることができる。
特定の実施形態に従うと、システムは、1つ以上のプロセッサと、この1つ以上のプロセッサに結合されたメモリとを備える。メモリは、当該1つ以上のプロセッサによって実行されると、このシステムに上記方法を実行させることができる。
以下の明細書、請求項、および添付の図面を参照すると、これまでの記述はその他の特徴および実施形態とともに、より明らかになるであろう。
特定の実施形態に係る、グラフィックユーザインターフェイス(GUI)の設計情報に基づいてGUIのGUIモデルを生成するためのシステムの一例の簡略化されたハイレベル図を示し、ダウンストリームコンシューマが、生成されたGUIモデルを使用することにより、GUIの1つ以上のインプリメンテーションを自動的に生成することができる。 特定の実施形態に係る、GUI画面のモックアップ画像の一例を示す図である。 特定の実施形態に係る、GUIの設計情報に基づいてGUIのGUIモデルを生成するためのシステムの一例を示す図である。 特定の実施形態に係る、機械学習ベースの分類器を用いてGUIモデルおよび/またはGUIの1つ以上のインプリメンテーションを生成するために実行されるハイレベル処理を示す簡略化されたフローチャートである。 特定の実施形態に係る、ユーザインターフェイスコンポーネントを検出し分類するために機械学習ベースの分類器を訓練するために実行されるハイレベル処理を示す簡略化されたフローチャートである。 特定の実施形態に係る、GUIの設計情報に基づいてGUIモデルおよび/またはグラフィックユーザインターフェイスのソースコードを生成するために実行されるハイレベル処理を示す簡略化されたフローチャートである。 特定の実施形態に係る、GUI画面の画像からテキストコンテンツアイテムを抽出するために実行されるハイレベル処理を示す簡略化されたフローチャートである。 特定の実施形態に係る、UIコンポーネントをクラスタリングすることによってグラフィックユーザインターフェイス画面に対して生成することができるUIコンポーネント階層の一例を示す図である。 特定の実施形態に係る、GUIモデルおよびGUI画面のためのGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面の一例を示す図である。 特定の実施形態に係る、GUIモデルおよびGUI画面のためのGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面の一例を示す図である。 特定の実施形態に係る、GUIモデルおよびGUI画面のためのGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面の一例を示す図である。 特定の実施形態に係る、GUIモデルおよびGUI画面のためのGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面の一例を示す図である。 特定の実施形態に係る、GUI画面について生成されたJSONフォーマットのGUIモデルの一例を示す図である。 特定の実施形態に係る、入力GUI画面画像の一例と、本明細書に開示された技術に基づいて生成されたコードを用いて表示された対応するGUI画面画像とを示す図である。 特定の実施形態に係る、本明細書に開示された技術に基づいて入力GUI画面画像の一例について生成されたhtmlコードの一例を示す図である。 特定の実施形態に係る、本明細書に開示された技術に基づいて生成されたコードを用いて表示された入力GUI画面画像の別の例を示す図である。 特定の実施形態に係る、本明細書に開示された技術に基づいて生成されたコードを用いて表示された対応するGUI画面画像の別の例を示す図である。 特定の実施形態を実現するための分散型システムの簡略図を示す。 特定の実施形態に係る、各種サービスがクラウドサービスとして提供され得るクラウドベースのシステム環境の簡略化されたブロック図である。 特定の実施形態を実現するために使用し得るコンピュータシステムの一例を示す図である。
詳細な説明
本開示は、概してアプリケーション開発に関し、より具体的には、アプリケーションのためのグラフィックユーザインターフェイス(GUI)を、GUIについての設計情報から開発することを自動化する技術に関する。方法、システム、1つ以上のプロセッサによる実行が可能なプログラム、コードまたは命令を格納する非一時的なコンピュータ読取可能記憶媒体などを含む、発明の各種実施形態が、本明細書に記載される。
以下の記載において、説明を目的として、発明の特定の実施形態が十分に理解されるようにするために特定の詳細について述べる。しかしながら、これらの特定の詳細がなくても各種実施形態は実施し得ることは明らかである。図面および説明は限定を意図しているのではない。本明細書において「例」または「例示的な」という単語は、ひとつの例、場合、または実例の役割を果たす」ことを意味するために使用されている。本明細書に記載の「例示的」なものまたは「例」として記載されるいかなる実施形態または設計も、必ずしもその他の実施形態または設計よりも好ましいまたは好都合であると解釈されることを意図している訳ではない。
特定の実施形態において、アプリケーションのためのGUIは、1つ以上のGUI画面を含み得る。各画面は、ボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、アイコン、表などのような1つ以上のユーザインターフェイス(UI)コンポーネントを含む。アプリケーションのためのGUIはまた、テキスト情報を含み得る。テキスト情報は、アプリケーションのGUIおよび/または各種UIコンポーネントに対応付けられた機能および挙動を記述する、または、その他の情報もしくはユーザに対する命令を与える。
特定の実施形態において、GUI設計者が設計したGUI画面の画像(GUI画面画像とも呼ぶ)を解析することにより、テキスト情報を抽出し、UIコンポーネントを特定する。たとえば、UIコンポーネントを、機械学習ベースの分類器(たとえばサポートベクターマシン分類器または畳み込みニューラルネットワークベースの分類器)によって検出し分類することにより、各UIコンポーネントのタイプおよび/または対応付けられた機能を特定することができる。対応する、テキスト情報およびUIコンポーネントの位置は、GUI画面画像から判断することもできる。GUI画面のレイアウトは、テキスト情報およびUIコンポーネントの特定の属性に基づいて決定することができる。次に、たとえば、特定したUIコンポーネント、UIコンポーネントのタイプ、UIコンポーネントの位置、UIコンポーネントの対応付けられたテキスト情報、どのUIコンポーネントにも対応付けられていない可能性があるその他のテキスト情報、および、GUI画面のレイアウトに基づいて、GUI画面に対し、言語から独立したGUIモデルを生成することができる。生成したモデルは、データ交換フォーマットで記述してもよく、続いて、各種プログラミング言語を用いて各種プラットフォーム上にGUI画面を実現するコードを生成することができる。いくつかの実施形態において、実行可能または解釈可能なコードを、GUIモデルに基づいて生成することにより、GUIについての設計情報に記述されているのと同じルック・アンド・フィールおよび機能を有するGUIを表示することができる。
いくつかの実施形態において、UIコンポーネントを検出または分類する前に、GUI画面画像内のテキストコンテンツを抽出し、テキストコンテンツを含まないプレースホルダに置き換えてもよい。たとえば、いくつかの実施形態において、テキストコンテンツアイテムを含むGUI画面画像の部分の画素の強度値に基づいてヒストグラムを生成することができる。GUI画面画像の上記部分の画素を次に反転させることにより、このGUI画面画像の部分内のテキストコンテンツの色を、このGUI画面画像の部分内の背景の色よりも暗くしてもよい。次に、GUI画面画像の反転された部分から、テキストコンテンツアイテムを認識することができる。いくつかの実施形態において、上記GUI画面画像の部分内のテキストコンテンツを、画素の予め定められたパターンを有する、または上記画面画像の部分の背景の画素値を有する、画素アレイに置き換えてもよい。いくつかの実施形態において、画素の予め定められたパターンは、テキストコンテンツアイテムの位置および/またはテキストコンテンツアイテムに対応付けられたUIコンポーネントのタイプを判断し易くすることができる。
特定の実施形態において、GUIについて生成されたGUIモデルは、アプリケーションのための1つ以上のGUI画面に対応する情報をカプセル化してもよい。各GUI画面ごとに、GUIモデルは、GUI画面に含まれる1つ以上のユーザインターフェイス(UI)コンポーネントを特定する情報を含み得る。各GUI画面ごとに、このモデルはまた、GUI画面の構造に関する情報、たとえば、GUI画面内のユーザインターフェイスコンポーネントの階層組織を特定する情報などを含み得る。たとえば、いくつかの実施形態において、UIコンポーネントを、たとえば、UIコンポーネントのタイプおよび位置に基づいてグルーピングすることにより、UIコンポーネントのサブグループ(たとえば表またはリスト)を形成することができる。サブグループをさらにクラスタリングすることにより、GUI画面のより高いレベルのレイアウトを決定することができる。いくつかの実施形態において、テキストコンテンツアイテムもグルーピングすることにより、たとえばテキストのラインまたはテキストのパラグラフを形成することができる。いくつかの実施形態において、テキストコンテンツアイテムを、たとえば、テキストコンテンツアイテムおよびUIコンポーネントの位置情報に基づいて、グルーピングするかまたはUIコンポーネントに対応付けることができる。
いくつかの実施形態において、GUIモデルは、いずれのUIコンポーネントにも対応付けられない特定のテキストコンテンツアイテムを、クリックされるとアクションを開始させることができるクリッカブルテキストとして示すことができる。いくつかの実施形態において、GUIモデルは、設計されたGUI画面のルック・アンド・フィールを再現できるようにGUI画面の各種UIコンポーネントを如何にして表示すべきかを記述することができる。特定の実施形態において、GUIモデルはまた、GUI画面上でユーザインターフェイスコンポーネントに対応付ける機能に関する情報を含み得る。ユーザインターフェイスコンポーネントに対応付けられる機能は、たとえば、機械学習ベースの分類器によって分類されたユーザインターフェイスコンポーネントのタイプ、および/または対応付けられたテキストコンテンツアイテム(もしあれば)に基づいて、判断することができる。いくつかの実装例において、GUIモデルはメタデータとして生成されてもよい。いくつかの実装例において、GUIモデルはJavaScriptオブジェクト表記(JSON)フォーマットのような、言語から独立したデータ交換フォーマットで記述されてもよい。いくつかの実施形態において、ユーザは、GUIモデルに関するフィードバックを提供することができる。次に、このユーザフィードバックを用いて、機械学習ベースの分類器Qを改善(たとえば再訓練)することができる。
設計情報に基づいて生成されたGUIモデルは、各種ダウンストリームコンシューマが使用できる。たとえば、ダウンストリームコンシューマは、このモデルを使用することにより、GUIを実現するためのコードを、自動的にかつ実質的に手作業のコーディングなしで、生成することができる。このコードは、GUIを表示するために、1つ以上のプロセッサが実行可能な実行可能プログラムであってもよく、または、たとえばウェブブラウザが解釈可能な解釈可能プログラムであってもよい。同じGUIモデルを異なるコンシューマが使用することが可能である。たとえば、第1のコンシューマが第1のプラットフォーム(たとえばiOS(登録商標))に対して実行可能なものを自動的に生成するためにこのGUIモデルを使用してもよく、第2のコンシューマが異なるプラットフォーム(たとえばAndroid(登録商標))に対して第2の実行可能なものを自動的に生成するためにこの同じGUIモデルを使用してもよい。また、GUIモデル(たとえばJSONフォーマット)を用いて、マークアップ言語(たとえばHTMLもしくはXML)またはスタイルシート言語(たとえばカスケーディングスタイルシート(CSS))のような異なるプログラミング言語でコードを生成することもできる。
本明細書で使用するUIコンポーネントは、GUI画面のグラフィカルコンポーネントを意味し得る。UIコンポーネントは、ボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、チェックボックス、ラジオボタン、スイッチボタン、アイコン、表、(人々または物体の)写真、ラインディバイダ、コンテナなどのような、さまざまなタイプのUIコンポーネントを含み得る。GUI画面は1つ以上のテキスト領域を含み得る。各テキスト領域はテキストコンテンツを含み得る。各テキスト領域内のテキストコンテンツは、1つ以上のテキストコンテンツアイテムを含み得る。本明細書で使用するテキストコンテンツアイテムは、任意の言語の特定のテキスト文字を含むGUI画面の非グラフィカルコンポーネントを意味し得る。たとえば、テキストコンテンツアイテムは、単語、特殊文字、または短い語句を含み得る。本明細書で使用する、GUIコンポーネントは、UIコンポーネントまたはテキストコンテンツアイテムを含む、GUI画面に示される何等かの要素を含み得る。
説明のために、本明細書において特定の例について述べる。しかしながら、これらの例は、限定ではなく例示を意図している。本明細書に開示される教示は、モバイルアプリケーション、非モバイルアプリケーション、デスクトップアプリケーション、ウェブアプリケーション、企業アプリケーションなどのような、さまざまな種類のアプリケーションにも適用可能である。さらに、本開示の教示は、特定の動作環境(たとえばオペレーティングシステム、デバイス、プラットフォームなど)に限定されるのではなく、複数の異なる動作環境に適用することが可能である。
図1は、特定の実施形態に係る、グラフィックユーザインターフェイス(GUI)についての設計情報に基づいてGUIのGUIモデルを生成するためのシステム100の一例の簡略化されたハイレベル図を示し、生成されたGUIモデルは、ダウンストリームコンシューマが使用して、GUIの1つ以上のインプリメンテーションを自動的に生成することが可能である。図1に示されるシステム100は、一例にすぎず、本開示の範囲を不当に制限することを意図しているのではない。当業者は多数の可能な変形、代替形、および修正を認識するであろう。たとえば、いくつかの実装例において、システム100は、図1に示されているものよりも多くのまたは少ないサブシステムまたはコンポーネントを有していてもよく、2つ以上のサブシステムを組み合わせてもよく、または、サブシステムの異なる構成または配置を有していてもよい。
図1に示されるように、システム100は、GUIの1つ以上のGUI画面画像104を入力として受け、1つ以上のGUI画面画像104に基づいてGUIのGUIモデル124を生成するように構成された、モデル生成システム(model generation system)(MGS)102を含み得る。次に、GUIモデル124は、1つ以上のダウンストリームコンシューマ103によって使用されることができる。1つ以上のダウンストリームコンシューマ103は、GUIモデル124に基づいて、実質的に手作業によるコーディングなしで、GUIの1つ以上のGUIインプリメンテーション110、112、および114を生成することができる。GUIインプリメンテーション110、112、および114は、1つ以上のプロセッサによって実行可能であり、それにより、異なるプラットフォーム上にGUIを表示することができる。
先に示したように、GUIのためのGUIモデルまたはインプリメンテーションの作成前に、GUIについての情報を定義または収集してもよい。1つ以上のGUI画面画像104を、顧客またはクライアント調査、マーケティング調査、ならびに、GUIのルック・アンド・フィールおよびGUIに含めるべき機能を伝えるその他の情報源に基づいて、集約してもよい。したがって、1つ以上のGUI画面画像104は、GUIの所望のルック・アンド・フィールおよび機能を記述することができる。機能コンサルタント、ユーザ体験(UX)設計者などのようなさまざまな異なる人員がGUI画面画像104の準備に関わり得る。GUI画面画像104は、コンピュータ支援設計ツールを用いて生成しデジタルフォーマットで保存してもよく、または紙の上にスケッチとして手作業で作成してからスキャンしてデジタル画像にしてもよい。
図1に示される実施形態のような特定の実施形態において、GUI画面画像104は、1つ以上の画像を含み得る。各画像は、1つのGUI画面のためのものであってもよく、複数のGUI画面のためのものであってもよい。特定の実施形態において、GUI画面画像104は、シーケンスとして受けてもよく、順序を有していてもよく、このシーケンスまたは順序は、画像によって示される画面と画面との間の流れを特定する。GUI画面画像104は、画面の設計およびルック・アンド・フィール、画面と画面との間の移行などを示し得る。各GUI画面画像104は、1つ以上のUIコンポーネント134とテキスト情報132とを含み得る。GUI画面画像104は、ビットマップファイル、JPEGファイル、PNG(ポータブルネットワークグラフィックス)ファイル、GIFファイル、PDFファイルなどのような、多種多様なフォーマットのうちの1つで受けることができる。多種多様な技術を用いてGUI画面画像104を生成することができる。たとえば、GUI画面画像104は、カメラ、スキャナなどのような画像取込デバイスを用いて取り込まれた写真である画像を含み得る。別の例として、GUI画面画像104は、スクリーンショット、たとえば既存のアプリケーションの画面のスクリーンショットである画像を含み得る。この場合、これから開発されるアプリケーションが、既存のアプリケーションと同様のGUI画面を有することになる(たとえば、既存のアプリケーションは、アプリケーションの新たなバージョンを開発しようとしているアプリケーションの前のバージョンの可能性がある)。GUI画面画像104はまた、画像編集アプリケーション(たとえばAdobe Corporation(登録商標)が提供する各種画像編集アプリケーション)のようなアプリケーションを用いて生成された画像を含み得る。GUI画面画像104はまた、各種ワードプロセッサ(たとえばMS WORD(登録商標))、図作成アプリケーション(たとえばVisio(登録商標))、およびその他のアプリケーションのような画像を作成または編集可能なソフトウェアアプリケーションを用いて生成された画像を含み得る。
GUI画面画像104を用いて開発しようとしているアプリケーションは、モバイルアプリケーション(たとえばモバイルデバイスが実行可能なアプリケーション)、デスクトップアプリケーション、ウェブアプリケーション、企業アプリケーションなどを含むがこれらに限定されない各種のアプリケーションのうちの1つであってもよい。アプリケーションは、多種多様なデバイス(たとえばスマートフォン、タブレット、ラップトップ、デスクトップコンピュータなど)およびプラットフォーム(たとえばiOS(登録商標)プラットフォーム、Android(登録商標)プラットフォーム、Window(登録商標)プラットフォームなど)を対象とし得る。たとえば、GUI画面画像104は、Apple(登録商標)iPhone(登録商標)上で実行されるように設計されたモバイルアプリケーションのための1つ以上のGUI画面の1つ以上の画像を含み得る。この場合、画面は、モバイルデバイスの画面の面積全体またはその一部にわたっている。
各GUI画面画像104は、ボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、チェックボックス、アイコン、表、(人々または物体の)写真などのような、1つ以上のUIコンポーネント134を含み得る。いくつかの実施形態において、いくつかのUIコンポーネント134は、対応付けられたテキストを含み得る。たとえば、あるボタンは、このボタンの上の「次へ」、「取消」、「確認」、または「OK」のような単語を含み得る。また、UIコンポーネント134は、サイズ、位置、または対応付けられたアクションもしくは機能のような、対応付けられた属性を有し得る。たとえば、UIコンポーネント134は、GUI画面画像104内のいずれかの位置にあればよい。いくつかの実施形態において、UIコンポーネント134は、表、リスト、ツリー構造、フローチャート、組織図などのような、レイアウトまたは階層構造に従って配置されてもよい。いくつかのUIコンポーネント134は、クリック可能であってもよく、選択可能であってもよく、そうでなければユーザ入力(たとえばユーザエントリ)を取り込んでもよく、その他いくつかのUIコンポーネントは、静的であってもよく、またはユーザ入力を取り込まなくてもよい。
図1に示されるように、各GUI画面画像104はテキスト情報132を含み得る。テキスト情報132は、画面のルック・アンド・フィール(たとえば、画面の構造、画面のユーザインターフェイスコンポーネント、使用されるフォント、画面上で使用される色(たとえば前景および背景色)、画面の機能およびそのユーザインターフェイスコンポーネント、画面およびそのユーザインターフェイスコンポーネントが表示するデータなどを含むが、これらに限定されない、アプリケーションの機能のテキスト記述を提供し得る。また、テキスト情報132は、その他有益な材料またはユーザに対する命令を含み得る。いくつかの実施形態において、テキスト情報132はまた、複数の画面間の移行を記述し得る。
従来のアプリケーション開発環境において、アプリケーションは、GUI画面画像104に基づいて手作業で構築することができる。たとえば、GUI画面画像104は、アプリケーションのためのGUI画面画像104を実現するためのコードおよびアプリケーションのその他のコンポーネントを記述するタスクが課された技術者または開発者を含む工学技術組織に提供することができる。これらの開発者は、GUI画面画像104を理解してから、GUI画面画像104に定められているアプリケーションのGUIおよび対応付けられた機能を実現するコードを手作業で書き込む必要がある場合がある。
特定の実施形態に従うと、モデル生成システム102は、GUI画面画像104を入力として取り込み、たとえば、モデル生成器120、UIコンポーネント分類器136、および/またはメモリ122に格納されている参照情報121を用いて、GUIモデル124を自動的に生成するように構成することができる。次に、GUIモデル124を用いて、GUIの1つ以上のインプリメンテーションを自動的に生成することができる。これらのインプリメンテーションは、GUIを実現するコードおよびロジックを含み得る。これらのインプリメンテーションは、1つ以上のプロセッサが実行することができる実行可能なインプリメンテーションを含み得る。
図1に示されるように、モデル生成システム102は、協働することによりGUIモデル124を生成するように構成された1つ以上のサブシステムを含み得る。これらのサブシステムは、ハードウェア、コンピュータシステムの1つ以上の処理ユニット(たとえばプロセッサもしくはコア)によって実行されるソフトウェア(たとえばコード、命令、プログラム)、またはその組み合わせで実現されてもよい。ソフトウェアは、メモリ122のような非一時的な記憶媒体(たとえばメモリデバイス)に格納されてもよい。図1に示される実施形態において、モデル生成システム102は、1つのモデル生成器120を含む。代替の実施形態において、モデル生成システム102は複数のモデル生成器120を含み得る。
モデル生成システム102は、さまざまな異なる技術を用いて、GUI画面画像104からGUIモデル124を構築することができる。たとえば、モデル生成システム102は、GUI画面画像104を処理し解析することにより、GUIに対して指定される1つ以上のGUI画面を決定することができ、各GUI画面ごとに、この画面上に含まれる一組のユーザインターフェイスコンポーネントおよびこれらのユーザインターフェイスコンポーネントの物理的配置を決定することができる。いくつかの実施形態において、このGUIモデル生成処理は、たとえば、GUI画面について、一組のユーザインターフェイスコンポーネント(たとえばボタン、ドロップダウンリスト、セグメントなど)およびそれらの属性(たとえばラベル、サイズ、位置)を決定することと、GUI画面内のUIコンポーネントの物理的レイアウトを決定すること(たとえばUIコンポーネントまたはUIコンポーネントのグループの階層的包含関係を決定すること)と、UIコンポーネントのうちの1つ以上に対応付けられる機能を決定することとを含み得る。
特定の実施形態において、モデル生成システム102は、GUI画面画像104を処理し解析し、たとえば、UIコンポーネントの各々の境界を検出可能な輪郭検出技術を用いて、画面に含まれる1つ以上のユーザインターフェイスコンポーネントを特定するように、構成することができる。UIコンポーネントの各々の境界に基づいて、各UIコンポーネントのサイズおよび位置を決定することができる。各UIコンポーネントの境界の内部の画像を、抽出し、サポートベクターマシン分類器、畳み込みニューラルネットワークベースの分類器のような機械学習ベースの分類器を用いて(たとえばソフトマックス(Softmax)分類器を用いて)、または、その他の深層ニューラルネットワークベースの分類器を用いて、分類することができる。分類器は、UIコンポーネントを、ボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、チェックボックス、アイコン、表、(人々または物体の)写真などのような、多数の可能なUIコンポーネントのタイプのうちの、あるUIコンポーネントのタイプに分類することができる。GUI画面のコンポーネントおよびGUI画面のレイアウトを決定するためにモデル生成システム102が実行し得る処理のその他の説明および例を以下に示す。
特定の実施形態において、モデル生成システム102は、GUI画面画像104からテキスト情報132を抽出することができる。たとえば、モデル生成システム102のいくつかの実装例において、テキスト検出ツールを用いることにより、テキストコンテンツを含み得るGUI画面画像104内の領域の位置(たとえば座標)を判断することができ、次に、光学文字認識(OCR)ツールを用いて、GUI画面画像104内のこれらの領域からテキストコンテンツアイテムを抽出する(たとえば認識する)ことができる。いくつかの実施形態において、各UIコンポーネントのサイズおよび位置ならびにテキストコンテンツアイテムの位置および情報に基づいて、いくつかのテキストコンテンツアイテム(たとえばクリッカブルボタン上のテキスト)を特定のUIコンポーネント(たとえばクリッカブルボタン)に対応付けることができる。
特定の実施形態において、モデル生成システム102が実行する処理は、モデル生成器120およびUIコンポーネント分類器136を含むモデル生成システム102にアクセス可能な参照情報121によってガイドされてもよい。参照情報121はさまざまな種類の情報を含み得る。たとえば、特定の実施形態において、参照情報121は、モデル生成システム102が実行する胥吏をガイドするさまざまなルールを含み得る。特定の実施形態において、参照情報121は、GUIに対して指定される1つ以上のGUI画面、および/または各GUI画面ごとの、この画面に含まれる一組のユーザインターフェイスコンポーネント、およびGUI画面の物理的レイアウトを決定するためにモデル生成システム102が使用し得るルールを含み得る(たとえば、UIコンポーネントおよびテキストコンテンツアイテムクラスタリングのためのルール)。図1に示される実施形態において、参照情報121はメモリ122に格納されてもよい。いくつかの他の実施形態において、参照情報121は、モデル生成システム102から遠隔にある場所に格納されてもよい。さらに他の実施形態において、参照情報121の一部がモデル生成システム102において局所的にメモリ122に格納されてもよく、その他の部分がモデル生成システム102から遠隔に格納されてもよい。
特定の実施形態において、モデル生成システム102が実行する処理または処理の一部は、各種機械学習技術を用いて実行してもよい。たとえば、機械学習技術を、UIコンポーネントの検出および分類、テキスト検出、テキストコンテンツ(たとえば手書きのテキストコンテンツ)認識、またはUIコンポーネントおよびテキストコンテンツアイテムのクラスタリングのために、使用してもよい。これらの機械学習技術に関連する情報(たとえばニューラルネットワークの重み、畳み込みニューラルネットワークのフィルタ、機械学習に使用されるモデル、モデルを訓練するためのデータ、モデルのアプリケーション、モデルの精度を改善するためのフィードバック情報など)も、参照情報121に含まれていてもよい。特定の実施形態において、ルールベースの処理と機械学習ベースの技術との組み合わせを、モデル生成システム102が使用してもよい。よって、参照情報121は、機械学習ベースのモデルに関連する情報およびルールを含み得る。
特定の実施形態において、参照情報121はまた、さまざまなタイプのUIコンポーネントに関する情報を含み得る。UIコンポーネントのタイプについての情報は、このタイプ(たとえばボタン、チェックボックス、入力ボックスなど)の名称(たとえば識別)、UIコンポーネントのタイプについてのパラメータ(たとえば属性、要素、またはフィールド名)、UIコンポーネントのタイプについての機能またはアクション、接続性、および記憶情報、および/またはUIコンポーネントのタイプについてのデータソースなどのような、情報を含み得る。モデル生成システム102は、このような情報を用いることにより、GUIモデル124において、特定したUIコンポーネントを記述し特定のアクションをUIコンポーネントに対応付ける。
特定の実施形態において、参照情報121は、ユーザ(たとえばプログラマー)またはモデル生成システム102の管理者によって構成されてもよい。いくつかの他の実施形態において、参照情報121は、1つ以上の機械学習技術を用いて構築されてもよい。たとえば、参照情報121は、訓練データおよび教師あり機械学習技術を用いて構築された1つ以上の機械学習ベースのモデルを含み得る。1つ以上の機械学習ベースのモデルを用いることにより、GUIモデル124を生成することができる。
特定の実施形態において、GUIモデル124を、モデル生成器120が生成した1つ以上のファイルに存続させてもよい。GUIモデル124はさまざまなフォーマットで記述し得る。たとえば、いくつかの他の実装例において、GUIモデル124は、JavaScriptオブジェクト表記(JSON)フォーマットのような、言語から独立したデータ交換フォーマットで記述することができる。特定の実施形態において、モデル情報は、拡張可能マークアップ言語(XML)またはjQueryのようなマークアップ言語で符号化されてもよい。たとえば、モデル生成システム102は、ともにGUIモデル124を表す1つ以上のXMLファイルを生成してもよい。生成したファイルは、メモリ122に、または、モデル生成システム102がアクセス可能な何等かのその他のメモリ場所に格納してもよい。特定の実施形態において、GUIモデル124を、モデル生成システム102により、最初にファイルに存続させることなく、1つ以上のダウンストリームコンシューマ、たとえばコード生成器126、128、および130に送ってもよい。
次に、GUIモデル124を、1つ以上のダウンストリームモデルコンシューマ103が使用することができる。たとえば、モデルコンシューマ103は、GUIモデル124に基づいて1つ以上のGUIインプリメンテーション110、112、および114を生成するように構成し得る。GUIインプリメンテーション110、112、および114は各々、GUIモデル124において特定された情報に基づき得る。GUIモデル124は設計されたGUI画面画像104に基づいて生成されるので、GUIモデル124に基づいて生成されるGUIインプリメンテーションは、GUI画面画像104に記述されているルック・アンド・フィールおよび機能を有し得る。たとえば、GUIモデル124は、特定の一組のUIコンポーネントを含み特定の一組の機能またはアクションにマッピングされた特定のGUIウィンドウまたは画面を指定する情報を含み得る。GUIモデル124に基づいて生成されるGUIインプリメンテーション(たとえばGUIを実現するコードまたは命令)は、特定の一組のUIコンポーネントを含み特定の一組の機能またはアクションにマッピングされた特定のGUI画面をインスタンス化するためのコードおよびロジックを含み得る。
したがって、GUIインプリメンテーションは、GUI画面画像104に基づいて生成されたGUIモデル124によって記述されたGUI画面および対応付けられたアクションまたは機能を実現することができる。たとえば、GUIモデル124が特定の物理的レイアウトで配置された一組のユーザインターフェイスコンポーネントを含む特定の画面を指定している場合、この画面および特定の物理的レイアウトをGUIインプリメンテーションによって実現することができる。GUIモデル124が特定のユーザインターフェイスコンポーネントの特定の機能を指定している場合、このモデルに基づいて生成されたGUIインプリメンテーションは、この特定の機能を実現しこの機能を特定のユーザインターフェイスコンポーネントに対応付けるためのロジックを含み得る。特定の実施形態において、GUIインプリメンテーションは、特定のユーザインターフェイスコンポーネントを、この特定のユーザインターフェイスコンポーネントに対応付けられる特定の機能を実現するコードにリンクさせることを可能にするフックを提供し得る。特定の実施形態において、GUIインプリメンテーションは、開発者が、追加機能を実現する追加コードをGUIインプリメンテーションにフックさせるまたは追加することを可能にするフックを提供するコードを含み得る。
特定の実施形態において、ダウンストリームモデルコンシューマ103は1つ以上のコード生成器126、128、および130を含み得る。これらのコード生成器は、GUIモデル124を入力として取り込み、場合によっては、たとえば、異なるプログラミング言語および/または異なるプラットフォームのためのコード生成テンプレート140に基づいて、異なるプログラミング言語および/または異なるプラットフォームでGUIのコードインプリメンテーションを生成するように構成されている。コード生成器は、GUIモデル124を入力として取り込み、GUIをそのコード生成器に固有の言語で生成してもよい。インプリメンテーションは、1つ以上のプロセッサが実行可能なGUIの実行可能インプリメンテーションであってもよい。たとえば、コード生成器126は、モデル124を入力として取り込み、第1のプラットフォーム(たとえばiOS(登録商標)プラットフォーム)のための第1の言語でGUIインプリメンテーション110を生成してもよい。コード生成器128は、第1のプラットフォームのためのGUIモデル124を用いて第2の言語でGUIインプリメンテーション112を生成してもよい。コード生成器130は、Android(登録商標)プラットフォームのためにGUIモデル124を用いてGUIインプリメンテーション114を生成してもよい。GUIインプリメンテーションをコンパイルする(または解釈する、またはそれに対して実行される何等かのその他の処理)ことにより、GUIの実行可能バージョンを生成してもよい。
特定の実施形態において、GUIインプリメンテーション110、112、および114の各々は、GUIを実現するために使用可能なコード生成テンプレートに対応する。コード生成テンプレートは、コンピュータシステムの1つ以上のプロセッサが実行するために実行可能なGUIを生成するためにコンパイルまたは解釈することが可能なハイレベルコード(方法、機能、クラス、イベントハンドラなどを含み得る)を含む1つ以上のソースコードファイルを含み得る。このようにして、GUIの実行可能なインプリメンテーションを、GUIモデル124に基づいて自動的に生成することが可能であり、実行可能なインプリメンテーションは、GUI設計情報に記述されているGUIのルック・アンド・フィールならびにGUIおよびUIコンポーネントの機能をカプセル化する。たとえば、コード生成器126を、GUIモデル124に対応するマークアップコードを含む1つ以上のファイルを受け、マークアップコード(たとえばXML)を(ハイレベル)ソースコード(たとえばJava(登録商標)、C++、またはその他のプログラミング言語)に変換することによって1つ以上のソースコードファイルを含むGUIインプリメンテーション110を出力するように、構成してもよい。
いくつかの実装例において、モデル生成システム102は、ユーザ106が、直接またはクライアントデバイス108を介してモデル生成システム102とやり取りすることを可能にする1つ以上のインターフェイスを提供し得る。これらのユーザインターフェイスは、たとえば、各種GUI、コマンドラインインターフェイス(CLI)、およびその他のインターフェイスを含み得る。特定の実施形態において、モデル生成システム102は、統合開発環境(integrated development environment)(IDE)の一部であってもよい。
クライアントデバイス108は、パーソナルコンピュータ、デスクトップコンピュータ、モバイルもしくはハンドヘルドデバイス(たとえばラップトップ、スマートフォン、タブレットなど)、またはその他の種類のデバイスを含むがこれらに限定されない、異なる種類のものであってもよい。特定の実施形態において、クライアントデバイス108は、直接または通信ネットワークを介してモデル生成システム102に通信可能に結合されてもよい。通信ネットワークはさまざまな種類のものであってもよく、1つ以上の通信ネットワークを含み得る。通信ネットワークの例は、インターネット、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、イーサネット(登録商標)ネットワーク、パブリックまたはプライベートネットワーク、有線ネットワーク、無線ネットワークなど、およびその組み合わせを含み得るがこれらに限定されない。異なる通信プロトコルを用いることにより、クライアントデバイス108とモデル生成システム102との間の通信を容易にしてもよく、これは、IEEE802.XXプロトコルスイート、TCP/IP、IPX、SAN、AppleTalk(登録商標)、Bluetooth(登録商標)、およびその他のプロトコルなどの無線プロトコルおよび有線プロトコル双方を含む。
ユーザとモデル生成システム102とのやり取りは各種形態を取ることができる。ユーザは、GUI画面画像104を、モデル生成システム102が提供する1つ以上のインターフェイスを用い、上記やり取りを介してモデル生成システム102に提供することができる。特定の実施形態において、モデル生成システム102の出力(たとえばGUIモデル124)または処理の状態に関する情報を、モデル生成システム102が、クライアントデバイス108に伝達しクライアントデバイス108を介してユーザ106に示してもよい。たとえば、GUIモデル124に関連する情報をユーザ106に対して提示してもよい。そうすると、ユーザ106は、GUIモデル124の精度をレビューし、必要であればGUIモデル124に対して変更を加えることができる。このようにして、ユーザ106は、モデル生成システム102が生成したGUIモデル124に関するフィードバックを提供することが可能である。そうすると、モデル生成システム102はこのフィードバックを用いて参照情報121(たとえば訓練サンプル)をアップデートすることができる。アップデートされた参照情報121は、1つ以上の機械学習ベースのモデルを再訓練するためおよび/または次世代のGUIモデル124を生成するために使用することができる。たとえば、ユーザ106が、GUIモデル124をレビューしながら、GUIモデルにおいて示されているUIコンポーネントのうちの1つが間違って分類されたと判断した場合、ユーザは、フィードバック(たとえば誤って分類されたUIコンポーネントの画像およびUIコンポーネントの実際のクラスまたはタイプ)をクライアントデバイス108を介してモデル生成システム102に与えることができる。モデル生成システム102は、ユーザフィードバックに基づいて、UIコンポーネントを適切なアクションに対応付ける、UIコンポーネントを再度グルーピングする、またはレイアウトを再度生成するなどして、GUIモデル124のアップデートを行うことができる。このようにして、ユーザからのフィードバックループにより、モデル生成システム102の精度を経時的に改善することが可能である。次に、注釈付きの画像を参照情報として保存し、何等かの機械学習ベースのモデル(たとえばUIコンポーネント分類器)を再訓練するための訓練サンプルとして使用してもよい。
先に述べたように、モデル生成システム102は、GUI画面画像104に基づいて、自動的にかつ実質的にユーザの手作業による介入なしで、GUIモデル124を生成するように構成されている。さらに、同じGUIモデル124を用いて、異なるデバイス、プラットフォーム、および/または言語のためのGUIインプリメンテーションを生成することができる。多くの場合、GUIモデル124をダウンストリームモデルコンシューマが用いてGUIインプリメンテーションを自動的に生成することができる。たとえば、GUIインプリメンテーションは、開発者による実現のために手作業でコードを記述することなく、GUIモデル124に基づいて生成することができる。このようにして、実行可能なGUIインプリメンテーションを、実質的にユーザの手作業による介入なしで、またはアプリケーションのためのコードまたはロジックを手作業で記述することなく、GUI画面画像104から自動的に生成することができる。この自動化レベルは、実質的にアプリケーション開発サイクルを高速化し開発コストを低減することが可能である。いくつかの実施形態において、GUIモデル124を用いて、GUIインプリメンテーションのテストを自動化するためのテストを生成することもできる。
図2は、特定の実施形態に係るGUI画面200のモックアップ画像の一例を示す。GUI画面200の画像は、GUI設計者から、開発者がアプリケーションのためのGUIを実現するために使用するようにするために提供することができる。GUI画面200は、1つ以上のUIコンポーネントと1つ以上のテキストコンテンツアイテムとを含み得る。UIコンポーネントは、GUI画面200上のいずれかの位置にあればよい。UIコンポーネントは、たとえば、1つ以上のボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、チェックボックス、アイコン、表、(人々または物体の)写真、ラインディバイダ、コンテナなどを含み得る。たとえば、図2に示されるように、GUI画面200は、ボタン214、テキスト入力ボックス206、ラジオボタン210、ドロップダウンリスト212、およびドロップダウン表8たとえばカレンダー)208を含み得る。いくつかのUIコンポーネントは、対応付けられたテキストコンテンツアイテムを含み得る。たとえば、ボタン214は、ボタン上の「次へ」、「取消」、または「OK」ボタンのようなテキストコンテンツアイテム218を含み得る。UIコンポーネントは、サイズ、色、位置のような対応付けられた属性、または、対応付けられたアクションもしくは機能を有し得る。
いくつかの実施形態において、UIコンポーネントは、表、リスト、ツリー構造、フローチャート、組織図などのようなレイアウトまたは階層構造に従って、GUI画面200上に配置することができる。たとえば、図2に示される例において、テキスト入力ボタン206は縦方向に並べてもよく、表を形成してもよい。
いくつかのUIコンポーネントは、クリック可能、選択可能、またはその他のユーザ入力を取り込んでもよく、その他いくつかのUIコンポーネントは、静的でユーザ入力を取り込まないものであってもよい。たとえば、テキスト入力ボックス206は、キーボードからのユーザ入力を取り込むことができ、ラジオボタン210およびドロップダウンは(たとえばマウスを用いて)手作業で選択可能であり、ボタン214はクリックされることにより新たなGUI画面を表示させることができる。GUI画面200のUIコンポーネントは、静的コンポーネントであっても動的コンポーネントであってもよい。静的コンポーネントは、GUI画面上に表示されたその値がインスタントが異なっても不変のコンポーネントである。動的コンポーネントは、GUI画面に表示されたその値が、インスタントが異なると変化し得るコンポーネントである。たとえば、図2において、いくつかのテキスト入力ボックスは静的コンポーネントである。ボタン214は、各々が異なるタイプのUIコンポーネントであれば、静的コンポーネントであり得る。ボタン214は、同じタイプのUIコンポーネントに対応付けられているのであれば、動的コンポーネントであり得るものであり、ボタン各々についてテキストがUIコンポーネントの一部である場合と比較して、対応するテキストを動的に追加することにより、同じUIコンポーネント画像を用いて生成し得るものである。
図2に示されるように、GUI画面200は、タイトル220、入力ボックスの説明204、デフォルト入力216、およびボタン214に対応付けられたテキストコンテンツアイテム218のような同一タイプの異なるUIコンポーネントを区別するテキスト情報といった、さまざまなテキスト情報を含み得る。タイトル220のようないくつかのテキスト情報は、アプリケーションの機能のテキスト記述を提供し得る。入力ボックスの説明2045のようないくつかのテキスト情報は、いくつかのUIコンポーネントのテキスト記述を提供し得る。テキストコンテンツアイテム218のようないくつかのテキスト情報の各々は、UIコンポーネントの一部であってもよく、ボタン214のような、対応付けられたUIコンポーネントの機能を記述してもよい。デフォルト入力216のようないくつかのテキスト情報は、その値が入力、選択、そうでなければ変更され得るいくつかのUIコンポーネントのデフォルト値を提供し得る。テキスト情報は、フォント、サイズ、色、位置などのような、対応付けられた属性を有し得る。いくつかの実施形態において、テキスト情報はユーザに対する命令を含み得る。テキスト情報は静的であっても動的であってもよい。図2における静的テキストの例は、ヘッダセクションにおけるヘッダタイトル「アカウント作成」、本体セクションにおける属性タイトル「名」、「姓」、「Eメール」、「ユーザ名」などを含み得る。図2における動的テキストの例は、本体セクションにおける属性値「英語」、「Peter」など、その値があるインスタンスの第1の人物に関する情報から、別のインスタンスの第2の人物に関する情報に変更する可能性があるものを含み得る。
各種情報をGUI画面画像から抽出し、画面のUIコンポーネントおよびテキストコンテンツを識別するために使用することができる。識別したコンポーネントの特定の属性を、たとえば、機械学習ベースのモデルを用いて判断することができる。次に、識別したコンポーネントの属性を用いて、GUIモデルおよび/またはGUIを実現するためのコードを生成することができ、詳細は以下に述べる通りである。
図3は、特定の実施形態に係る、GUIについての設計情報に基づいてGUIのためのGUIモデルを生成するためのシステム300の一例を示す。この例において、システム300は、クライアントサブシステム310とサーバサブシステム320とを含むクライアント−サーバアーキテクチャを有する。クライアントサブシステム310は、GUIプロトタイプを画像またはスケッチの形態でアップロードするためのプロビジョンと、GUIインプリメンテーションを生成するためのコード生成ロジックとを含み得る。いくつかの実施形態において、コード生成ロジックは、クライアントサブシステム310ではなくサーバサブシステム320上に実現し得る。サーバサブシステム320は、モデル生成システム330と、クライアントサブシステム310とサーバサブシステム320との間の相互運用性および分離を提供するレプレゼンテーショナル・ステート・トランスファー(Representational State Transfer)(REST)サービス340とを含み得る。いくつかの実施形態において、システム300は、サーバ等の同一のコンピューティングシステム上で実現されてもよい。
1つ以上のGUI画面のための1つ以上の画像(またはスケッチ)等のGUI設計文書を受けると、GUI画面の各画像は、クライアントサブシステム310上のアップローダ302によってサーバサブシステム320にアップロードすることができる。GUI画面の画像は、RESTサービス340を介してサーバサブシステム320に送信することができ、RESTサービス340は、GUI画面の画像をモデル生成システム330に送ることにより、サーバサブシステム320上でモデル生成プロセスを開始させることができる。モデル生成システム330は、GUI画面の画像、および、機械学習サブシステム360が生成した機械学習ベースのモデルに基づいて、GUIモデルを生成するように構成されている、モデル生成器350を含み得る。
機械学習サブシステム360は、GUI画面の画像のような、GUI設計文書に基づいて、GUIモデルを生成するために使用される、機械学習ベースのモデルを生成し得る。機械学習ベースのモデルは、たとえば、UIコンポーネント検出器および/または分類器およびテキスト検出器および/または文字分類器を含み得る。いくつかの実施形態において、機械学習ベースのモデルは、画像ファイル内のオブジェクトを識別し分類することができる畳み込みニューラルネットワーク(CNN)等のニューラルネットワークベースの分類器を含み得る。
機械学習ベースのモデルは、教師あり学習技術および注釈付き訓練サンプル368を用いて訓練することができる。注釈付き訓練サンプル368は、ボタン、テキストフィールド、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、アイコン、表、円グラフ、棒グラフなどのような、各種UIコンポーネントを含む画像を含み得る。注釈は、画像内の各UIコンポーネントの位置、UIコンポーネントのタイプもしくはクラス、またはUIコンポーネントに対応付けられたアクションのような、各UIコンポーネントを一意的に識別するラベルまたはタグを含み得る。いくつかの実施形態において、注釈は画像ファイルにメタデータとして格納されてもよい。いくつかの実施形態において、注釈は画像ファイルとは別に格納されてもよい。いくつかの実施形態において、訓練サンプル内の画像はテキストコンテンツを含まなくてもよい。たとえば、訓練サンプルを生成するために使用される画像内のテキストコンテンツアイテムを、識別し、ブラックボックスまたはホワイトボックスのような予め定められたパターンに置き換えてもよい。
注釈付き訓練サンプル368は、特徴抽出エンジン366に送ることができる。特徴抽出エンジン366は、たとえば、深層CNNを実現することにより、さまざまなコンポーネントの画像から異なるレベルの特徴を取り出すことができる。これに対し、従来のコンピュータビジョンベースの技術は、特徴工学の面倒なタスクを要し得るものであり、特定のUIコンポーネントについて明確な特徴を手作業で識別し、サポートベクターマシン(support vector machine)(SVM)または浅層ニューラルネットワークのような分類器に送ることができる。
特徴抽出エンジン366は、畳み込み、非線形(または活性化)関数(たとえばReLU)、および/またはプーリング(またはサブサンプリング)等の動作を、深層CNNの異なるレイヤの入力画像に対して実行することができる。CNNにおける畳み込み演算を用いることにより、入力画像(たとえば訓練画像またはGUI画面画像)から特徴を抽出することができる。畳み込みにおいて、(フィルタ、カーネル、または特徴検出器と呼ばれる)行列を、入力画像(または処理された画素アレイもしくは特徴マップ)の上で、(ストライドと呼ばれる)特定のステップでスライドさせることができる。すべての位置(またはステップ)で、入力画像内のフィルタ行列と重複した行列との間の要素ごとの操作を計算し合計することにより、畳み込み特徴または特徴マップと呼ぶことができる、出力行列の1要素を表す最終値を得ることができる。
活性化関数(たとえば正規化線形ユニット(ReLU))を用いる、追加の非線形演算を、すべての畳み込み演算後に用いてもよい。ReLUの目的は非線形性をCNNに導入することである。tanhまたはシグモイド関数のようなその他の非線形関数も使用できるが、ReLUがほとんどの状況においてより性能がよいことがわかっている。
(サブサンプリングまたはダウンサンプリングとも呼ばれる)空間プーリングは、各特徴マップの次元を低減する一方で、最も重要な情報を保持することができる。特に、プーリングは、特徴次元をより小さくかつより管理し易くすることができ、ネットワーク内のパラメータおよび計算の数を減じることができる。また、プーリングは、ネットワークを、入力画像内の小さな変形、歪み、および移動に対して不変にすることができ、入力画像内の小さな歪みはプーリングの出力を変化させないであろう。なぜなら、ローカルな近隣の最大値または平均値を使用するからである。よって、プーリングは、入力画像の同変表現を得るのに役立ち得るものであり、画像内の物体は、どこに位置していても検出できる。空間プーリングは、最大プーリング、平均プーリング、合計プーリングなどのような異なるやり方で実行してもよい。
入力画像(たとえば訓練画像またはGUI画面画像)から特徴を抽出するために、先ず畳み込みレイヤを用いて、1つ以上のフィルタで入力画像を畳み込むことにより、画像内のエッジまたは傾斜の検出のような、入力画像の1つ以上の特徴マップを生成することができる。活性化関数は非線形性を特徴マップに導入することができる。任意で、プーリングレイヤが特徴マップをダウンサンプリングすることにより、特徴マップの次元を低減してもよい。畳み込み、非線形(または活性化)関数、および任意のプーリングまたはサブサンプリング動作を再び、前のレイヤが生成した特徴マップに対して実行することにより、異なるレベルで特徴マップを抽出することができ、前のレイヤからの特徴マップを畳み込みの入力として使用することができる。このようにして、複数レベルの特徴マップを抽出して使用することにより、GUI画面画像または訓練画像内のUIコンポーネントを検出し分類することができる。
次に、機械学習ベースのモデルを、抽出された特徴および注釈付き訓練サンプルの注釈を用いて訓練することができる。いくつかの実施形態において、SSD技術(たとえば、Liu et al., “SSD: Single Shot MultiBox Detector,” arXiv:1512.02325v5, Dec. 29, 2016参照)またはYOLO技術(たとえば、e.g., Redmon et al., “YOLO9000: Better, Faster, Stronger,” arXiv:1612.08242v1, Dec. 25, 2016参照)のようなオブジェクト検出技術を用い、オブジェクトを訓練画像のさまざまな異なる位置に、抽出した特徴を用いてローカライズすることができる。たとえば、深層CNNにおける分類レイヤ(全結合レイヤなど)は、抽出した特徴を用いることにより、訓練画像内に存在するUIコンポーネントを検出し分類することができる。分類結果は、訓練サンプルに対応付けられた注釈と比較することができる。分類結果が注釈に一致しない場合、フィードバックを分類レイヤおよび/または特徴抽出レイヤ(たとえば畳み込みレイヤ)に与えることにより、たとえば、バックプロパゲーション技術を用いて、深層CNNのパラメータを調整することができる。上記訓練プロセスは、各訓練サンプルごとに繰り返してもよい。深層CNNは、注釈付き訓練サンプルに基づいて、自身でUIコンポーネントのさまざまなタイプを区別するために使用できる一組の特徴を学習できるので、特徴抽出の面倒なタスクは回避できる。訓練プロセス後に、訓練されたモデル364を生成することができ、これは訓練サンプル内にあるUIコンポーネントを正確に検出し分類することができるであろう。機械学習ベースのモデルを生成するためのより詳細な処理は、以下でたとえば図5に関連して説明する。
モデル生成器350は、光学特徴認識(OCR)モジュール352を含み得る。OCRモジュール352は、GUI画面の画像内のテキストコンテンツを検出し認識する、および/またはテキストコンテンツをGUI画面画像から分離することができる。いくつかの実施形態において、OCRモジュール352は、機械学習ベースのモデルを使用することにより、テキストコンテンツを検出し認識することができる。OCRモジュール352の出力は、テキストコンテンツアイテムと、それらの位置と、テキストコンテンツなしの画像とを含み得る。以下で詳細に述べるように、OCRモジュール352からの出力画像において、GUI画面画像内にテキストコンテンツアイテムが存在する領域は、ブラックボックス等の何等かの予め定められたパターンを含み得る。OCRモジュール352の出力はオブジェクト検出モジュールに送ればよい。OCRモジュール352のより詳細な動作は以下でたとえば図7との関連で説明する。
オブジェクト検出モジュール354は、機械学習サブシステム360が生成した機械学習ベースのモデルを用いてOCRモジュール352からの出力画像内のUIコンポーネントを検出し分類することができる。たとえば、機械学習ベースのモデルは、UIコンポーネント検出器および/または分類器を含み得る。いくつかの実施形態において、機械学習ベースのモデルは、画像内のオブジェクトを識別し分類することができる、畳み込みニューラルネットワークのようなニューラルネットワークベースの分類器を含み得る。オブジェクト検出モジュール354は、機械学習ベースのモデルを用いることにより、GUI画面画像内のUIコンポーネントを識別し、各UIコンポーネントを分類することにより、UIコンポーネントのタイプと対応付けられたアクションまたは機能を実現することができる。出力検出モジュール354の出力は、テキストコンテンツアイテム(およびそれらの位置情報)、ならびに位置、タイプ(もしくはクラス)、対応付けられたアクションまたは機能を含み得る。
いくつかの実施形態において、オブジェクト検出モジュール354の出力はクラスタリングモジュール356に送ることができる。クラスタリングモジュール356は、検出したUIコンポーネントおよびテキストコンテンツアイテムを、たとえば、UIコンポーネントおよび/またはテキストコンテンツアイテムローカル情報、UIコンポーネントのタイプなどに基づいて、グルーピングすることができる。たとえば、グルーピングは、コンポーネント間の距離および/または類似性に基づいていてもよい。いくつかの実施形態において、クラスタリングモジュール356は、一組のルールを用いてグルーピングを実行し得る。たとえば、テキストコンテンツアイテムを、テキストボタンではなくテキスト入力UIコンポーネントとともにグルーピングしてもよい。別の例として、ボタンおよびデートピッカー(date picker)コンポーネント(たとえばカレンダー)はともにグルーピングしなくてもよく、レイアウトにおいて個別の要素とみなしてもよい。いくつかの実施形態において、グルーピングに使用される一組のルールは、メモリ122内の参照情報121の一部として格納されるなど、パーシステントメモリデバイス内のデータ構造(たとえば表またはリスト)に格納してもよい。
クラスタリングモジュール356は、ボトムアップでグルーピングを再帰的に実行することができる。たとえば、個々のコンポーネント(たとえばUIコンポーネントおよび/またはテキストコンテンツアイテム)をグルーピングしてサブグループにすることができ、次に、このサブグループをグルーピングして高レベルのサブグループにし、1つのグループが画像内のすべてのコンポーネントをカバーするまで、続けることが判明した。
いくつかの実施形態において、テキストコンテンツアイテム、UIコンポーネント、テキストコンテンツアイテムおよびUIコンポーネントに対応付けられた情報(たとえば位置、タイプなど)、およびクラスタマップ(またはレイアウト)を、テキスト解析モジュール358に送ることができる。テキスト解析モジュール358は、テキストコンテンツアイテムを解析することにより、GUI画面画像内のクリッカブルテキストコンテンツアイテムを識別できる。クリッカブルテキストコンテンツアイテムは、何等かのアクションまたは機能を示すことができ、通常は、少なくとも1つの動詞(たとえば、取消、保存、クリアなど)を含み得るものであり、どのUIコンポーネントにも対応付けられないであろうものである。たとえば、他のテキストコンテンツアイテムから分離された「取消」というテキストを有するテキストコンテンツアイテムは、クリッカブルテキストであることを意図し得る。いくつかの実施形態において、このようなクリック可能な単語の辞書を管理しテキスト解析に使用してもよい。
いくつかの実施形態において、OCRモジュール352の出力は、個々の単語をそれぞれの位置情報とともに含み得る。クラスタリングモジュール356によるグルーピングの後に、個々の単語は、ラインまたはパラグラフの一部になり得る、または、GUI画面画像上の独立したアイテムになり得る。クラスタリングモジュール356は、個々の単語を、これらの単語がラインまたはパラグラフの一部である場合に、グルーピングすることができる。クリッカブルテキストコンテンツアイテムは、独立したアイテムであるかまたは特定数までの単語を有するラインに含まれるがパラグラフの一部である単語からのものではない単語から、識別することができる。いくつかの実施形態において、クリック可能と識別されたテキストコンテンツアイテムのタイプを、テキストから、「クリッカブルテキスト」に変更することができる。
クリッカブルテキストコンテンツアイテムを識別しそれに対応付けられたタイプを変更するためのテキスト解析後に、クラスタマップをアップデートしメタデータ生成器362に与えてもよい。メタデータ生成器362は、1つ以上のGUI画面を含み得るGUIのGUIモデルを生成し得る。GUIモデルは、サーバサブシステム320に提供されるGUI画面画像の最適表現であってもよい。いくつかの実施形態において、メタデータ生成器362は、GUIモデルを、JavaScriptオブジェクト表記(JSON)フォーマットのような言語から独立したデータ交換フォーマットで、生成することができる。次に、GUIモデル(たとえばJSONメタデータで記述されている)を、クライアントサブシステム310からの要求に対する応答として、RESTサービス340を介してクライアントサブシステム310に送ることができる。
GUIモデル306の受信後に、クライアントサブシステム310は、GUIモデル(たとえばJSONメタデータ)をページ生成器308に送ることができる。ページ生成器308は、図1に関連して先に述べたようにコード生成器(たとえばコード生成器126、128、または130)を含み得る。ページ生成器308は、GUIモデル306を入力として取り込み、ターゲットプラットフォーム、たとえばiOS(登録商標)またはAndroid(登録商標)を用いて動作するモバイルデバイスや、iOS(登録商標)、Windows(登録商標)、またはLinux(登録商標)を用いて動作するワイド画面を有するシステムに対し、対象言語でGUIを実現するコードを生成することができる。たとえば、コードはAngular JSまたはBootstrapに対して生成することができる。GUIインプリメンテーションは、1つ以上のプロセッサが実行可能なGUIの実行可能なインプリメンテーションであってもよい。いくつかの実施形態において、GUIインプリメンテーションをコンパイルする(または解釈する、またはそれに対して実行される解釈されたまたはその他何等かの処理が実行された)ことにより、GUIの事項可能バージョンを生成することができる。GUIに対して生成されるページアーティファクト312を次にエンドユーザが使用できるようにする。
いくつかの場合において、モデル生成システム330は、GUI画面画像内のUIコンポーネントを正確に検出または分類しなくてもよい。フィードバックプロセスを用いることにより、モデル生成システム330にフィードバックを与え、生成されたGUIモデルを訂正することができる。たとえば、開発者は、GUIモデル306をレビューし、未検出のまたは誤分類されたUIコンポーネントを特定し、特定した未検出のまたは誤分類されたUIコンポーネントの画像と正しいラベルとを、任意のフィードバックモジュール304を介して提供することができる。たとえば、モデル生成システム330(より具体的にはオブジェクト検出モジュール354)によって誤分類されたもしくはまだ検出されていないUIコンポーネントがある場合、誤分類されたもしくは未検出のUIコンポーネントの画像または誤分類されたもしくは未検出のUIコンポーネントを含むGUI画面画像を、誤分類されたまたは未検出のUIコンポーネントの正しいラベルとともに、RESTサービス340を介してモデル生成システム330に与えることができる。フィードバック情報を、特徴抽出エンジン366が使用して、上述のように誤分類されたもしくは未検出のUIコンポーネントまたはGUI画面画像から特徴(たとえば特徴マップまたは特徴ベクトル)を抽出してもよい。いくつかの実施形態において、ユーザフィードバックから抽出される特徴を、特徴クラスタリングモジュール372に送ってもよい。
特徴クラスタリングモジュール372は、訓練サンプル内のUIコンポーネントの各々の特徴を、多次元空間であってもよい特徴空間内のデータポイントにマッピングすることができる。一組のクラスタを特徴空間内に形成してもよく、各クラスタはUIコンポーネントのタイプに対応し得る。クラスタ間変化(または距離)は、UIコンポーネントをこれらの特徴を用いて適切に分類できる、重要であり得る。誤分類されたまたは未検出のUIコンポーネントのフィードバック画像から抽出された特徴も特徴空間内のデータポイントにマッピングできる。誤分類されたまたは未検出のUIコンポーネントの画像から抽出された特徴を表すデータポイントと、一組のクラスタのクラスタ中心との距離を計算することにより、誤分類されたまたは未検出のUIコンポーネントと訓練サンプルに既に含まれているUIコンポーネントとの間の類似性または相違性を求めることができる。これらの距離のうちの1つがしきい値未満である場合、誤分類されたまたは未検出のUIコンポーネントの画像を訓練サンプルに追加し、機械学習ベースのモデルの再訓練をトリガしてもよい。いくつかの実施形態において、このしきい値は実験結果に基づいて決定してもよい。
しきい値は、注釈付き訓練サンプル368の特定のセキュリティレベルを保証するのに役立ち得る。たとえば、いくつかの場合において、開発者が「円グラフ」を誤って「棒グラフ」としてラベル付けすることがある。上述のようにフィードバックにおいて開発者が提供する注釈付きサンプルをフィルタリングするための距離が計算されていない場合、機械学習ベースのモデルを、間違ってラベル付けされたサンプルで再訓練してもよい。これは、再訓練されたモデルを、前のモデルよりも悪化させる可能性がある、または、訓練プロセスを収束させない可能性がある。よって、特徴クラスタリングモジュール372および距離比較ブロック370は、ユーザが提供したサンプルのUIコンポーネントが既に訓練サンプル内にあるいくつかのUIコンポーネントと似ている場合は専らユーザが提供したサンプルを用いてモデルを再訓練することを保証するのに役立ち得る。いくつかの実施形態において、計算した距離がしきい値を上回る場合、ユーザが提供したサンプルは無視すればよい。いくつかの実施形態において、人間による介入は、計算した距離がしきい値を上回る場合に要求すればよい。
次に、ユーザが提供したサンプルを用いて再訓練されたモデルを用いて、現在のGUI画面画像およびその後受けるGUI画面画像内のUIコンポーネントを検出し分類することができる。GUIモデルを、再訓練されたモデルを用いた検出および分類の結果に基づいてアップデートし、GUIインプリメンテーションを生成するためにクライアントサブシステム310に送り返すことができる。
図1または図3に記載のシステムを用いることにより、機械学習ベースのモデルを訓練し、このモデルを用いてGUIモデルおよび/またはGUIインプリメンテーションを自動的に生成することができる。
図4は、特定の実施形態に係る、機械学習ベースの分類器を用いてGUIモデルおよび/またはGUIの1つ以上のインプリメンテーションを生成するために実行されるハイレベル処理を示す簡略化されたフローチャート400である。図4に示される処理は、それぞれのシステムの1つ以上の処理ユニット(たとえばプロセッサ、コア)によって実行されるソフトウェア(たとえばコード、命令、プログラム)、ハードウェア、またはその組み合わせで実現することができる。ソフトウェアは非一時的な記憶媒体(たとえばメモリデバイス)に格納されていてもよい。図4に示され以下で説明される方法は、限定ではなく例示を意図している。図4は特定のシーケンスまたは順序で発生する各種処理ステップを示すが、これは限定を意図したものではない。特定の代替実施形態において、ステップは異なる順序で実行されてもよく、いくつかのステップは並列に実行されてもよい。特定の実施形態において、図4に示される処理は、上記モデル生成システム102または300を含むサーバ、クライアントコンピュータシステム、プロセッサ(たとえばグラフィック処理ユニット(graphic processing unit)(GPU)またはテンソル処理ユニット(tensor processing unit)(TPU))、ASIC,またはFPGAによって実行されてもよい。
図4に示されるように、この処理は、モデル生成システム、より具体的には機械学習サブシステム(たとえばモデル生成システム330内の機械学習サブシステム360)が、GUI画面画像内のUIコンポーネントを検出し分類するための分類器のような機械学習ベースのモデルを構築することができる402から始めることができる。機械学習ベースの分類器を構築するために、サポートベクターマシン(SVM)分類器または畳み込みニューラルネットワーク(CNN)分類器のようなタイプの分類器を先ず選択することができる。分類器のいくつかのパラメータ、たとえばSVMのカーネルのタイプまたはCNN分類器のレイヤの数ならびにフィルタの数およびサイズを決定することができる。次に、(既知のタイプのUIコンポーネントの訓練画像、または既知のタイプのUIコンポーネントを有するGUI画面の訓練画像のような)訓練サンプルを、選択した分類器タイプおよび/または分類器のパラメータに基づいて、処理することができる。いくつかの実装例において、訓練および推論プロセスの精度および速度を改善するために、訓練および/または推論プロセスの開始前に、テキスト情報を抽出して取り除いてもよい。既知のタイプのUIコンポーネント(注釈が示される)を有する処理後の訓練画像を用いて運類器を訓練することができる。
たとえば、分類器のパラメータ(たとえば分類器内の畳み込みレイヤの各種重みまたはフィルタ)を(たとえば何等かのランダムまたはデフォルト値)に初期化し、各訓練画像ごとに、分類器が訓練画像から特徴を抽出し、抽出した特徴に基づいて訓練画像を分類することができる。損失関数値(たとえばエラー)を、訓練画像および分類結果における既知のタイプのUIコンポーネントに基づいて求めることができる。分類器のパラメータを調整することにより、損失関数値を低減することができる。いくつかの実装例において、訓練画像を分類器を用いて分類することは、訓練画像から特徴を抽出すること、たとえばフィルタを用いて訓練画像を畳み込むことにより特徴マップを生成すること、または画像の特定のヒストグラム(たとえばカラーヒストグラムまたは傾斜のヒストグラム)から特徴を抽出すること、および、訓練画像の抽出した特徴に基づいて訓練画像内のUIコンポーネントのタイプを判断することを、含み得る。機械学習ベースのモデルの構築のさらなる詳細は、以下、図5との関連で説明する。
404で、モデル生成システムは、機械学習ベースのモデルを用いてGUIのためのGUIモデルを生成することができる。たとえば、いくつかの実装例において、入力されたGUI画面画像の各々を処理することにより、テキストコンテンツアイテムおよび個々のUIコンポーネントを含むGUIコンポーネントを特定して抽出し、テキストコンテンツアイテムおよびUIコンポーネントのパラメータ(たとえばサイズ、位置、色など)を判断し、機械学習ベースのモデルを用いてUIコンポーネントを分類することにより、UIコンポーネントのタイプを判断することができる。次に、分類したUIコンポーネントおよびテキストコンテンツアイテムをグルーピングすることにより、GUIコンポーネントの階層を形成することができる。GUI画面のレイアウト(またはクラスタマップ)をこの階層に基づいて判断することができる。いくつかの実施形態において、クリッカブルテキストコンテンツアイテムを特定してもよい。次に、GUIモデルを生成することにより、GUI画面、GUI画面内のUIコンポーネント、GUI画面内のテキストコンテンツアイテムなどのレイアウトを記述することができる。いくつかの実装例において、GUIモデルは、JavaScriptオブジェクト表記(JSON)フォーマットのような、言語から独立したデータ交換フォーマットで記述されてもよい。次に、404で生成されたGUIモデルを、さまざまなダウンストリームの目的のために使用することが可能である。
たとえば、406で、GUIモデルに基づいて、GUIの1つ以上のGUI画面の1つ以上のインプリメンテーションを自動的に生成することができる。いくつかの実施形態において、その上でGUIを使用し得るプラットフォームおよびこのインプリメンテーションのターゲット言語に基づいて、コード生成テンプレートを、利用できるコード生成テンプレート(たとえば図1に関して説明したコード生成テンプレート140)から選択することができる。コード生成器(たとえばコード生成器126、128、または130)は、選択したコード生成テンプレートおよび図1に関して先に述べたGUIモデルに基づいて、GUIを実現するためのコードを生成することができる。特定の実施形態において、このインプリメンテーションは、1つ以上のプロセッサが実行可能なGUIの実行可能なインプリメンテーションであってもよい。他の実施形態において、このインプリメンテーションは、GUIを実現するためのコードおよびロジックを含み得る。次に、このインプリメンテーションをコンパイルまたは解釈することにより、実行可能なGUIを生成することができる。
いくつかの実施形態において、408で、モデル生成システムは、404で生成したGUIモデルに関するユーザフィードバックを受けることができる。たとえば、GUIモデル内で誤分類されたまたは未検出のUIコンポーネントがある場合、誤分類されたまたは未検出のUIコンポーネントの画像、または、誤分類されたまたは未検出のUIコンポーネントを含むGUI画面画像(および画像内の誤分類されたまたは未検出のUIコンポーネントの位置)を、ユーザから提供された誤分類されたまたは未検出のUIコンポーネントについての注釈とともに、モデル生成システムに提供することができる。誤分類されたまたは未検出のUIコンポーネントの画像および注釈を用いることにより、機械学習ベースのモデルを再訓練するおよび/またはGUIモデルを再度生成することができる。
図5は、特定の実施形態に係る、ユーザインターフェイスコンポーネントを検出し分類するための機械学習ベースの分類器を訓練するために実行されるハイレベル処理を示す簡略化されたフローチャート500である。特定の実施形態において、図5に示される処理は、図4の402で実行される処理の一部として実行することができる。図5に示される処理は、それぞれのシステムの1つ以上の処理ユニット(たとえばプロセッサ、コア)によって実行されるソフトウェア(たとえばコード、命令、プログラム)、ハードウェア、またはその組み合わせで、実現し得る。ソフトウェアは(たとえばメモリデバイス上の)非一時的な記憶媒体に格納されていてもよい。図5に示され以下で説明される方法は、例示を意図しているのであって限定しているのではない。図5は特定のシーケンスまたは順序で発生する各種処理ステップを示しているが、これは限定を意図している訳ではない。特定の代替実施形態において、これらのステップは何等かの異なる順序で実行されてもよく、または、いくつかのステップが並列に実行されてもよい。特定の実施形態において、図5に示される処理は、モデル生成システム102、機械学習サブシステム360、プロセッサ(たとえばGPUもしくはTPU)、ASIC,またはFPGAによって実行されることができる。
502で、1つ以上の注釈付き訓練画像を受け、たとえばメモリ122に格納することができる。訓練画像は、ボタン、テキスト入力ボックス、ドロップダウンリスト、ドロップダウンメニュー、チェックボックス、ラジオボタン、スイッチボタン、アイコン、表、(人々または物体の)写真、ラインディバイダ、コンテナなどのような、既知のタイプの各種UIコンポーネントを含み得る。訓練画像には、UIコンポーネントのタイプ、および、訓練画像内のUIコンポーネントの位置等の、UIコンポーネントに対応付けられたその他の情報を用いて、注釈を付けることができる。いくつかの実施形態において、各訓練画像は1つのUIコンポーネントの画像を含むだけであってもよい。いくつかの実施形態において、各訓練画像は複数のUIコンポーネントを含んでいてもよい。いくつかの実施形態において、各訓練画像は、テキストコンテンツを含むまたは含まない場合があるGUI画面の画像に対応していてもよい。いくつかの実施形態において、訓練GUI画面画像は、GUIを設計するために使用し得る各種フロントエンド技術にまたがる各種ソースからのものであってもよい。
各訓練画像を処理することにより、この訓練画像内の1つ以上のUIコンポーネントを抽出し分類することができる。訓練画像がUIコンポーネント以外の特徴を含むいくつかの実施形態において、訓練プロセスの精度および速度を改善するために、訓練のためのUIコンポーネントの検出および分類に干渉する可能性が高い視覚的特徴を一時的に消去してもよい。たとえば、下記の504および506における動作について説明するように、1つ以上のUIコンポーネントを検出し分類する前に、GUI画面に対応する各訓練画像ごとに、テキスト情報を抽出し訓練画像から削除してもよい。各訓練画像ごとに、画像内の特徴を抽出し、抽出した特徴に基づいて訓練された機械学習ベースの分類器を用いて訓練画像内のUIコンポーネントを検出し分類することができる。分類器を、分類結果と訓練画像の注釈との比較に基づいて調整してもよい。
任意で、504で、(もしあれば)テキスト情報を訓練画像から抽出してもよい。テキスト情報の抽出は、訓練画像内のテキストコンテンツアイテムを検出することと、検出したテキストコンテンツアイテムを認識することとを含み得る。たとえば、いくつかの実施形態において、全層畳み込みネットワーク(fully convolutional network)(FCN)モデル(たとえば、Zhou, et al., “EAST: An Efficient and Accurate Scene Text Detector,” arXiv:1704.03155v2, July 10, 2017参照)を用いて、訓練画像内のテキストコンテンツアイテムを検出し、テキストコンテンツアイテムの位置(たとえばバウンディングボックス(bounding box)の座標)および/またはテキストコンテンツアイテムの寸法を求めることができる。いくつかの実施形態において、設計ツールの拡張(たとえばGIMPまたはPhotoshop)を用いて、訓練画像のレイヤからテキスト領域を抽出してもよい。次に、求めた位置におけるサブ画像を抽出してもよく、光学文字認識(OCR)プロセスを抽出したサブ画像各々に対して実行することにより、テキストコンテンツアイテムに対応付けられたテキスト情報を抽出することができる。いくつかの実施形態において、OCRプロセスはまた、機械学習ベースのモデルを使用することにより、テキストコンテンツアイテム内の文字を認識することができる。たとえば、いくつかの場合において、テキストコンテンツアイテムは従来のOCR技術では正確に認識されないかもしれない手書き文字を含み得る。機械学習ベースの分類器を用いて、各文字を一組の既知の文字のうちの1つに分類することができる。
506で、訓練画像内の(もしあれば)テキスト情報を、予め定められたパターンのようなプレースホルダに置き換えてもよい。たとえば、サブ画像内の画素値を、背景画素値または予め定められた画素値に置き換えて、続くUIコンポーネント検出および分類にテキストコンテンツアイテムが干渉しないようにすることができる。いくつかの実装例において、プレースホルダは訓練のための特徴の役割も果たし得る。たとえば、プレースホルダは、元のUIコンポーネントが特定のテキスト情報を含み得るものでありしたがってクリック可能ボタンまたはテキスト入力ボックスのような特定のタイプのUIコンポーネントのうちの1つである可能性があることを、示すことができる。加えて、UIコンポーネント内のテキストコンテンツアイテムの配列はプレースホルダによって保存することができる。
508で、訓練画像から特定の特徴を抽出することができる。たとえば、特徴抽出エンジン366について先に述べたように、深層CNNを用いて、訓練画像から異なるレベルにある各種特徴(たとえば特徴ベクトルまたは特徴マップ)を抽出してもよい。異なる特徴は異なるフィルタを用いて抽出することができる。たとえば、フィルタを用いることにより、訓練画像を、訓練画像内のオブジェクトのエッジまたは輪郭を含む特徴マップに畳み込むことができる。抽出すべき特徴のタイプは訓練プロセス中に自動的に決定することができ、よって、異なるタイプのUIコンポーネントを、抽出した特徴に基づいて、正確に検出し分類することができる。
510で、SVM分類器またはCNN分類器のような機械学習ベースの分類器は、508で抽出した特徴に基づいて、訓練画像内のUIコンポーネントを検出し分類することができる。各種実施形態において、UIコンポーネントの検出およびUIコンポーネントの分類は、異なる機械学習ベースのモデルを用いて別々に実行してもよく、または、同一の分類器を用いて合同で実行してもよい。いくつかの実施形態において、先ず、UIコンポーネントの各々の境界を検出できる各種輪郭検出技術を用いて、訓練画像内のUIコンポーネントを特定し訓練画像から抽出し、次に、サブ画像内の抽出したUIコンポーネントを分類することができる。たとえば、ニューラルネットワークは、オブジェクト検出技術(たとえば上記SSDまたはYOLO技術)を実現することにより、抽出した特徴を用いて、1つ以上のUIコンポーネントを訓練画像の1つ以上の異なる位置にローカライズすることができる。各UIコンポーネントの位置または境界に基づいて、各UIコンポーネントの境界内のサブ画像を抽出してもよい。次に、UIコンポーネントを含む訓練画像の、判断した位置から抽出したサブ画像を、分類器によるUIコンポーネントの分類に使用してもよい。いくつかの実施形態において、同じ深層ニューラルネットワークは、合同UIコンポーネント検出および分類を実行してもよく、抽出された特徴を用いて、UIコンポーネントと訓練画像の1つ以上の異なる位置にローカライズするとともに1つ以上のUIコンポーネントをパイプラインまたは並列処理で分類してもよい。いくつかの実施形態において、機械学習ベースのモデルを訓練することによりGUI画面画像内の複数のUIコンポーネントを検出するために、少なくともいくつかの訓練画像は異なる位置の複数のUIコンポーネントを含み得る。
UIコンポーネントの分類中に、訓練画像から抽出した特定の特徴を組み合わせて使用することにより、あるタイプのUIコンポーネントを他のタイプのUIコンポーネントから区別することができる。先に述べたように、テキスト情報のような干渉する特徴を、潜在的に区別がつく特徴(たとえば予め定められたパターン)と置き換えることができるので、訓練処理をより速くすることができ、より正確な分類器をもたらすことができる。UIコンポーネントを分類するために使用できる数種類の機械学習ベースの分類器が存在し得る。以下、UIコンポーネントを分類するために使用し得る分類器のいくつかの例について説明する。
いくつかの実装例において、サポートベクターマシン(SVM)分類器を用いてUIコンポーネントを分類することができる。SVM分類器はデシジョン境界を定めるデシジョン面に基づく。SVM分類器は、線形分類器(すなわちラインを用いて一組のオブジェクトをそれぞれのクラスまたはグループに分離する分類器)であってもよく、または、非線形カーネル関数に基づくより複雑な構造(超平面)を用いて異なるクラスのオブジェクトを分離する非線形分類器であってもよい。いくつかの実施形態において、画像の画素ではなく、画像のヒストグラム特徴(たとえばカラーヒストグラム、傾斜のヒストグラム)を、SVM分類器を用いる分類に使用してもよい。
先に述べたように、各種ニューラルネットワークベースの分類器を用いることによりUIコンポーネントを分類することもできる。たとえば、ニューラルネットワークベースの分類器は、特徴抽出用のいくつかのレイヤと分類用のいくつかのレイヤ(たとえば全結合レイヤ)とを含み得る。特徴抽出用のレイヤは、特徴抽出エンジン366について先に述べた特徴抽出レイヤと同様であってもよい。全結合レイヤでは、あるレイヤ内のすべてのノードが隣接するレイヤ上のすべてのノードに接続される。全結合レイヤは、入力画像の抽出された特徴を、入力として用いて、入力画像を出力レイヤの各種クラスに分類することができ、出力レイヤ上の各ノードは、UIコンポーネントの可能なクラス(またはタイプ)に対応し得る。たとえば、全結合レイヤは、出力レイヤ上でソフトマックス活性化関数を使用してもよい。ソフトマックス関数は、任意の実数値スコアのベクトルを得て、合計1になる0と1との間の値(確率)を有するベクトルに変換することができる。次に、入力画像を、出力レイヤにおける可能な各クラスに対応付けられた確率値に基づいて分類することができる。
512で、分類器(たとえばCNNベースの分類器)を、分類結果と訓練画像の注釈との比較に基づいて調整することができる。一般的に、分類器のパラメータ(たとえばフィルタの重みおよび全結合レイヤの重み)は、先ず、何等かのランダム値、デフォルト値、または同様の分類器で使用される値で、初期化することができる。重みのような分類器のパラメータはランダム値を有し得るものであり訓練例について最適化されないので、出力確率はランダムであろう。いくつかの実施形態において、可能な各クラスについての分類エラーは、分類結果と訓練画像の注釈との比較に基づいて判断することができ、出力レイヤにおける総エラーは、可能なすべてのクラスの確率エラーを合計することによって計算できる。次に、バックプロパゲーション技術のような技術を用いて、すべてのパラメータを基準とするエラーの傾斜と、ネットワークで訓練される重みとを計算することができ、出力エラーを最小にするために、傾斜降下を用いてネットワーク内で訓練するすべてのパラメータおよび重みをアップデートすることができる。重みは総エラーに対するその貢献度に従って調整することができる。同じ訓練画像が再び入力にある場合、出力確率はターゲット確率により近くなるであろう。このことは、ネットワークがこの特定の画像の分類を学習したことを示す。上記訓練プロセスは、訓練サンプル内のおすべての訓練画像に対して繰り返すことができる。先に述べたように、フィルタの数、フィルタサイズのような畳み込みニューラルネットワークのいくつかのパラメータ、ニューラルネットワークのアーキテクチャなどは、予め選択されており訓練プロセス中は不変であってもよい。
訓練プロセスの最後において、分類器のすべてのパラメータは最適化されており訓練サンプルからの訓練画像を正確に分類することができる。まだ見られていない画像(たとえばテスト画像または新たな場増)が分類器に入力されると、分類器は、フォワードプロパゲーションステップを経て、訓練された重みおよびパラメータを用いて各クラスの確率を出力することができ、これは、訓練プロセスとの対比で推論プロセスと呼ぶことができる。訓練サンプルが十分である場合、訓練された分類器は、まだ見られていないサンプルを正しいクラスに分類することができる。
先に述べたように、いくつかの実施形態において、分類器はユーザフィードバックに基づいて再訓練することができる。たとえば、ユーザは、機械学習ベースの分類器を用いてモデル生成システムが生成したGUIモデルをレビューしてもよい。分類器が誤分類したまたはまだ検出していないUIコンポーネントがある場合、誤分類されたもしくは未検出のUIコンポーネントの画像、または、誤分類されたもしくは未検出のUIコンポーネントを含むGUI画像を、ユーザが提供する誤分類されたまたは未検出のUIコンポーネントについての正しい注釈とともに、モデル生成システムにフィードバックしてもよい。
514で、機械学習サブシステム360のような機械学習サブシステムは、ユーザフィードバックに基づく分類器の再訓練が必要か否かを判断してもよい。たとえば、フィードバックにおける画像の特徴を、508で述べたように抽出し、多次元特徴空間内のデータポイントにマッピングしてもよい。この特徴空間は、既に訓練サンプル内にある異なるタイプのUIコンポーネントに対応する一組のクラスタを含み得る。誤分類されたまたは未検出のUIコンポーネントから抽出された特徴を表すデータポイントと、一組のクラスタのクラスタ中心との間の距離を計算することにより、誤分類されたまたは未検出のUIコンポーネントと、訓練サンプルに含まれるUIコンポーネントとの類似点または相違点を判断することができる。距離のうちの1つがしきい値未満の場合、誤分類されたまたは未検出のUIコンポーネントの画像と、ユーザが提供した注釈とを、信頼できるとみなしてもよく、訓練サンプルに追加して機械学習ベースのモデルの再訓練をトリガしてもよい。計算した距離がしきい値を上回っている場合、ユーザが提供する画像および注釈は無視してもよい、または、人間による介入を要求してもよい。
514で、ユーザフィードバックにおいて提供された画像および注釈が信頼できると判断された場合、分類器をユーザフィードバックの基づいて再訓練してもよい。ユーザフィードバックに基づいて分類器を再訓練するための動作は、508、510、および512に関して先に述べた動作と同様であってもよい。機械学習ベースのモデルが訓練された後に、モデル生成システムは、機械学習ベースのモデルを用い、ユーザが提供するGUI画面画像に基づいてGUIモデルを生成することができる。GUIを実現するためのソースコードも、人間による介入を最小にして自動的に生成することができる。
図6は、特定の実施形態に係る、GUIの設計情報に基づいてグラフィックユーザインターフェイスのためのGUIモデルおよび/またはソースコードを生成するために実行されるハイレベル処理を示す、簡略化されたフローチャート600である。図6に示される処理は、1つ以上の処理ユニット(たとえばプロセッサ、コア)によって実行されるソフトウェア(たとえばコード、命令、プログラム)、ハードウェア、またはその組み合わせで実現することができる。ソフトウェアはメモリ(たとえばメモリデバイスのような非一時的なコンピュータ読取可能記憶媒体)に格納されていてもよい。図6に示される特定の一連の処理ステップは限定を意図しているのではない。これらの処理ステップは図6に示される順序と異なる順序で実行されてもよく図6に示されるすべてのステップを実行する必要がある訳ではないことがわかる。いくつかの実施形態において、図6に示される処理のうちの少なくとも一部を、図1に示されるモデル生成システム102または図3に示されるモデル生成システム330が実行してもよい。
簡潔にするために、図6および以下の関連する説明に示されるフローチャート600は、GUIのための1つのGUI画面画像に対する処理について説明している。しかしながらこれは限定を意図しているのではない。代替実施形態において、複数のGUI画面画像を用いてGUIのための複数のGUI画面について説明することができる。いくつかのこのようなシナリオにおいて、図6に示される処理(またはこの処理の一部)を、GUIのための各GUI画面ごとに繰り返してもよい。
602で、1つ以上のGUI画面画像を含む入力画像を受けることができる。各GUI画面画像は、1つ以上のUIコンポーネントと、テキスト情報を含む1つ以上のテキスト領域とを含み得る。先ず、各GUI画面画像を検出し入力画像から抽出することができる。先に述べたように、GUI画面画像は、ユーザインターフェイスの設計者が、顧客またはクライアント調査、マーケティング調査、ならびに、GUIのルック・アンド・フィールおよび開発するGUIに含まれる機能を伝える情報のその他のソースに基づいて生成し得るものである。GUI画面画像は、コンピュータ支援設計ツールを用いて生成されてデジタルフォーマットで保存されてもよく、または、紙の上のスケッチとして手作業で生成されスキャンされてデジタル画像にされてもよい。いくつかの実施形態において、GUI画面画像は、いくつかの修正が施されたGUIの前のバージョンのスナップショットであってもよい。特定の実施形態において、クライアントデバイス108(またはクライアントサブシステム310)によって実行されるプログラムは、ユーザがモデル生成システム102(またはモデル生成システム330)に対してインターフェイスしやり取りすることを可能にし得る。たとえば、プログラムは、ユーザ(たとえばプログラマー)がソフトウェアアプリケーションを構築するための設備およびツールを提供する統合開発環境(IDE)の一部であってもよい。このような環境において、IDEは、UI開発者が設計したGUI画面画像をユーザがインポート(たとえばドラッグ・アンド・プレース)することを可能にするツールを提供することができる。
先に述べたように、モデル生成システムが、GUI画面の機能およびレイアウト、GUI画面のコンポーネント、UIコンポーネントのタイプおよび機能、UIコンポーネント間のマッピングなどを決定できるようにするために、GUIのためのGUI画面画像が、各種解析を受けてもよい。
604で、テキストコンテンツを含むテキスト領域を検出しGUI画面画像から抽出することができる。各テキスト領域内のテキストコンテンツは1つ以上のテキストコンテンツアイテムを含み得る。いくつかの実施形態において、深層畳み込みネットワークモデルを用いて、GUI画面画像内のテキスト領域を検出し、テキスト領域の位置(たとえばバウンディングボックスの座標)および/または寸法を求めることができる。いくつかの実施形態において、設計ツールの拡張(たとえばGIMPまたはPhotoshop)を用いて、訓練画像のレイヤからテキスト領域を抽出してもよい。次に、求めた位置におけるサブ画像を抽出しテキストコンテンツアイテムの抽出に使用してもよい。
606で、サブ画像から、テキストコンテンツアイテムおよびテキスト領域内の対応する位置を抽出することができる。たとえば、いくつかの実施形態において、光学文字認識(OCR)プロセスを、抽出した各サブ画像に対して実行することにより、各テキストコンテンツアイテムに対応付けられたテキスト情報を抽出することができる。いくつかの実施形態において、OCRプロセスはまた、機械学習ベースのモデルを用いることにより、テキストコンテンツアイテム内の文字を認識することもできる。たとえば、いくつかの場合において、テキストコンテンツアイテムは、従来のOCR技術では正しく認識されない可能性がある手書き文字を含むことがある。機械学習ベースの分類器を用いることにより、各文字を、一組の既知の文字のうちの1つに分類することができる。テキストコンテンツアイテムの検出および認識についてのさらなる詳細については以下で図7との関連で説明する。
608で、GUI画面画像内のテキスト領域をプレースホルダに置き換えることができる。たとえば、サブ画像内の画素値を、背景画素値または予め定められた画素値に置き換えて、続くUIコンポーネントの抽出および分類にテキスト領域が干渉しないようにすることができる。先に述べたように、いくつかの実装例において、プレースホルダは分類のための特徴の役割も果たし得る。たとえば、プレースホルダは、元のUIコンポーネントが特定のテキスト情報を含み得るものでありしたがってクリック可能ボタンまたはテキスト入力ボックスのような特定のタイプのUIコンポーネントのうちの1つである可能性があることを、示すことができる。加えて、UIコンポーネント内のテキストコンテンツアイテムの配列はプレースホルダによって保存することができる。いくつかの実装例において、UIコンポーネントに重なるまたはUIコンポーネントに隣接するテキストのみをプレースホルダに置き換えてもよい。
610で、510に関して先に述べた処理と同様のやり方で、UIコンポーネントを検出することができ、GUI画面画像内の対応する位置を求めることができる。UIコンポーネントは、たとえば、ボタン、チェックボックス、リスト、テキスト入力ボックス、アイコン、コンテナ、ラジオボタン、スイッチボタンなどを含み得る。各種輪郭検出技術を用いることにより、各UIコンポーネントの境界を検出することができる。たとえば、先に述べたように、ニューラルネットワークは、GUI画面画像から特徴を抽出することができ、オブジェクト検出技術(たとえば上記SSDまたはYOLO技術)を実現することにより、抽出された特徴を用いて、1つ以上のUIコンポーネントをGUI画面画像の1つ以上の異なる位置にローカライズすることができる。各UIコンポーネントの位置または境界に基づいて、各UIコンポーネントの境界内のサブ画像をGUI画面画像から抽出することができる。
612で、610で検出したUIコンポーネントを、機械学習ベースの分類器およびサブ画像を用いて分類することができる。先に述べたように、機械学習ベースの分類器は、たとえば、既知のタイプのUIコンポーネントを含む訓練画像を用いて訓練することができるSVMまたはCNN分類器を含み得る。分類器は、UIコンポーネントが属しているであろうUIコンポーネントのタイプを判断することができる。いくつかの実施形態において、各タイプのUIコンポーネントを、このタイプのUIコンポーネントの、たとえば画像または画像のソース、機能、対応するアクション、対応するコード、他のアプリケーションまたはGUI画面へのリンクなどを記述し得るデータモデルに対応付けることができる。先に述べたように、いくつかの実施形態において、610および612における動作は、同じ深層CNNベースの分類器によって実行されてもよい。
614で、610で検出され612で分類されたUIコンポーネント、および604で検出され606で抽出されたテキストコンテンツアイテムをグルーピングすることにより、GUI画面のレイアウトを生成することができる。先に述べたように、クラスタリングモジュール(たとえばクラスタリングモジュール356)は、特定の予め定められたルールに基づいてボトムアップでグルーピングを再帰的に実行することができる。テキストコンテンツアイテムおよびUIコンポーネントの属性、たとえば位置、サイズ、タイプ、機能等を、グルーピングに使用することができる。たとえば、個々のコンポーネント(たとえばUIコンポーネントおよび/またはテキストコンテンツアイテム)をサブグループ(たとえば表、リスト、組織図、パラグラフなどを表す)にグルーピングすることができ、次にサブグループをより高いレベルのサブグループにグルーピングすることができ、これは、1つのグループが画像内のすべてのコンポーネントをカバーするまで行われる。たとえば、606で抽出されたテキストコンテンツアイテムは、個々の単語をその位置情報とともに含み得る。クラスタリングモジュールは、個々の単語を、これらの単語がラインまたはパラグラフの一部であれば、グルーピングすることができる。異なるレベルでのグルーピングに基づいて、クラスタリングモジュールは、階層および位置情報を用い、画像内のコンポーネントの階層、および、GUI画面の最適なレイアウトを決定することができる。
616で、どのUIコンポーネントにも対応付けられていないクリッカブルテキストコンテンツアイテムを特定することができる。クリッカブルテキストコンテンツアイテムは、何等かのアクションまたは機能を示し得るものであり、通常は少なくとも1つの動詞(たとえば取消、保存、クリアなど)を含むが、どのUIコンポーネントにも対応付けられていない場合がある。たとえば、他のテキストコンテンツアイテムから分離されている「取消」というテキストを有するテキストコンテンツアイテムは、クリッカブルテキストを意図し得るものであり、このテキストコンテンツアイテムがクリックされるとアクションが実行され得る。よって、GUIモデルは、テキストコンテンツアイテムをクリック可能であると説明しクリッカブルテキストコンテンツアイテムに対応付けられたリンクまたはコードを提供することができる。いくつかの実施形態において、クリッカブルテキストコンテンツアイテムは、独立したアイテムであるかまたは特定数までの単語を有するラインに含まれるがパラグラフの一部である単語からのものではない単語から、識別することができる。いくつかの実施形態において、このようなクリッカブルテキストコンテンツアイテムのタイプを、「テキスト」から「クリック可能テキスト」に変更してもよい。
618で、テキストコンテンツアイテムおよび対応する位置、分類されたUIコンポーネントおよび対応する位置、ならびにGUI画面のレイアウトに基づいて、GUIのためのGUIモデルを生成することができる。特定の実施形態において、GUIモデルは、604、606、610、612、614、および616で実行された処理に関する情報を格納することができる。たとえば、GUIモデルは、604および606で決定されたGUI画面内のテキストコンテンツアイテム、610で決定されたUIコンポーネントの位置、612で決定されたUIコンポーネント(およびUIコンポーネントに対応付けられたデータモデル)のタイプ、614で決定されたGUI画面のレイアウトなどを格納することができる。GUIモデルに格納された情報は、ダウンストリームコンシューマが使用して、GUIのインプリメンテーションを生成することができる。いくつかの実装例において、GUIモデルはGUIのためのメタデータとして生成されてもよい。いくつかの実装例において、GUIモデルは、JavaScriptオブジェクト表記(JSON)フォーマットのような言語から独立したデータ交換フォーマットで記述されてもよい。
620で、GUIモデルに基づいて、GUIを実現するためのソースコードを自動的に生成することができる。いくつかの実施形態において、GUIを実現するためのソースコードは、特定のコード生成テンプレートに基づいて生成することができる。たとえば、各種コード生成器アプリケーション(たとえばコード生成器126、128、および130)は、GUIモデルを入力として取り込み、場合によっては異なるプログラミング言語でおよび/または異なるプラットフォームのために、たとえば異なるプログラミング言語および/または異なるプラットフォームのためのコード生成テンプレート140に基づいて、GUIを実現するためのコードを生成することができる。
コード生成器は、このコード生成器に固有の言語でGUIを実現するコードを生成することができる。インプリメンテーションは、1つ以上のプロセッサが実行可能なGUIの実行可能なインプリメンテーションであってもよい。たとえば、コード生成器は、GUIモデルを入力として取り込み、第1のプラットフォーム(たとえばiOS(登録商標))のためのインプリメンテーションを第1の言語で生成することができる。別のコード生成器システムは、第1のプラットフォームのための同じGUIモデルを用いて第2の言語でGUIのインプリメンテーションを生成することができ、第3のコード生成器は、Android(登録商標)プラットフォームのための同じGUIモデルを用いてGUIの別のインプリメンテーションを生成することができる。コード生成テンプレートは、コンピュータシステムの1つ以上のプロセッサが実行することが可能な実行可能GUIを生成するためにコンパイルまたは解釈することが可能なハイレベルコード(方法、機能、クラス、イベントハンドラなどを含み得る)を含む1つ以上のソースコードから構成されていてもよい。
このようにして、GUIの実行可能なインプリメンテーションを、GUIモデルに基づいて自動的に生成することが可能であり、この実行可能なインプリメンテーションは、GUI設計情報に記述されている、GUIのルック・アンド・フィール、GUIの機能、およびUIコンポーネントに対応するデータモデルに対するマッピングまたは関係を、カプセル化する。
いくつかの実施形態において、開発者はさらに、追加コードを用いてコードテンプレートインプリメンテーションをさらに拡張することにより、コードベースを完成または向上させる(たとえばコードベースに追加機能を加える)ことができる。たとえば、コード生成器は、GUIモデルに対応するマークアップコード(たとえばXML)を含む1つ以上のファイルを受け、マークアップコードを(ハイレベル)ソースコード(たとえばJava、C++、またはその他の言語)に変換することにより1つ以上のソースコードを含むGUIインプリメンテーションを出力するように、構成することができる。次に、コードインプリメンテーションをコンパイルする(または解釈するまたはこれに対してその他何等かの処理を実行する)ことにより、GUIの実行可能なバージョンを生成することができる。いくつかの実施形態において、GUIモデル(たとえばJSONフォーマット)を用いて、マークアップ言語(たとえばHTMLもしくはXML)またはスタイルシート言語(たとえばカスケーディングスタイルシート(CSS))のような異なるプログラミング言語でコードを生成することができる。
先に述べたように、ほとんどのOCR技術の短所は、暗い背景上に色が薄いテキストが存在するときに、たとえば青色の背景に白色のテキストがあるときに、テキストコンテンツを検出しないことである。特定の実施形態に従うと、全層畳み込みネットワークモデル(たとえば上記EAST技術)を用いて、GUI画面画像内のテキストコンテンツアイテムを検出し、テキストコンテンツアイテムの位置(たとえばバウンディングボックスの座標)および/または寸法を求めることができる。次に、求めた位置のサブ画像を抽出することができ、改良されたOCRプロセスを、抽出した各サブ画像に対して実行することにより、各テキストコンテンツアイテムに対応付けられたテキスト情報を抽出することができる。
図7は、特定の実施形態に係る、GUI画面の画像からテキストコンテンツアイテムを抽出するために実行されるハイレベル処理を示す簡略化されたフローチャート700である。フローチャート700に示される処理は、たとえばOCRモジュール352によって実行されてもよく、606および504に関して先に述べたように、GUI画面画像または訓練画像からテキスト情報を抽出するために使用することができる。図7に示される処理は、1つ以上の処理ユニット(たとえばプロセッサ、コア)によって実行されるソフトウェア(たとえばコード、命令、プログラム)、ハードウェア、またはその組み合わせで、実現することができる。ソフトウェアは、(たとえばメモリデバイスのような非一時的なコンピュータ読取可能記憶媒体上の)メモリに格納されていてもよい。図7に示される特定の一連の処理ステップは限定を意図したものではない。なお、これらの処理ステップは、図7に示される順序と異なる順序で実行されてもよく、図7に示されるすべてのステップを実行する必要がある訳ではない。
710で、入力画像(たとえばGUI画面画像)をテキスト抽出モジュール(たとえばOCRモジュール352)に与えることができる。720で、入力画像内のテキスト領域を、たとえば上記EAST技術を用いて検出することができる。EAST技術は、入力画像内においてテキストコンテンツアイテムが存在する領域の境界を示す座標の正確な推定値を提供することができる。730で、テキストコンテンツアイテムに対応する各領域のサブ画像を抽出することができる。いくつかの実施形態において、サブ画像は、テキストコンテンツアイテムに対応する領域に追加されたマージンを含み得る。各サブ画像を、780で実行されるOCRプロセスの前に、705で前処理することにより、サブ画像内のテキストコンテンツを認識することができる。
いくつかの実施形態において、705における前処理は、740で適応しきい値処理を用いてRGBフォーマットのサブ画像を2値サブ画像に変換することを含み得る。たとえば、画素の強度値がしきい値よりも高い場合、画素の値を、白色画素を表す値(たとえば「1」)に設定してもよい。そうでなければ、画素の値を、黒色画素を表す値(たとえば「0」)に設定してもよい。750で、2値サブ画像についてヒストグラムを生成することができる。760で、テキスト抽出モジュールは、各画素の強度値を相補値に変更することによってサブ画像を反転させる必要があるか否かを判断することができる。一般的に、テキストに対応する画素の数は、各サブ画像内の背景に対応する画素の数よりも少ない可能性がある。よって、ヒストグラムが、2値サブ画像内の黒色画素の数が白色画素の数よりも多いことを示す場合、テキストは、背景よりも高い(すなわち明るい)強度値を有する可能性があるため、RGBサブ画像を反転させる必要があるであろう。そうでなければ、テキストは背景よりも低い(暗い)強度値を有する可能性があるため、RGBサブ画像を反転させる必要はないであろう。いくつかの実施形態において、ヒストグラムをRGBサブ画像について生成し、テキストが背景よりも明るいか否かを判断するために使用してもよい。770で、RGBサブ画像を反転させることができる。たとえば、最大強度値が255で各画素の強度値がxの場合、反転画像内の各画素の値は255−xになるであろう。
780で、RGBサブ画像または反転されたRGBサブ画像を処理することにより、サブ画像内のテキストコンテンツアイテムを認識することができる。RGBサブ画像または反転されたRGBサブ画像内のテキストは背景よりも暗いので、テキストコンテンツアイテムをより正確に認識できる。先に述べたように、いくつかの実施形態において、機械学習ベースの技術を用いることにより、たとえば手書き文字を含み得るテキストコンテンツアイテムを認識することができる。790で、各テキストコンテンツアイテム内の認識したテキストと、各テキストコンテンツアイテムの位置(たとえばバウンディングボックスの座標)を、記憶装置に格納するか、または、モデル生成器(モデル生成器120または350)における次の処理モジュールに与えることができる。先に述べたように、いくつかの実施形態において、サブ画像をプレースホルダに置き換えることによりテキストコンテンツアイテムを取り除いてもよい。よって、その結果得られた画像を、テキストコンテンツを含まないようにすることができ、UIコンポーネントの検出および分類のために次の処理モジュールに与えることができる。
図8は、特定の実施形態に係る、UIコンポーネントおよび/またはテキストコンテンツアイテムをクラスタリングすることにより、グラフィックユーザインターフェイス画面について生成することができるUIコンポーネント階層800の一例を示す。UIコンポーネント階層800は、UIコンポーネントおよび/またはテキストコンテンツアイテムのクラスタリングに基づいて生成することができ、GUI画面の最適なレイアウトを決定するために使用することができる。いくつかの実施形態において、UIコンポーネント階層800は、先に述べたようにGUI画面においてUIコンポーネントが如何にして階層的に組織されているかを記述することができる。図8に示される例において、GUI画面810はKのクラスタ820を含み得る。各クラスタ820は1つ以上のUIコンポーネント830を含み得る。たとえば、クラスタ1はMのUIコンポーネント830を含んでいてもよく、クラスタ2はNのUIコンポーネント830を含んでいてもよく、…、クラスタKはLのUIコンポーネント830を含んでいてもよい。各UIコンポーネント830は、先に述べたように判断することができる、対応付けられた属性を有し得る。たとえば、各UIコンポーネント830は、先に述べたように、対応付けられたID、位置およびサイズ情報、機械学習ベースの分類器によって分類されたUIコンポーネントのタイプ、(もしあれば)対応付けられたテキスト、ならびにUIコンポーネントに関するその他の情報、たとえば画像または画像のソース、機能、対応するアクション、対応するコード、他のアプリケーションまたはGUI画面へのリンクなどを有し得る。各UIコンポーネントごとの、これらの対応付けられた属性を、モデル生成器(たとえばモデル生成器120または350)が用いてGUIモデルを生成することができる。
以下の説明では特定の実施形態について述べる。これらの特定の実施形態は専ら例示を目的としているのであって、限定を意図したものではない。これらの実施形態のうちの一部において、本明細書に開示される自動GUIモデルおよびコード生成技術を、Oracle(登録商標) Visual Builder Cloud Service開発環境のような統合開発環境(IDE)の一部として実現することができる。いくつかの実施形態において、本明細書に開示される自動GUIモデルおよびコード生成技術は、スタンドアロンツールとして実現してもよい。
図9は、特定の実施形態に係る、GUI画面のためのGUIモデルおよびGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面900の一例を示す。図9に示されるように、IDEにおいて最小限の新規ウェブアプリケーションwebappl 910をスタートすることができる。この最小限の新規ウェブアプリケーションwebappl 910は、スタートページ940のみを含み得る。webappl 910のファイル構造920が左側のパネルに示される。新規GUIを追加するには、UI開発者等のユーザが、「+」ボタン930をクリックすればよい。
図10は、特定の実施形態に係る、GUI画面のためのGUIモデルおよびGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面1000の一例を示す。GUI画面1000は、ユーザが「+」ボタン930をクリックした後にユーザに対して表示されるユーザインターフェイス1010を示す。ユーザインターフェイス1010は、GUI設計ファイルを入力ボックス1020に入力またはアップロードするようユーザを促すことができる。GUI設計ファイルは、GUI設計者がコンピュータ上または紙の上で設計しデジタルフォーマットで保存した、画素またはベクトルを含む画像ファイルのような1つ以上の画像ファイルを含み得る。入力ボックス1020が選択される(たとえばクリックされる)と、ユーザがローカルまたは遠隔保存されているGUI設計ファイルの位置を指定できるように、ポップアップウィンドウ1030がユーザに対して表示されてもよい。
図11は、特定の実施形態に係る、GUI画面のためのGUIモデルおよびGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面1100の一例を示す。図11に示されるように、ユーザは、ポップアップウィンドウ1130からGUI設計ファイル(たとえば画像ファイル)の位置を指定した後に、GUI設計ファイルを選択する、または、入力ボックス1120へのアイコン1110によって示されるように選択したGUI設計ファイルをドラッグすることができる。
図12は、特定の実施形態に係る、GUI画面のためのGUIモデルおよびGUIコードを自動的に生成するためのソフトウェアアプリケーションのGUI画面1200の一例を示す。図12に示されるように、GUI設計ファイルがアプリケーションにアップロードされた後に、スタートページ1240に加えて新たなページ1210が生成されてもよい。ファイル構造1220に示されるように、新たなGUIのための、JSONファイル1216、JavaScriptファイル1214、およびHTMLファイル1212が生成されてもよい。JSONファイル1216はGUIモデルを含んでいてもよく、HTMLファイル1212はhtmlフォーマットのGUIのインプリメンテーションを含んでいてもよい。
図13は、特定の実施形態に係る、GUI画面のために生成されたJSONフォーマットのGUIモデル1300の一例を示す。GUIモデル1300は、図12に示されるJSONファイル1216に対応し得る。図13に示されるように、GUIモデル1300は、GUI画面のレイアウト、ラベル、画像、およびテキスト入力ボックス等のGUI画面の各種コンポーネントを記述することができる。GUIモデル1300は、いくつかのUIコンポーネント内にテキストを表示することもできる。ユーザは、必要であればテキストエディタを用いてGUIモデルを修正することができる。
図14は、特定の実施形態に係る、本明細書に開示される技術に基づいて生成されるコードを用いて表示される、入力GUI画面画像1410および対応するGUI画面画像1420の一例を示す。入力GUI画面画像1410は、設計されたGUI画面を示すフォトビューアによって表示されるJPGファイルである。GUI画面画像1420は、HTMLファイル1212のようなHTMLファイルに基づいてウェブブラウザによって表示される。
図15は、特定の実施形態に係る、本明細書に開示される技術に基づいて入力GUI画面の一例に対して生成されるhtmlコードを示すスクリーンショット1500の一例である。図15に示されるように、ファイル構造1510内のツールによって生成されたHTMLファイル1520をユーザが選択すると、ソースHTMLコードがユーザに対して表示されてもよく、ユーザは必要に応じてHTMLコードを修正してもよい。
図16Aおよび図16Bは、特定の実施形態に係る、本明細書に開示される技術に基づいて生成されるコードを用いて表示される、入力GUI画面画像1600および対応するGUI画面画像1650の別の例を示す。入力GUI画面画像1600は、設計されたGUI画面を示すフォトビューアによって表示されるPNGファイルである。GUI画面画像1650は、本明細書に開示される技術を実現するツールによって自動的に生成されるHTMLファイルに基づいてウェブブラウザによって表示されるGUIのスナップショットである。
本明細書に記載のモデル生成システム102または330は、クラウド環境(たとえばプライベート、パブリック、およびハイブリッドクラウド環境を含む各種クラウド)、オンプレミス環境、ハイブリッド環境などを含む、さまざまな異なる環境で実現することができる。
図17は、ある実施形態を実現するための分散型システム1700の簡略図を示す。示されている実施形態において、分散型システム1700は、サーバ1712を介して1つ以上の通信ネットワーク1710に結合された1つ以上のクライアントコンピューティングデバイス1702、1704、1706、および1708を含む。クライアントコンピューティングデバイス1702、1704、1706、および1708は、1つ以上のアプリケーションを実行するように構成し得る。
各種実施形態において、サーバ1712は、あるアプリケーションのユーザインターフェイスコンポーネントと、データオブジェクトとの間に、このアプリケーションに関する要求情報を用いて、関係またはマッピングを自動的に生成する1つ以上のサービスまたはソフトウェアアプリケーションを実行または提供するのに適するようにすることができる。たとえば、特定の実施形態において、サーバ1712は、あるアプリケーションについての要求情報を受けてもよく、この要求情報は、アプリケーションの所望の機能の記述を含み得るものであり、また、アプリケーションの所望のGUIの画像を含み得る。そうすると、サーバ1712は、この要求情報を用いることにより、アプリケーションのユーザインターフェイスコンポーネントと1つ以上のデータオブジェクトとの間にマッピングを生成することができる。
特定の実施形態において、サーバ1712はまた、非仮想または仮想環境に提供し得るその他のサービスまたはソフトウェアアプリケーションを提供することができる。いくつかの実施形態において、これらのサービスは、サービスとしてのソフトウェア(Software as a Service)(SaaS)モデルのようなウェブベースまたはクラウドサービスとして、クライアントコンピューティングデバイス1702、1704、1706、および/または1708のユーザに提供されてもよい。そうすると、クライアントコンピューティングデバイス1702、1704、1706、および/または1708を操作しているユーザは、1つ以上のクライアントアプリケーションを利用することにより、サーバ1712とやり取りして、これらのコンポーネントが提供するサービスを利用することができる。
図17に示される構成において、サーバ1712は、サーバ1712が実行する機能を実現する1つ以上のコンポーネント1718、1720および1722を含み得る。これらのコンポーネントは、1つ以上のプロセッサ、ハードウェアコンポーネント、またはその組み合わせによって実行可能なソフトウェアコンポーネントを含み得る。なお、分散型システム1700とは異なり得る多種多様なシステム構成が可能であることが理解されるはずである。よって、図17に示される実施形態は、実施形態のシステムを実現するための分散型システムの一例であり限定を意図したものではない。
本開示の教示に従い、ユーザは、クライアントコンピューティングデバイス1702、1704、1706、および/または1708を用いることにより、要求情報をサーバ1712に提供し、サーバ1712から情報(たとえばマッピング情報)を受けることができる。クライアントデバイスは、クライアントデバイスのユーザがクライアントデバイスとやり取りすることを可能にするインターフェイスを提供し得る。クライアントデバイスはまた、このインターフェイスを介して情報をユーザに出力する。図17は4つのクライアントコンピューティングデバイスしか示していないが、任意の数のクライアントコンピューティングデバイスをサポートすることができる。
クライアントデバイスは、ポータブルハンドヘルドデバイス、パーソナルコンピュータおよびラップトップのような汎用コンピュータ、ワークステーションコンピュータ、ウェアラブルデバイス、ゲームシステム、シンクライアント、各種メッセージングデバイス、センサまたはその他のセンシングデバイスなどのような、さまざまな種類のコンピューティングシステムを含み得る。これらのコンピューティングデバイスは、さまざまな種類およびバージョンのソフトウェアアプリケーションおよびオペレーティングシステム(たとえばMicrosoft Windows(登録商標)、Apple Macintosh(登録商標)、UNIX(登録商標)またはUNIX系オペレーティングシステム、Linux(登録商標)またはLinux系オペレーティングシステム、たとえば、各種おモバイルオペレーティングシステム(たとえばMicrosoft Windows Mobile(登録商標)、iOS(登録商標)、Windows Phone(登録商標)、Android(登録商標)、BlackBerry(登録商標)、Palm OS(登録商標))を含むGoogle Chrome(登録商標)OS)を含み得る。ポータブルハンドヘルドデバイスは、セルラーフォン、スマートフォン(たとえばiPhone(登録商標))、タブレット(たとえばiPad(登録商標))、携帯情報端末(PDA)などを含み得る。ウェアラブルデバイスは、Google Glass(登録商標)ヘッドマウントディスプレイおよびその他のデバイスを含み得る。ゲームシステムは、各種ハンドヘルドゲームデバイス、インターネット接続可能なゲームデバイス(たとえばKinect(登録商標)ジェスチャ入力デバイスを備えたMicrosoft Xbox(登録商標)ゲーム機、Sony PlayStation(登録商標)システム、Nintendo(登録商標)が提供する各種ゲームシステムなどを含み得る。クライアントデバイスは、各種インターネット関連アプリケーション、通信アプリケーション(たとえばEメールアプリケーション、ショートメッセージサービス(SMS)アプリケーション)のような多種多様なアプリケーションを実行可能であってもよく、各種通信プロトコルを使用することができる。
通信ネットワーク1710は、利用可能な多様なプロトコルのうちのいずれかを用いてデータ通信をサポートできる、当該技術の当業者には周知のいずれかの種類のネットワークであればよく、上記プロトコルは、TCP/IP(伝送制御プロトコル/インターネットプロトコル)、SNA(システムネットワークアーキテクチャ)、IPX(インターネットパケット交換)、AppleTalk(登録商標)などを含むがこれらに限定されない。単に例として、通信ネットワーク1710は、ローカルエリアネットワーク(LAN)、Ethernet(登録商標)に基づくネットワーク、トークンリング、ワイドエリアネットワーク(WAN)、インターネット、仮想ネットワーク、仮想プライベートネットワーク(VPN)、イントラネット、エクストラネット、公衆交換電話網(PSTN)、赤外線ネットワーク、無線ネットワーク(たとえば電気電子学会(IEEE)802.11プロトコルスイートのいずれかの下で動作する無線ネットワーク、Bluetoothおよび/または任意の他の無線プロトコル)、および/またはこれらおよび/または他のネットワークの任意の組み合わせを含み得る。
サーバ1712は、1つ以上の汎用コンピュータ、専用サーバコンピュータ(一例としてPC(パーソナルコンピュータ)サーバ、UNIX(登録商標)サーバ、ミッドレンジサーバ、メインフレームコンピュータ、ラックマウント型サーバなどを含む)、サーバファーム、サーバクラスタ、またはその他の適切な構成および/または組み合わせで構成されてもよい。サーバ1712は、仮想オペレーティングシステムを実行する1つ以上の仮想マシン、または仮想化を伴う他のコンピューティングアーキテクチャを含み得る。これはたとえば、サーバに対して仮想記憶装置を維持するように仮想化できる論理記憶装置の1つ以上のフレキシブルツールなどである。各種実施形態において、サーバ1712を、上記開示に記載の機能を提供する1つ以上のサービスまたはソフトウェアアプリケーションを実行するのに適するようにしてもよい。
サーバ1712内のコンピューティングシステムは、上記オペレーティングシステムのうちのいずれかを含む1つ以上のオペレーティングシステム、および、市場で入手可能なサーバオペレーティングシステムを実行し得る。また、サーバ1712は、HTTP(ハイパーテキスト転送プロトコル)サーバ、FTP(ファイル転送プロトコル)サーバ、CGI(コモンゲートウェイインターフェイス)サーバ、JAVA(登録商標)サーバ、データベースサーバなどを含むさまざまなさらに他のサーバアプリケーションおよび/または中間層アプリケーションのうちのいずれかを実行し得る。例示されるデータベースサーバは、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)、IBM(登録商標)(International Business Machines)などから市場で入手可能なものを含むが、それらに限定されるものではない。
いくつかの実装例において、サーバ1712は、クライアントコンピューティングデバイス1702,1704,1706および1708のユーザから受信したデータフィードおよび/またはイベントアップデートを解析および整理統合するための1つ以上のアプリケーションを含み得る。一例として、データフィードおよび/またはイベントアップデートは、センサデータアプリケーション、金融株式相場表示板、ネットワーク性能測定ツール(たとえば、ネットワークモニタリングおよびトラフィック管理アプリケーション)、クリックストリーム解析ツール、自動車交通モニタリングなどに関連するリアルタイムのイベントを含んでもよい、1つ以上の第三者情報源および連続データストリームから受信される、Twitter(登録商標)フィード、Facebook(登録商標)アップデートまたはリアルタイムのアップデートを含み得るが、それらに限定されるものではない。サーバ1712は、データフィードおよび/またはリアルタイムのイベントをクライアントコンピューティングデバイス1702,1704,1706および1708の1つ以上の表示デバイスを介して表示するための1つ以上のアプリケーションも含み得る。
分散型システム1700はまた、1つ以上のデータリポジトリ1714、1716を含み得る。特定の実施形態において、これらのデータリポジトリを用いてデータおよびその他の情報を格納することができる。たとえば、データリポジトリ1714、1716のうちの1つ以上を用いて、サーバ1712が使用するまたは生成した、1つ以上のアプリケーションについての要求情報、マッピング情報、およびその他の情報などの情報を格納することができる。データリポジトリ1714、1716は、さまざまな場所に存在し得る。たとえば、サーバ1712が使用するデータリポジトリは、サーバ1712のローカル位置にあってもよく、またはサーバ1712から遠隔の位置にあってもよく、ネットワークベースのまたは専用接続を介してサーバ1712と通信する。データリポジトリ1714、1716は、異なる種類であってもよい。特定の実施形態において、サーバ1712が使用するデータリポジトリは、データベース、たとえば、Oracle Corporation(登録商標)が提供するデータベースのようなリレーショナルデータベースであってもよい。これらのデータベースのうちの1つ以上を、SQLフォーマットのコマンドに応じて、データの格納、アップデート、およびデータベースとの間での取り出しを可能にするのに適するようにしてもよい。アプリケーションが使用するデータリポジトリは、たとえば、キー値ストアリポジトリ、オブジェクトストアリポジトリ、またはファイルシステムがサポートする汎用ストレージリポジトリのようなさまざまな種類のものであってもよい。
特定の実施形態において、本開示に記載の特徴は、クラウド環境を介してサービスとして提供することができる。図18は、特定の実施形態に係る、各種サービスをクラウドサービスとして提供し得るクラウドベースのシステム環境の簡略化されたブロック図である。図18に示される実施形態において、クラウドインフラストラクチャシステム1802は、ユーザが1つ以上のクライアントデバイス1804、1806、および1808を用いて要求し得る1つ以上のクラウドサービスを提供することができる。クラウドインフラストラクチャシステム1802は、サーバ1712に関して先に述べたものを含み得る1つ以上のコンピュータおよび/またはサーバを含み得る。クラウドインフラストラクチャシステム1802内のコンピュータを、汎用コンピュータ、専用サーバコンピュータ、サーバファーム、サーバクラスタ、またはその他任意の適切な配置および/または組み合わせとして、組織してもよい。
ネットワーク1810は、クライアントデバイス1804、1806、および1808と、クラウドインフラストラクチャシステム1802との間におけるデータの通信および交換を容易にすることができる。ネットワーク1810は、1つ以上のネットワークを含み得る。ネットワークは同じ種類であっても異なる種類であってもよい。ネットワーク1810は、通信を容易にするために、有線および/または無線プロトコルを含む、1つ以上の通信プロトコルをサポートすることができる。
図18に示される実施形態は、クラウドインフラストラクチャシステムの一例にすぎず、限定を意図したものではない。なお、その他いくつかの実施形態において、クラウドインフラストラクチャシステム1802が、図18に示されるものよりも多くのまたは少ないコンポーネントを有していてもよく、2つ以上のコンポーネントを組み合わせてもよく、または、コンポーネントの異なる構成または配置を有していてもよいことが、理解されるはずである。たとえば、図18は3つのクライアントコンピューティングデバイスを示しているが、代替実施形態において任意の数のクライアントコンピューティングデバイスをサポートすることができる。
クラウドサービスという用語は一般的に、サービスプロバイダのシステム(たとえばクラウドインフラストラクチャシステム1802)により、インターネット等の通信ネットワークを介してオンデマンドでユーザが利用できるようにされるサービスを意味するために使用される。典型的に、パブリッククラウド環境では、クラウドサービスプロバイダのシステムを構成するサーバおよびシステムは、顧客自身のオンプレミスサーバおよびシステムとは異なる。クラウドサービスプロバイダのシステムは、クラウドサービスプロバイダによって管理される。よって、顧客は、別途ライセンス、サポート、またはハードウェアおよびソフトウェアリソースをサービスのために購入しなくても、クラウドサービスプロバイダが提供するクラウドサービスを利用できる。たとえば、クラウドサービスプロバイダのシステムはアプリケーションをホストすることができ、ユーザは、アプリケーションを実行するためにインフラストラクチャリソースを購入しなくても、インターネットを介しオンデマンドでアプリケーションをオーダーし使用することができる。クラウドサービスは、アプリケーション、リソースおよびサービスに対する容易でスケーラブルなアクセスを提供するように設計される。いくつかのプロバイダがクラウドサービスを提供する。たとえば、ミドルウェアサービス、データベースサービス、Javaクラウドサービスその他などのいくつかのクラウドサービスが、カリフォルニア州レッドウッド・ショアーズのOracle Corporation(登録商標)から提供される。
特定の実施形態において、クラウドインフラストラクチャシステム1802は、ハイブリッドサービスモデルを含む、サービスとしてのソフトウェア(SaaS)モデル、サービスとしてのプラットフォーム(PaaS)モデル、サービスとしてのインフラストラクチャ(IaaS)モデルその他のような、異なるモデルを使用して、1つ以上のクラウドサービスを提供し得る。クラウドインフラストラクチャシステム1802は、各種クラウドサービスのプロビジョンを可能にする、アプリケーション、ミドルウェア、データベース、およびその他のリソースのスイートを含み得る。
SaaSモデルは、アプリケーションまたはソフトウェアを、インターネットのような通信ネットワークを通して、顧客が基本となるアプリケーションのためのハードウェアまたはソフトウェアを購入しなくても、サービスとして顧客に配信することを可能にする。たとえば、SaaSモデルを用いることにより、クラウドインフラストラクチャシステム1802がホストするオンデマンドアプリケーションに顧客がアクセスできるようにすることができる。Oracle Corporation(登録商標)が提供するSaaSサービスの例は、人的資源/資本管理のための各種サービス、カスタマー・リレーションシップ・マネジメント(CRM)、エンタープライズ・リソース・プランニング(ERP)、サプライチェーン・マネジメント(SCM)、エンタープライズ・パフォーマンス・マネジメント(EPM)、解析サービス、ソーシャルアプリケーションその他を含むがこれらに限定されるものではない。特定の実施形態において、アプリケーションに関する要求情報から機能アプリケーションを自動的に生成する機能を、SaaSモデルに基づくサービスとして提供することができる。
IaaSモデルは一般的に、インフラストラクチャリソース(たとえばサーバ、ストレージ、ハードウェアおよびネットワーキングリソース)を、クラウドサービスとして顧客に提供することにより、柔軟な計算およびストレージ機能を提供するために使用される。各種IaaSサービスがOracle Corporation(登録商標)から提供される。
PaaSモデルは一般的に、顧客が、アプリケーションおよびサービスを、環境リソースを調達、構築、または管理しなくても、開発、実行、および管理することを可能にするプラットフォームおよび環境リソースをサービスとして提供するために使用される。Oracle Corporation(登録商標)が提供するPaaSサービスの例は、Oracle Java Cloud Service(JCS)、Oracle Database Cloud Service(DBCS)、データ管理クラウドサービス、各種アプリケーション開発ソリューションサービスその他を含むがこれらに限定されるものではない。
クラウドサービスは一般的に、オンデマンドのセルフサービスベースで、サブスクリプションベースで、柔軟にスケーラブルで、信頼性が高く、可用性が高い、安全なやり方で提供される。たとえば、顧客は、サブスクリプションオーダーを介し、クラウドインフラストラクチャシステム1802が提供する1つ以上のサービスをオーダーすることができる。クラウドインフラストラクチャシステム1802はそうすると、処理を実行することにより、顧客のサブスクリプションオーダーで要求されたサービスを提供する。たとえば、ユーザは、アプリケーションについての要求情報を、クラウドインフラストラクチャシステムに与え、クラウドインフラストラクチャシステムに、要求情報から機能アプリケーションを自動的に生成するよう要求する。これは、先に述べたように、アプリケーションのユーザインターフェイスコンポーネントとデータオブジェクトとの間にマッピングを自動的に生成することを含む。クラウドインフラストラクチャシステム1802を、1つまたは複数のクラウドサービスを提供するように構成してもよい。
クラウドインフラストラクチャシステム1802は、異なるデプロイメントモデルを介してクラウドサービスを提供し得る。パブリッククラウドモデルにおいて、クラウドインフラストラクチャシステム1802は、第三者クラウドサービスプロバイダによって所有されていてもよく、クラウドサービスは一般のパブリックカスタマーに提供される。このカスタマーは個人でも企業でもよい。その他特定の実施形態において、プライベートクラウドモデルでは、クラウドインフラストラクチャシステム1802がある組織内で(たとえば企業組織内で)機能してもよく、サービスはこの組織内の顧客に提供される。たとえば、この顧客は、人事部、給与部その他のようなさまざまな部署であってもよく、企業内の個人であってもよい。その他の特定の実施形態において、コミュニティクラウドモデルでは、クラウドインフラストラクチャシステム1802および提供されるサービスは、関連コミュニティ内の数組織で共有されてもよい。上記モデルの混成モデルのようなその他各種モデルを使用することもできる。
クライアントデバイス1804、1806、および1808は、異なるタイプであってもよく(たとえば図18に示されるクライアントデバイス1804、1806、および1808)、1つ以上のクライアントアプリケーションを操作可能であってもよい。ユーザは、クライアントデバイスを用いることにより、クラウドインフラストラクチャシステム1802が提供するサービスを要求することなど、クラウドインフラストラクチャシステム1802とのやり取りを行うことができる。たとえば、ユーザは、クライアントデバイスを用いることにより、アプリケーションについての要求情報をクラウドインフラストラクチャシステム1802に提供し、クラウドインフラストラクチャシステムに、要求情報から機能アプリケーションを自動的に生成するよう要求することができる。これは、本開示で述べたように、アプリケーションのユーザインターフェイスコンポーネントとデータオブジェクトとの間にマッピングを自動的に生成することを含む。
いくつかの実施形態において、クラウドインフラストラクチャシステム1802が、要求されたサービスを提供するために実行する処理は、ビッグデータ解析を含み得る。この解析は、大きなデータセットを使用し、解析し、操作することにより、このデータ内のさまざまな傾向、挙動、関係などを検出し可視化することを含み得る。この解析は、1つ以上のプロセッサが、場合によっては、データを並列に処理し、データを用いてシミュレーションを実行するなどして、実行してもよい。この解析に使用されるデータは、構造化データ(たとえばデータベースに格納されたまたは構造化モデルに従って構造化されたデータ)および/または非構造化データ(たとえばデータブロブ(blob)(binary large object:バイナリ・ラージ・オブジェクト))を含み得る。
図18の実施形態に示されるように、クラウドインフラストラクチャシステム1802は、クラウドインフラストラクチャシステム1802が提供する各種クラウドサービスのプロビジョンを容易にするために利用されるインフラストラクチャリソース1830を含み得る得。インフラストラクチャリソース1830は、たとえば、処理リソース、ストレージまたはメモリリソース、ネットワーキングリソースなどを含み得る。
特定の実施形態において、異なる顧客に対しクラウドインフラストラクチャシステム1802が提供する各種クラウドサービスをサポートするためのこれらのリソースを効率的にプロビジョニングし易くするために、リソースを、リソースセットまたはリソースモジュール(「ポッド」とも呼ばれる)になるようにまとめてもよい。各リソースモジュールまたはポッドは、1種類以上のリソースを予め一体化し最適化した組み合わせを含み得る。特定の実施形態において、異なるポッドを異なる種類のクラウドサービスに対して予めプロビジョニングしてもよい。たとえば、第1のポッドセットをデータベースサービスのためにプロビジョニングしてもよく、第1のポッドセット内のポッドと異なるリソースの組み合わせを含み得る第2のポッドセットをJavaサービスなどのためにプロビジョニングしてもよい。いくつかのサービスについて、これらのサービスをプロビジョニングするために割り当てられたリソースをサービス間で共有してもよい。
クラウドインフラストラクチャシステム1802自身が、クラウドインフラストラクチャシステム1802の異なるコンポーネントによって共有されクラウドインフラストラクチャシステム1802によるサービスのプロビジョニングを容易にするサービス1832を、内部で使用してもよい。これらの内部共有サービスは、セキュリティ・アイデンティティサービス、統合サービス、エンタープライズリポジトリサービス、エンタープライズマネージャサービス、ウィルススキャン・ホワイトリストサービス、高可用性バックアップリカバリサービス、クラウドサポートを可能にするサービス、Eメールサービス、通知サービス、ファイル転送サービスなどを含み得るが、これらに限定されるものではない。
クラウドインフラストラクチャシステム1802は複数のサブシステムを含み得る。これらのサブシステムは、ソフトウェア、またはハードウェア、またはその組み合わせで実現し得る。図18に示されるように、サブシステムは、クラウドインフラストラクチャシステム1802のユーザまたは顧客がクラウドインフラストラクチャシステム1802とやり取りすることを可能にするユーザインターフェイスサブシステム1812を含み得る。ユーザインターフェイスサブシステム1812は、ウェブインターフェイス1814、クラウドインフラストラクチャシステム1802が提供するクラウドサービスが宣伝広告され消費者による購入が可能なオンラインストアインターフェイス1816、およびその他のインターフェイス1818のような、各種異なるインターフェイスを含み得る。たとえば、顧客は、クライアントデバイスを用い、クラウドインフラストラクチャシステム1802が提供する1つ以上のサービスを、インターフェイス1814、1816、および1818のうちの1つ以上を用いてサブスクリプションオーダーを行うことによって要求する(サービス要求1834)ことができる。これらのインターフェイスは、たとえば、顧客が、クラウドインフラストラクチャシステム1802が提供するクラウドサービスを特定するオンラインストアにアクセスしてこれをブラウズし、顧客が申し込むことを希望する、提供されたサービスのうちの1つ以上についてサブスクリプションオーダーを行うための、オンラインストアユーザインターフェイス1816を含み得る。その他のインターフェイスはウェブインターフェイス1814およびその他のインターフェイス1818を含み得る。
特定の実施形態において、サービス要求またはサブスクリプション要求は、要求しているユーザまたは顧客を特定する情報と、顧客が申込みを希望する1つ以上のサービスとを含み得る。たとえば、顧客は、クラウドインフラストラクチャシステム1802が提供する自動アプリケーション生成サービスに対してサブスクリプションオーダーを行うことができる。
図18に示される実施形態のような特定の実施形態において、クラウドインフラストラクチャシステム1802は、新規サブスクリプションオーダーを処理するように構成されたオーダー管理サブシステム(OMS)1802を含み得る。この処理の一部として、OMS1820は、既に作成されていなければ顧客のアカウントを作成し、要求されたサービスを顧客に提供するために顧客に対して課金するのに使用する課金および/またはアカウント情報を顧客から受け、顧客情報を検証し、検証後、顧客のためにこのオーダーを予約し、各種ワークフローを調整することにより、プロビジョニングのためにオーダーを準備するように、構成されてもよい。
適切に妥当性確認がなされると、OMS1820は、処理、メモリ、およびネットワーキングリソースを含む、このオーダーのためのリソースをプロビジョニングするように構成されたオーダープロビジョニングサブシステム(OPS)1824を呼び出すことができる。プロビジョニングは、オーダーのためのリソースを割り当てることと、顧客オーダーが要求するサービスを容易にするようにリソースを構成することとを含み得る。オーダーのためにリソースをプロビジョニングするやり方およびプロビジョニングされるリソースのタイプは、顧客がオーダーしたクラウドサービスのタイプに依存し得る。たとえば、あるワークフローに従うと、OPS1824を、要求されている特定のクラウドサービスを判断し、この特定のクラウドサービスのために予め構成されたであろうポッドの数を特定するように構成されてもよい。あるオーダーのために割り当てられるポッドの数は、要求されたサービスのサイズ/量/レベル/範囲に依存し得る。たとえば、割り当てるポッドの数は、サービスがサポートすべきユーザの数、サービスが要求されている期間などに基づいて決定してもよい。次に、割り当てられたポッドを、要求されたサービスを提供するために、要求している特定の顧客に合わせてカスタマイズしてもよい。
クラウドインフラストラクチャシステム1802は、要求されたサービスがいつ使用できるようになるかを示すために、レスポンスまたは通知1844を、要求している顧客に送ってもよい。いくつかの例において、顧客が、要求したサービスの利益の使用および利用を開始できるようにする情報(たとえばリンク)を顧客に送信してもよい。
クラウドインフラストラクチャシステム1802はサービスを複数の顧客に提供し得る。各顧客ごとに、クラウドインフラストラクチャシステム1802は、顧客から受けた1つ以上のサブスクリプションオーダーに関連する情報を管理し、オーダーに関連する顧客データを維持し、要求されたサービスを顧客に提供する責任がある。また、クラウドインフラストラクチャシステム1802は、申し込まれたサービスの顧客による使用に関する使用統計を収集してもよい。たとえば、統計は、使用されたストレージの量、転送されたデータの量、ユーザの数、ならびにシステムアップタイムおよびシステムダウンタイムの量などについて、収集されてもよい。この使用情報を用いて顧客に課金してもよい。課金はたとえば月ごとに行ってもよい。
クラウドインフラストラクチャシステム1802は、サービスを複数の顧客に並列に提供してもよい。クラウドインフラストラクチャシステム1802は、場合によっては著作権情報を含む、これらの顧客についての情報を保存してもよい。特定の実施形態において、クラウドインフラストラクチャシステム1802は、顧客の情報を管理し管理される情報の分離を提供することで、ある顧客に関する情報が別の顧客に関する情報からアクセスされたりこの情報と混ざり合ったりしないようにするように構成された、アイデンティティ管理サブシステム(IMS)1828を含む。IMS1828は、アイデンティティサービス、たとえば情報アクセス管理、認証および許可サービス、顧客のアイデンティティおよび役割ならびに関連する能力などを管理するためのサービスのような、各種セキュリティ関連サービスを提供するように構成されてもよい。
図19は、特定の実施形態を実現するために使用し得る例示的なコンピュータシステム1900を示す。たとえば、いくつかの実施形態において、コンピュータシステム1900を使用することにより、図1に示されるモデル生成システム102のような、上述のさまざまなサーバおよびコンピュータシステムのいずれかを実現することができる。図19に示されるように、コンピュータシステム1900は、バスサブシステム1902を介して複数の他のサブシステムと通信する処理サブシステム1904を含むさまざまなサブシステムを含む。これらの他のサブシステムは、処理加速ユニット1906、I/Oサブシステム1908、ストレージサブシステム1918および通信サブシステム1924を含み得る。ストレージサブシステム1918は、記憶媒体1922およびシステムメモリ1910を含む、非一時的なコンピュータ読取可能記憶媒体を含み得る。
バスサブシステム1902は、コンピュータシステム1900のさまざまなコンポーネントおよびサブシステムに意図されるように互いに通信させるための機構を提供する。バスサブシステム1902は単一のバスとして概略的に示されているが、バスサブシステムの代替実施形態は複数のバスを利用してもよい。バスサブシステム1902は、さまざまなバスアーキテクチャのうちのいずれかを用いる、メモリバスまたはメモリコントローラ、周辺バス、ローカルバスなどを含むいくつかのタイプのバス構造のうちのいずれかであってもよい。たとえば、そのようなアーキテクチャは、業界標準アーキテクチャ(Industry Standard Architecture)(ISA)バス、マイクロチャネルアーキテクチャ(Micro Channel Architecture)(MCA)バス、エンハンストISA(Enhanced ISA)(EISA)バス、ビデオ・エレクトロニクス・スタンダーズ・アソシエーション(Video Electronics Standards Association)(VESA)ローカルバス、およびIEEE P1386.1規格に従って製造される中二階バスとして実現可能な周辺コンポーネントインターコネクト(Peripheral Component Interconnect)(PCI)バスなどを含み得る。
処理サブシステム1904は、コンピュータシステム1900の動作を制御し、1つ以上のプロセッサ、特定用途向け集積回路(ASIC)、またはフィールドプログラマブルゲートアレイ(FPGA)を含み得る。プロセッサは、シングルコアまたはマルチコアプロセッサを含み得る。コンピュータシステム1900の処理リソースを、1つ以上の処理ユニット1932、1934などになるように組織することができる。処理ユニットは、1つ以上のプロセッサ、同一のまたは異なるプロセッサからの1つ以上のコア、コアとプロセッサとの組み合わせ、またはコアとプロセッサとのその他の組み合わせを含み得る。いくつかの実施形態において、処理サブシステム1904は、グラフィックスプロセッサ、デジタル信号プロセッサ(DSP)などのような1つ以上の専用コプロセッサを含み得る。いくつかの実施形態では、処理サブシステム1904の処理ユニットの一部または全部は、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)などのカスタマイズされた回路を使用して実現することができる。
いくつかの実施形態において、処理サブシステム1904内の処理ユニットは、システムメモリ1910またはコンピュータ読取可能記憶媒体1922に格納された命令を実行することができる。さまざまな実施形態において、処理ユニットはさまざまなプログラムまたはコード命令を実行し、同時に実行する複数のプログラムまたはプロセスを維持することができる。任意の所定の時点で、実行されるべきプログラムコードの一部または全部は、システムメモリ1910および/または潜在的に1つ以上の記憶装置を含むコンピュータ読取可能記憶媒体1910に常駐していてもよい。適切なプログラミングを介して、処理サブシステム1904は、先に述べたさまざまな機能を提供することができる。コンピュータシステム1900が1つ以上の仮想マシンを実行している例において、1つ以上の処理ユニットに各仮想マシンを割り当ててもよい。
特定の実施形態において、コンピュータシステム1900によって実行される全体的な処理を加速するよう、カスタマイズされた処理を実行するために、または処理サブシステム1904によって実行される処理の一部をオフロードするために、処理加速ユニット1906を任意に設けることができる。
I/Oサブシステム1908は、コンピュータシステム1900に情報を入力するための、および/またはコンピュータシステム1900から、もしくはコンピュータシステム1900を介して、情報を出力するための、デバイスおよび機構を含むことができる。一般に、「入力デバイス」という語の使用は、コンピュータシステム1900に情報を入力するためのすべての考えられ得るタイプのデバイスおよび機構を含むよう意図される。ユーザインターフェイス入力デバイスは、たとえば、キーボード、マウスまたはトラックボールなどのポインティングデバイス、ディスプレイに組み込まれたタッチパッドまたはタッチスクリーン、スクロールホイール、クリックホイール、ダイアル、ボタン、スイッチ、キーパッド、音声コマンド認識システムを伴う音声入力デバイス、マイクロフォン、および他のタイプの入力デバイスを含んでもよい。ユーザインターフェイス入力デバイスは、ユーザが入力デバイスを制御しそれと対話することを可能にするMicrosoft Kinect(登録商標)モーションセンサ、Microsoft Xbox(登録商標)360ゲームコントローラ、ジェスチャおよび音声コマンドを用いる入力を受信するためのインターフェイスを提供するデバイスなど、モーションセンシングおよび/またはジェスチャ認識デバイスも含んでもよい。ユーザインターフェイス入力デバイスは、ユーザから目の動き(たとえば、写真を撮っている間および/またはメニュー選択を行っている間の「まばたき」)を検出し、アイジェスチャを入力デバイス(たとえばGoogle Glass(登録商標))への入力として変換するGoogle Glass(登録商標)瞬き検出器などのアイジェスチャ認識デバイスも含んでもよい。また、ユーザインターフェイス入力デバイスは、ユーザが音声コマンドを介して音声認識システム(たとえばSiri(登録商標)ナビゲータ)と対話することを可能にする音声認識感知デバイスを含んでもよい。
ユーザインターフェイス入力デバイスの他の例は、三次元(3D)マウス、ジョイスティックまたはポインティングスティック、ゲームパッドおよびグラフィックタブレット、ならびにスピーカ、デジタルカメラ、デジタルカムコーダ、ポータブルメディアプレーヤ、ウェブカム、画像スキャナ、指紋スキャナ、バーコードリーダ3Dスキャナ、3Dプリンタ、レーザレンジファインダ、および視線追跡デバイスなどの聴覚/視覚デバイスも含んでもよいが、それらに限定されるものではない。また、ユーザインターフェイス入力デバイスは、たとえば、コンピュータ断層撮影、磁気共鳴撮像、ポジションエミッショントモグラフィー、および医療用超音波検査デバイスなどの医療用画像化入力デバイスを含んでもよい。ユーザインターフェイス入力デバイスは、たとえば、MIDIキーボード、デジタル楽器などの音声入力デバイスも含んでもよい。
一般的に、出力デバイスという語の使用は、コンピュータシステム1900からユーザまたは他のコンピュータに情報を出力するための考えられるすべてのタイプのデバイスおよび機構を含むことを意図している。ユーザインターフェイス出力デバイスは、ディスプレイサブシステム、インジケータライト、または音声出力デバイスなどのような非ビジュアルディスプレイなどを含んでもよい。ディスプレイサブシステムは、陰極線管(CRT)、液晶ディスプレイ(LCD)またはプラズマディスプレイを使うものなどのフラットパネルデバイス、投影デバイス、タッチスクリーンなどであってもよい。たとえば、ユーザインターフェイス出力デバイスは、モニタ、プリンタ、スピーカ、ヘッドフォン、自動車ナビゲーションシステム、プロッタ、音声出力デバイスおよびモデムなどの、テキスト、グラフィックスおよび音声/映像情報を視覚的に伝えるさまざまな表示デバイスを含んでもよいが、それらに限定されるものではない。
ストレージサブシステム1918は、コンピュータシステム1900によって使用される情報およびデータを格納するためのリポジトリまたはデータストアを提供する。ストレージサブシステム1918は、いくつかの実施形態の機能を提供する基本的なプログラミングおよびデータ構成を格納するための有形の非一時的なコンピュータ読取可能記憶媒体を提供する。処理サブシステム1904によって実行されると上述の機能を提供するソフトウェア(たとえばプログラム、コードモジュール、命令)が、ストレージサブシステム1918に格納されてもよい。ソフトウェアは、処理サブシステム1904の1つ以上の処理ユニットによって実行されてもよい。ストレージサブシステム1918はまた、本開示の教示に従って使用されるデータを格納するためのリポジトリを提供してもよい。
ストレージサブシステム1918は、揮発性および不揮発性メモリデバイスを含む1つ以上の非一時的メモリデバイスを含み得る。図19に示すように、ストレージサブシステム1918は、システムメモリ1910およびコンピュータ読取可能記憶媒体1922を含む。システムメモリ1910は、プログラム実行中に命令およびデータを格納するための揮発性主ランダムアクセスメモリ(RAM)と、固定命令が格納される不揮発性読出専用メモリ(ROM)またはフラッシュメモリとを含む、いくつかのメモリを含み得る。いくつかの実装例において、起動中などにコンピュータシステム1900内の要素間における情報の転送を助ける基本的なルーチンを含むベーシックインプット/アウトプットシステム(basic input/output system)(BIOS)は、典型的には、ROMに格納されてもよい。典型的に、RAMは、処理サブシステム1904によって現在動作するようにされ実行されているデータおよび/またはプログラムモジュールを含む。いくつかの実装例において、システムメモリ1910は、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)などのような複数の異なるタイプのメモリを含み得る。
一例として、限定を伴うことなく、図19に示されるように、システムメモリ1910は、ウェブブラウザ、中間層アプリケーション、リレーショナルデータベース管理システム(RDBMS)などのような各種アプリケーションを含み得る、実行中のアプリケーションプログラム1912、プログラムデータ1914、およびオペレーティングシステム1916を、ロードしてもよい。一例として、オペレーティングシステム1916は、Microsoft Windows(登録商標)、Apple Macintosh(登録商標)および/またはLinuxオペレーティングシステム、さまざまな市場で入手可能なUNIX(登録商標)またはUNIX系オペレーティングシステム(さまざまなGNU/Linuxオペレーティングシステム、Google Chrome(登録商標)OSなどを含むがそれらに限定されない)、および/または、iOS(登録商標)、Windows(登録商標) Phone、Android(登録商標) OS、BlackBerry(登録商標) OS、Palm(登録商標) OSオペレーティングシステムのようなさまざまなバージョンのモバイルオペレーティングシステムなどを、含み得る。
コンピュータ読取可能記憶媒体1922は、いくつかの実施形態の機能を提供するプログラミングおよびデータ構成を格納することができる。コンピュータ読取可能記憶媒体1922は、コンピュータシステム1900のための、コンピュータ読取可能命令、データ構造、プログラムモジュール、および他のデータのストレージを提供することができる。処理サブシステム1904によって実行されると上記機能を提供するソフトウェア(プログラム、コードモジュール、命令)は、ストレージサブシステム1918に格納されてもよい。一例として、コンピュータ読取可能記憶媒体1922は、ハードディスクドライブ、磁気ディスクドライブ、CD ROM、DVD、Blu−Ray(登録商標)ディスクなどの光ディスクドライブ、またはその他の光学媒体のような不揮発性メモリを含み得る。コンピュータ読取可能記憶媒体1922は、Zip(登録商標)ドライブ、フラッシュメモリカード、ユニバーサルシリアルバス(USB)フラッシュドライブ、セキュアデジタル(SD)カード、DVDディスク、デジタルビデオテープなどを含んでもよいが、それらに限定されるものではない。コンピュータ読取可能記憶媒体1922は、フラッシュメモリベースのSSD、エンタープライズフラッシュドライブ、ソリッドステートROMなどのような不揮発性メモリに基づくソリッドステートドライブ(SSD)、ソリッドステートRAM、ダイナミックRAM、スタティックRAMのような揮発性メモリに基づくSSD、DRAMベースのSSD、磁気抵抗RAM(MRAM)SSD、およびDRAMとフラッシュメモリベースのSSDとの組み合わせを使用するハイブリッドSSDも含み得る。
特定の実施形態において、ストレージサブシステム1918は、コンピュータ読取可能記憶媒体1922にさらに接続可能なコンピュータ読取可能記憶媒体リーダー1920も含み得る。コンピュータ読取可能記憶媒体リーダー1920は、ディスク、フラッシュドライブなどのようなメモリデバイスからデータを受け、読取るように構成されてもよい。
特定の実施形態において、コンピュータシステム1900は、処理およびメモリリソースの仮想化を含むがこれに限定されない仮想化技術をサポートし得る。たとえば、コンピュータシステム1900は、1つ以上の仮想マシンを実行するためのサポートを提供することができる。特定の実施形態において、コンピュータシステム1900は、仮想マシンの構成および管理を容易にするためのハイパーバイザなどのプログラムを実行することができる。各仮想マシンは、メモリ、計算(たとえばプロセッサ、コア)、I/O、およびネットワーキングリソースを割り当てられてもよい。各仮想マシンは通常、他の仮想マシンから独立して実行される。仮想マシンは、典型的に、コンピュータシステム1900によって実行される他の仮想マシンによって実行されるオペレーティングシステムと同じでも異なっていてもよい、それ自体のオペレーティングシステムを実行する。したがって、潜在的に複数のオペレーティングシステムがコンピュータシステム1900によって同時に実行され得る。
通信サブシステム1924は、他のコンピュータシステムおよびネットワークに対するインターフェイスを提供する。通信サブシステム1924は、他のシステムとコンピュータシステム1900との間のデータの送受のためのインターフェイスとして働く。たとえば、通信サブシステム1924は、コンピュータシステム1900が、1つ以上のクライアントデバイスとの間で情報を送受信するために、インターネットを介して1つ以上のクライアントデバイスへの通信チャネルを確立することを可能にすることができる。
通信サブシステム1924は、有線および/または無線通信プロトコルの両方をサポートすることができる。たとえば、ある実施形態において、通信サブシステム1924は、(たとえば、セルラー電話技術、3G、4GもしくはEDGE(グローバル進化のための高速データレート)などの先進データネットワーク技術、WiFi(IEEE802.XXファミリー規格、もしくは他のモバイル通信技術、またはそれらのいずれかの組み合わせを用いて)無線音声および/またはデータネットワークにアクセスするための無線周波数(RF)送受信機コンポーネント、グローバルポジショニングシステム(GPS)受信機コンポーネント、および/または他のコンポーネントを含み得る。いくつかの実施形態において、通信サブシステム1924は、無線インターフェイスに加えてまたはその代わりに、有線ネットワーク接続(たとえばEthernet)を提供することができる。
通信サブシステム1924は、さまざまな形式でデータを受信し、送信することができる。たとえば、いくつかの実施形態において、通信サブシステム1924は、構造化データフィードおよび/または非構造化データフィード1926、イベントストリーム1928、イベントアップデート1930などの形式で入力通信を受信することができる。たとえば、通信サブシステム1924は、ソーシャルメディアネットワークおよび/またはTwitter(登録商標)フィード、Facebook(登録商標)アップデート、Rich Site Summary(RSS)フィードなどのウェブフィード、および/または1つ以上の第三者情報源からのリアルタイムアップデートなどのような他の通信サービスのユーザから、リアルタイムでデータフィード1926を受信(または送信)するように構成されてもよい。
特定の実施形態において、通信サブシステム1924は、連続データストリームの形式でデータを受信するように構成されてもよく、当該連続データストリームは、明確な終端を持たない、本来は連続的または無限であり得るリアルタイムイベントのイベントストリーム1928および/またはイベントアップデート1930を含んでもよい。連続データを生成するアプリケーションの例としては、たとえば、センサデータアプリケーション、金融株式相場表示板、ネットワーク性能測定ツール(たとえばネットワークモニタリングおよびトラフィック管理アプリケーション)、クリックストリーム解析ツール、自動車交通モニタリングなどを挙げることができる。
通信サブシステム1924は、コンピュータシステム1900からのデータをその他のコンピュータシステムまたはネットワークに伝えるように構成されてもよい。このデータは、構造化および/または非構造化データフィード1926、イベントストリーム1928、イベントアップデート1930などのような各種異なる形式で、コンピュータシステム1900に結合された1つ以上のストリーミングデータソースコンピュータと通信し得る1つ以上のデータベースに、伝えることができる。
コンピュータシステム1900は、ハンドヘルドポータブルデバイス(たとえばiPhone(登録商標)セルラーフォン、iPad(登録商標)コンピューティングタブレット、PDA)、ウェアラブルデバイス(たとえばGoogle Glass(登録商標)ヘッドマウントディスプレイ)、パーソナルコンピュータ、ワークステーション、メインフレーム、キオスク、サーバラック、またはその他のデータ処理システムを含む、さまざまなタイプのもののうちの1つであればよい。常に変化するコンピュータおよびネットワークの性質のため、図19に示されるコンピュータシステム1900の記載は、単に具体的な例を意図している。図3に示されるシステムよりも多くのコンポーネントまたは少ないコンポーネントを有するその他多くの構成が可能である。本明細書における開示および教示に基づいて、当業者は、さまざまな実施形態を実現するための他の態様および/または方法を理解するであろう。
特定の実施形態について説明したが、さまざまな修正、変更、代替構成、および均等物が可能である。実施形態は、特定のデータ処理環境内の動作に限定されず、複数のデータ処理環境内で自由に動作することができる。さらに、実施形態を特定の一連のトランザクションおよびステップを使用して説明したが、これが限定を意図しているのではないことは当業者には明らかであるはずである。いくつかのフローチャートは動作を逐次的プロセスとして説明しているが、これらの動作のうちの多くは並列または同時に実行できる。加えて、動作の順序を再指定してもよい。プロセスは図面に含まれない追加のステップを有し得る。上記実施形態の各種特徴および側面は、個別に使用されてもよく、またはともに使用されてもよい。
さらに、特定の実施形態をハードウェアとソフトウェアとの特定の組み合わせを用いて説明したが、ハードウェアとソフトウェアとの他の組み合わせも可能であることが理解されるはずである。特定の実施形態は、ハードウェアでのみ、またはソフトウェアでのみ、またはそれらの組み合わせを用いて実現されてもよい。本明細書に記載されたさまざまなプロセスは、同じプロセッサまたは任意の組み合わせの異なるプロセッサ上で実現できる。
デバイス、システム、コンポーネントまたはモジュールが特定の動作または機能を実行するように構成されると記載されている場合、そのような構成は、たとえば、動作を実行する電子回路を設計すること、プログラミング可能な電子回路(マイクロプロセッサなど)をプログラミングすることにより、たとえば非一時的なメモリ媒体に格納されたコードまたは命令またはその任意の組み合わせを実行するようにプログラミングされたコンピュータ命令もしくはコード、またはプロセッサもしくはコアを実行するなどして、動作を実行するように電子回路を設計することによって、動作を実行すること、またはそれらの任意の組み合わせによって達成され得る。プロセスは、プロセス間通信のための従来の技術を含むがこれに限定されないさまざまな技術を使用して通信することができ、異なる対のプロセスは異なる技術を使用してもよく、同じ対のプロセスは異なる時間に異なる技術を使用してもよい。
本開示では特定の詳細事項を示すことにより実施形態が十分に理解されるようにしている。しかしながら、実施形態はこれらの特定の詳細事項がなくとも実施し得るものである。たとえば、周知の回路、プロセス、アルゴリズム、構成、および技術は、実施形態が曖昧にならないようにするために不必要な詳細事項なしで示している。本明細書は例示的な実施形態のみを提供し、他の実施形態の範囲、適用可能性、または構成を限定することを意図しているのではない。むしろ、実施形態の上記説明は、各種実施形態を実現することを可能にする説明を当業者に提供する。各種変更は要素の機能および構成の範囲内で行うことができる。
したがって、明細書および図面は、限定的な意味ではなく例示的なものとみなされるべきである。しかしながら、請求項に記載されているより広範な精神および範囲から逸脱することなく、追加、削減、削除、ならびに他の修正および変更がこれらになされ得ることは明らかであろう。このように、特定の実施形態を説明してきたが、これらは限定を意図するものではない。さまざまな修正および均等物は以下の請求項の範囲に含まれる。さまざまな修正は、開示された特徴の関連の任意の組み合わせを含む。

Claims (20)

  1. 方法であって、
    コンピュータシステムが、入力画像から、グラフィックユーザインターフェイス(GUI)のGUI画面を示すGUI画面画像を検出するステップと、
    前記コンピュータシステムが、第1のテキストコンテンツアイテムを含む前記GUI画面画像の第1の領域を検出するステップと、
    前記コンピュータシステムが、前記GUI画面画像内の前記第1の領域の位置を判断するステップと、
    前記コンピュータシステムが、前記第1の領域のコンテンツを、テキストコンテンツを含まないプレースホルダに置き換えるステップと、
    前記コンピュータシステムが、前記GUI画面画像の第2の領域内に位置する第1のユーザインターフェイス(UI)コンポーネントを検出するステップとを含み、前記第2の領域は前記プレースホルダを有する前記第1の領域を含み、
    前記コンピュータシステムが、前記GUI画面画像内の前記第1のUIコンポーネントの位置を判断するステップと、
    前記コンピュータシステムが、機械学習ベースの分類器を用いて、前記第1のUIコンポーネントのUIコンポーネントタイプを判断するステップとを含み、前記機械学習ベースの分類器は、複数の訓練画像を含む訓練データを用いて訓練され、前記複数の訓練画像のうちの各訓練画像はUIコンポーネントを含み、前記訓練データはさらに、各訓練画像ごとに、前記訓練画像内の前記UIコンポーネントのUIコンポーネントタイプを特定する情報を含み、
    前記コンピュータシステムが、前記GUIを実現するためのコードを生成するために使用可能なGUIモデルを生成するステップを含み、前記GUIモデルは、前記第1のUIコンポーネントの情報と、前記第1のテキストコンテンツアイテムの情報とを含み、前記第1のUIコンポーネントの情報は、前記第1のUIコンポーネントについて判断した前記UIコンポーネントタイプと、前記GUI画面画像内の前記第1のUIコンポーネントの位置とを示す情報を含む、方法。
  2. 前記第1のUIコンポーネントを検出するステップは、前記機械学習ベースの分類器が前記GUI画面画像内の前記第1のUIコンポーネントを検出するステップを含み、
    前記訓練データはさらに、各訓練画像ごとに、前記訓練画像内のUIコンポーネントの位置を含む、請求項1に記載の方法。
  3. 前記GUI画面画像内の前記第1の領域の位置および前記GUI画面画像内の前記第1のUIコンポーネントの位置に基づいて、前記第1のテキストコンテンツアイテムとともに前記第1のUIコンポーネントをグルーピングするステップをさらに含み、
    前記GUIモデルを生成するステップはさらに、前記GUIモデルに、前記グルーピングを示す情報を含めるステップを含む、請求項1または2に記載の方法。
  4. 前記コンピュータシステムが、第2のテキストコンテンツアイテムを含む前記GUI画面画像の第3の領域を検出するステップと、
    前記コンピュータシステムが、前記GUI画面画像内の前記第3の領域の位置を判断するステップと、
    前記コンピュータシステムが、前記GUI画面画像内に位置する第2のUIコンポーネントを検出するステップと、
    前記GUI画面画像内の前記第2のUIコンポーネントの位置を判断するステップと、
    前記機械学習ベースの分類器を用いて、前記第2のUIコンポーネントのUIコンポーネントタイプを判断するステップと、
    前記第1の領域の前記位置、前記第3の領域の前記位置、前記第1のUIコンポーネントの前記UIコンポーネントタイプおよび位置、ならびに前記第2のUIコンポーネントの前記UIコンポーネントタイプおよび位置に基づいて、前記第1のテキストコンテンツアイテム、前記第2のテキストコンテンツアイテム、前記第1のUIコンポーネント、および前記第2のUIコンポーネントをグルーピングするステップと、
    前記グルーピングに基づいて前記GUI画面のレイアウトを決定するステップとを含み、
    前記GUIモデルを生成するステップはさらに、前記GUIモデルに、前記グルーピングおよび前記GUI画面の前記レイアウトを示す情報を含めるステップを含む、請求項1〜3のいずれか1項に記載の方法。
  5. 前記GUI画面画像内の前記第3の領域の前記位置に基づいて、前記第2のテキストコンテンツアイテムは前記GUI画面画像内のいずれのUIコンポーネントにも対応付けられていないと判断するステップと、
    前記第2のテキストコンテンツアイテムはアクションを示すと判断するステップとをさらに含み、
    前記GUIモデルを生成するステップは、前記GUIモデルにおいて、前記GUI画面画像の前記第3の領域内の前記第2のテキストコンテンツアイテムはクリッカブルテキストであることを示すステップを含み、前記第2のテキストコンテンツアイテムのクリックは前記アクションを開始させる、請求項4に記載の方法。
  6. 前記第1の領域は背景上の前記第1のテキストコンテンツアイテムを含み、前記方法はさらに、
    前記GUI画面画像の前記第1の領域内の画素の強度値に基づいてヒストグラムを生成するステップと、
    前記GUI画面画像の前記第1の領域内の、前記第1のテキストコンテンツアイテムに対応する画素の数と前記背景に対応する画素の数とに基づいて、前記ヒストグラムから、前記第1のテキストコンテンツアイテムの画素の強度値は前記背景の画素の強度値よりも高いと判断するステップと、
    前記第1の領域内の画素の強度値を反転させるステップとを含み、前記反転により、前記第1のテキストコンテンツアイテムの画素の強度値は、前記第1の領域内の前記背景の画素の強度値よりも低くなり、
    前記反転の実施後に前記第1の領域内の前記第1のテキストコンテンツアイテムを認識するステップを含む、請求項1〜5のいずれか1項に記載の方法。
  7. 前記ヒストグラムを生成する前に、前記第1の領域内の各画素の強度値に基づいて、前記GUI画面画像の前記第1の領域を、RGBサブ画像から2値サブ画像に変換するステップをさらに含む、請求項6に記載の方法。
  8. 前記プレースホルダは画素の予め定められたパターンを含み、
    前記第1のUIコンポーネントのUIコンポーネントタイプを判断するステップは、前記第2の領域内の前記プレースホルダの存在と前記プレースホルダ内の前記画素の予め定められたパターンとに基づいて、前記GUI画面画像の前記第2の領域を分類するステップを含む、請求項1〜7のいずれか1項に記載の方法。
  9. 前記プレースホルダは、前記第1の領域内の前記第1のテキストコンテンツアイテムの位置の境界を前記GUI画面画像から判断することを可能にする画素の予め定められたパターンである、請求項1〜8のいずれか1項に記載の方法。
  10. 前記画素の予め定められたパターンの画素値は、予め定められた値、または前記第1の領域の背景内の画素の画素値を含む、請求項9に記載の方法。
  11. 前記GUIモデルに基づいて前記GUIの1つ以上のインプリメンテーションを生成するステップをさらに含む、請求項1〜10のいずれか1項に記載の方法。
  12. 前記GUIモデルに基づいて前記GUIの1つ以上のインプリメンテーションを生成するステップは、
    前記GUIモデルを用いて、第1のプラットフォームのための前記GUIの第1のインプリメンテーションを生成するステップと、
    前記GUIモデルを用いて、第2のプラットフォームのための前記GUIの第2のインプリメンテーションを生成するステップとを含み、前記第2のプラットフォームは前記第1のプラットフォームと異なる、請求項11に記載の方法。
  13. 前記GUIモデルに基づいて前記GUIの1つ以上のインプリメンテーションを生成するステップは、
    前記GUIモデルを用いて、第1のプログラミング言語で前記GUIの第1のインプリメンテーションを生成するステップと、
    前記GUIモデルを用いて、第2のプログラミング言語で前記GUIの第2のインプリメンテーションを生成するステップとを含み、前記第2のプログラミング言語は前記第1のプログラミング言語と異なる、請求項11または12に記載の方法。
  14. 前記GUIモデルに基づいて前記GUIの1つ以上のインプリメンテーションを生成するステップは、
    前記GUIモデルと1つ以上のコード生成テンプレートとを用いて前記GUIの1つ以上のインプリメンテーションを生成するステップを含み、各コード生成テンプレートはプラットフォームまたはプログラミング言語に対応付けられている、請求項11に記載の方法。
  15. 前記GUIモデルを生成するステップは、前記GUIモデルの情報を、JavaScriptオブジェクト表記(JSON)フォーマットで格納するステップを含む、請求項1〜14のいずれか1項に記載の方法。
  16. 前記機械学習ベースの分類器は、画像ヒストグラムベースの非線形サポートベクターマシン分類器、または、人工ニューラルネットワークベースの分類器を含む、請求項1〜15のいずれか1項に記載の方法。
  17. 前記GUIモデルに関するユーザフィードバックを受けるステップをさらに含み、前記ユーザフィードバックは、
    前記GUIモデルにおいて前記第1のUIコンポーネントについて指定された前記UIコンポーネントタイプの代わりに前記第1のUIコンポーネントに対応付けられる新たなUIコンポーネントタイプを特定する情報、または、
    GUI画面内に存在するが前記GUIモデルに含まれない新たなUIコンポーネントを特定する情報、および前記新たなUIコンポーネントのUIコンポーネントタイプを示す情報を含み、
    前記ユーザフィードバックに基づいて前記機械学習ベースの分類器を再訓練するステップをさらに含む、請求項1〜16のいずれか1項に記載の方法。
  18. 前記ユーザフィードバックはさらに、前記第1のUIコンポーネントまたは前記新たなUIコンポーネントのサブ画像を含み、前記方法はさらに、
    前記複数の訓練画像から特徴を抽出するステップと、
    前記複数の訓練画像から抽出した前記特徴を、多次元空間内のデータポイントにマッピングするステップとを含み、前記データポイントは、前記多次元空間内の一組のクラスタを形成し、
    前記第1のUIコンポーネントまたは前記新たなUIコンポーネントの前記サブ画像から特徴を抽出するステップと、
    前記第1のUIコンポーネントまたは前記新たなUIコンポーネントの前記サブ画像から抽出した特徴を、前記多次元空間内のデータポイントにマッピングするステップと、
    前記第1のUIコンポーネントまたは前記新たなUIコンポーネントの前記サブ画像に対応する前記データポイントと、前記一組のクラスタの各クラスタの中心との間の距離を判断するステップと、
    前記距離がしきい値未満であるという判断に応じて、前記第1のUIコンポーネントまたは前記新たなUIコンポーネントの前記サブ画像を前記訓練データに含めるステップとを含む、請求項17に記載の方法。
  19. 請求項1〜18のいずれか1項に記載の方法を1つ以上のプロセッサに実行させるためのコンピュータ読取可能プログラム。
  20. システムであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサに結合されたメモリとを備え、前記メモリは、前記1つ以上のプロセッサによって実行されると前記システムに、
    入力画像から、グラフィックユーザインターフェイス(GUI)のGUI画面を示すGUI画面画像を検出することと、
    第1のテキストコンテンツアイテムを含む前記GUI画面画像の第1の領域を検出することと、
    前記GUI画面画像内の前記第1の領域の位置を判断することと、
    前記第1の領域のコンテンツを、テキストコンテンツを含まないプレースホルダに置き換えることと、
    前記GUI画面画像の第2の領域内に位置する第1のユーザインターフェイス(UI)コンポーネントを検出することとを実行させ、前記第2の領域は前記プレースホルダを有する前記第1の領域を含み、
    前記GUI画面画像内の前記第1のUIコンポーネントの位置を判断することと、
    機械学習ベースの分類器を用いて、前記第1のUIコンポーネントのUIコンポーネントタイプを判断することとを実行させ、前記機械学習ベースの分類器は、複数の訓練画像を含む訓練データを用いて訓練され、前記複数の訓練画像のうちの各訓練画像はUIコンポーネントを含み、前記訓練データはさらに、各訓練画像ごとに、前記訓練画像内の前記UIコンポーネントのUIコンポーネントタイプを特定する情報を含み、
    前記GUIを実現するためのコードを生成するために使用可能なGUIモデルを生成することを実行させ、前記GUIモデルは、前記第1のUIコンポーネントの情報と、前記第1のテキストコンテンツアイテムの情報とを含み、前記第1のUIコンポーネントの情報は、前記第1のUIコンポーネントについて判断した前記UIコンポーネントタイプと、前記GUI画面画像内の前記第1のUIコンポーネントの位置とを示す情報を含む、システム。
JP2019570927A 2018-02-12 2018-07-06 自動コード生成 Active JP6944548B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
IN201841005130 2018-02-12
IN201841005130 2018-02-12
US15/996,311 2018-06-01
US15/996,311 US10489126B2 (en) 2018-02-12 2018-06-01 Automated code generation
PCT/US2018/041038 WO2019156706A1 (en) 2018-02-12 2018-07-06 Automated code generation

Publications (2)

Publication Number Publication Date
JP2021501382A JP2021501382A (ja) 2021-01-14
JP6944548B2 true JP6944548B2 (ja) 2021-10-06

Family

ID=67541668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019570927A Active JP6944548B2 (ja) 2018-02-12 2018-07-06 自動コード生成

Country Status (5)

Country Link
US (1) US10489126B2 (ja)
EP (1) EP3692438B1 (ja)
JP (1) JP6944548B2 (ja)
CN (1) CN110785736B (ja)
WO (1) WO2019156706A1 (ja)

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838699B2 (en) 2017-01-18 2020-11-17 Oracle International Corporation Generating data mappings for user interface screens and screen components for an application
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
SG11201908090VA (en) 2017-04-07 2019-10-30 Toi Labs Inc Biomonitoring devices, methods, and systems for use in a bathroom setting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10877735B1 (en) * 2017-09-25 2020-12-29 Amazon Technologies, Inc. Automated generation of software applications using analysis of submitted content items
US10740550B1 (en) 2017-11-20 2020-08-11 Amazon Technologies, Inc. Network-accessible data management service with web-of-sheets data model
US10705805B1 (en) 2017-12-12 2020-07-07 Amazon Technologies, Inc. Application authoring using web-of-sheets data model
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11403663B2 (en) * 2018-05-17 2022-08-02 Spotify Ab Ad preference embedding model and lookalike generation engine
US11537428B2 (en) 2018-05-17 2022-12-27 Spotify Ab Asynchronous execution of creative generator and trafficking workflows and components therefor
US11195211B2 (en) 2018-05-17 2021-12-07 Spotify Ab Systems, methods and computer program products for generating script elements and call to action components therefor
US11586603B1 (en) 2018-05-23 2023-02-21 Amazon Technologies, Inc. Index sheets for robust spreadsheet-based applications
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11507638B2 (en) * 2018-06-21 2022-11-22 Tsunagu.Ai, Inc. Web content automated generation system
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11269600B2 (en) * 2018-08-30 2022-03-08 Cloudblue Llc System and method of analysis and generation of navigation schema
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
AU2019357615B2 (en) 2018-10-11 2023-09-14 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US10783405B2 (en) * 2018-10-31 2020-09-22 Salesforce.Com, Inc. Refinement of machine learning engines for automatically generating component-based user interfaces
KR102624323B1 (ko) * 2018-11-16 2024-01-12 삼성전자 주식회사 컴퓨팅 자원들을 사용자가 선택할 수 있고 선택된 컴퓨팅 자원들로 어플리케이션을 실행하는 가상의 모바일 환경을 지원하는 전자 장치
US11099640B2 (en) 2018-11-20 2021-08-24 Express Scripts Strategie Development, Inc. System and method for enhancing a user interface using eye tracking data
US10747655B2 (en) * 2018-11-20 2020-08-18 Express Scripts Strategic Development, Inc. Method and system for programmatically testing a user interface
TWI691836B (zh) * 2018-11-20 2020-04-21 神雲科技股份有限公司 基本輸入輸出系統的開機階段辨識方法
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11010536B2 (en) * 2018-12-20 2021-05-18 AINS, Inc. Systems and methods for dynamic web user interface generation
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11237713B2 (en) * 2019-01-21 2022-02-01 International Business Machines Corporation Graphical user interface based feature extraction application for machine learning and cognitive models
US10848379B2 (en) * 2019-01-30 2020-11-24 Hewlett Packard Enterprise Development Lp Configuration options for cloud environments
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11462112B2 (en) * 2019-03-07 2022-10-04 Nec Corporation Multi-task perception network with applications to scene understanding and advanced driver-assistance system
WO2020181417A1 (en) * 2019-03-08 2020-09-17 Entit Software Llc Internationalization of automated test scripts
US11720621B2 (en) * 2019-03-18 2023-08-08 Apple Inc. Systems and methods for naming objects based on object content
US11068785B2 (en) * 2019-03-26 2021-07-20 Aivitae LLC Methods and systems for operating applications through user interfaces
WO2020194662A1 (ja) * 2019-03-28 2020-10-01 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体、情報処理方法及び学習済みモデルの製造方法
US11113095B2 (en) 2019-04-30 2021-09-07 Automation Anywhere, Inc. Robotic process automation system with separate platform, bot and command class loaders
US10929110B2 (en) * 2019-06-15 2021-02-23 International Business Machines Corporation AI-assisted UX design evaluation
CN110377282B (zh) * 2019-06-26 2021-08-17 扬州大学 基于生成对抗和卷积神经网络的UI生成Web代码的方法
US11061650B2 (en) * 2019-06-27 2021-07-13 Intel Corporation Methods and apparatus to automatically generate code for graphical user interfaces
US20210103834A1 (en) * 2019-08-28 2021-04-08 Tata Consultancy Services Limited Method and system for generating model driven applications using artificial intelligence
US11675967B2 (en) * 2019-08-30 2023-06-13 Accenture Global Solutions Limited Automated front-end code generating method and system for a website
CN110795077A (zh) * 2019-09-26 2020-02-14 北京你财富计算机科技有限公司 一种基于人工智能的软件开发方法、装置及电子设备
US11886514B2 (en) 2019-10-11 2024-01-30 Kinaxis Inc. Machine learning segmentation methods and systems
US11526899B2 (en) 2019-10-11 2022-12-13 Kinaxis Inc. Systems and methods for dynamic demand sensing
US20210110299A1 (en) 2019-10-15 2021-04-15 Kinaxis Inc. Interactive machine learning
US11539643B2 (en) * 2019-11-07 2022-12-27 D8AI Inc. Systems and methods of instant-messaging bot for robotic process automation and robotic textual-content extraction from images
JP7292184B2 (ja) 2019-11-11 2023-06-16 富士フイルム株式会社 学習装置、学習方法および学習済みモデル
CN110968299A (zh) * 2019-11-20 2020-04-07 北京工业大学 一种基于手绘网页图像的前端工程化代码生成方法
WO2021102387A1 (en) * 2019-11-22 2021-05-27 Tenweb, Inc Generating higher-level semantics data for development of visual content
US20210157576A1 (en) * 2019-11-27 2021-05-27 Microsoft Technology Licensing, Llc Speech to Project Framework
US20210174233A1 (en) * 2019-12-05 2021-06-10 Fujitsu Limited Graph equation modeling for mathematical equation decomposition and automated code generation
US11481304B1 (en) 2019-12-22 2022-10-25 Automation Anywhere, Inc. User action generated process discovery
CN111309300A (zh) * 2020-01-17 2020-06-19 深圳壹账通智能科技有限公司 代码生成方法、装置、计算机系统及可读存储介质
US11474671B2 (en) 2020-01-31 2022-10-18 Salesforce.Com, Inc. Neutralizing designs of user interfaces
US11182135B2 (en) * 2020-01-31 2021-11-23 Salesforce.Com, Inc. User interface design update automation
US11775254B2 (en) 2020-01-31 2023-10-03 Google Llc Analyzing graphical user interfaces to facilitate automatic interaction
US11537363B2 (en) 2020-01-31 2022-12-27 Salesforce.Com, Inc. User interface migration using intermediate user interfaces
US11137985B2 (en) 2020-01-31 2021-10-05 Salesforce.Com, Inc. User interface stencil automation
US11475205B2 (en) 2020-01-31 2022-10-18 Salesforce.Com, Inc. Automatically locating elements in user interfaces
CN113282287A (zh) * 2020-02-20 2021-08-20 阿里巴巴集团控股有限公司 业务逻辑的处理方法、装置及电子设备
US11221833B1 (en) * 2020-03-18 2022-01-11 Amazon Technologies, Inc. Automated object detection for user interface generation
CN111427567B (zh) * 2020-03-20 2023-08-18 杭州涂鸦信息技术有限公司 一种智能产品快速生成方法及其系统和设备
US11714612B2 (en) * 2020-03-20 2023-08-01 Disney Enterprises, Inc. Techniques for personalizing graphical user interfaces based on user interactions
US11010679B1 (en) * 2020-04-08 2021-05-18 Curtis Ray Robinson, JR. Systems and methods for autonomously executing computer programs
US11429582B2 (en) * 2020-04-09 2022-08-30 Capital One Services, Llc Techniques for creating and utilizing multidimensional embedding spaces
US11513670B2 (en) * 2020-04-27 2022-11-29 Automation Anywhere, Inc. Learning user interface controls via incremental data synthesis
US11797428B2 (en) * 2020-05-07 2023-10-24 Mitel Networks Corporation Dynamic user interface testing and reconciliation
US20210365506A1 (en) * 2020-05-22 2021-11-25 Microsoft Technology Licensing, Llc Automatic conversion of webpage designs to data structures
US11593678B2 (en) * 2020-05-26 2023-02-28 Bank Of America Corporation Green artificial intelligence implementation
US20210406673A1 (en) * 2020-06-26 2021-12-30 Nvidia Corporation Interface translation using one or more neural networks
JP2022011442A (ja) * 2020-06-30 2022-01-17 オムロン株式会社 ビジュアルプログラミングエディタのプログラム、コンピューターおよび方法
CN111898338B (zh) * 2020-07-15 2024-04-30 北京字节跳动网络技术有限公司 文本生成方法、装置和电子设备
CN112114803B (zh) * 2020-08-25 2024-05-24 山东浪潮科学研究院有限公司 基于深度学习的ui界面的前端代码生成方法、设备及介质
CN112035120B (zh) * 2020-08-31 2022-09-20 深圳平安医疗健康科技服务有限公司 基于医疗数据的逻辑代码获取方法、装置以及计算机设备
WO2022060408A1 (en) * 2020-09-15 2022-03-24 Siemens Aktiengesellschaft Generation of human machine interfaces from a visual designer tool using multistage machine learning
US20220083907A1 (en) * 2020-09-17 2022-03-17 Sap Se Data generation and annotation for machine learning
US20220108109A1 (en) * 2020-10-03 2022-04-07 Fabio Carbone Hand draw code system for augmenting paper documents with digital contents using AI
US20220108079A1 (en) * 2020-10-06 2022-04-07 Sap Se Application-Specific Generated Chatbot
US11301269B1 (en) 2020-10-14 2022-04-12 UiPath, Inc. Determining sequences of interactions, process extraction, and robot generation using artificial intelligence / machine learning models
WO2022087212A1 (en) * 2020-10-21 2022-04-28 Full Speed Automation, Inc. System and apparatus for authoring and developing automation interfaces and processes without writing code
CN112363705B (zh) * 2020-11-10 2023-07-28 中国平安人寿保险股份有限公司 系统包生成方法、装置、计算机设备及存储介质
CN112486073B (zh) * 2020-12-03 2022-04-19 用友网络科技股份有限公司 机器人控制方法、控制系统和可读存储介质
FR3117240A1 (fr) * 2020-12-08 2022-06-10 Orange Procédé de construction d’une base de connaissance, produit programme d'ordinateur, médium de stockage et machine de calcul correspondants.
CN112416363B (zh) * 2020-12-09 2024-03-19 锐捷网络股份有限公司 一种前后端crud代码的生成方法及装置
US11762667B2 (en) * 2020-12-22 2023-09-19 International Business Machines Corporation Adjusting system settings based on displayed content
CN112685033B (zh) * 2020-12-24 2024-09-03 北京浪潮数据技术有限公司 用户界面组件自动生成方法、装置及计算机可读存储介质
WO2022167704A1 (es) * 2021-02-04 2022-08-11 Telefonica Digital España, S.L.U. Implementación de proyecto informático a partir de boceto de diseño
JP7502216B2 (ja) 2021-02-22 2024-06-18 株式会社日立システムズ プログラム生成支援装置、プログラム生成支援方法、及びプログラム生成支援プログラム
CN112836033B (zh) * 2021-02-25 2023-12-01 平安银行股份有限公司 业务模型的管理方法、装置、设备及存储介质
JP6949341B1 (ja) * 2021-03-10 2021-10-13 ソプラ株式会社 プログラムコード自動生成装置及びプログラム
CN113031938A (zh) * 2021-04-25 2021-06-25 中国电子系统技术有限公司 一种可视化界面图像转化为编程语言数据的方法及装置
CN113360151B (zh) * 2021-06-02 2024-03-08 湖南大学 一种用于rpa系统的ui数据集自动生成方法和系统
US20220404956A1 (en) * 2021-06-17 2022-12-22 Samsung Electronics Co., Ltd. Method and electronic device for navigating application screen
US11599338B2 (en) * 2021-06-18 2023-03-07 Qingdao Pico Technology Co., Ltd. Model loading method and apparatus for head-mounted display device, and head-mounted display device
US11714610B2 (en) * 2021-06-21 2023-08-01 International Business Machines Corporation Software code integration from a media file
US11847432B2 (en) * 2021-07-17 2023-12-19 Vmware, Inc. System and method for generating accessible user experience design guidance materials
EP4131010A1 (en) * 2021-08-06 2023-02-08 L & T Technology Services Limited Method and system for performing human machine interface (hmi) automation testing
CN113656031A (zh) * 2021-08-20 2021-11-16 中国银行股份有限公司 移动端页面代码生成方法及装置
CN113741902B (zh) * 2021-09-10 2024-03-29 百融至信(北京)科技有限公司 一种基于模版的SaaS代码生成方法及系统
US11960864B2 (en) * 2021-09-27 2024-04-16 Microsoft Technology Licensing, Llc. Creating applications and templates based on different types of input content
US20230094787A1 (en) * 2021-09-30 2023-03-30 Adobe Inc. Utilizing machine-learning based object detection to improve optical character recognition
US11763063B2 (en) * 2021-10-12 2023-09-19 Adobe Inc. Propagating modifications made to an object to linked objects in a document
CN114003217A (zh) * 2021-11-04 2022-02-01 深圳市合一智联科技有限公司 一种基于ai人工智能的嵌入式软件开发平台
US11727084B1 (en) * 2022-05-23 2023-08-15 Salesforce, Inc. Techniques for automatically configuring web components
CN114926830B (zh) * 2022-05-30 2023-09-12 南京数睿数据科技有限公司 屏幕图像识别方法、装置、设备和计算机可读介质
CN115080051B (zh) * 2022-05-31 2023-05-09 武汉大学 一种基于计算机视觉的gui代码自动生成方法
US20230418566A1 (en) * 2022-06-22 2023-12-28 Amazon Technologies, Inc. Programmatically generating evaluation data sets for code generation models
KR102539282B1 (ko) * 2022-12-16 2023-06-02 주식회사 유니온플레이스 인공 지능을 이용한 코드 생성 방법
KR102539283B1 (ko) * 2022-12-19 2023-06-02 주식회사 유니온플레이스 인공 지능을 이용한 코드 생성 방법
KR102576664B1 (ko) * 2023-03-08 2023-09-13 스튜디오씨드코리아 주식회사 그래픽 사용자 인터페이스의 프로토타입 제작 방법 및 그 시스템
CN116432125B (zh) * 2023-06-01 2023-09-05 中南大学 基于哈希算法的代码分类方法
CN117850786B (zh) * 2024-03-07 2024-05-10 长江龙新媒体有限公司 一种基于用户偏好的自适应用户界面生成方法及系统

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772861B2 (ja) 1990-08-24 1995-08-02 富士ゼロックス株式会社 プログラム作成装置
JPH064277A (ja) * 1992-06-23 1994-01-14 Hitachi Ltd Gui制御プログラム自動生成方法および装置
JPH08166865A (ja) * 1994-12-12 1996-06-25 Ricoh Co Ltd 画面生成方法及びその装置
US6434598B1 (en) * 1996-07-01 2002-08-13 Sun Microsystems, Inc. Object-oriented system, method and article of manufacture for a client-server graphical user interface (#9) framework in an interprise computing framework system
US5973696A (en) * 1996-08-08 1999-10-26 Agranat Systems, Inc. Embedded web server
AU6928698A (en) * 1997-04-15 1998-11-11 British Telecommunications Public Limited Company Service creation
US6496202B1 (en) * 1997-06-30 2002-12-17 Sun Microsystems, Inc. Method and apparatus for generating a graphical user interface
WO2000052564A2 (en) * 1999-03-05 2000-09-08 Amulet Technologies, Llc Graphical user interface engine for embedded systems
US7334216B2 (en) 2000-04-04 2008-02-19 Sosy, Inc. Method and apparatus for automatic generation of information system user interfaces
US7146347B1 (en) * 2000-08-03 2006-12-05 National Instruments Corporation System and method for automatically creating a prototype to perform a process
JP4366011B2 (ja) * 2000-12-21 2009-11-18 キヤノン株式会社 文書処理装置及び方法
EP1402435A4 (en) * 2001-03-08 2007-04-25 Richard M Adler SYSTEM AND METHOD FOR MODELING AND ANALYZING STRATEGIC BUSINESS DECISIONS
US8015541B1 (en) * 2002-10-24 2011-09-06 Rage Frameworks, Inc. Business process technology for the enterprise
US7392162B1 (en) * 2002-12-20 2008-06-24 Rage Frameworks, Inc. System and method for device developing model networks purely by modelling as meta-data in a software application
JP2005031737A (ja) * 2003-07-07 2005-02-03 Hitachi Information Systems Ltd ソースコードの生成システム及びその生成方法及びその生成プログラム及びソフトウェア開発支援ツール
US20070130529A1 (en) 2003-10-15 2007-06-07 Paul Shrubsole Automatic generation of user interface descriptions through sketching
US8006224B2 (en) * 2005-04-15 2011-08-23 Research In Motion Limited System and method for unified visualization of two-tiered applications
US7620885B2 (en) * 2005-05-12 2009-11-17 International Business Machines Corporation Automatic generation of documentation for component-based computing solution
US7861217B2 (en) * 2005-12-30 2010-12-28 The Mathworks, Inc. Non-graphical model dependencies in graphical modeling environments
US7702417B2 (en) * 2006-01-31 2010-04-20 National Instruments Corporation Automatically generating code from drawing specifications for use in motion control
EP1835397A1 (en) * 2006-02-27 2007-09-19 Software Ag Application framework
KR101129087B1 (ko) 2007-02-16 2012-03-23 샤프 가부시키가이샤 사용자 인터페이스 생성 장치, 정보 단말, 기록 매체, 및 사용자 인터페이스 생성 방법
US8484626B2 (en) 2007-09-28 2013-07-09 Verizon Patent And Licensing Inc. Generic XML screen scraping
US8306255B1 (en) 2008-08-28 2012-11-06 Intuit Inc. Snapshot-based screen scraping
US8645815B2 (en) * 2008-09-29 2014-02-04 Nec Corporation GUI evaluation system, GUI evaluation method, and GUI evaluation program
US9170778B2 (en) 2008-11-18 2015-10-27 Adobe Systems Incorporated Methods and systems for application development
US20100131916A1 (en) * 2008-11-21 2010-05-27 Uta Prigge Software for modeling business tasks
CN101464799A (zh) * 2009-01-16 2009-06-24 天津大学 基于可视化建模的mpi并行程序设计系统及框架代码自动生成方法
US9665350B1 (en) * 2009-05-29 2017-05-30 The Mathworks, Inc. Automatic test generation for model-based code coverage
US8849725B2 (en) 2009-08-10 2014-09-30 Yahoo! Inc. Automatic classification of segmented portions of web pages
US8918739B2 (en) 2009-08-24 2014-12-23 Kryon Systems Ltd. Display-independent recognition of graphical user interface control
US8762873B2 (en) 2009-10-26 2014-06-24 Hewlett-Packard Development Company, L.P. Graphical user interface component identification
US20110214107A1 (en) 2010-03-01 2011-09-01 Experitest, Ltd. Method and system for testing graphical user interfaces
US8977971B2 (en) 2010-12-24 2015-03-10 General Electric Company Metadata generation systems and methods
KR101047899B1 (ko) 2011-02-18 2011-07-08 삼일데이타시스템 주식회사 휴대단말기의 사용자 인터페이스 자동 생성과 이를 이용한 설비 제어시스템
US9323418B2 (en) * 2011-04-29 2016-04-26 The United States Of America As Represented By Secretary Of The Navy Method for analyzing GUI design affordances
US10567936B2 (en) 2011-05-25 2020-02-18 Centric Software, Inc. Mobile app for design management framework
US9195572B2 (en) 2011-12-16 2015-11-24 Sap Se Systems and methods for identifying user interface (UI) elements
WO2013124858A1 (en) 2012-02-26 2013-08-29 Passcall Advanced Technologies (Transforma) Ltd. Method and system for creating dynamic browser-based user interface by example
WO2014000200A1 (en) * 2012-06-28 2014-01-03 Sap Ag Consistent interface for document output request
US8943468B2 (en) 2012-08-29 2015-01-27 Kamesh Sivaraman Balasubramanian Wireframe recognition and analysis engine
US9351641B2 (en) 2012-10-04 2016-05-31 Cerner Innovation, Inc. Mobile processing device system for patient monitoring data acquisition
US9111091B2 (en) 2013-01-29 2015-08-18 International Business Machines Corporation Automatic extraction, modeling, and code mapping of application user interface display screens and components
US10261650B2 (en) 2013-03-12 2019-04-16 Oracle International Corporation Window grouping and management across applications and devices
US20150046783A1 (en) 2013-08-12 2015-02-12 Kobo Incorporated Presenting an aggregation of annotated terms in ebook
WO2015009188A1 (en) 2013-07-19 2015-01-22 Limited Liability Company Mail.Ru Systems and methods for automated generation of graphical user interfaces
US9135151B2 (en) 2013-09-18 2015-09-15 Yahoo! Inc. Automatic verification by comparing user interface images
US9430141B1 (en) 2014-07-01 2016-08-30 Amazon Technologies, Inc. Adaptive annotations
US10191889B2 (en) 2014-07-29 2019-01-29 Board Of Regents, The University Of Texas System Systems, apparatuses and methods for generating a user interface by performing computer vision and optical character recognition on a graphical representation
KR102170999B1 (ko) 2014-07-30 2020-10-29 삼성디스플레이 주식회사 표시장치
JP2016071412A (ja) * 2014-09-26 2016-05-09 キヤノン株式会社 画像分類装置、画像分類システム、画像分類方法、及びプログラム
US10210464B2 (en) * 2015-03-11 2019-02-19 Qualcomm Incorporated Online training for object recognition system
GB201505864D0 (en) 2015-04-07 2015-05-20 Ipv Ltd Live markers
JP6214824B2 (ja) * 2015-04-22 2017-10-18 三菱電機株式会社 自動試験装置
US9459780B1 (en) * 2015-04-29 2016-10-04 Axure Software Solutions, Inc. Documenting interactive graphical designs
US9483240B1 (en) * 2015-05-27 2016-11-01 Google Inc. Data binding dependency analysis
US9967467B2 (en) 2015-05-29 2018-05-08 Oath Inc. Image capture with display context
CN107636698B (zh) * 2015-06-25 2021-10-19 富士通株式会社 程序生成装置、程序生成方法以及生成程序
US10169006B2 (en) 2015-09-02 2019-01-01 International Business Machines Corporation Computer-vision based execution of graphical user interface (GUI) application actions
US9619209B1 (en) 2016-01-29 2017-04-11 International Business Machines Corporation Dynamic source code generation
JP6410749B2 (ja) * 2016-03-08 2018-10-24 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US10048946B2 (en) 2016-03-24 2018-08-14 Microsoft Technology Licensing, Llc Converting visual diagrams into code
JP2018014073A (ja) * 2016-07-23 2018-01-25 株式会社ジェイエスコーポレーション スマートフォンアプリケーション作成支援システム
US10733754B2 (en) 2017-01-18 2020-08-04 Oracle International Corporation Generating a graphical user interface model from an image
US10838699B2 (en) 2017-01-18 2020-11-17 Oracle International Corporation Generating data mappings for user interface screens and screen components for an application
CN107273117B (zh) * 2017-05-25 2021-04-09 土巴兔集团股份有限公司 一种编程友好型的敏捷代码自动生成系统
US10360473B2 (en) 2017-05-30 2019-07-23 Adobe Inc. User interface creation from screenshots
CN107516005A (zh) 2017-07-14 2017-12-26 上海交通大学 一种数字病理图像标注的方法和系统
US10255085B1 (en) * 2018-03-13 2019-04-09 Sas Institute Inc. Interactive graphical user interface with override guidance

Also Published As

Publication number Publication date
US10489126B2 (en) 2019-11-26
WO2019156706A1 (en) 2019-08-15
EP3692438A1 (en) 2020-08-12
CN110785736B (zh) 2021-04-06
CN110785736A (zh) 2020-02-11
JP2021501382A (ja) 2021-01-14
US20190250891A1 (en) 2019-08-15
EP3692438B1 (en) 2023-10-11

Similar Documents

Publication Publication Date Title
JP6944548B2 (ja) 自動コード生成
US10733754B2 (en) Generating a graphical user interface model from an image
US11119738B2 (en) Generating data mappings for user interface screens and screen components for an application
US11481540B2 (en) Discrepancy resolution processor and methods for implementing the same
US11461689B2 (en) Techniques for automatically testing/learning the behavior of a system under test (SUT)
US20210042110A1 (en) Methods And Systems For Resolving User Interface Features, And Related Applications
US11221833B1 (en) Automated object detection for user interface generation
US10732942B2 (en) Automatically categorizing and validating user-interface-design components using a design-component-neural network
CN113748413B (zh) 文本检测、插入符号追踪以及活动元素检测
US11625833B2 (en) System and computer-implemented method for validation of label data
US20240061883A1 (en) Declarative modeling paradigm for graph-database
US20220414936A1 (en) Multimodal color variations using learned color distributions
Karthikeyan Machine learning projects for mobile applications: build android and IOS applications using tensorflow lite and core ML
CN112930538A (zh) 文本检测、插入符号追踪以及活动元素检测
WO2023239468A1 (en) Cross-application componentized document generation
US11526345B2 (en) Production compute deployment and governance
US20240053877A1 (en) Interactive Graphical User Interfaces for Deployment and Application of Neural Network Models using Cross-Device Node-Graph Pipelines
EP4187452A1 (en) Machine learning based entity recognition
JP2024065102A (ja) ロボットプロセス自動化のためのセマンティック自動化ビルダー
CN118295825A (zh) 使用任务挖掘在源与目标之间的人工智能驱动的、语义的、自动的数据传送

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R150 Certificate of patent or registration of utility model

Ref document number: 6944548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250