JP7450681B1 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP7450681B1 JP7450681B1 JP2022153722A JP2022153722A JP7450681B1 JP 7450681 B1 JP7450681 B1 JP 7450681B1 JP 2022153722 A JP2022153722 A JP 2022153722A JP 2022153722 A JP2022153722 A JP 2022153722A JP 7450681 B1 JP7450681 B1 JP 7450681B1
- Authority
- JP
- Japan
- Prior art keywords
- graph
- machine learning
- code
- nodes
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 51
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 238000010801 machine learning Methods 0.000 claims abstract description 162
- 230000008859 change Effects 0.000 claims abstract description 94
- 239000013598 vector Substances 0.000 claims abstract description 77
- 238000000034 method Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 abstract description 19
- 238000004458 analytical method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 14
- 238000007792 addition Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Stored Programmes (AREA)
Abstract
Description
さらに、既存のソフトウエアには恒常的に新たな機能や機能拡張が求められており、これらの新機能や機能拡張は、より迅速に市場にリリースされなければならない。
このため、近年のソフトウエア開発はよりオープン化されており、1つのソフトウエア開発プロジェクトに多数かつ多様な開発者が分散環境において協調して関与する状況を生じさせている。
具体的には、特許文献1に開示される変更影響分析装置は、ソフトウエアの過去開発および今回開発における変更要求と、自然言語で記述された変更仕様と、変更仕様のソースコードとが対応付けて記載された変更仕様書に基づき、仕様の依存関係を表す仕様依存関係モデルを生成する。さらに、この変更影響分析装置は、生成された仕様依存関係モデルと、ソフトウエアのソースコードの依存関係を示すソースコード依存関係とに基づき、ソフトウエアのソースコードの一部に変更が加えられた場合に変更が影響を及ぼす範囲である変更影響範囲を特定する。
特許文献1に開示される変更影響分析装置はさらに、過去ソースコード、今回ソースコード、およびコミットログを入力として、ソースコードの改訂内容、ファイル名、コメント、およびコミットログを、ソースコードと対応付けて、変更仕様書として文書化することができる。
ここで、特許文献1は、変更仕様書を生成することができるものの、変更仕様書を作成するために、コミットログやソースコードに付与されたコメントが存在することを前提としている。このため、そもそもコミットログ中のメッセージやソースコードに付与されたコメント等による、ソースコードの変更や追加の仕様の自然言語による記述を欠く場合には、ソースコードへの対応付けができず、変更仕様書を作成することができない。
したがって、特許文献1の技術は、ソースコードの変更や追加の記述を欠く場合に文書化を補完するものとはいえない。
このような文書化の欠如や不十分さは、ソフトウエアの開発や保守の負荷を増大させるとともにその期間を長期化させ、ひいては、ソフトウエアの要求品質や要求納期が担保できなくなるおそれがあった。
上記した本発明の目的、態様及び効果並びに上記されなかった本発明の目的、態様及び効果は、当業者であれば添付図面及び請求の範囲の記載を参照することにより下記の発明を実施するための形態から理解できるであろう。
本実施形態に係るコード文書化装置はまた、学習済みの機械学習モデルに未知のノードを入力して、当該ノードに対応するメッセージを生成することにより、コードを文書化する。
本実施形態は、ソフトウエアのソースコードのようなプログラミング言語で記述されたコードのみならず、例えば、Wikipedia等のインターネット上で自由に閲覧および編集が可能なオンライン百科事典のような自然言語で記述されたコードを変更する場合にも、同様に適用可能である。
ソースコードを変更対象とする場合、ソースコードに対するコミットとは、ソースコードのバージョン管理において、ソースコードへの最新の変更をリポジトリに送信して当該変更を確定させる操作であり、確定された変更はリポジトリの履歴に保持される。他のユーザがリポジトリから更新またはチェックアウト操作を行うと、コミットされたソースコードの最新バージョンを取得することができる。
自然言語で記述されたコードを変更対象とする場合であっても同様に、このコミットをバージョン管理に利用することができる。
ソースコードの変更の文書化とは、当該ソースコードに対するコード変更を記述するメッセージを生成することである。文書化により生成されたメッセージは、リポジトリにおけるコミットを補完するとともに、例えば、ソースコードとは別途の設計文書に記述されてもよく、ソースコード中にコメントとして付与されてもよい。
また、以下、ソースコードに対するコード変更は、ソースコードの変更、追加、および削除等のあらゆる更新を含むものとする。
図1は、本実施形態に係るコード文書化装置1の機能構成の一例を示すブロック図である。
図1に示すコード文書化装置1は、入力部11、グラフ生成部12、グラフ解析部13、学習実行部14、メッセージ生成部15、および出力部16を備える。
コード文書化装置1は、コード格納部3に格納されたソースコードのコミット群を取得し、取得されたソースコードのコミット群からグラフを生成し、生成されたグラフを用いて、言語(コード)ベースの機械学習モデル(以下、単に「機械学習モデル」という。)2を機械学習させる。
学習済みの機械学習モデル2は、ソースコードの変更を自然言語で記述するコミットのメッセージ部分を推論により生成する。
コード格納部3に格納されるソースコードのコミットに含まれるコード変更およびメッセージの対はそれぞれ、機械学習モデル2を事前学習させるための教師データとなる。 ソースコードのコミットに含まれるコード変更と対をなすメッセージが、機械学習モデル2の機械学習の推論における正解を示す。
具体的には、グラフ生成部12は、入力部11から供給されるソースコードのコミット群のそれぞれに対して、対応するノードNを生成する。各ノードは、1つのコミットに含まれるコード変更とメッセージとの対を有する。
本実施形態において、コード文書化装置1は、このソースコードのコミット群の各コミットの間の依存関係を表すグラフGを用いて機械学習モデル2を学習させる。グラフ生成部12が生成するこのグラフの構造の詳細は、図3を参照して後述する。
具体的には、グラフ解析部13は、グラフ生成部12から供給されるグラフGをコード特徴空間にマッピングし、グラフGの各ノードNの特徴ベクタを初期化し、次に、初期化されたグラフに畳み込み演算等を適用して、グラフGの各ノードNの特徴ベクタを学習する。ここで、グラフGの各ノードNの特徴ベクタは、コード特徴空間上にマッピングされたグラフGの各ノードNが表すコミットの変更をベクタで示す変更ベクタである。
具体的には、学習実行部14は、グラフ解析部13により解析されたグラフGのうち、既知のノード、すなわち既知のコミットのコード変更とメッセージとの対を教師データとして、機械学習モデル2を学習させる。学習実行部14が実行するこの機械学習処理の詳細は、図8から図10を参照して後述する。
出力部14はまた、メッセージ生成部15により生成されたメッセージを、対応するコード変更とともに、表示装置等を介して外部に表示出力してもよい。
図2は、本実施形態に係るコード文書化装置1が実行するコード文書化処理の概略処理手順の一例を示すフローチャートである。
なお、図2の各ステップは、コード文書化装置1のHDD等の記憶装置に記憶されたプログラムをCPUが読み出し、実行することで実現される。また、図2示すフローチャートの少なくとも一部をGPUなどの他のハードウエアにより実現してもよい。ハードウエアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA(Field Programmable Gate Array)上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
ソースコードのコミット群を構成する各コミットは、ソースコードに対する変更と、当該変更の内容(仕様)を自然言語で記述するメッセージとの対を含む。S1でコード格納部3から入力部11へ入力されるコミットデータは、コミットの時系列データである。
図3は、グラフ生成部12が生成するグラフの構造の一例を説明する図である。
図3に示すグラフGは、ノードN1からN5を有する。複数のノードN1からN5のそれぞれが、1つのコミットを表す。1つのノードNに対して、対応するコミットのコード変更(d_i)およびコード変更の内容(仕様)を自然言語で記述するメッセージ(m_i)の対が、ラベルとして付与されている。
エッジEで表されるソースコードレベルでの依存関係は、例えば、あるコード変更と他のコード変更との間の共通度ないし類似度として把握することができる。例えば、ソースコードが一致する割合が多いほど、あるいはより多くの変数を共有しているほど、依存度が高いと判断することができる。エッジEが示すノードN間の依存関係はまた、コード変更に加えて、メッセージ間の共通度ないし類似度に基づいて把握されてよい。
また、ソースコードを作成した開発者や、当該開発者の所属企業等のエンティティが共通しているほど、依存度が高いと判断してもよい。
そして、コード文書化装置1は、このように各ノードNの特徴ベクタを機械学習した学習済みのグラフGを用いて、コミットのメッセージを生成するデコーダとなる機械学習モデル2を学習させ、コード変更のみを有する未知のノードを学習済みの機械学習モデル2に入力して、当該ノードのメッセージを推定する。
しかしながら、このように翻訳問題としてメッセージ生成に対処した場合、あるコミットが他のコミットに及ぼす影響を考慮することができない。
このように機械学習させた学習済みのグラフGを入力として、機械学習モデル2を事前学習させ、学習済みの機械学習モデル2により未知のノードのメッセージを生成するので、他のコミットとの間の依存性を考慮して、高精度にコミットのメッセージを生成することができる。
図4は、図3の既知のノードで構成されるグラフGに対して、コード変更に対応するメッセージを欠く未知のノードが追加されたグラフGの一例を説明する概念図である。
この未知のノードN6は、コミットのコード変更(d_x)のみを有し、当該コード変更に対するメッセージを持たないノードである。
S3で、グラフ解析部13は、図4に示すように未知のノードが追加されたグラフGを、図5に示すように、n次元のコード特徴空間(言語特徴空間)にマッピングし、既知のノードN1~N5、および未知のノードN6を含むグラフGのすべてのノードの特徴ベクタv1~v6をコード空間上で初期化する。
しかしながら、本実施形態はこれに限定されず、例えば、メッセージ伝達アルゴリズム(Message Passing Algorithm)等のグラフ表現の機械学習に適用可能なあらゆる機械学習モデルやアルゴリズムが使用されてよい。
図6は、グラフGを用いて機械学習モデル2を事前学習させる、学習実行部14が実行する機械学習の一例を説明する概念図である。
S5における損失関数を用いた機械学習モデル2の機械学習処理の詳細は、図8から図10を参照して後述する。
図7は、学習済みの機械学習モデル2を用いて、メッセージ生成部15が実行する未知のノードNに対するメッセージの生成の一例を説明する概念図である。
学習済みの機械学習モデル2は、入力されたコード変更(d_x)に対応する未知のノードN6のメッセージ(m_i´)を出力する。
一方、上記のとおり、S4でグラフ解析部13がグラフGの特徴ベクタvを学習する際には、グラフGに付与されたラベルのうち、コード変更(d_i)のラベルのみが使用され、既知のノードのメッセージ(m_i)のラベルは使用されない。
本実施形態では、このような半教師あり学習により、コミットデータから生成されたグラフGを機械学習し、かつ推論結果を正解ラベル(教師データ)として機械学習モデル2を再学習させるので、既知のコミットの教師データが十分でない場合であっても、高精度でコミットのメッセージを生成することができる。
以下、図8から図10を参照して、コード文書化装置1の学習実行部14が実行する、損失関数を用いた機械学習モデル2の機械学習処理の詳細を説明する。
図8は、図2のステップS5の機械学習モデル2を機械学習させる処理の詳細処理手順の一例を示すフローチャートである。
S51で、コード文書化装置1の学習実行部14は、ソースコードのコミットのコード変更とメッセージとの対を含むコミットデータを、教師データとして機械学習モデル2に入力して、機械学習モデル2を事前学習させる。
具体的には、S51で機械学習モデル2に入力されるのは、図2のS4で各ノードNの特徴ベクタvが学習されたグラフGのうち、既知のノードN、すなわち、当該既知のノードにラベル付けされたコミットのコード変更(d_i)とメッセージ(m_i)との対、および当該既知のノードに対応して最適化されたコード特徴空間における特徴ベクタvである。
S53で、コード文書化装置1の学習実行部14は、損失関数(Loss(m_i,m_i´))を用いて、機械学習モデル2に教師データ(正解ラベル)として入力されたノードNのメッセージ(m_i)と、機械学習モデル2が推定して生成したノードNのメッセージ(m_i´)との間の損失を算出する。
学習実行部14は、機械学習モデル2を事前学習させる際に、例えば、クロスエントロピー損失を用いて、機械学習モデル2が出力するメッセージ(m_i´)の推定精度を評価してよい。クロスエントロピーにより、機械学習モデル2が出力する推論したデータの確率分布の、教師データ(正解ラベル)の確率分布に対する近似度を損失として算出することができ、両者が近似するほど損失が小さくなる。ただし、学習実行部14が利用可能な損失関数はクロスエントロピー損失に限定されず、例えば、二乗誤差等、他の損失を評価する関数を用いてもよい。
図9を参照して、図8のS51において、学習実行部14は、機械学習モデル2に対して、グラフGの各ノードNの参照部分である時点tにおけるコード変更(c_t)と、当該コード変更(c_t)に対応して記述されたメッセージ(m)を入力する。
S52およびS53において、機械学習モデル2は、メッセージの特徴ベクタ(v_m)を機械学習する。
図10を参照して、学習実行部14は、機械学習モデル2が機械学習するメッセージの特徴ベクタ(v_m)が、ある時点tにおけるコード変更(c_t)を始点とし、時系列上で次の時点t+1におけるコード変更(c_t+1)に向かうように、メッセージの特徴ベクタ(v_m)を機械学習する。
したがって、本実施形態におけるクロスエントロピー損失は、コード変更とメッセージの特徴ベクタ間の損失Lvとして以下の式1により算出される。
Lv=cos(v_m,v_di) (式1)
機械学習モデル2のトータルのクロスエントロピー損失は、以下の式2で表されることになる。
L_T=CE+Lv (式2)
コード文書化装置はまた、学習済みの機械学習モデルにグラフの未知のノードを入力して、当該未知のノードに対応するメッセージを生成することにより、コードを文書化する。
図11は、本実施形態に係るコード文書化置1のハードウエア構成の非限定的一例を示す図である。
本実施形態に係るコード文書化装置1は、単一または複数の、あらゆるコンピュータ、モバイルデバイス、または他のいかなる処理プラットフォーム上にも実装することができる。
図11を参照して、コード文書化装置1は、単一のコンピュータに実装される例が示されているが、本実施形態に係るコード文書化装置1は、複数のコンピュータを含むコンピュータシステムに実装されてよい。複数のコンピュータは、有線または無線のネットワークにより相互通信可能に接続されてよい。
CPU(Central Processing Unit)111は、コード文書化装置1における動作を統括的に制御するものであり、データ伝送路であるシステムバス118を介して、各構成部(112~117)を制御する。なお、CPU111に替えて、またはこれに加えて、コード文書化装置1は、GPU(Graphics Processing Unit)を備え、このGPUにより、機械学習モデル2等の事前学習や推論処理を実行してもよい。
RAM(Random Access Memory)113は、揮発性メモリであり、CPU111の主メモリ、ワークエリア等として機能する。すなわち、CPU111は、処理の実行に際してROM112から必要なプログラム等をRAM113にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
入力部115は、キーボードやマウス等のポインティングデバイスにより構成される。
表示部116は、液晶ディスプレイ(LCD)等のモニターにより構成される。表示部116は、機械学習処理で使用される各種パラメータや、他の装置との通信で使用される通信パラメータ等をコード文書化装置1へ指示入力するためのユーザインタフェースであるGUI(Graphical User Interface)を提供してよい。
通信I/F117は、ネットワークとのインタフェースを提供し、ネットワークを介して、外部装置との通信を実行する。通信I/F117を介して、外部装置との間で各種データや各種パラメータ等が送受信される。本実施形態では、通信I/F117は、イーサネット(登録商標)等の通信規格に準拠する有線LAN(Local Area Network)や専用線を介した通信を実行してよい。ただし、本実施形態で利用可能なネットワークはこれに限定されず、無線ネットワークで構成されてもよい。この無線ネットワークは、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi-Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G、4G、5G等の無線WAN(Wide Area Network)を含む。なお、ネットワークは、各機器を相互に通信可能に接続し、通信が可能であればよく、通信の規格、規模、構成は上記に限定されない。
本開示は以下の実施形態を含む。
[1]コード変更および当該コード変更に対応するメッセージの対をそれぞれ有する複数のノードからグラフを生成するグラフ生成部と、前記グラフ生成部により生成された前記グラフの前記複数のノードのそれぞれについて特徴ベクタを機械学習する第1の学習部と、前記第1の学習部により前記特徴ベクタが機械学習された前記グラフを入力として、機械学習モデルを機械学習させる第2の学習部と、前記第2の学習部により機械学習させた学習済みの前記機械学習モデルに、前記メッセージが未知であるノードを入力して、当該ノードに対応するメッセージを生成するメッセージ生成部と、を備えることを特徴とする情報処理装置。
前記第2の学習処理により機械学習させた学習済みの前記機械学習モデルに、前記メッセージが未知であるノードを入力して、当該ノードに対応するメッセージを生成するメッセージ生成処理、を含む処理を実行させるためのものであることを特徴とする情報処理プログラム。
Claims (12)
- コード変更および当該コード変更に対応するメッセージの対をそれぞれ有する複数のノードからグラフを生成するグラフ生成部と、
前記グラフ生成部により生成された前記グラフの前記複数のノードのそれぞれについて特徴ベクタを機械学習する第1の学習部と、
前記第1の学習部により前記特徴ベクタが機械学習された前記グラフの前記複数のノードのそれぞれの前記コード変更および前記メッセージの対を教師データとして、機械学習モデルを機械学習する第2の学習部と、
前記第2の学習部により機械学習された学習済みの前記機械学習モデルに、前記メッセージが未知であるノードを入力して、当該ノードに対応するメッセージを生成するメッセージ生成部と、
を備えることを特徴とする情報処理装置。 - 前記第1の学習部は、前記グラフの前記複数のノードのそれぞれの前記コード変更を入力として、半教師あり学習により、前記複数のノードのそれぞれの特徴ベクタを機械学習する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第2の学習部は、前記グラフの前記複数のノードのそれぞれの前記コード変更の特徴ベクタのコード特徴空間におけるアラインメントを、前記コード変更に対応する前記メッセージの特徴ベクタで補正するよう、前記機械学習モデルを機械学習する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第2の学習部は、所定の損失関数を用いて、前記所定の損失関数の損失がより小さくなるよう、前記機械学習モデルを機械学習する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第2の学習部は、前記グラフの前記複数のノードの前記コード変更の特徴ベクタと、前記コード変更に対応する前記メッセージの特徴ベクタとの間の損失を算出し、当該損失がより小さくなるよう、前記機械学習モデルを機械学習する
ことを特徴とする請求項4に記載の情報処理装置。 - 前記グラフ生成部は、前記グラフの前記複数のノードのうち、コード変更における依存関係を有するノード間をエッジにより接続し、前記エッジが前記ノード間の依存関係における距離を示すよう、前記グラフを生成する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記グラフ生成部は、前記エッジが、ソースノードからデスティネーションノードへのシグナルの伝搬方向を示すよう、前記グラフを有向グラフとして生成する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記第1の学習部は、前記グラフの前記複数のノードのそれぞれをコード特徴空間上にマッピングし、前記複数のノードのそれぞれの特徴ベクタを、前記コード特徴空間で初期化する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1の学習部は、前記グラフに対して、前記メッセージが未知であるノードを付加し、前記メッセージが未知であるノードが付加された前記グラフの各ノードの特徴ベクタを、前記コード特徴空間で初期化する
ことを特徴とする請求項8に記載の情報処理装置。 - 前記第1の学習部は、前記グラフの各ノードの特徴ベクタを、第1の機械学習モデルを用いて機械学習し、
前記第2の学習部は、前記第1の機械学習モデルとは異なる第2の機械学習モデルを機械学習する
ことを特徴とする請求項1に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
コード変更および当該コード変更に対応するメッセージの対をそれぞれ有する複数のノードからグラフを生成するステップと、
生成された前記グラフの前記複数のノードのそれぞれについて特徴ベクタを機械学習するステップと、
前記特徴ベクタが機械学習された前記グラフを入力として、機械学習モデルを機械学習するステップと、
機械学習済みの前記機械学習モデルに、前記メッセージが未知であるノードを入力して、当該ノードに対応するメッセージを生成するステップと、
を含むことを特徴とする情報処理方法。 - 情報処理をコンピュータに実行させるための情報処理プログラムであって、該プログラムは、前記コンピュータに、
コード変更および当該コード変更に対応するメッセージの対をそれぞれ有する複数のノードからグラフを生成するグラフ生成処理と、
前記グラフ生成処理により生成された前記グラフの前記複数のノードのそれぞれについて特徴ベクタを機械学習する第1の学習処理と、
前記第1の学習処理により前記特徴ベクタが機械学習された前記グラフを入力として、機械学習モデルを機械学習する第2の学習処理と、
前記第2の学習処理により機械学習された学習済みの前記機械学習モデルに、前記メッセージが未知であるノードを入力して、当該ノードに対応するメッセージを生成するメッセージ生成処理、
を含む処理を実行させるためのものであることを特徴とする情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022153722A JP7450681B1 (ja) | 2022-09-27 | 2022-09-27 | 情報処理装置、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022153722A JP7450681B1 (ja) | 2022-09-27 | 2022-09-27 | 情報処理装置、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7450681B1 true JP7450681B1 (ja) | 2024-03-15 |
JP2024047943A JP2024047943A (ja) | 2024-04-08 |
Family
ID=90194713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022153722A Active JP7450681B1 (ja) | 2022-09-27 | 2022-09-27 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7450681B1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200334326A1 (en) | 2019-04-18 | 2020-10-22 | Microsoft Technology Licensing, Llc | Architectures for modeling comment and edit relations |
JP2021502632A (ja) | 2017-11-10 | 2021-01-28 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | プログラムのコメントを使用した最適化の提供 |
JP2022505340A (ja) | 2018-10-18 | 2022-01-14 | 株式会社デンソー | データ引数を動的に識別し、ソースコードを計装するためのシステムと方法 |
JP2022534181A (ja) | 2019-05-21 | 2022-07-28 | エックス デベロップメント エルエルシー | コード変更の自動識別 |
-
2022
- 2022-09-27 JP JP2022153722A patent/JP7450681B1/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502632A (ja) | 2017-11-10 | 2021-01-28 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | プログラムのコメントを使用した最適化の提供 |
JP2022505340A (ja) | 2018-10-18 | 2022-01-14 | 株式会社デンソー | データ引数を動的に識別し、ソースコードを計装するためのシステムと方法 |
US20200334326A1 (en) | 2019-04-18 | 2020-10-22 | Microsoft Technology Licensing, Llc | Architectures for modeling comment and edit relations |
JP2022534181A (ja) | 2019-05-21 | 2022-07-28 | エックス デベロップメント エルエルシー | コード変更の自動識別 |
Also Published As
Publication number | Publication date |
---|---|
JP2024047943A (ja) | 2024-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11972365B2 (en) | Question responding apparatus, question responding method and program | |
US10545733B2 (en) | Code reusability | |
US11016740B2 (en) | Systems and methods for virtual programming by artificial intelligence | |
Arumugam et al. | Accurately and efficiently interpreting human-robot instructions of varying granularities | |
US11475220B2 (en) | Predicting joint intent-slot structure | |
US20210216887A1 (en) | Knowledge graph alignment with entity expansion policy network | |
CN116909532B (zh) | 一种代码生成与缺陷修复方法和装置 | |
CN112541060B (zh) | 一种基于对抗训练的端到端任务型对话学习框架和方法 | |
US11455148B2 (en) | Software programming assistant | |
US20210256018A1 (en) | Question responding apparatus, question responding method and program | |
US11423333B2 (en) | Mechanisms for continuous improvement of automated machine learning | |
Tran et al. | Semantic refinement gru-based neural language generation for spoken dialogue systems | |
US20240013003A1 (en) | Providing a semantic encoding and language neural network | |
Cruz-Benito et al. | A Deep-Learning-based proposal to aid users in Quantum Computing programming | |
CN113412492A (zh) | 用于量子玻尔兹曼机的监督训练的量子算法 | |
Patil et al. | Algorithmic Issues, Challenges, and Theoretical Concerns of ChatGPT | |
US11249891B1 (en) | Machine-learning framework for testing feedback controller robustness | |
Ali et al. | Bert based severity prediction of bug reports for the maintenance of mobile applications | |
Burnham | Stance detection with supervised, zero-shot, and few-shot applications | |
El Alaoui et al. | Building Intelligent Chatbots: Tools, Technologies, and Approaches | |
JP7450681B1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
Li et al. | Temporal supervised learning for inferring a dialog policy from example conversations | |
Huang et al. | Prompt-based self-training framework for few-shot named entity recognition | |
KR20230093797A (ko) | 분류 모델에 기반하여 바꿔 쓰기 모델을 학습하는 방법, 바꿔 쓰기 모델을 이용한 텍스트 데이터의 증강 방법 및 이를 이용한 텍스트 처리 장치 | |
Campino | Unleashing the transformers: NLP models detect AI writing in education |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450681 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |