JP2023140095A - Determination device - Google Patents
Determination device Download PDFInfo
- Publication number
- JP2023140095A JP2023140095A JP2022045961A JP2022045961A JP2023140095A JP 2023140095 A JP2023140095 A JP 2023140095A JP 2022045961 A JP2022045961 A JP 2022045961A JP 2022045961 A JP2022045961 A JP 2022045961A JP 2023140095 A JP2023140095 A JP 2023140095A
- Authority
- JP
- Japan
- Prior art keywords
- information
- development
- usage status
- information indicating
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011161 development Methods 0.000 claims abstract description 231
- 238000000034 method Methods 0.000 claims description 22
- 230000001815 facial effect Effects 0.000 claims description 17
- 230000010365 information processing Effects 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 49
- 238000003384 imaging method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 29
- 238000004891 communication Methods 0.000 description 19
- 238000007405 data analysis Methods 0.000 description 17
- 238000010191 image analysis Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000004044 response Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Stored Programmes (AREA)
Abstract
Description
本発明は、判定装置、判定方法、プログラムに関する。 The present invention relates to a determination device, a determination method, and a program.
ソフトウェアのソースコード実装時などにおいては、バグ埋め込みが生じるおそれがある。このようなリスクを判定する際に用いる可能な技術が知られている。 When implementing software source code, there is a risk that bugs may be embedded. Possible techniques are known for use in determining such risks.
上述したようなリスクを判定する際に用いることが可能な技術としては、例えば、特許文献1がある。特許文献1には、複数のセンサ及び中央処理装置を備えるコンピュータシステムで実行されるコンピュータ実装方法が記載されている。特許文献1によると、上記方法では、複数のセンサを使用して、人に関する複数の生理学的パラメータを検出し、中央処理装置を使用して、人に関して検出された複数の生理学的パラメータを集約する。また、中央処理装置を使用して、人に関して検出された複数の生理学的パラメータから複数の心理学的データのフィーチャを抽出する。そして、抽出された複数の心理学的データのフィーチャを、人の集中状態を予測するための予測モデルと併せて使用し、人の集中状態を予測する。 As a technique that can be used when determining the above-mentioned risks, there is, for example, Patent Document 1. Patent Document 1 describes a computer-implemented method executed on a computer system including a plurality of sensors and a central processing unit. According to Patent Document 1, the method uses a plurality of sensors to detect a plurality of physiological parameters regarding the person, and uses a central processing unit to aggregate the plurality of physiological parameters detected regarding the person. . The central processing unit is also used to extract psychological data features from the detected physiological parameters for the person. The extracted psychological data features are then used together with a prediction model for predicting a person's concentration state to predict the person's concentration state.
また、例えば、特許文献2には、開発スキルレベルを算出し、工数・開発期間・開発スキルレベルの比で開発難易度を表した式を用いて開発難易度を算出する開発難易度算出手段が記載されている。 Further, for example, Patent Document 2 discloses a development difficulty level calculation means that calculates the development skill level and calculates the development difficulty level using a formula that expresses the development difficulty level by the ratio of man-hours, development period, and development skill level. Are listed.
特許文献1に記載の技術を用いた場合、集中度を測定することができる。しかしながら、例えばコード実装など高いスキルが必要とされる業務においては、集中力の有無だけでは判断材料に欠けており、バグ埋め込みの可能性を的確に判定することはできなかった。また、特許文献2に記載の技術を用いたとしても、開発難易度が高いからといってバグ埋め込みの可能性が高いとは限らず、依然としてバグ埋め込みの可能性を的確に判定することは難しい。このように、バグ埋め込みの可能性を判定することが難しい、という課題が生じていた。 When the technique described in Patent Document 1 is used, the degree of concentration can be measured. However, in tasks that require a high level of skill, such as code implementation, the presence or absence of concentration alone is insufficient to judge the possibility of bug embedding, and it has not been possible to accurately determine the possibility of bug embedding. Furthermore, even if the technology described in Patent Document 2 is used, just because the development difficulty level is high does not necessarily mean that the possibility of bug embedding is high, and it is still difficult to accurately determine the possibility of bug embedding. . In this way, a problem has arisen in that it is difficult to determine the possibility of bug embedding.
そこで、本発明の目的は、上述した課題を解決することにある。 Therefore, an object of the present invention is to solve the above-mentioned problems.
本発明の一形態である判定装置は、
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得する取得部と、
前記取得部が取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する判定部と、
を有する
という構成をとる。
A determination device that is one form of the present invention includes:
an acquisition unit that acquires information indicating the usage status of development tools, which are tools used when implementing source code;
a determination unit that determines the possibility of bug embedding based on the information indicating the usage status acquired by the acquisition unit;
It has the following structure.
また、本発明の一形態である判定方法は、
情報処理装置が、
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、
取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する
という構成をとる。
Further, a determination method that is one form of the present invention includes:
The information processing device
Obtain information indicating the usage status of development tools, which are tools used when implementing source code,
The structure is such that the possibility of bug embedding is determined based on the information indicating the usage status obtained.
また、本発明の一形態であるプログラムは、
情報処理装置に、
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、
取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する
処理を実現させるためのプログラムである。
Further, a program that is one form of the present invention is
In the information processing device,
Obtain information indicating the usage status of development tools, which are tools used when implementing source code,
This is a program that implements processing that determines the possibility of bug embedding based on the information that shows the usage status that has been obtained.
上述したような各構成によると、バグ埋め込みの可能性を的確に判定することができる。 According to each of the configurations described above, it is possible to accurately determine the possibility of bug embedding.
[第1の実施形態]
本開示の第1の実施形態について、図1から図12までを参照して説明する。図1は、判定装置100の構成例を示すブロック図である。図2は、開発ツール情報152の一例を示す図である。図3は、画像データ情報153の一例を示す図である。図4は、画像分析結果情報154の一例を示す図である。図5は、開発情報155の一例を示す図である。図6から図8までは、比較情報157の一例を示す図である。図9は、開発状況解析部165の処理例を説明するための図である。図10は、開発ツール情報152登録時の動作例を示すフローチャートである。図11は、画像データ取得時の動作例を示すフローチャートである。図12は、解析時の動作例を示すフローチャートである。
[First embodiment]
A first embodiment of the present disclosure will be described with reference to FIGS. 1 to 12. FIG. 1 is a block diagram showing a configuration example of the determination device 100. FIG. 2 is a diagram showing an example of the
本開示の第1の実施形態においては、ソフトウェアのソースコード実装時などにおいて、利用者が作業する開発ツールの使用状況を示す情報に基づいてバグ埋め込みの可能性を判定する判定装置100について説明する。後述するように、判定装置100は、画像データなどに基づいて、開発ツールの使用状況を示す情報を取得する。例えば、判定装置100は、作業者の目を少なくとも被写体とした画像データである顔画像データを解析することで、所定のコード行を実装した際などにおいて、実装の前後でどの程度の時間仕様書やマニュアルなど実装に必要な情報を見ているか、どういう順番で各資料やツールをみているかなどを示す開発ツールの使用状況を示す情報を取得する。また、判定装置100は、取得した情報と、予め取得した情報との比較を行う。そして、判定装置100は、比較した結果に基づいて、バグ埋め込みの可能性を判定する。例えば、予め高スキル者における開発ツールの使用状況を示す情報を取得しておくことで、判定装置100は、高スキル者の使用状況との比較を行って、比較結果に基づく判定を行うことができる。 In a first embodiment of the present disclosure, a determination device 100 that determines the possibility of bug embedding based on information indicating the usage status of a development tool used by a user when implementing software source code will be described. . As described later, the determination device 100 acquires information indicating the usage status of the development tool based on image data and the like. For example, the determination device 100 analyzes face image data, which is image data with at least the worker's eyes as the object, to determine how much time it takes before and after implementing a predetermined line of code. Obtain information that shows the usage status of development tools, such as whether information necessary for implementation is viewed, such as documents and manuals, and in what order each document or tool is viewed. Further, the determination device 100 compares the acquired information with information acquired in advance. Then, the determination device 100 determines the possibility of bug embedding based on the comparison results. For example, by acquiring information indicating the usage status of a development tool by a highly skilled person in advance, the determination device 100 can compare the usage status with the usage status of a highly skilled person and make a determination based on the comparison result. can.
なお、本実施形態においては、画像データに基づいて開発ツールの使用状況を示す情報を取得する場合について例示する。しかしながら、判定装置100は、画像データに基づいて開発ツールの使用状況を示す情報を取得する代わりに、または、画像データに基づく取得とともに、任意の方法を用いて開発ツールの使用状況を示す情報を取得してよい。例えば、判定装置100は、マウスなどの操作入力部110のクリック個所をトレースすることなどにより、開発ツールの使用状況を示す情報を取得してもよい。
Note that in this embodiment, a case will be exemplified in which information indicating the usage status of a development tool is acquired based on image data. However, instead of acquiring the information indicating the usage status of the development tool based on the image data, or in addition to acquiring the information based on the image data, the determination device 100 uses any method to acquire the information indicating the usage status of the development tool. You may obtain it. For example, the determination device 100 may acquire information indicating the usage status of the development tool by tracing the click location of the
また、本実施形態において、開発ツールとは、ソフトウェアのソースコード実装時などバグ埋め込みの可能性のある状況において使用する可能性のある実装に必要な資料、アプリケーション、そのほか各種情報やツールなどのことを指す。例えば、開発ツールには、ソースコード、仕様書、マニュアル、ウェブサイトなどが含まれる。開発ツールは、上記例示した以外のものを含んでもよい。 Furthermore, in this embodiment, development tools refer to materials, applications, and other various information and tools necessary for implementation that may be used in situations where there is a possibility of embedding bugs, such as when implementing software source code. refers to For example, development tools include source code, specifications, manuals, websites, etc. The development tools may include tools other than those exemplified above.
判定装置100は、利用者が作業時に利用する開発ツールの使用状況を示す情報に基づいてバグ埋め込みの可能性を判定する情報処理装置である。例えば、判定装置100は、ソフトウェアのソースコード実装などプログラミング可能な一般的な環境を有している。例えば、判定装置100は、カメラなどの撮像機能を有する一般的なパーソナルコンピュータやタブレットなどであってよい。 The determination device 100 is an information processing device that determines the possibility of bug embedding based on information indicating the usage status of a development tool used by a user during work. For example, the determination device 100 has a general programmable environment such as software source code implementation. For example, the determination device 100 may be a general personal computer, a tablet, or the like having an imaging function such as a camera.
図1は、本実施形態に特徴的な判定装置100の構成例を示している。図1を参照すると、判定装置100は、主な構成要素として、例えば、操作入力部110と、撮像部120と、画面表示部130と、通信I/F部140と、記憶部150と、演算処理部160と、を有している。
FIG. 1 shows a configuration example of a determination device 100 that is characteristic of this embodiment. Referring to FIG. 1, the determination device 100 includes, as main components, an
なお、図1では、1台の情報処理装置を用いて判定装置100としての機能を実現する場合について例示している。しかしながら、判定装置100としての機能のうちの少なくとも一部は、クラウド上に実現されるなど、複数台の情報処理装置を用いて実現されてもよい。また、判定装置100は、上記例示した構成の一部を含まなくてもよいし、上記例示した以外の構成を有してもよい。 Note that FIG. 1 illustrates a case where the function of the determination device 100 is realized using one information processing device. However, at least some of the functions of the determination device 100 may be realized using a plurality of information processing devices, such as realized on a cloud. Furthermore, the determination device 100 may not include some of the configurations exemplified above, or may have a configuration other than those exemplified above.
操作入力部110は、キーボード、マウスなどの操作入力装置からなる。操作入力部110は、判定装置100を操作する利用者の操作を検出して演算処理部160に出力する。
The
撮像部120は、カメラなどの撮像装置からなる。撮像部120は、判定装置100を利用する利用者などを被写体とした画像データを取得して演算処理部160に出力する。
The
画面表示部130は、LCD(Liquid Crystal Display、液晶ディスプレイ)などの画面表示装置からなる。画面表示部130は、演算処理部160からの指示に応じて、記憶部150に格納されている各種情報などを画面表示することができる。
The
通信I/F部140は、データ通信回路などからなる。通信I/F部140は、通信回線を介して接続された外部装置との間でデータ通信を行う。
The communication I/
記憶部150は、ハードディスクやメモリなどの記憶装置である。記憶部150は、演算処理部160における各種処理に必要な処理情報やプログラム158を記憶する。プログラム158は、演算処理部160に読み込まれて実行されることにより各種処理部を実現する。プログラム158は、通信I/F部140などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部150に保存されている。記憶部150で記憶される主な情報としては、例えば、撮像情報151、開発ツール情報152、画像データ情報153、画像分析結果情報154、開発情報155、解析結果情報156、比較情報157などがある。
The
撮像情報151は、開発ツール画像データを取得する際の条件や撮像部120の動作に関する情報などを含む。例えば、撮像情報151は、撮像部120を用いて画像データを取得する、通信I/F部140を介して外部装置から取得する、操作入力部110を用いて入力する、などの方法を用いて予め取得されており、記憶部150に格納されている。
The
具体的に、撮像情報151には、判定装置100を操作する利用者の顔を被写体とした画像データを含む開発者情報が含まれる。開発者情報は、例えば、顔認証を行う際などに活用してよい。また、撮像情報151には、開発ツール画像データや顔画像データなどを取得する際の取得時間や撮影間隔を示す情報などを含むことができる。
Specifically, the
開発ツール情報152は、開発ツールの名前や開発ツールを被写体とした画像データなど開発ツールについての情報を含んでいる。例えば、開発ツール情報152は、後述する開発ツール情報取得部161が開発ツールについての情報を取得することなどに応じて更新される。
The
図2は、開発ツール情報152に含まれる情報の一例を示している。図2を参照すると、例えば、開発ツール情報152では、開発ツール名と開発ツール画像データとが関連付けられている。ここで、開発ツール名は、利用者による操作入力部110に対する操作などに応じて開発ツール情報取得部161が取得する情報であり、開発ツールの名前を示している。例えば、図2では、開発ツール名として、ソースコード、仕様書、マニュアル、ウェブサイトなどが例示されている。開発ツール名は、例示した以外であってもよい。また、開発ツール画像データは、関連する開発ツール使用中の画像データなどである。開発ツール画像データは、例えば、画面表示部130上における開発ツールの表示などを既存の方法で切り抜くことなどにより取得できる。開発ツールが紙の資料などの場合、開発ツール画像データは、撮像部120などを用いて取得されてもよい。なお、開発ツール画像データは、関連する開発ツール使用中の画像データのうち特徴的な部分を抽出した特徴点についての情報や特徴点などから算出する特徴量を示す情報などであってもよい。
FIG. 2 shows an example of information included in the
画像データ情報153は、利用者がソフトウェアのソースコードを実装している際などにおいて撮像部120が取得した顔画像データを含んでいる。例えば、画像データ情報153に含まれる顔画像データは、利用者の目を少なくとも被写体としている。例えば、画像データ情報153は、後述する取得部162が撮像部120を利用して顔画像データを取得することなどに応じて更新される。
The
図3は、画像データ情報153に含まれる情報の一例を示している。図3を参照すると、例えば、画像データ情報153では、撮像部120が画像データを取得した時刻と、顔画像データと、が関連付けられている。上述したように、顔画像データには、利用者の目の部分が少なくとも含まれている。
FIG. 3 shows an example of information included in the
画像分析結果情報154は、後述する画像データ分析部163による分析の結果に応じた情報を含んでいる。例えば、画像分析結果情報154は、画像データ情報153に含まれる顔画像データのうち、目の画像の中心部分を抽出した抽出画像データを含んでいる。例えば、画像分析結果情報154は、画像データ分析部163が画像データ情報153に含まれる顔画像データを解析することなどに応じて更新される。
The image analysis result
図4は、画像分析結果情報154に含まれる情報の一例を示している。図4を参照すると、例えば、画像分析結果情報154では、時刻と、抽出画像データと、が関連付けられている。ここで、画像分析結果情報154に含まれる時刻は、関連する抽出画像データの抽出元となった顔画像データを取得時刻に対応している。また、抽出画像データは、例えば、画像データ分析部163が顔画像データから目の中心部分を抽出することで生成される。
FIG. 4 shows an example of information included in the image analysis result
開発情報155は、画像分析結果情報154に含まれる抽出画像データと、開発ツール情報152と、に基づいて後述する使用ツール判定部164が判定した、画像データの取得時に使用していた開発ツールを示す情報を含んでいる。換言すると、開発情報155は、判定装置100を操作する利用者における開発ツールの時系列に沿った使用状況を示す情報を含んでいる。例えば、開発情報155は、使用ツール判定部164が画像分析結果情報154に含まれる抽出画像データなどに基づいて開発ツールを判定することなどに応じて更新される。
The
図5は、開発情報155に含まれる情報の一例を示している。図5を参照すると、例えば、開発情報155では、時刻と、開発ツール名と、が関連付けられている。ここで、開発情報155に含まれる時刻は、画像データを取得時刻に対応している。また、開発ツール名には、例えば、開発ツール情報152に含まれる開発ツール名のうちのいずれかを示す情報が含まれる。
FIG. 5 shows an example of information included in the
解析結果情報156は、後述する開発状況解析部165が開発情報155などに基づいて解析した結果を示す情報を含んでいる。例えば、解析結果情報156は、バグ埋め込みの可能性を示す情報や、バグ埋め込みの可能性を判断する際の根拠を示す情報などを含むことが出来る。解析結果情報156は、開発状況解析部165が開発情報155などに基づく解析処理を行うことなどに応じて更新される。
The analysis result
比較情報157は、開発状況解析部165が開発情報155を解析する際に、開発情報155に含まれる情報と比較する対象になる情報を含んでいる。比較情報157には、例えば、高スキル者における開発ツールの使用状況を示す情報が含まれる。比較情報157には、低スキル者における開発ツールの使用状況を示す情報が含まれてもよい。例えば、以上のように、比較情報157には、判定装置100を操作する利用者とは異なる他人の開発ツールの使用状況を示す情報が含まれる。例えば、比較情報157は、通信I/F部140を介して外部装置から取得する、操作入力部110を用いて入力する、などの方法を用いて予め取得されており、記憶部150に格納されている。
The
図6は、比較情報157に含まれる情報の一例を示している。図6を参照すると、例えば、比較情報157には、各開発ツールの使用割合などを示す開発ツールの使用状況を示す情報が含まれている。上述したように、比較情報157は、高スキル者における開発ツールの使用状況を示す情報と、低スキル者における開発ツールの使用状況を示す情報と、を含むことができる。例えば、図6で例示する場合、比較情報157には、高スキル者である担当者Aと、低スキル者である担当者Bの各開発ツールの使用割合を示す情報が含まれている。
FIG. 6 shows an example of information included in the
なお、比較情報157には、使用割合以外の開発ツールの使用状況を示す情報が含まれてもよい。例えば、図7を参照すると、比較情報157には、所定時間内における各開発ツールの使用時間を示す情報などが含まれてもよい。また、図8で示すように、比較情報157には、時系列に沿った開発ツールの使用状況を示す情報などが含まれてもよい。例えば、比較情報157には、図6から図8までで例示したうちの少なくとも1つの情報がふくまれてよい。
Note that the
以上が、記憶部150で記憶される主な情報である。なお、上述したように、開発情報155などにおいては、時刻と開発ツール名などとが関連づけられている。そのため、例えば、ソースコード実装時における各ソースコードを書いた時刻を示す情報などをさらに関連付けると、書いたソースコードとソースコードを書いている際に使用していた開発ツール名などとを関連づけることもできる。
The above is the main information stored in the
演算処理部160は、CPU(Central Processing Unit)などの演算装置とその周辺回路を有する。演算処理部160は、記憶部150からプログラム158を読み込んで実行することにより、上記ハードウェアとプログラム158とを協働させて各種処理部を実現する。演算処理部160で実現される主な処理部としては、例えば、開発ツール情報取得部161、取得部162、画像データ分析部163、使用ツール判定部164、開発状況解析部165、出力部166などがある。
The
開発ツール情報取得部161は、操作入力部110や撮像部120などに対する利用者の操作などに応じて、開発ツール名や開発ツール画像データなどを取得する。また、開発ツール情報取得部161は、取得した開発ツール名と開発ツール画像データなどとを関連付けて、開発ツール情報152として記憶部150に格納する。
The development tool
例えば、開発ツール情報取得部161は、利用者などの指示に応じて開発ツール名や開発ツール画像データなどの取得を開始した後、撮像情報151が示す取得時間の間、開発ツール名や開発ツール画像データなどの取得を続けることができる。開発ツール情報取得部161は、まず操作入力部110を用いて開発ツール名の取得を行った後に、上記取得時間の間、利用者の指示などに応じて画面表示部130上の開発ツール部分を切り抜くことなどにより開発ツール画像データを取得してもよい。例えば、開発ツール情報取得部161は、取得した開発ツール名と開発ツール画像データとを取得するごとに記憶部150に格納してもよいし、上記取得時間の経過後にまとめて記憶部150に格納してもよい。
For example, after the development tool
なお、開発ツール情報取得部161は、撮像部120などを用いて開発ツール画像データを取得してもよい。また、開発ツール情報取得部161は、通信I/F部140などを介して、外部装置から開発ツール名と開発ツール画像データなどとを関連付けた情報を取得してもよい。
Note that the development tool
取得部162は、撮像部120を用いて顔画像データを取得する。例えば、取得部162は、撮像情報151が示す撮影間隔ごとに画像データを取得することができる。取得部162は、利用者からの指示に応じて顔画像データの取得を開始した後、利用者からの別の指示があるまで、上記撮影間隔で画像データを取得するよう構成してもよい。また、取得部162は、取得した顔画像データを顔画像データの取得時刻と関連付けて、画像データ情報153として記憶部150に格納する。
The
なお、プライバシーなどの観点から、取得部162は、最初に撮像情報151に含まれる開発者情報を用いて顔認証を行い、認証された場合に顔画像データの取得や格納を行うよう構成してもよい。
Note that from the viewpoint of privacy, etc., the
画像データ分析部163は、画像データ情報153に含まれる顔画像データに対する分析を行う。例えば、画像データ分析部163は、顔画像データに対する分析を行うことで、利用者が利用中の開発ツールを特定するために必要となる情報を顔画像データから抽出する。
The image
例えば、画像データ分析部163は、顔画像データに基づいて、人物の目の領域を抽出する。また、画像データ分析部163は、抽出した人物の目の領域のうち、目の中心部分を抽出することなどにより、目の中心に写っているものを抽出する。例えば、以上のような処理により、画像データ分析部163は、顔画像データから抽出画像データを抽出する。また、画像データ分析部163は、抽出した結果を対応する顔画像データの取得時刻とともに、画像分析結果情報154として記憶部150に格納する。なお、例えば、画像データ分析部163は、目の領域をラベルとした教師データを用いた学習を行うことなどにより予め学習した学習済みモデルを用いて目の領域を抽出する、同様に目の中心部分を抽出するよう予め学習した学習済みモデルを用いて目の中心部分を抽出するなど、既知の技術を用いて顔画像データから人物の目の領域や目の中心部分を抽出してよい。
For example, the image
使用ツール判定部164は、画像分析結果情報154に含まれる抽出画像データと、開発ツール情報152と、に基づいて、利用者が利用中の開発ツールを判定する。また、使用ツール判定部164は、判定した結果を示す情報を開発情報155として記憶部150に格納する。
The used
例えば、使用ツール判定部164は、開発ツール情報152に含まれる開発ツール画像データ示す対象と同一または類似する対象が画像分析結果情報154に含まれる抽出画像データに写っているか否か確認することで、抽出画像データが示す対象に対応する開発ツールを判定する。例えば、使用ツール判定部164は、開発ツール名をラベル付けした開発ツール画像データなどを教師データとした学習を行うことなどにより予め学習した学習済みモデルを用いて上記判定を行うなど、既知の手段を用いて上記処理を実現してよい。なお、抽出画像データから開発ツールを特定できない場合も想定される。その場合、使用ツール判定部164は、当該抽出画像データを破棄して次の時刻の抽出画像データに対する判定を行ってよい。
For example, the used
開発状況解析部165は、開発情報155などを解析することで、バグ埋め込みの可能性などを判定する判定部である。例えば、開発状況解析部165は、開発情報155が示す判定装置100を利用する利用者における開発ツールの使用状況と、比較情報157とを比較することで、開発情報155などの解析を行ってバグ埋め込みの可能性を判定する。また、開発状況解析部165は、解析の結果を解析結果情報156として記憶部150に格納する。
The development
例えば、開発状況解析部165は、図9で例示するように、開発情報155に基づいて、各開発ツールの使用割合を算出する。また、開発状況解析部165は、算出した使用割合と、図6で例示した高スキル者や低スキル者の使用割合と、を比較する。開発状況解析部165は、上記比較の結果として、バグ埋め込みの可能性などを判定することができる。例えば、上記比較の結果、判定装置100を利用する利用者における各開発ツールの使用割合が高スキル者の使用割合に類似すると判定可能な場合、開発状況解析部165は、バグ埋め込みの可能性が低いと判定することができる。一方、上記比較の結果、判定装置100を利用する利用者における各開発ツールの使用割合が低スキル者の使用割合に類似すると判定可能な場合、開発状況解析部165は、バグ埋め込みの可能性が高いと判定することができる。なお、類似するか否かの判断は、例えば、算出した各開発ツールの使用割合と高スキル者などの使用割合との間の差が予め定められた閾値以内である場合に類似すると判断するなど、任意の手段を用いて行ってよい。また、開発状況解析部165は、比較情報157との類似度を算出することなどにより、バグ埋め込みの可能性を数値で判定してもよい。類似度の算出も任意の手段を用いて行ってよい。
For example, the development
また、開発状況解析部165は、上記比較の結果として予め定められた条件を超えて異なる開発ツールの使用割合などを特定することで、バグ埋め込みの可能性を特定してもよい。例えば、比較情報157が示す高スキル者における開発ツール「ソースコード」の使用割合が25%である一方で、利用者の開発ツール「ソースコード」の使用割合が60%と開発情報155に基づいて算出されたとする。この場合において、例えば、使用割合の差が2倍以内と予め条件が定められていたとすると、開発状況解析部165は、利用者の開発ツール「ソースコード」の使用割合が高スキル者の使用割合よりも過剰に高いとして、バグ埋め込みの可能性が高いと判定することができる。このように、開発状況解析部165は、予め定められた条件に基づいて、開発ツールの使用割合を比較することでバグ埋め込みの可能性を判定してもよい。
Furthermore, the development
なお、上述したように、比較情報157には、使用割合以外にも、所定時間内における各開発ツールの使用時間を示す情報や時系列に沿った開発ツールの使用状況を示す情報などが含まれうる。開発状況解析部165は、比較情報157に応じた算出処理などを行って、比較情報157と比較してよい。例えば、開発状況解析部165は、所定時間内における各開発ツールの使用時間を開発情報155に基づいて算出して比較情報157との比較を行ってもよいし、開発情報155が示す時系列の使用状況と比較情報157とをそのまま比較してもよい。例えば、開発情報155が示す時系列の使用状況と比較情報157との比較によりバグ埋め込みの可能性を判定すると、使用時間に所定閾値以上の差があるタイミングなど使用状況に大きな差ができるタイミングをバグ埋め込みの可能性が高いタイミングと判断することなどもできる。開発状況解析部165は、上記例示した複数の処理を組み合わせてもよい。
As described above, the
出力部166は、解析結果情報156などを出力する。出力部166は、例えば、バグ埋め込みの可能性を示す情報、バグ埋め込みの可能性に応じた数値、バグ埋め込みの可能性の高い時刻などのタイミングを示す情報などを出力する。出力部166は、バグ埋め込みの可能性などに応じた警告情報などを出力してもよい。例えば、出力部166は、解析結果情報156などを画面表示部130に表示したり、通信I/F部140を介して外部装置へと送信したりすることができる。
The
以上が、判定装置100の構成例である。続いて、図10から図12までを参照して、判定装置100の動作例について説明する。 The above is an example of the configuration of the determination device 100. Next, an example of the operation of the determination device 100 will be described with reference to FIGS. 10 to 12.
図10は、開発ツール情報152登録時における判定装置100の動作例を示すフローチャートである。図10を参照すると、開発ツール情報取得部161は、操作入力部110や撮像部120などに対する利用者の操作などに応じて、開発ツール名や開発ツール画像データなどを取得する(ステップS101)。例えば、開発ツール情報取得部161は、利用者などの指示に応じて開発ツール名や開発ツール画像データなどの取得を開始した後、撮像情報151が示す取得時間の間、開発ツール名や開発ツール画像データなどの取得を続けることができる。開発ツール情報取得部161は、まず操作入力部110を用いて開発ツール名の取得を行った後に、上記取得時間の間、利用者の指示などに応じて画面表示部130上の開発ツール部分を切り抜くことなどにより開発ツール画像データを取得してもよい。
FIG. 10 is a flowchart showing an example of the operation of the determination device 100 when the
開発ツール情報取得部161は、取得した開発ツール名と開発ツール画像データなどとを関連付けて、開発ツール情報152として記憶部150に格納する(ステップS102)。
The development tool
以上が、開発ツール情報152登録時における判定装置100の動作例である。続いて、図11を参照して、画像データ取得時における判定装置100の動作例について説明する。
The above is an example of the operation of the determination device 100 when the
図11を参照すると、取得部162は、撮像部120を用いて顔画像データを取得する(ステップS201)。例えば、取得部162は、撮像情報151が示す撮影間隔ごとに画像データを取得することができる。なお、プライバシーなどの観点から、取得部162は、最初に撮像情報151に含まれる開発者情報を用いて顔認証を行い、認証された場合に顔画像データの取得などを行うよう構成してもよい。
Referring to FIG. 11, the
画像データ分析部163は、画像データ情報153に含まれる顔画像データに対する分析を行う。例えば、画像データ分析部163は、顔画像データに基づいて、人物の目の領域を抽出する(ステップS202)。また、画像データ分析部163は、抽出した人物の目の領域のうち、目の中心部分を抽出することなどにより、目の中心に写っているものを抽出する(ステップS203)。
The image
使用ツール判定部164は、画像分析結果情報154に含まれる抽出画像データと、開発ツール情報152と、に基づいて、利用者が利用中の開発ツールを判定する(ステップS204)。例えば、使用ツール判定部164は、開発ツール情報152に含まれる開発ツール画像データ示す対象と同一または類似する対象が画像分析結果情報154に含まれる抽出画像データに写っているか否か確認することで、抽出画像データが示す対象に対応する開発ツールを判定する。また、使用ツール判定部164は、判定した結果を示す情報を開発情報155として記憶部150に格納する(ステップS 205)。
The used
以上が、画像データ取得時における判定装置100の動作例である。なお、ステップS202以降の処理は、必ずしもステップS201の処理の後に連続的に行われなくてもよい。 The above is an example of the operation of the determination device 100 when acquiring image data. Note that the processing from step S202 onwards does not necessarily have to be performed continuously after the processing at step S201.
続いて、図12を参照して、解析時における判定装置100の動作例について説明する。図12を参照すると、開発状況解析部165は、開発情報155が示す判定装置100を利用する利用者における開発ツールの使用状況と、比較情報とを比較する(ステップS301)。開発状況解析部165は、ステップS301の処理の前に、開発情報155に基づいて各開発ツールの使用割合を算出するなど、比較情報157の種類などに応じた前処理を行ってもよい。また、開発状況解析部165は、比較の結果に基づいて、バグ埋め込みの可能性などを判定することができる。
Next, an example of the operation of the determination device 100 during analysis will be described with reference to FIG. 12. Referring to FIG. 12, the development
出力部166は、開発状況解析部165による判定の結果を出力する(ステップS302)。例えば、出力部166は、判定の結果を画面表示部130に表示したり、通信I/F部140を介して外部装置へと送信したりすることができる。
The
以上が、解析時の動作例である。 The above is an example of operation during analysis.
このように、判定装置100は、開発状況解析部165を有している。このような構成によると、開発状況解析部165は、判定装置100を利用する利用者における開発ツールの使用状況と、比較情報157とを比較することで、バグ埋め込み率を判断することができる。その結果、利用者や高スキル者などのふるまいに応じた各々の開発ツールの使用状況に応じた判定を行うことができるため、バグ埋め込み率を的確に判断することができる。
In this way, the determination device 100 includes the development
例えば、本実施形態で説明した判定装置100によると、上述したように、バグ埋め込みの可能性が高いタイミングなどを出力することもできる。その結果、バグ埋め込みをより容易に抑止することなどができる。また、判定装置100によると、レビューアなどがCDI(code inspection)を実施する際などにおいて、ソースコードのみでバグ探しをするのではなく、利用者がどのような資料を参照して、どのような振る舞いで該当行を実装したのかなどを用意に確認することができるようになる。 For example, according to the determination device 100 described in this embodiment, as described above, it is also possible to output the timing at which there is a high possibility of bug embedding. As a result, it is possible to more easily prevent bug embedding. Further, according to the determination device 100, when a reviewer or the like performs CDI (code inspection), instead of looking for bugs only in the source code, the user can refer to what kind of materials and how You can easily check whether the corresponding line has been implemented with appropriate behavior.
また、判定装置100は、画像データ分析部163と使用ツール判定部164とを有している。このような構成によると、使用ツール判定部164は、画像データ分析部163が抽出した抽出画像データに基づいて、利用者が利用中の開発ツールを判定することができる。
Further, the determination device 100 includes an image
なお、開発状況解析部165は、開発ツールの使用状況と比較情報157の比較結果に「集中度」や「休憩時間」などの所定のパラメータを加えてバグ埋め込みの可能性を判定してもよい。例えば、開発状況解析部165は、「集中度」が低いほどバグ埋め込みの可能性が高いと判断しやすくなるように、使用状況と比較情報157の間の類似度や差などの条件を「集中度」のパラメータに応じて変更してもよい。開発状況解析部165は、「休憩時間」が短いほどバグ埋め込みの可能性が高いと判断しやすくなるように、同様の変更を行ってもよい。開発状況解析部165は、顔の表情から「感情」を読み取り、「感情」のパラメータを加えてバグ埋め込みの可能性を判定してもよい。開発状況解析部165は、ソースコード実装中における別作業の割り込みなどをパラメータとして加えてもよい。例えば、使用ツール判定部164は、抽出画像データから開発ツールを特定できない場合などに別作業の割り込みが生じたと判断してもよい。
Note that the development
[第2の実施形態]
次に、本開示の第2の実施形態について、図13、図14を参照して説明する。図13は、判定装置200のハードウェア構成例を示す図である。図14は、判定装置200の構成例を示すブロック図である。
[Second embodiment]
Next, a second embodiment of the present disclosure will be described with reference to FIGS. 13 and 14. FIG. 13 is a diagram showing an example of the hardware configuration of the
本開示の第2の実施形態においては、ソースコードの実装時などにおいて、開発ツールの使用状況に応じてバグ埋め込みの可能性を判定する情報処理装置である判定装置200の構成例について説明する。図13は、判定装置200のハードウェア構成例を示している。図13を参照すると、判定装置200は、一例として、以下のようなハードウェア構成を有している。
・CPU(Central Processing Unit)201(演算装置)
・ROM(Read Only Memory)202(記憶装置)
・RAM(Random Access Memory)203(記憶装置)
・RAM203にロードされるプログラム群204
・プログラム群204を格納する記憶装置205
・情報処理装置外部の記録媒体210の読み書きを行うドライブ装置206
・情報処理装置外部の通信ネットワーク211と接続する通信インタフェース207
・データの入出力を行う入出力インタフェース208
・各構成要素を接続するバス209
In the second embodiment of the present disclosure, a configuration example of a
・CPU (Central Processing Unit) 201 (arithmetic unit)
・ROM (Read Only Memory) 202 (storage device)
・RAM (Random Access Memory) 203 (storage device)
・
-
- A
- A
・I/
・Bus 209 connecting each component
また、判定装置200は、プログラム群204をCPU201が取得して当該CPU201が実行することで、図14に示す取得部221、判定部222としての機能を実現することができる。なお、プログラム群204は、例えば、予め記憶装置205やROM202に格納されており、必要に応じてCPU201がRAM203などにロードして実行する。また、プログラム群204は、通信ネットワーク211を介してCPU201に供給されてもよいし、予め記録媒体210に格納されており、ドライブ装置206が該プログラムを読み出してCPU201に供給してもよい。
In addition, the
なお、図13は、判定装置200のハードウェア構成例を示している。判定装置200のハードウェア構成は上述した場合に限定されない。例えば、判定装置200は、ドライブ装置206を有さないなど、上述した構成の一部から構成されてもよい。
Note that FIG. 13 shows an example of the hardware configuration of the
取得部221は、ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得する。
The
判定部222は、取得部221が取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する。
The
このように、判定装置200は、取得部221と判定部222とを有している。このような構成によると、判定部222は、取得部221が取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定することができる。その結果、使用状況に応じた判定を行うことができるため、バグ埋め込み率を的確に判断することができる。
In this way, the
なお、上述した判定装置200は、当該判定装置200などの情報処理装置に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、判定装置200などの情報処理装置に、ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する、処理を実現するためのプログラムである。
Note that the
また、上述した判定装置200などの情報処理装置により実行される判定方法は、判定装置200などの情報処理装置が、ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する、という方法である。
Further, the determination method executed by the information processing device such as the
上述した構成を有する、プログラム、又は、プログラムを記録したコンピュータが読み取り可能な記録媒体、又は、補助方法、の発明であっても、上述した判定装置200と同様の作用・効果を奏するために、上述した本開示の目的を達成することができる。
Even with the invention of a program, a computer-readable recording medium on which the program is recorded, or an auxiliary method having the above-described configuration, in order to achieve the same operation and effect as the
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における判定装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
<Additional notes>
Part or all of the above embodiments may also be described as in the following additional notes. Hereinafter, the outline of the determination device and the like in the present invention will be explained. However, the present invention is not limited to the following configuration.
(付記1)
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得する取得部と、
前記取得部が取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する判定部と、
を有する
判定装置。
(付記2)
付記1に記載の判定装置であって、
前記判定部は、前記取得部が取得した使用状況を示す情報と、予め記憶する他人の使用状況を示す情報と、を比較することで、バグ埋め込みの可能性を判定する
判定装置。
(付記3)
付記1または付記2に記載の判定装置であって、
前記判定部は、前記取得部が取得した使用状況を示す情報と、予め記憶する他人の使用状況を示す情報と、が類似するか否か判定することで、バグ埋め込みの可能性を判定する
判定装置。
(付記4)
付記1から付記3までのうちのいずれか1項に記載の判定装置であって、
前記判定部は、時系列に沿った使用状況を示す情報を比較することで、バグ埋め込みの可能性を判定する
判定装置。
(付記5)
付記1から付記4までのうちのいずれか1項に記載の判定装置であって、
前記判定部は、前記取得部が取得した使用状況を示す情報に対して、予め記憶する他人の使用状況を示す情報に応じた前処理を行って、バグ埋め込みの可能性を判定する
判定装置。
(付記6)
付記1から付記5までのうちのいずれか1項に記載の判定装置であって、
前記判定部は、前記取得部が取得した使用状況を示す情報に基づいて算出した開発ツールの使用割合に基づいて、バグ埋め込みの可能性を判定する
判定装置。
(付記7)
付記1から付記6までのうちのいずれか1項に記載の判定装置であって、
前記取得部は、判定装置を利用する利用者の顔画像データに基づいて、開発ツールの使用状況を示す情報を取得する
判定装置。
(付記8)
付記7に記載の判定装置であって、
前記取得部は、前記顔画像データから目の領域を抽出した結果に基づいて、開発ツールの使用状況を示す情報を取得する
判定装置。
(付記9)
情報処理装置が、
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、
取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する
判定方法。
(付記10)
情報処理装置に、
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、
取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する
処理を実現するためのプログラム。
(Additional note 1)
an acquisition unit that acquires information indicating the usage status of development tools, which are tools used when implementing source code;
a determination unit that determines the possibility of bug embedding based on the information indicating the usage status acquired by the acquisition unit;
A determination device having:
(Additional note 2)
The determination device according to Supplementary Note 1,
The determination unit determines the possibility of bug embedding by comparing the information indicating the usage status acquired by the acquisition unit and the information indicating the usage status of another person stored in advance.
(Additional note 3)
The determination device according to supplementary note 1 or supplementary note 2,
The determining unit determines the possibility of bug embedding by determining whether the information indicating the usage status acquired by the acquiring unit is similar to the information indicating the usage status of another person stored in advance. Device.
(Additional note 4)
The determination device according to any one of Supplementary Notes 1 to 3,
The determination unit determines the possibility of bug embedding by comparing information indicating usage status in chronological order.
(Appendix 5)
The determination device according to any one of Supplementary Notes 1 to 4,
The determination unit determines the possibility of bug embedding by performing preprocessing on the information indicating the usage status acquired by the acquisition unit according to information indicating the usage status of another person stored in advance.
(Appendix 6)
The determination device according to any one of Supplementary Notes 1 to 5,
The determination unit determines the possibility of bug embedding based on the usage rate of the development tool calculated based on the information indicating the usage status acquired by the acquisition unit.
(Appendix 7)
The determination device according to any one of Supplementary Notes 1 to 6,
The acquisition unit acquires information indicating usage status of the development tool based on facial image data of a user using the determination device.
(Appendix 8)
The determination device according to appendix 7,
The determination device is configured such that the acquisition unit acquires information indicating a usage status of a development tool based on a result of extracting an eye region from the face image data.
(Appendix 9)
The information processing device
Obtain information indicating the usage status of development tools, which are tools used when implementing source code,
A determination method that determines the possibility of embedding a bug based on the information that indicates the usage status obtained.
(Appendix 10)
In the information processing device,
Obtain information indicating the usage status of development tools, which are tools used when implementing source code,
A program that implements processing that determines the possibility of bug embedding based on information indicating the usage status obtained.
以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments described above, the present invention is not limited to the embodiments described above. The configuration and details of the present invention can be modified in various ways within the scope of the present invention by those skilled in the art.
100 判定装置
110 操作入力部
120 撮像部
130 画面表示部
140 通信I/F部
150 記憶部
151 撮像情報
152 開発ツール情報
153 画像データ情報
154 画像分析結果情報
155 開発情報
156 解析結果情報
157 比較情報
158 プログラム
160 演算処理部
161 開発ツール情報取得部
162 取得部
163 画像データ分析部
164 使用ツール判定部
165 開発状況解析部
166 出力部
200 判定装置
201 CPU
202 ROM
203 RAM
204 プログラム群
205 記憶装置
206 ドライブ装置
207 通信インタフェース
208 入出力インタフェース
209 バス
210 記録媒体
211 通信ネットワーク
221 取得部
222 判定部
100
202 ROM
203 RAM
204
Claims (10)
前記取得部が取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する判定部と、
を有する
判定装置。 an acquisition unit that acquires information indicating the usage status of development tools, which are tools used when implementing source code;
a determination unit that determines the possibility of bug embedding based on the information indicating the usage status acquired by the acquisition unit;
A determination device having:
前記判定部は、前記取得部が取得した使用状況を示す情報と、予め記憶する他人の使用状況を示す情報と、を比較することで、バグ埋め込みの可能性を判定する
判定装置。 The determination device according to claim 1,
The determination unit determines the possibility of bug embedding by comparing the information indicating the usage status acquired by the acquisition unit and the information indicating the usage status of another person stored in advance.
前記判定部は、前記取得部が取得した使用状況を示す情報と、予め記憶する他人の使用状況を示す情報と、が類似するか否か判定することで、バグ埋め込みの可能性を判定する
判定装置。 The determination device according to claim 1 or 2,
The determining unit determines the possibility of bug embedding by determining whether the information indicating the usage status acquired by the acquiring unit is similar to the information indicating the usage status of another person stored in advance. Device.
前記判定部は、時系列に沿った使用状況を示す情報を比較することで、バグ埋め込みの可能性を判定する
判定装置。 The determination device according to any one of claims 1 to 3,
The determination unit determines the possibility of bug embedding by comparing information indicating usage status in chronological order.
前記判定部は、前記取得部が取得した使用状況を示す情報に対して、予め記憶する他人の使用状況を示す情報に応じた前処理を行って、バグ埋め込みの可能性を判定する
判定装置。 The determination device according to any one of claims 1 to 4,
The determination unit determines the possibility of bug embedding by performing preprocessing on the information indicating the usage status acquired by the acquisition unit according to information indicating the usage status of another person stored in advance.
前記判定部は、前記取得部が取得した使用状況を示す情報に基づいて算出した開発ツールの使用割合に基づいて、バグ埋め込みの可能性を判定する
判定装置。 The determination device according to any one of claims 1 to 5,
The determination unit determines the possibility of bug embedding based on the usage rate of the development tool calculated based on the information indicating the usage status acquired by the acquisition unit.
前記取得部は、判定装置を利用する利用者の顔画像データに基づいて、開発ツールの使用状況を示す情報を取得する
判定装置。 The determination device according to any one of claims 1 to 6,
The acquisition unit acquires information indicating usage status of the development tool based on facial image data of a user using the determination device.
前記取得部は、前記顔画像データから目の領域を抽出した結果に基づいて、開発ツールの使用状況を示す情報を取得する
判定装置。 The determination device according to claim 7,
The determination device is configured such that the acquisition unit acquires information indicating a usage status of a development tool based on a result of extracting an eye region from the face image data.
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、
取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する
判定方法。 The information processing device
Obtain information indicating the usage status of development tools, which are tools used when implementing source code,
A determination method that determines the possibility of embedding a bug based on the information that indicates the usage status obtained.
ソースコードを実装する際に使用するツールである開発ツールの使用状況を示す情報を取得し、
取得した使用状況を示す情報に基づいて、バグ埋め込みの可能性を判定する
処理を実現するためのプログラム。
In the information processing device,
Obtain information indicating the usage status of development tools, which are tools used when implementing source code,
A program that implements a process that determines the possibility of bug embedding based on information indicating the usage status obtained.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022045961A JP2023140095A (en) | 2022-03-22 | 2022-03-22 | Determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022045961A JP2023140095A (en) | 2022-03-22 | 2022-03-22 | Determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023140095A true JP2023140095A (en) | 2023-10-04 |
Family
ID=88204749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022045961A Pending JP2023140095A (en) | 2022-03-22 | 2022-03-22 | Determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023140095A (en) |
-
2022
- 2022-03-22 JP JP2022045961A patent/JP2023140095A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9703681B2 (en) | Performance optimization tip presentation during debugging | |
US9563422B2 (en) | Evaluating accessibility compliance of a user interface design | |
Alberdi et al. | Using smart offices to predict occupational stress | |
US9454454B2 (en) | Memory leak analysis by usage trends correlation | |
WO2021109928A1 (en) | Creation method, usage method and apparatus for machine learning scheme template | |
CN108491729B (en) | Method and device for dynamically protecting user privacy in android system | |
US8458663B2 (en) | Static code analysis | |
WO2013165646A2 (en) | User input processing with eye tracking | |
US20190227700A1 (en) | Guided remediation of accessibility and usability problems in user interfaces | |
US10459835B1 (en) | System and method for controlling quality of performance of digital applications | |
KR101312446B1 (en) | Analysis apparatus and method for usability of mobile application using user bebavior log | |
US8977061B2 (en) | Merging face clusters | |
CN114036501A (en) | APP detection method, system, device, equipment and storage medium | |
JP2011145996A (en) | Reviewer evaluation apparatus, reviewer evaluation method and program | |
JP2023140095A (en) | Determination device | |
CN106547339B (en) | Control method and device of computer equipment | |
Jaimes et al. | Increasing trust in personal informatics tools | |
CN115244515A (en) | Method for detecting abnormal operation of system | |
WO2021095153A1 (en) | Driver anomaly response system, driver anomaly response method, and program | |
JP2020086559A (en) | Sentiment analysis system | |
JP2024054744A (en) | Workload judgment device and annotation support device | |
CN115859252B (en) | Authentication information processing method, device, electronic equipment and storage medium | |
CN112236786A (en) | Future prediction simulation device, method, and computer program | |
US11789581B2 (en) | Input display system, auxiliary information display method and program | |
JP2011154443A (en) | Information processing system and program |