JP2024518336A - Protein-protein interaction detection - Google Patents
Protein-protein interaction detection Download PDFInfo
- Publication number
- JP2024518336A JP2024518336A JP2023566455A JP2023566455A JP2024518336A JP 2024518336 A JP2024518336 A JP 2024518336A JP 2023566455 A JP2023566455 A JP 2023566455A JP 2023566455 A JP2023566455 A JP 2023566455A JP 2024518336 A JP2024518336 A JP 2024518336A
- Authority
- JP
- Japan
- Prior art keywords
- protein
- docking
- complex
- composite image
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000002005 protein protein interaction detection Methods 0.000 title 1
- 239000002131 composite material Substances 0.000 claims abstract description 103
- 238000003032 molecular docking Methods 0.000 claims abstract description 79
- 102000004169 proteins and genes Human genes 0.000 claims abstract description 73
- 108090000623 proteins and genes Proteins 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims description 90
- 230000000873 masking effect Effects 0.000 claims description 15
- 230000003993 interaction Effects 0.000 claims description 9
- 238000001493 electron microscopy Methods 0.000 claims description 5
- 235000018102 proteins Nutrition 0.000 description 54
- 230000015654 memory Effects 0.000 description 41
- 230000008569 process Effects 0.000 description 39
- 238000004891 communication Methods 0.000 description 19
- 238000003860 storage Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 13
- 210000004027 cell Anatomy 0.000 description 11
- 239000000427 antigen Substances 0.000 description 9
- 230000004850 protein–protein interaction Effects 0.000 description 9
- 102000036639 antigens Human genes 0.000 description 7
- 108091007433 antigens Proteins 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 239000002245 particle Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 102000007474 Multiprotein Complexes Human genes 0.000 description 3
- 108010085220 Multiprotein Complexes Proteins 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229920002521 macromolecule Polymers 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 235000004252 protein component Nutrition 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 102000019260 B-Cell Antigen Receptors Human genes 0.000 description 1
- 108010012919 B-Cell Antigen Receptors Proteins 0.000 description 1
- OTMSDBZUPAUEDD-UHFFFAOYSA-N Ethane Chemical compound CC OTMSDBZUPAUEDD-UHFFFAOYSA-N 0.000 description 1
- 102000008394 Immunoglobulin Fragments Human genes 0.000 description 1
- 108010021625 Immunoglobulin Fragments Proteins 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009509 drug development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 230000002209 hydrophobic effect Effects 0.000 description 1
- 230000028993 immune response Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 244000052769 pathogen Species 0.000 description 1
- 230000001717 pathogenic effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000010403 protein-protein docking Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B15/00—ICT specially adapted for analysing two-dimensional or three-dimensional molecular structures, e.g. structural or functional relations or structure alignment
- G16B15/30—Drug targeting using structural data; Docking or binding prediction
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pharmacology & Pharmacy (AREA)
- Crystallography & Structural Chemistry (AREA)
- Medicinal Chemistry (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biotechnology (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
第1のタンパク質および第2のタンパク質を含むタンパク質-タンパク質複合体のサンプルの複数の複合体画像を含む合成画像がアクセスされる。合成画像はマスキングされ、マスキング部分および非マスキング部分が生成される。第1のタンパク質の第1の3次元(3d)形状および第2のタンパク質の第2の3d形状がアクセスされる。各々が候補ポーズペアを定義する複数のドッキングモデルがアクセスされる。ドッキングモデルごとに、第1の3d形状、第2の3d形状および候補ポーズペアが適用され、ドッキングモデルについて、ポーズペアとドッキングモデルとの適合の良好度を記述する対応する適合スコアが生成される。適合スコアに基づいて、タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つが選択される。【選択図】図1A composite image is accessed, the composite image including a plurality of complex images of a sample of a protein-protein complex including a first protein and a second protein. The composite image is masked to generate a masked portion and an unmasked portion. A first three-dimensional (3d) shape of the first protein and a second 3d shape of the second protein are accessed. A plurality of docking models, each of which defines a candidate pose pair, are accessed. For each docking model, the first 3d shape, the second 3d shape and the candidate pose pair are applied, and a corresponding fit score is generated for the docking model that describes a goodness of fit between the pose pair and the docking model. Based on the fit score, one of the docking models is selected as a detected model for the protein-protein complex. [Selected Figure]
Description
本書は、センサデータを使用してタンパク質-タンパク質結合を特徴付ける技術を記載する。 This paper describes techniques for characterizing protein-protein binding using sensor data.
タンパク質-タンパク質相互作用(PPI)は、静電力、水素結合および疎水性効果を含む相互作用の結果として2つ以上のタンパク質分子間に確立された高い特異性の物理的接触である。多くは、特定の生体分子の状況において細胞または生体組織内に生じる鎖間の分子関係を有する物理的接触である。タンパク質はそれらの機能が調節される傾向にあるため、単独で作用することが稀である。細胞内の多くの分子プロセスは、PPIによって編成される多数のタンパク質成分から構築される分子機械によって行われる。 Protein-protein interactions (PPIs) are highly specific physical contacts established between two or more protein molecules as a result of interactions involving electrostatic forces, hydrogen bonds and hydrophobic effects. Many are physical contacts with chain-to-chain molecular relationships that occur within cells or living tissues in specific biomolecular contexts. Proteins rarely act alone, as their functions tend to be regulated. Many molecular processes within cells are carried out by molecular machines built from numerous protein components orchestrated by PPIs.
免疫学において、抗原(Ag)は、抗原-特異抗体またはB細胞抗原受容体によって制限することができる病原体の外側に存在することができるような分子または分子構造である。身体内の抗原の存在は、通常、免疫反応をトリガする。 In immunology, an antigen (Ag) is a molecule or molecular structure that can be present on the outside of a pathogen that can be restricted by an antigen-specific antibody or a B cell antigen receptor. The presence of an antigen in the body usually triggers an immune response.
タンパク質-タンパク質相互作用を特徴付ける技術が本書に説明される。例えば、臨床的または生物学的使用(例えば、薬剤開発)のために分子を開発するとき、抗体が抗原とどのように相互作用するかの理解にこの技術を提供することができる。タンパク質複合体のcryo-EMイメージングを行うことができ、イメージングからのデータをコンピュータシステムを使用して処理し、相対ロケーション、配向および2つのタンパク質の結合を記述するドッキングモデルを選択することができる。 Techniques for characterizing protein-protein interactions are described herein. For example, the techniques can be useful in understanding how an antibody interacts with an antigen when developing molecules for clinical or biological use (e.g., drug development). Cryo-EM imaging of protein complexes can be performed and data from the imaging can be processed using computer systems to select docking models that describe the relative location, orientation, and binding of the two proteins.
1つまたはそれ以上のコンピュータのシステムは、動作時にシステムにアクションを行わせるシステムにインストールされたソフトウェア、ファームウェア、ハードウェアまたはそれらの組合せを有することにより特定の動作またはアクションを行うように構成することができる。1つまたはそれ以上のコンピュータプログラムは、データ処理装置によって実行されると、装置にアクションを実行させる命令を含むことにより特定の動作またはアクションを実行するように構成することができる。1つの一般的な態様は、タンパク質-タンパク質複合体相互作用を検知するための方法を含み:この方法は、第1のタンパク質および第2のタンパク質を含むタンパク質-タンパク質複合体のサンプルの複数の複合体画像を含む合成画像にアクセスすることを含むことができる。方法は、第1のタンパク質の第1の3次元(3d)形状および第2のタンパク質の第2の3d形状にアクセスすることも含む。方法は、各々が候補ポーズペアを定義する複数のドッキングモデルにアクセスすることも含む。方法は、ドッキングモデルごとに、第1の3d形状、第2の3d形状および候補ポーズペアを適用して、ドッキングモデルについて、ポーズペアとドッキングモデルとの適合の良好度を記述する対応する適合スコアを生成することも含む。方法は、適合スコアに基づいて、タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つを選択することも含む。この態様の他の実施形態は、対応するコンピュータシステム、装置、および、各々が方法のアクションを実行するように構成された1つまたはそれ以上のコンピュータストレージデバイス上に記録されたコンピュータプログラムを含む。 One or more computer systems can be configured to perform a particular operation or action by having software, firmware, hardware, or a combination thereof installed on the system that, when operated, causes the system to perform the action. One or more computer programs can be configured to perform a particular operation or action by including instructions that, when executed by a data processing device, cause the device to perform the action. One general aspect includes a method for detecting protein-protein complex interactions: the method can include accessing a composite image including a plurality of complex images of a sample of a protein-protein complex including a first protein and a second protein. The method also includes accessing a first three-dimensional (3d) shape of the first protein and a second 3d shape of the second protein. The method also includes accessing a plurality of docking models, each of which defines a candidate pose pair. The method also includes applying, for each docking model, the first 3d shape, the second 3d shape, and the candidate pose pair to generate, for the docking model, a corresponding fit score that describes a goodness of fit between the pose pair and the docking model. The method also includes selecting one of the docking models as a detected model for the protein-protein complex based on the fit score. Other embodiments of this aspect include corresponding computer systems, apparatus, and computer programs recorded on one or more computer storage devices, each configured to perform the actions of the method.
実施態様は、以下の構成のうちの1つまたはそれ以上を含むことができる。方法は、複数の複合体画像を生成することを含むことができる。合成画像を生成することは、複合体画像からタンパク質-タンパク質-複合体のサブ画像を抽出することと;サブ画像を配向および分類することとを含むことができる。複合体画像は、低温電子顕微鏡法(cryo-EM)画像である。各複合体画像は、各々がアドレスを有し、タンパク質-タンパク質複合体のサンプルの対応部分を表す色値を保持する、複数のピクセルを含むことができる。合成画像は、各々がアドレスを有し、複数の複合体画像の各々において同じアドレスを有するピクセルの色値の集合体である色値を保持する、複数のピクセルを含むことができる。合成画像のマスキングは特定のユーザ入力なしで実行される。合成画像のマスキングは、非マスキング部分を指定する第1のユーザ入力を受けることを含むことができる。非マスキング部分を指定する第1のユーザ入力を受けることは:第1のユーザ入力によって指定されたロケーションを接続することによってバウンディングボックスを生成することと;バウンディングボックス内の合成画像の部分を非マスキング部分として記録することと、を含むことができる。第1の3d形状は第1のタンパク質としてインデックス付けされ、第2の3d形状は第2のタンパク質としてインデックス付けされる。第1の3d形状は第1のタンパク質の第1の同族体としてインデックス付けされる。第2の3d形状は第2のタンパク質の第2の同族体としてインデックス付けされる。候補ポーズペアは、候補ロケーション、候補配向および候補ドッキングエリアを含む。適合スコアは、2D空間上にドッキングモデルを投影することによって生成される、合成画像と画像との間の相互相関スコアである。適合スコアに基づいて、タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つを選択することは:ドッキングモデルのサブセットを:i)上位n個の適合スコアを有するドッキングモデルを選択することと;ii)閾値mを超える適合スコアを有する全てのドッキングモデルを選択することと、からなるグループのうちの1つによって、それらの対応する適合スコアに基づいて識別することを含むことができる。タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つを選択することは、ドッキングモデルのサブセットのうちの1つを検知されたモデルとして選択する第2のユーザ入力を受けることを含むことができる。記載される技術の実施態様は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含むことができる。 The embodiment may include one or more of the following configurations. The method may include generating a plurality of complex images. Generating the composite image may include extracting a sub-image of the protein-protein-complex from the complex image; and orienting and classifying the sub-image. The complex image is a cryo-electron microscopy (cryo-EM) image. Each complex image may include a plurality of pixels, each having an address and holding a color value that represents a corresponding portion of the sample of the protein-protein complex. The composite image may include a plurality of pixels, each having an address and holding a color value that is a collection of color values of pixels having the same address in each of the plurality of complex images. Masking of the composite image is performed without specific user input. Masking of the composite image may include receiving a first user input that specifies a non-masking portion. Receiving a first user input that specifies a non-masking portion may include: generating a bounding box by connecting locations specified by the first user input; and recording a portion of the composite image within the bounding box as a non-masking portion. The first 3d shape is indexed as a first protein and the second 3d shape is indexed as a second protein. The first 3d shape is indexed as a first homolog of the first protein. The second 3d shape is indexed as a second homolog of the second protein. The candidate pose pair includes a candidate location, a candidate orientation, and a candidate docking area. The fitness score is a cross-correlation score between the composite image and the image generated by projecting the docking model onto the 2D space. Selecting one of the docking models as a detected model for the protein-protein complex based on the fitness score can include: identifying a subset of the docking models based on their corresponding fitness scores by one of the group consisting of: i) selecting docking models with top n fitness scores; and ii) selecting all docking models with fitness scores above a threshold m. Selecting one of the docking models as a detected model for the protein-protein complex can include receiving a second user input selecting one of the subset of docking models as the detected model. Implementations of the described techniques can include hardware, methods or processes, or computer software on a computer-accessible medium.
実施態様は、以下の利点のうちの任意のもの、または全てを含むか、またはいずれも含まないことが可能である。この技術は、有利には、取得がより容易なcryo-EMイメージング結果を使用することができる。例えば、他の技法は、様々な角度からのタンパク質複合体粒子のcryo-EM画像を要する場合がある。これらの技法と異なり、本書は、より少数の角度からの粒子画像で機能することができる技法を記載する。これは、いくつかのタンパク質複合体の性質に起因して、cryo-EMのためのサンプル準備中に特定の空間配向を取得するために特に有利である。これは、場合によっては、優先配向の課題と呼ばれる。他の技法は、特定のタンパク質複合体についてこの課題を克服する方式を発見するために大規模な実験を必要とする場合があり、依然として失敗する場合がある。一方でこの技術は、課題をまとめて回避することができる。これにより、数時間または数日程度で完了することができるプロセスを導くことができ、ここで、いくつかの他のプロセスは、完了するのに数週間または数か月程度かかる。極端な場合、この技術は、他の技法と異なり、タンパク質粒子画像がcryo-EMイメージング中に得られる場合に毎回機能するため、唯一の頼みの綱である可能性がある。さらに、この技法は、非常に迅速で僅かな時間しか要しないプロセスにおいて、人間ユーザの分野の専門家を取り入れるように有利に構成することができる。しかしながら、この技術は、様々な段階における任意の特定の人間の入力を必要とせずに進行するように有利に構成することもでき、プロセスを完了させるために少ない人的時間および注意を可能にする。 Implementations can include any, all, or none of the following advantages. This technique can advantageously use cryo-EM imaging results that are easier to obtain. For example, other techniques may require cryo-EM images of protein complex particles from a variety of angles. Unlike these techniques, this document describes a technique that can work with particle images from fewer angles. This is particularly advantageous for obtaining specific spatial orientations during sample preparation for cryo-EM due to the nature of some protein complexes. This is sometimes referred to as the challenge of preferred orientation. Other techniques may require extensive experimentation to discover how to overcome this challenge for a particular protein complex and may still fail. On the other hand, this technique can avoid the challenge all together. This can lead to a process that can be completed in a matter of hours or days, where some other processes take a matter of weeks or months to complete. In extreme cases, this technique may be the only recourse because, unlike other techniques, it works every time a protein particle image is obtained during cryo-EM imaging. Additionally, the technique can be advantageously configured to incorporate human user domain expertise in a process that is very rapid and requires little time. However, the technique can also be advantageously configured to proceed without the need for any specific human input at various stages, allowing for less human time and attention to complete the process.
他の構成、態様および潜在的利点は、添付の説明および図面から明らかとなろう。 Other configurations, aspects and potential advantages will become apparent from the accompanying description and drawings.
様々な図面における類似の参照符号は類似の要素を示す。 Like reference numbers in the various drawings indicate like elements.
タンパク質-タンパク質相互作用は、例えば、cryo-EM画像から視覚化することができる。cryo-EM画像フラグメントのグループは、単一の合成画像に集約され、これは次にマスキングされ、2つのタンパク質が結合するエリアが分離される。次に、合成画像は、各々がモデルが合成画像に示されるドッキングをどの程度良好に記述しているかを識別するようにスコアリングされたドッキングモデルのグループに送られる。マスキング、ドッキングおよびスコアリングは、タンパク質複合体の異なる部分に、数回(少なくとも、PPIを形成するタンパク質の数に等しい回数)適用することができる。このスコアリングに基づいて、最良のモデルが結果として識別される。 Protein-protein interactions can be visualized, for example, from cryo-EM images. A group of cryo-EM image fragments are aggregated into a single composite image, which is then masked to isolate the areas where the two proteins bind. The composite image is then sent to a group of docking models, each of which is scored to identify how well the model describes the docking shown in the composite image. Masking, docking and scoring can be applied several times (at least as many times as the number of proteins forming the PPI) to different parts of the protein complex. Based on this scoring, the best model is eventually identified.
例えば、タンパク質-タンパク質相互作用は、単一粒子3次元再構成を使用する必要なく、cryo-EM画像または他のタイプの画像を使用してモデル化することができる。タンパク質複合体の粒子は、cryoEM画像のグループから抽出され、位置合わせ、分類および平均化が後続する。次に、タンパク質複合体の平均化画像がマスキングされ、個々のタンパク質またはタンパク質複合体の一部のエリアが分離される。次に、マスキング画像が送られ、抗原および抗体フラグメント抗原結合(Fab)のような個々のタンパク質成分の3-D構造またはモデルから連続して投影された一連2次元画像に対し検索される。マスキング画像(または非マスキング画像)と2D投影画像との間で相互相関が実行され、平均化された2D cryoEM画像において抗原および/またはFabの配向が識別された。結合部位の制約として相互相関が識別された界面を使用してタンパク質-タンパク質ドッキング(例において抗原-Fabドッキング)が行われる。Fab-抗原ドッキングの場合、我々は、CDRの多様なコンフォメーションを有するFabの数十個の類似のモデル(構造アンサンブル)を生成する。ドッキングの出力ポーズの各々を投影により一連の2D画像に変換した。次に、元の2DcryoEMにおいて、平均化された画像および/または複合体のエリアがマスクアウトされ、次に検索テンプレートとして使用され、ドッキング結果からの2D画像に対して相互相関が行われる。マスキングされた複合体に対し最も高い相互相関スコアを与えるドッキング結果が、タンパク質-タンパク質複合体の最良モデルとしてマーキングされる。Fab-抗原のような2つの成分を有する複合体の場合、これらのステップにより作業が完了する。識別される更なる成分が存在する場合、反復的なマスキングおよび相互相関が行われる。 For example, protein-protein interactions can be modeled using cryo-EM images or other types of images without the need to use single particle 3D reconstructions. Particles of protein complexes are extracted from a group of cryo-EM images, followed by alignment, classification and averaging. The averaged image of the protein complex is then masked to isolate individual proteins or some areas of the protein complex. The masked image is then searched against a series of 2D images projected consecutively from 3-D structures or models of individual protein components such as antigens and antibody fragment antigen binding (Fab). Cross-correlation is performed between the masked (or unmasked) image and the 2D projected images to identify the orientation of the antigen and/or Fab in the averaged 2D cryo-EM image. Protein-protein docking (antigen-Fab docking in the example) is performed using the cross-correlated identified interfaces as constraints for the binding site. In the case of Fab-antigen docking, we generate dozens of similar models (structural ensembles) of Fabs with diverse conformations of the CDRs. Each of the docking output poses was transformed into a series of 2D images by projection. Next, in the original 2D cryoEM, the averaged images and/or areas of the complex are masked out and then used as search templates to perform cross-correlation against the 2D images from the docking results. The docking result that gives the highest cross-correlation score for the masked complex is marked as the best model of the protein-protein complex. For complexes with two components, such as Fab-antigen, these steps complete the task. If there are further components to be identified, iterative masking and cross-correlation is performed.
図1は、タンパク質-タンパク質複合体相互作用を検知することができる例示のシステム100を示す。システム100において、イメージャ102は、タンパク質-タンパク質複合体104のサンプルをイメージングする。これにより、タンパク質-タンパク質複合体104の検知を可能にし、イメージャ102がタンパク質複合体104のドッキング特徴を検知するセンサとなることを可能にすることができる。
FIG. 1 shows an
イメージャ102は、複合体104の物理的現象を検知することが可能であり、これらの物理的現象を反映するデータ(例えば、デジタル情報)を生成するイメージャである。例えば、イメージャは、加速電子のビームを複合体104を通じてセンサまで通すことによって複合体104を測定することが可能な低温電子顕微鏡とすることができる。ビームにおける摂動を記録および測定して、形状、断面密度等に関する情報を捕捉する。この検知を支援するために、複合体104は、低温(例えば、極低温)で極薄氷層に保持することができる。理解されるように、複合体104は、追加のタンパク質および他の成分を含むことができる。
イメージャ102は、複合体画像106を生成することができる。例えば、イメージャ102は、複合体104ごとに複合体画像106の1つのセットを生成することができる。いくつかの場合、複合体画像106のうちのいくつかは、例えば、他の複合体104の角度と異なる角度で複合体104を捕捉するために除外することができる。理解されるように、いくつかのcryo-EMプロセスは、グリッドの検知の際に特定の配向にバイアスされる複合体を伴い、結果として、同じまたは類似の配向を有する、場合によっては全てではなく、多くの複合体104が生じる。加えて、複合体104のうちのいくつかは、対応する画像106において捕捉されない場合がある。例えば、イメージングプロセスは、複合体104全体を捕捉するのに失敗する場合がある(例えば、特定の配向への複合体バイアスであり、これにより様々な配向からの複合体の完全なイメージングが捕捉されない)。
The
複合体画像106を合成画像108に集約することができる。合成画像108は、各複合体画像、このため各検知された複合体104による影響を受ける単一のデータオブジェクトを可能にするフォーマットで複合体画像106の集合体を表すことができる。
The
複合体画像106を集約して合成画像にするプロセスは、複合体104の捕捉画像を組み合わせることができるように複合体画像106の要素を抽出、再配向および分類する動作を含むことができる。例えば、複合体画像106の各々を調査して、背景値示す部分(例えば、ピクセルの集合)および複合体104を示すおよび部分を識別することができる。複合体104を示す部分を抽出して新たなデータファイルにし、コンピュータビジョンにより分析して、値の一意のクラスタ、複合体104の最も長い軸等の特徴を識別することができる。次に、これらの抽出データを回転させて、特徴、このため抽出データ全体を位置合わせすることができる。例えば、データを、特徴のクラスタが、テンプレート画像に対する最小限の誤差または差異を有するようにするか、または最も長い軸が特定の角度(例えば、0または90度)に一致するような角度だけ回転させることができる。次に、複合体104ごとの抽出データを、これが作業ファイルにおいて全てが同じ配向およびロケーションにある複合体104の画像を組み合わせるという予測により組み合わせることができる。
The process of aggregating the
ドッキングモデル110のグループは、各々が、タンパク質-タンパク質の相互作用の1つの可能なモデルを記述することができる。複合体104のタンパク質-タンパク質相互作用を特徴付けるために、各ドッキングモデルに、i)合成画像108と、ii)結合部位を含むことが予期されない合成画像108のエリアをマスクアウトする画像マスク112と、iii)データにおいて、複合体104におけるタンパク質のうちの1つを記述する3D形状114と、iv)データにおいて、複合体104におけるタンパク質のうちの他のものを記述する3D形状116とを設けることができる。3つ以上のタンパク質がPPIに関与する場合、更なるマスクおよび3D形状を使用することができる。理解されるように、ゼロマスクが使用される事例が存在する場合があり、マスクのシーケンスを使用して動作を反復的に実行する場合がある事例が存在する場合がある。
The group of
ドッキングモデルごとに、ドックモデルとそこに提供されるデータとの間の適合の尺度を記述するスコア118が生成される。換言すれば、スコア118は、モデル110がデータ108、112~116とどの程度類似しているかまたは異なっているかを記録する。
For each docking model, a
最大スコア118を調査して、選択されたドッキングモデル120を識別することができる。例えば、2つの最高スコアを識別し、コンピュータ122のユーザインタフェースにレンダリングすることができる。次に、例えば、ユーザ入力および/またはコンピュータビジョンプロセスによって、これらのドッキングモデルのうちの1つを選択することができる。
The
この例において、2つのタンパク質の相互作用が記述される。しかしながら、3つ以上のタンパク質での相互作用が可能であることが理解される。例えば、ここに記載のプロセスは、タンパク質の対ごと、または互いに接触するタンパク質の対ごとに繰り返すことができる。これらの繰り返されるプロセスは、例えば連続してまたは並列に実行することができる。 In this example, the interaction of two proteins is described. However, it is understood that interactions with more than two proteins are possible. For example, the processes described herein can be repeated for each pair of proteins, or for each pair of proteins that contact each other. These repeated processes can be performed, for example, in series or in parallel.
図2は、タンパク質-タンパク質複合体を検知する際に使用することができる例示のデータ106~114を示す。例えば、データ106~114は、コンピュータメモリに記憶される、コンピューティングデバイス間でデータネットワークを介して送信される等のバイナリデジタル情報を含むことができる。データはバイナリフォーマットでディスク上に記憶することができ、バイナリデータによって定義された色および形状で表示スクリーン上にレンダリングすることができる。 FIG. 2 shows example data 106-114 that can be used in detecting protein-protein complexes. For example, the data 106-114 can include binary digital information stored in computer memory, transmitted over a data network between computing devices, etc. The data can be stored on disk in binary format and rendered on a display screen with colors and shapes defined by the binary data.
複合体画像106は、低温電子顕微鏡(cryo-EM)画像を含むことができる。各画像は、ピクセルのビットマップ、すなわち、各セルを一意に識別するために[x][y]によってアドレス指定された規則的2次元グリッドに配列されたセルを含むことができる。各セルは、例えば0~1の値を使用することができる強度フォーマット、赤緑青(RGB)フォーマット、6桁hexフォーマット等で値を表す1つまたはそれ以上の値を含むことができる。各ピクセルの値は、タンパク質-タンパク質複合体のサンプルの対応する部分を表す。例えば、画像102のセンサマップは、タンパク質-タンパク質複合体104の一部分を通過する電子を受け、検知を数値に変換し、その数値を、合成画像106において同様にアドレス指定されたピクセルに記憶することができる。理解されるように、複合体画像106は、複合体104に関する情報の記録に起因してそのように命名することができる。
The
合成画像106は、複合体画像106のグループの集合体(例えば、クラス平均)、例えば、イメージャ102によって検知されたのと同じタイプのタンパク質-タンパク質複合体104の異なる例の様々な異なる複合体画像106を含むことができる。各画像は、ピクセルのビットマップ、すなわち、各セルを一意に識別するために[x][y]によってアドレス指定された規則的2次元グリッドに配列されたセルを含むことができる。各セルは、例えば赤緑青(RGB)フォーマット、6桁hexフォーマット等で色を表す1つまたはそれ以上の値を含むことができる。各ピクセルの色値は、複数の合成画像の各々における同じアドレスを有するピクセルの色値の集合体である色値を表す。例えば、合成画像108のピクセル[133][217]について、複合体画像106の抽出されたサブ画像のグループにおける各ピクセル[133][217]の色値を集約することができる。この集約は単純な平均、合算、またはピクセル値および他の技術的係数のデータフォーマットに適した他の集約基準とすることができる。
The
画像マスク112は、合成画像108等の別の画像のマスキング部分および非マスキング部分を指定する情報を含むことができる。各画像は、ピクセルのビットマップ、すなわち、各セルを一意に識別するために[x][y]によってアドレス指定された規則的2次元グリッドに配列されたセルを含むことができる。各セルは、例えば赤緑青(RGB)フォーマット、6桁hexフォーマット等で色を表す1つまたはそれ以上の値を含むことができる。各ピクセルの色値は、マスキングステータス、非マスキングステータス等について予約された色値を表す。例えば、黒色および白色を使用することができる。画像112’は、合成画像108の上に重ね合わされた画像マスク112を示す。ここで、マスキングセクションは黒色でレンダリングされ、非マスキングセクションは、合成画像108の非マスキングピクセルのピクセル値を使用してレンダリングされている。いくつかの構成において、画像マスク112は、マスキングセクションまたは非マスキングセクションのエッジを記述するバウンディングボックスを含むかまたはこれを使用することができる。例えば、プロセス(例えば、ユーザ入力選択、自動スクリプト)は、頂点のグループを識別し、頂点間で、バウンディングボックスとして機能する多角形を作成するためのエッジを作成することができる。
The
3D形状114は、単一のタンパク質の形状または他の分子構造を指定するための情報を含むことができる。例えば、3D形状114は、HEADER、TITLEおよびAUTHORレコード;REMARKレコード;SEQRESレコード;ATOMレコード;ならびにHETATMレコードを記録するタンパク質データバンク(.pdb)ファイルを含むことができる。しかしながら、他のファイルタイプおよび他のデータモデルが使用される場合がある。例えば、3D形状114は、高分子構造データを表すためのタグ値フォーマットでデータを記録する高分子結晶情報ファイル(.mmCIF)ファイルを含むことができる
The
3D形状114および116は、タンパク質-タンパク質複合体104における2つのタンパク質のうちの一致するものに基づいて使用のために選択することができる。例えば、第1のタンパク質が既知であり、完全に記述された3D形状114を有し、第2のタンパク質も既知であり、完全に記述された3D形状116を有する場合、これらの3D形状114および116を、タンパク質の名称でインデックス付けし、これらのプロセスにおいて使用することができる。しかしながら、いくつかの場合、タンパク質の一方または双方の同族体の3D形状が使用される場合がある。そのような場合、構造的に類似したタンパク質を同族体として識別することができ、同族体の名称によってインデックス付けされた3D形状にアクセスすることができる。
The 3D shapes 114 and 116 can be selected for use based on matching of the two proteins in the protein-protein complex 104. For example, if a first protein is known and has a fully described
ドッキングモデル110は、タンパク質-タンパク質複合体において2つのタンパク質の可能なポーズペアを定義する構造化データを含む。例えば、ポーズペアは、相対的ロケーション、相対的配向およびドッキングエリアを含むことができる。データは、1つのタンパク質におけるポイントが3D空間におけるポイント[0][0][0]にあると仮定するように編成することができる。次に、ポーズは、第2のタンパク質を位置特定するのに必要な原点からの並進運動を定義する[x][y][z]の観点での並進運動(例えば移動)を指定することができる。ポーズは、第2のタンパク質の配向を位置特定するのに必要な第1のタンパク質の配向からの回転を定義する[x][y][z]の観点での回転(例えばスピン)を指定することもできる。ドッキングエリアは、モデルが2つのタンパク質がドッキングまたは接触するドッキング表面として指定するタンパク質の1つまたはそれ以上の表面を指定することができる。ドッキングモデル110は、物理的タンパク質接触エリアを表すと考えられる予期される規則に従って計算的に生成することができる。ドッキングモデル110は、実際のタンパク質-タンパク質複合体の実世界サンプルを測定する実験に従って実験的に生成することができる。
The
図3は、タンパク質-タンパク質複合体を検知するための例示のプロセス300を示す。例えば、プロセス300は、システム100の要素と共に実行することができ、明確にするために、ここでの例は、システム100の要素の観点で説明される。しかしながら、他のシステムを使用して、プロセス300および他の類似のプロセスを実行する場合がある。
FIG. 3 illustrates an
第1のタンパク質および第2のタンパク質を含むタンパク質-タンパク質複合体のサンプルの複数の複合体画像を含む合成画像がアクセスされる(302)。例えば、コンピュータ122は、内部メモリから、またはリモート(例えば、クラウドによりホスティングされた)メモリサービスから合成画像108にアクセスすることができる。これは例えば、イメージャ102によってイメージングされたタンパク質複合体104の分析を要求するユーザ入力を受ける結果として生じる場合がある。
A composite image is accessed (302), the composite image including multiple complex images of a sample of a protein-protein complex including a first protein and a second protein. For example, the computer 122 may access the
合成画像はマスキングされ(304)、マスキングされた部分および非マスキング部分が生成される。例えば、画像マスク112を合成画像に適用して、画像マスク112に記憶されたピクセル値に基づいて、マスキング部分および非マスキング部分を指定することができる。いくつかの構成において、画像マスク112は、自動化されたスクリプトによって、またはそうでない場合、特定のユーザ入力なしで生成される。いくつかの場合、コンピュータビジョン技法を適用して、合成画像108における特徴を識別することができ、自動化されたコンピュータビジョンプロセスによってマスクが生成される。いくつかの構成において、画像マスク112は、ユーザからの入力を使用して生成される。いくつかの場合、合成画像のマスキングは行われない。1つのそのようなプロセスの例が本書において後に説明される。
The composite image is masked (304) to generate masked and unmasked portions. For example, an
第1のタンパク質の第1の3次元(3D)形状および第2のタンパク質の第2の3D形状がアクセスされる(306)。例えば、コンピュータ122は、内部メモリから、またはリモート(例えば、クラウドによりホスティングされた)メモリサービスから3D形状114および116にアクセスすることができる。いくつかの場合、コンピュータ122は、タンパク質-タンパク質複合体104において特定のタンパク質を検索することによって、またはタンパク質の一方もしくは双方の1つもしくはそれ以上の同族体を検索することによって、またはそのような同族体の異なる部分を組み合わせて新たな同族体を作成することによって、3D形状のライブラリから3D形状114および116を探すことができる。 A first three-dimensional (3D) shape of the first protein and a second 3D shape of the second protein are accessed (306). For example, the computer 122 can access the 3D shapes 114 and 116 from an internal memory or from a remote (e.g., cloud-hosted) memory service. In some cases, the computer 122 can look for the 3D shapes 114 and 116 in a library of 3D shapes by searching for a particular protein in the protein-protein complex 104, or by searching for one or more homologs of one or both of the proteins, or by combining different portions of such homologs to create new homologs.
各々が候補ポーズペアを定義する複数のドッキングモデルがアクセスされる(308)。例えば、コンピュータ122は、内部メモリから、またはリモート(例えば、クラウドによりホスティングされた)メモリサービスからモデル110にアクセスすることができる。いくつかの場合、コンピュータ122は、利用可能な全ての可能なモデル110を探すことができる。いくつかの場合、コンピュータ112は、プロセス300の技術的要件に基づいて指定された特定のパラメータを有するモデルのみについてクエリを行うことによって、全ての可能なモデル110のサブセットを探すことができる。
A number of docking models are accessed (308), each of which defines a candidate pose pair. For example, the computer 122 may access the
ドッキングモデルごとに、第1の3D形状、第2の3D形状および候補ポーズペアが適用され(310)、ドッキングモデルについて、ポーズペアとドッキングモデルとの適合の良好度を記述する対応する適合スコアが生成される。例えば、コンピュータ122は、合成画像108、画像マスク112、3D形状114および116、ならびに単一のモデル110を適合関数に供給することによって単一のモデル110の適合スコアを計算することができ、適合関数は、この入力に対し計算を行い、モデルが他の入力データの特定の状態をどの程度良好に記述するかを示す数値を返す。コンピュータ122は、モデル110ごとにこれを繰り返すことができる。
For each docking model, the first 3D shape, the second 3D shape, and the candidate pose pair are applied (310), and a corresponding fit score is generated for the docking model that describes how well the pose pair fits the docking model. For example, computer 122 can calculate the fit score for the
適合スコアに基づいて、タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つが選択される(312)。例えば、コンピュータ122は、各モデル110の適合スコア、および以下に説明するように、場合により他のデータに基づいて最良のモデル110を選択することができる。
Based on the fit scores, one of the docking models is selected as the detected model for the protein-protein complex (312). For example, the computer 122 can select the
図4は、例えば合成画像にアクセスする(302)前に実行される前処理の一部として、合成画像を生成するための例示のプロセス400を示す。例えば、プロセス400は、システム100の要素と共に実行することができ、明確にするために、ここでの例は、システム100の要素の観点で説明される。しかしながら、他のシステムを使用して、プロセス400および他の類似のプロセスを実行する場合がある。
FIG. 4 illustrates an
タンパク質-タンパク質複合体サンプルは、低温電子顕微鏡に装填される(402)。例えば、人間のオペレータおよび/または自動化サービスマシン(例えば、材料取り扱いロボット)が、タンパク質-タンパク質複合体104を低温冷却し、これらをガラス状水(vitreous water)等の媒体に埋め込むことができる。溶液をグリッドメッシュに施し、液体エタン等の冷却媒体において凍結させることができる。次に、メッシュをイメージャ102内に装填することができる。
The protein-protein complex sample is loaded into a cryo-electron microscope (402). For example, a human operator and/or an automated service machine (e.g., a material handling robot) can cryo-cool the protein-protein complexes 104 and embed them in a medium such as vitreous water. The solution can be applied to a grid mesh and frozen in a cooling medium such as liquid ethane. The mesh can then be loaded into the
複数の複合体画像が生成される(404)。例えば、人間のオペレータ、自動サービスマシン、および/またはコンピュータ122は、複合体104に対し電子顕微鏡法を実行して複合体画像106を生成するようにイメージャ102に命令することができる。生成されると、複合体画像106は、コンピュータメモリに(例えば、コンピュータ122の内部、または外部ロケーションに)記憶することができる。
A number of composite images are generated (404). For example, a human operator, an automated service machine, and/or a computer 122 can instruct the
合成画像は、複数の複合画像から生成される(406)。例えば、ピクセルロケーションごとに、コンピュータ122は、平均を算出し、平均を画像106の複数のピクセルにわたる所与のピクセルロケーションに記憶することによってピクセル値を集約し、単一の集約ピクセル値を作成することができ、そのピクセル値を合成画像108に記憶することができる。いくつかの場合、この集合体は、加重平均とすることができ、外れ値を除外することができ、中央値またはモードを含むことができる等である。
A composite image may be generated (406) from the multiple composite images. For example, for each pixel location, computer 122 may aggregate the pixel values by calculating an average and storing the average at a given pixel location across multiple pixels of
いくつかの場合、合成画像を生成することは、複合体画像からタンパク質-タンパク質-複合体のサブ画像を抽出することと;サブ画像を分類および配向することとを含む。例えば、コンピュータ122は、画像106の各々を調査し、複合体を示すピクセルエリアを発見することができ、これらのピクセル値を別個のサブ画像ファイル内にコピーすることができる。別の例において、コンピュータ122は、別個のファイルを使用することなくこれを行うことができるが、明確にするために、別個のファイルが説明される。次に、別個のファイルごとに、コンピュータは、各サブ画像が同じ方向、スケール、強度等のタンパク質を示すようにサブ画像を変更することができる。理解されるように、これは1つまたはそれ以上の画像操作プロセスを含むことができる。
In some cases, generating a composite image involves extracting protein-protein-complex sub-images from the complex image; and sorting and orienting the sub-images. For example, computer 122 can examine each of
図5は、例えば合成画像のマスキング304の一部として、合成画像をマスキングするための例示のプロセス500を示す。例えば、プロセス500は、システム100の要素と共に実行することができ、明確にするために、ここでの例は、システム100の要素の観点で説明される。しかしながら、他のシステムを使用して、プロセス500および他の類似のプロセスを実行する場合がある。
FIG. 5 illustrates an example process 500 for masking a composite image, e.g., as part of masking
マスキンググラフィックユーザインタフェース(GUI)がユーザに提示される(502)。例えば、コンピュータ112は、アプリケーションインタフェースまたはスクリーン上のウェブページ等のGUIをロードすることができる。スクリーンは、合成画像108の画像を、ユーザ入力を受けるインタフェース要素(例えば、ボタン、スクロールバー)と共にレンダリングすることができる。ユーザ入力は、人間のオペレータが物理的ボタンを押下し、ポインティングデバイスを動かし、タッチスクリーンをタップすること等により提供することができる。
A masking graphic user interface (GUI) is presented to the user (502). For example, the
非マスキング部分を指定する第1のユーザ入力が受けられる(504)。例えば、ユーザはインタフェース要素を使用して、レンダリングされた合成画像108上の複数の(例えば、3、4、6または9個の)ポイントを指定することができる。例えば、ユーザは、分野の知識を使用して、抗原によって指定されたタンパク質-タンパク質複合体104のドッキングエリアを示す可能性が高い合成画像108のエリアを視覚的に識別することができる。次に、ユーザは、マウス等のポインティングデバイスを使用して、識別するエリアの周りに描かれるバウンティングボックスの4つの頂点を識別することができる。
A first user input is received (504) specifying the unmasked portion. For example, the user may use an interface element to specify multiple (e.g., 3, 4, 6, or 9) points on the rendered
バウンディングボックスは、第1のユーザ入力によって指定されたロケーションを接続することによって生成される(506)。例えば、コンピュータ122は、第1のロケーションおよび最後のロケーションにおいて終端する線分を含む、ユーザによって識別される連続ポイントにおいて終端する線分を計算的に生成することができる。これにより、完全に接続された多角形を生成することができる。 The bounding box is generated by connecting the locations specified by the first user input (506). For example, the computer 122 can computationally generate line segments terminating at successive points identified by the user, including line segments terminating at the first location and the last location. This can generate a fully connected polygon.
ボックスの外側部分は、マスキング部分として記録され(508)、ボックスの内側部分は非マスキング部分として記録される(510)。例えば、多角形の完全にまたは部分的に内側の各ピクセルには、画像マスク112において色値(例えば、黒、白)を与えることができ、多角形の完全にまたは部分的に外側の各ピクセルには、異なる色値(例えば、白、黒)を与えることができる。 The portion outside the box is marked as the masked portion (508) and the portion inside the box is marked as the unmasked portion (510). For example, each pixel that is fully or partially inside the polygon can be given a color value in the image mask 112 (e.g., black, white) and each pixel that is fully or partially outside the polygon can be given a different color value (e.g., white, black).
図6は、例えば、検知されたモデル312を選択する部分として、候補モデルのグループから検知されたモデルを選択するための例示のプロセス600を示す。例えば、プロセス600は、システム100の要素と共に実行することができ、明確にするために、ここでの例は、システム100の要素の観点で説明される。しかしながら、他のシステムを使用して、プロセス600および他の類似のプロセスを実行する場合がある。
FIG. 6 illustrates an
最良適合スコアを有する候補ドッキングモデルが選択される(602)。例えば、データがモデル310に適用されるとき、適合スコアがモデルごとに計算される。適合スコアは、モデル110が所与として画像マスク112ならびに3D形状114および116を与えられて、合成画像108における色の配置をどの程度良好に予測するかの尺度とみなすことができる。いくつかの場合、適合スコアは、ドッキングモデルの様々な配向を2D画像に投影し、投影画像を検知された複合体画像106と比較することによって生成される。検知された複合体に対し最も小さな差異を生じる投影は、最良の相互相関スコアでスコアリングされる。
The candidate docking model with the best fit score is selected (602). For example, when data is applied to the models 310, a fit score is calculated for each model. The fit score can be viewed as a measure of how well the
モデル110ごとの適合スコアを使用して、最良適合スコアを有するモデル110のサブセットが識別される。いくつかの場合、これらは上位スコアのモデル110である。これらは、コンピュータ122が、N個(例えば、5、10、20、100個)の最高適合スコアを有するドッキングモデル110を選択することによって発見することができる。いくつかの場合、これらは十分予測的な任意のモデルである。これらは、コンピュータ122が、閾値M(例えば、0~1のスケールで0.8、0.9、0.095、0.0999)を上回る適合スコアを有する全てのドッキングモデル110を選択することによって発見することができる。
The fit scores for each
ユーザインタフェースにおいて候補モデルが提示され(604)、ドッキングモデルのサブセットのうちの1つを検知されたモデルとして選択するユーザ選択入力が受けられる(606)。例えば、コンピュータ122は、各ドックモデルをレンダリングし、関連付けられたスコア118を、合成画像108のレンダリングと共に示すことによって、モデル110のサブセットを表示することができる。ユーザは入力デバイスを使用して1つを選択することができる。いくつかの場合、全ての候補ドッキングモデル110が同時に示され、ユーザが全てのオプションを同時にレビューすることを可能にし、より好便で正確な検討を可能にする。
The candidate models are presented in a user interface (604) and a user selection input is received (606) to select one of the subset of docking models as the detected model. For example, the computer 122 can display the subset of
図7は、コンピューティングデバイス700の例、およびここに記載の技法を実施するのに使用することができるモバイルコンピューティングデバイスの例を示す。コンピューティングデバイス700は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータ等のデジタルコンピュータの様々な形態を表すように意図される。モバイルコンピューティングデバイスは、携帯情報端末、携帯電話、スマートフォンおよび他の類似のコンピューティングデバイス等のモバイルデバイスの様々な形態を表すように意図される。ここに示す構成要素、それらの接続および関係、ならびにそれらの機能は、例示のみを意図し、本明細書に説明されおよび/または特許請求される発明の実施態様を限定するように意図されない。
7 illustrates an example of a
コンピューティングデバイス700は、プロセッサ702と、メモリ704と、記憶デバイス706と、メモリ704および複数の高速拡張ポート710に接続する高速インタフェース708と、低速拡張ポート714および記憶デバイス706に接続する低速インタフェース712とを備える。プロセッサ702、メモリ704、記憶デバイス706、高速インタフェース708、高速拡張ポート710および低速インタフェース712の各々は、様々なバスを使用して相互接続され、共通のマザーボード上に、または適宜他の方式で搭載することができる。プロセッサ702は、メモリ704また記憶デバイス706に記憶された命令を含む、コンピューティングデバイス700内での実行のための命令を処理して、GUIのためのグラフィカル情報を、高速インタフェース708に結合されたディスプレイ716等の外部入力/出力デバイスに表示することができる。他の実施態様において、複数のメモリおよびメモリタイプと共に、適宜複数のプロセッサおよび/または複数のバスを使用することができる。また、複数のコンピューティングデバイスを接続することができ、各デバイスは、(例えば、サーババンク、ブレードサーバグループ、またはマルチプロセッサシステムとして)必要な動作の部分を提供する。
The
メモリ704は、コンピューティングデバイス700内に情報を記憶する。いくつかの実施態様では、メモリ704は揮発性メモリユニットである。いくつかの実施態様では、メモリ704は不揮発性メモリユニットである。メモリ704は、磁気ディスクまたは光ディスク等のコンピュータ可読媒体の別の形態をとることもできる。
記憶デバイス706は、コンピューティングデバイス700のための大容量記憶を提供することが可能である。いくつかの実施態様において、記憶デバイス706は、フロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリまたは他の類似の固体メモリデバイス等のコンピュータ可読媒体、または記憶エリアネットワークもしくは他の構成におけるデバイスを含むデバイスのアレイであるか、またはこれらを含むことができる。コンピュータプログラム製品は情報担体内に有形的に具現化することができる。コンピュータプログラム製品は、実行されると上記の方法等の1つまたはそれ以上の方法を実行する命令も含むことができる。コンピュータプログラム製品は、メモリ704、記憶デバイス706またはプロセッサ702上のメモリ等のコンピュータまたは機械可読媒体上に有形に具現化することもできる。
The
高速インタフェース708は、コンピューティングデバイス700のための帯域幅消費型の動作を管理するのに対し、低速インタフェース712は、より少ない帯域幅消費型の動作を管理する。機能のそのような割り当ては例示にすぎない。いくつかの実施態様において、高速インタフェース708はメモリ704、(例えば、グラフィックプロセッサまたはアクセラレータを通じて)ディスプレイ716、および様々な拡張カード(図示せず)を受けることができる高速拡張ポート710とに結合される。実施態様において、低速インタフェース712は、記憶デバイス706および低速拡張ポート714に結合される。様々な通信ポート(例えば、USB、Bluetooth、イーサネット、無線イーサネット)を含むことができる低速拡張ポート714は、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータ等のネットワーキングデバイスなどの1つまたはそれ以上の入力/出力デバイスに、例えばネットワークアダプタを通じて結合することができる。
The high-
図に示すように、コンピューティングデバイス700は、複数の異なる形態で実施することができる。例えば、コンピューティングデバイス700は、標準的なサーバ720として、またはそのようなサーバのグループにおいて複数回実施することができる。加えて、コンピューティングデバイス700は、ラップトップコンピュータ722等のパーソナルコンピュータにおいて実施することができる。コンピューティングデバイス700は、ラックサーバシステム724の一部として実施することもできる。代替的に、コンピューティングデバイス700からの構成要素は、モバイルコンピューティングデバイス750等のモバイルデバイス(図示せず)における他の構成要素と組み合わせることができる。そのようなデバイスの各々は、コンピューティングデバイス700およびモバイルコンピューティングデバイス750のうちの1つまたはそれ以上を含むことができ、システム全体を、互いに通信する複数のコンピューティングデバイスを含むことができる。
As shown,
モバイルコンピューティングデバイス750は、他の構成要素の中でも、プロセッサ752、メモリ764、ディスプレイ754等の入力/出力デバイス、通信インタフェース766および送受信機768を含む。モバイルコンピューティングデバイス750には、更なる記憶を提供するために、マイクロドライブまたは他のデバイス等の記憶デバイスを提供することもできる。プロセッサ752、メモリ764、ディスプレイ754、通信インタフェース766および送受信機768の各々は、様々なバスを使用して相互接続され、構成要素のうちのいくつかは、共通のマザーボードに、または適宜他の方式で搭載することができる。
The
プロセッサ752は、メモリ764に記憶された命令を含む、モバイルコンピューティングデバイス750内の命令を実行することができる。プロセッサ752は、別個のおよび複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実施することができる。プロセッサ752は、例えば、ユーザインタフェースの制御等の、モバイルコンピューティングデバイス750の他の構成要素の協調のために、モバイルコンピューティングデバイス750によって実行されるアプリケーション、およびモバイルコンピューティングデバイス750による無線通信を提供することができる。
The
プロセッサ752は、ディスプレイ754に結合された制御インタフェース758およびディスプレイインタフェース756を通じてユーザと通信することができる。ディスプレイ754は、例えば、TFT(薄膜トランジスタ液晶ディスプレイ)ディスプレイもしくはOLED(有機発光ダイオード)ディスプレイ、またはその他の適切な表示技術とすることができる。ディスプレイインタフェース756は、ユーザに対してグラフィカルな情報および他の情報を提示するようにディスプレイ754を駆動するための適切な回路を含むことができる。制御インタフェース758は、ユーザからコマンドを受け、それらのコマンドを、プロセッサ752に送るために変換することができる。加えて、外部インタフェース762が、他のデバイスとのモバイルコンピューティングデバイス750の近い地域の通信を可能にするために、プロセッサ752との通信を提供することができる。外部インタフェース762は、例えば、いくつかの実施態様においては有線通信を、または他の実施態様においては無線通信を提供することができ、複数のインタフェースも使用することができる。
The
メモリ764は、モバイルコンピューティングデバイス750内に情報を記憶する。メモリ764は、コンピュータ可読媒体、揮発性メモリユニット、または不揮発性メモリユニットのうちの1つまたはそれ以上として実施することができる。また、拡張メモリ774を設け、例えば、SIMM(シングルインラインメモリモジュール)カードインタフェースを含むことができる拡張インタフェース772を通じてモバイルコンピューティングデバイス750に接続することができる。拡張メモリ774は、モバイルコンピューティングデバイス750に追加的な記憶空間を提供することができるか、またはモバイルコンピューティングデバイス750に関するアプリケーションまたは他の情報を記憶することもできる。特に、拡張メモリ774は、上述のプロセスを実行または補足する命令を含むことができ、セキュア情報を含むこともできる。したがって、例えば、拡張メモリ774は、モバイルコンピューティングデバイス750のセキュリティモジュールとして設けることができ、モバイルコンピューティングデバイス750のセキュアな使用を可能にする命令を使用してプログラムすることができる。加えて、ハッキングすることができない方式でSIMMカードに識別情報を置く等、追加の情報と共に、セキュアなアプリケーションをSIMMカードにより提供することができる。
The
メモリは、例えば、以下で論じられるように、フラッシュメモリおよび/またはNVRAMメモリ(不揮発性ランダムアクセスメモリ)を含むことができる。いくつかの実施態様において、コンピュータプログラム製品は情報担体内に有形的に具現化される。コンピュータプログラム製品は、実行されると上記の方法等の1つまたはそれ以上の方法を実行する命令を含む。コンピュータプログラム製品は、メモリ764、拡張メモリ774またはプロセッサ752上のメモリ等のコンピュータまたは機械可読媒体とすることができる。いくつかの実施態様において、コンピュータプログラム製品は、例えば、送受信機768または外部インタフェース762を介して伝播信号において受けることができる。
The memory may include, for example, flash memory and/or NVRAM memory (non-volatile random access memory), as discussed below. In some embodiments, the computer program product is tangibly embodied in an information carrier. The computer program product includes instructions that, when executed, perform one or more methods, such as the methods described above. The computer program product may be a computer or machine readable medium, such as
モバイルコンピューティングデバイス750は、必要に応じてデジタル信号処理回路を含むことができる通信インタフェース766を通じて無線で通信することができる。通信インタフェース766は、数ある中でも、GSM音声電話(移動体通信用グローバルシステム)、SMS(ショートメッセージサービス)、EMS(拡張メッセージングサービス)、またはMMSメッセージング(マルチメディアメッセージングサービス)、CDMA(符号分割多元接続)、TDMA(時分割多元接続)、PDC(パーソナルデジタルセルラー)、WCDMA(広帯域符号分割多元接続)、CDMA2000、またはGPRS(汎用パケット無線サービス)等の様々なモードまたはプロトコルの下で通信を提供することができる。そのような通信は、例えば、無線周波数を使用する送受信機768を通じて行うことができる。加えて、Bluetooth、WiFi、または他のそのような送受信機(図示せず)を使用するなどして近距離通信を行うことができる。加えて、GPS(全地球測位システム)受信機モジュール770が、モバイルコンピューティングデバイス750において実行されるアプリケーションによって適宜使用することができる更なるナビゲーションおよび位置に関連する無線データをモバイルコンピューティングデバイス750に提供することができる。
The
モバイルコンピューティングデバイス750は、ユーザから発話された情報を受け、その情報を使用可能なデジタル情報に変換することができる音声コーデック760を使用して音声通信することもできる。同じく、音声コーデック760は、例えば、モバイルコンピューティングデバイス750におけるハンドセットのスピーカーを介するなどして、ユーザのための可聴音声を生成することができる。そのような音声は、音声電話呼からの音声を含むことができ、記録された音声(例えば、音声メッセージ、音楽ファイルなど)を含むことができ、モバイルコンピューティングデバイス750上で動作するアプリケーションによって生成された音声も含むことができる。
The
図に示すように、モバイルコンピューティングデバイス750は、複数の異なる形態で実施することができる。例えば、モバイルコンピューティングデバイス750は、携帯電話780として実施することができる。また、モバイルコンピューティングデバイス750は、スマートフォン782、携帯情報端末、または他の同様のモバイルデバイスの一部として実施することもできる。
As shown, the
ここに記載のシステムおよび技術の様々な実施態様は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組合せにおいて実現することができる。これらの様々な実施態様は、記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受け、それらにデータおよび命令を送信するために結合された、専用または汎用である可能性がある少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上の、実行可能および/または解釈可能な1つまたはそれ以上のコンピュータプログラムにおける実施態様を含むことができる。 Various implementations of the systems and techniques described herein may be realized in digital electronic circuitry, integrated circuits, specially designed ASICs (application specific integrated circuits), computer hardware, firmware, software, and/or combinations thereof. These various implementations may include implementation in one or more computer programs executable and/or interpretable on a programmable system including at least one programmable processor, which may be special purpose or general purpose, coupled to receive data and instructions from and transmit data and instructions to a storage system, at least one input device, and at least one output device.
(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られる)これらのコンピュータプログラムは、プログラム可能なプロセッサ用の機械命令を含み、高水準手続き型プログラミング言語および/もしくはオブジェクト指向プログラミング言語、ならびに/またはアセンブリ/機械言語で実施することができる。本明細書において使用されるとき、機械可読媒体、コンピュータ可読媒体という用語は、機械命令を機械可読信号として受ける機械可読媒体を含む、プログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意のコンピュータプログラム製品、装置、および/またはデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指す。機械可読信号という用語は、プログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。 These computer programs (also known as programs, software, software applications, or code) contain machine instructions for a programmable processor and may be implemented in high-level procedural and/or object-oriented programming languages, and/or assembly/machine languages. As used herein, the terms machine-readable medium, computer-readable media refer to any computer program product, apparatus, and/or device (e.g., magnetic disk, optical disk, memory, programmable logic device (PLD)) used to provide machine instructions and/or data to a programmable processor, including machine-readable media that receive machine instructions as machine-readable signals. The term machine-readable signal refers to any signal used to provide machine instructions and/or data to a programmable processor.
ユーザとのインタラクションを提供するために、ここに記載のシステムおよび技術は、ユーザに対して情報を表示するためのディスプレイデバイス(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、ならびにユーザがコンピュータに入力を与えることができるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)を有するコンピュータ上に実装することができる。他の種類のデバイスを使用して、ユーザとのインタラクションを提供することもできる;例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)とすることができ;ユーザからの入力は、音響、発話、または触覚による入力を含む任意の形態で受けることができる。 To provide interaction with a user, the systems and techniques described herein can be implemented on a computer having a display device (e.g., a CRT (cathode ray tube) or LCD (liquid crystal display) monitor) for displaying information to the user, as well as a keyboard and pointing device (e.g., a mouse or trackball) by which the user can provide input to the computer. Other types of devices can also be used to provide interaction with a user; for example, feedback provided to the user can be any form of sensory feedback (e.g., visual feedback, auditory feedback, or haptic feedback); input from the user can be received in any form, including acoustic, speech, or tactile input.
ここに記載のシステムおよび技術は、バックエンド構成要素を(例えば、データサーバとして)含むか、またはミドルウェア構成要素(例えば、アプリケーションサーバ)を含むか、またはフロントエンド構成要素(例えば、ユーザがここに記載のシステムおよび技術の実装とインタラクトすることができるグラフィカルユーザインタフェースもしくはウェブブラウザを有するクライアントコンピュータ)を含むか、またはそのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムにおいて実施することができる。システムの構成要素は、デジタルデータ通信(例えば、通信ネットワーク)の任意の形態または媒体によって相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、およびインターネットを含む。 The systems and techniques described herein may be implemented in a computing system that includes back-end components (e.g., as a data server), or includes middleware components (e.g., an application server), or includes front-end components (e.g., a client computer having a graphical user interface or web browser through which a user can interact with an implementation of the systems and techniques described herein), or includes any combination of such back-end, middleware, or front-end components. The components of the system may be interconnected by any form or medium of digital data communication (e.g., a communications network). Examples of communications networks include a local area network (LAN), a wide area network (WAN), and the Internet.
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは一般に、互いに離れており、典型的には、通信ネットワークを介してインタラクトする。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行される、互いにクライアント-サーバ関係を有するコンピュータプログラムにより生じる。 A computing system may include clients and servers. Clients and servers are generally remote from each other and typically interact through a communication network. The relationship of client and server arises by virtue of computer programs running on the respective computers and having a client-server relationship to each other.
Claims (32)
第1のタンパク質および第2のタンパク質を含むタンパク質-タンパク質複合体のサンプルの複数の複合体画像を含む合成画像にアクセスすることと;
合成画像をマスキングして、マスキングされた部分および非マスキング部分を生成することと;
第1のタンパク質の第1の3次元(3D)形状および第2のタンパク質の第2の3D形状にアクセスすることと;
各々が候補ポーズペアを定義する複数のドッキングモデルにアクセスすることと;
ドッキングモデルごとに、第1の3D形状、第2の3D形状および候補ポーズペアを適用して、ドッキングモデルについて、ポーズペアとドッキングモデルとの適合の良好度を記述する対応する適合スコアを生成することと;
適合スコアに基づいて、タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つを選択することと、
を含む、前記方法。 1. A method for detecting a protein-protein complex interaction, comprising:
accessing a composite image comprising a plurality of complex images of a sample of a protein-protein complex comprising a first protein and a second protein;
masking the composite image to generate a masked portion and an unmasked portion;
accessing a first three-dimensional (3D) shape of a first protein and a second 3D shape of a second protein;
accessing a plurality of docking models, each of which defines a candidate pose pair;
applying, for each docking model, the first 3D shape, the second 3D shape, and the candidate pose pairs to generate, for the docking model, a corresponding fit score describing how well the pose pairs fit the docking model;
selecting one of the docking models as a detected model for the protein-protein complex based on the fitness score;
The method comprising:
第1のユーザ入力によって指定されたロケーションを接続することによってバウンディングボックスを生成することと;
バウンディングボックス内の合成画像の部分を非マスキング部分として記録することと、
を含む、請求項8に記載の方法。 Receiving a first user input specifying an unmasking portion includes:
generating a bounding box by connecting locations specified by a first user input;
recording a portion of the composite image within the bounding box as an unmasked portion;
The method of claim 8 , comprising:
ドッキングモデルのサブセットを:
i)上位N個の適合スコアを有するドッキングモデルを選択することと;
ii)閾値Mを超える適合スコアを有する全てのドッキングモデルを選択することと、
からなるグループのうちの1つによって、それらの対応する適合スコアに基づいて識別することを含む、請求項1に記載の方法。 Selecting one of the docking models as a detected model for the protein-protein complex based on the fitness score includes:
A subset of docking models:
i) selecting docking models with top N fitness scores;
ii) selecting all docking models having a fitness score above a threshold M;
2. The method of claim 1, further comprising: discriminating between the first and second objects based on their corresponding match scores by one of the group consisting of:
1つまたはそれ以上のプロセッサと;
命令を記憶するコンピュータメモリと、
を含み、該命令は、プロセッサによって実行されると、該プロセッサに:
第1のタンパク質および第2のタンパク質を含むタンパク質-タンパク質複合体のサンプルの複数の複合体画像を含む合成画像にアクセスすることと;
第1のタンパク質の第1の3次元(3D)形状および第2のタンパク質の第2の3D形状にアクセスすることと;
各々が候補ポーズペアを定義する複数のドッキングモデルにアクセスすることと;
ドッキングモデルごとに、第1の3D形状、第2の3D形状および候補ポーズペアを適用して、ドッキングモデルについて、ポーズペアとドッキングモデルとの適合の良好度を記述する対応する適合スコアを生成することと;
適合スコアに基づいて、タンパク質-タンパク質複合体のための検知されたモデルとしてドッキングモデルのうちの1つを選択することと、
を含む動作を実行させる、前記システム。 1. A system for detecting protein-protein complex interactions comprising:
one or more processors;
a computer memory for storing instructions;
the instructions, when executed by a processor, cause the processor to:
accessing a composite image comprising a plurality of complex images of a sample of a protein-protein complex comprising a first protein and a second protein;
accessing a first three-dimensional (3D) shape of a first protein and a second 3D shape of a second protein;
accessing a plurality of docking models, each of which defines a candidate pose pair;
applying, for each docking model, the first 3D shape, the second 3D shape, and the candidate pose pair to generate, for the docking model, a corresponding fit score describing how well the pose pair fits the docking model;
selecting one of the docking models as a detected model for the protein-protein complex based on the fitness score;
The system performs the following operations:
第1のユーザ入力によって指定されたロケーションを接続することによってバウンディングボックスを生成することと;
バウンディングボックス内の合成画像の部分を非マスキング部分として記録することと、
を含む、請求項24に記載のシステム。 Receiving a first user input specifying an unmasking portion includes:
generating a bounding box by connecting locations specified by a first user input;
recording a portion of the composite image within the bounding box as an unmasked portion;
25. The system of claim 24, comprising:
ドッキングモデルのサブセットを:
i)上位N個の適合スコアを有するドッキングモデルを選択することと;
ii)閾値Mを超える適合スコアを有する全てのドッキングモデルを選択することと、
からなるグループのうちの1つによって、それらの対応する適合スコアに基づいて識別することを含む、請求項17に記載のシステム。 Selecting one of the docking models as a detected model for the protein-protein complex based on the fitness score includes:
A subset of docking models:
i) selecting docking models with top N fitness scores;
ii) selecting all docking models having a fitness score above a threshold M;
20. The system of claim 17, further comprising: discriminating between the first and second objects based on their corresponding match scores by one of the group consisting of:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163180990P | 2021-04-28 | 2021-04-28 | |
US63/180,990 | 2021-04-28 | ||
EP21315146.7 | 2021-08-27 | ||
EP21315146 | 2021-08-27 | ||
PCT/US2022/026351 WO2022232145A1 (en) | 2021-04-28 | 2022-04-26 | Sensing of protein-protein interaction |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024518336A true JP2024518336A (en) | 2024-05-01 |
Family
ID=81580904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023566455A Pending JP2024518336A (en) | 2021-04-28 | 2022-04-26 | Protein-protein interaction detection |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4330967A1 (en) |
JP (1) | JP2024518336A (en) |
WO (1) | WO2022232145A1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140100834A1 (en) * | 2012-10-04 | 2014-04-10 | Macromoltek | Computational methods for analysis and molecular design of antibodies, antibody humanization, and epitope mapping coupled to a user-interactive web browser with embedded three- dimensional rendering |
US11515007B2 (en) * | 2016-03-11 | 2022-11-29 | Merck Sharp & Dohme Llc | In silico process for selecting protein formulation excipients |
-
2022
- 2022-04-26 EP EP22721617.3A patent/EP4330967A1/en active Pending
- 2022-04-26 JP JP2023566455A patent/JP2024518336A/en active Pending
- 2022-04-26 WO PCT/US2022/026351 patent/WO2022232145A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022232145A1 (en) | 2022-11-03 |
EP4330967A1 (en) | 2024-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Deep learning approach to point cloud scene understanding for automated scan to 3D reconstruction | |
Avetisyan et al. | Scan2cad: Learning cad model alignment in rgb-d scans | |
Su et al. | Render for cnn: Viewpoint estimation in images using cnns trained with rendered 3d model views | |
WO2021217924A1 (en) | Method and apparatus for identifying vehicle type at traffic checkpoint, and device and storage medium | |
US11551388B2 (en) | Image modification using detected symmetry | |
JP4774193B2 (en) | Inspection system setup technology | |
JP2022501713A (en) | Motion recognition methods and devices, electronic devices, and storage media | |
US20190340317A1 (en) | Computer vision through simulated hardware optimization | |
US20220277502A1 (en) | Apparatus and method for editing data and program | |
Shilkrot13 et al. | WorkingHands: A hand-tool assembly dataset for image segmentation and activity mining | |
US20240221353A1 (en) | Method and apparatus for object localization in discontinuous observation scene, and storage medium | |
US8538171B2 (en) | Method and system for object detection in images utilizing adaptive scanning | |
Zhou et al. | 3D shape classification and retrieval based on polar view | |
Mueller et al. | Image-to-image translation for enhanced feature matching, image retrieval and visual localization | |
Hu et al. | VODRAC: Efficient and robust correspondence-based point cloud registration with extreme outlier ratios | |
Kerbl et al. | Interactive disassembly planning for complex objects | |
Thalhammer et al. | Challenges for monocular 6d object pose estimation in robotics | |
JP2024518336A (en) | Protein-protein interaction detection | |
US20220351375A1 (en) | Sensing of protein-protein interaction | |
CN115631374A (en) | Control operation method, control detection model training method, device and equipment | |
AU2021203867B2 (en) | Image identification methods and apparatuses, image generation methods and apparatuses, and neural network training methods and apparatuses | |
Goyal et al. | GRIHA: synthesizing 2-dimensional building layouts from images captured using a smart phone | |
US20190392594A1 (en) | System and method for map localization with camera perspectives | |
Mane et al. | A Metaphor Analysis on Vehicle License Plate Detection using Yolo-NAS and Yolov8 | |
Rolf et al. | Investigation of an Integrated Synthetic Dataset Generation Workflow for Computer Vision Applications |