Če želite izvleči vse opombe objektov iz odziva API-ja na področju umetne inteligence – Google Vision API – naprednega razumevanja slik – zaznavanja predmetov, lahko uporabite obliko odgovora, ki jo ponuja API, ki vključuje seznam zaznanih predmetov skupaj z njihovimi ustreznimi mejni okvirji in rezultati zaupanja. Z razčlenjevanjem tega odgovora lahko izvlečete želene opombe predmeta.
Odgovor API-ja je običajno sestavljen iz predmeta JSON, ki vsebuje različna polja, vključno s poljem »localizedObjectAnnotations«, ki vsebuje zaznane predmete. Vsaka opomba predmeta vključuje informacije, kot so ime predmeta, njegove koordinate omejevalnega polja in rezultat zaupanja, ki kaže zaupanje API-ja v zaznavanje.
Če želite ekstrahirati opombe predmeta, lahko sledite tem korakom:
1. Razčlenite odgovor API-ja: Začnite z razčlenjevanjem odgovora JSON, prejetega od API-ja. To lahko storite s knjižnico za razčlenjevanje JSON ali vgrajenimi funkcijami, ki jih ponuja vaš programski jezik.
2. Dostop do polja "localizedObjectAnnotations": Ko je odgovor razčlenjen, dostopajte do polja "localizedObjectAnnotations", ki vsebuje zaznane objekte. To polje je običajno niz opomb predmetov.
3. Iteracija skozi opombe objekta: Iteracija skozi vsako opombo objekta v matriki. Vsaka opomba predstavlja zaznan predmet na sliki.
4. Izvlečite ustrezne informacije: izvlecite ustrezne informacije iz vsake opombe predmeta, kot so ime predmeta, koordinate omejevalnega polja in ocena zaupanja. Do teh podrobnosti lahko dostopate kot ločena polja v vsaki opombi predmeta.
5. Shranite ali obdelajte ekstrahirane informacije: Odvisno od vaših potreb lahko ekstrahirane informacije shranite v podatkovno strukturo ali jih dodatno obdelate za analizo ali druge namene. Na primer, morda boste želeli shraniti imena objektov in njihove ustrezne koordinate omejevalnega polja v zbirko podatkov ali jih uporabiti za nadaljnje naloge razumevanja slike.
Tukaj je poenostavljen primer za ponazoritev postopka ekstrakcije:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"sredina": "/m/01g317",
"ime": "mačka",
"ocena": 0.89271355,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
]}
},
{
"sredina": "/m/04rky",
"ime": "pes",
"ocena": 0.8132468,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
]}
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
V tem primeru predpostavimo, da odgovor JSON vsebuje dva zaznana predmeta: mačko in psa. Koda razčleni odgovor, dostopa do polja "localizedObjectAnnotations", ponovi vsako opombo predmeta in izvleče ime predmeta, koordinate omejevalnega polja in oceno zaupanja. Nazadnje se ekstrahirane informacije natisnejo, vendar lahko kodo spremenite tako, da ustreza vašim posebnim potrebam.
Če sledite tem korakom, lahko učinkovito izvlečete vse opombe objektov iz odziva API-ja na področju umetne inteligence – Google Vision API – Napredno razumevanje slik – Zaznavanje predmetov.
Druga nedavna vprašanja in odgovori v zvezi Napredno razumevanje slik:
- Katere so nekatere vnaprej določene kategorije za prepoznavanje objektov v Google Vision API?
- Kakšen je priporočen pristop za uporabo funkcije zaznavanja varnega iskanja v kombinaciji z drugimi tehnikami moderiranja?
- Kako lahko dostopamo in prikažemo vrednosti verjetnosti za vsako kategorijo v opombi varnega iskanja?
- Kako lahko pridobimo opombo o varnem iskanju z uporabo Google Vision API v Pythonu?
- Katerih pet kategorij je vključenih v funkcijo zaznavanja varnega iskanja?
- Kako funkcija varnega iskanja API-ja Google Vision zazna eksplicitno vsebino v slikah?
- Kako lahko vizualno prepoznamo in poudarimo zaznane predmete na sliki z uporabo knjižnice blazin?
- Kako lahko ekstrahirane informacije o predmetu organiziramo v obliki tabele z uporabo podatkovnega okvira pandas?
- Katere knjižnice in programski jezik se uporabljajo za predstavitev funkcionalnosti API-ja Google Vision?
- Kako Google Vision API izvaja zaznavanje predmetov in lokalizacijo v slikah?
Oglejte si več vprašanj in odgovorov v naprednem razumevanju slik