ABONAMENTE VIDEO REDACȚIA
RO
EN
NOU
Numărul 165
Numărul 164 Numărul 163 Numărul 162 Numărul 161 Numărul 160 Numărul 159 Numărul 158 Numărul 157 Numărul 156 Numărul 155 Numărul 154 Numărul 153 Numărul 152 Numărul 151 Numărul 150 Numărul 149 Numărul 148 Numărul 147 Numărul 146 Numărul 145 Numărul 144 Numărul 143 Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 165
Abonamente

În mintea unui agent AI

Csaba Szallos-Kis
Python Software Engineer @ BMW TechWorks Romania



PROGRAMARE

A sosit era agenților AI! De ce ar trebui să ne intereseze aceștia? Agentul este doar un buzzword nou sau chiar ceva care merită atenția noastră? Care este diferența între un LLM și un agent AI? Citind documentația oficială Strands, care descrie ce este un agent, găsim răspunsul chiar printre primele enunțuri: "un language model poate să răspundă la întrebări, un agent poate să execute fluxuri de lucru"[^1]. Vă invit să navigăm împreună în "mintea» agentului, să ne dăm seama despre cum poate un agent să facă anumite lucruri și să definim ceea ce înseamnă un agent și ceea ce poate să facă.

Baza agentului este un agent loop, care este alcătuit dintr-o regulă simplă în principiu: decide dacă este nevoie să folosim un tool sau nu; dacă este nevoie de un apel de tool, execută toolul și apelează modelul din nou cu rezultatul toolului. Asta se repetă până ce modelul produce răspunsul dorit.

LLM vs. Agent: diferența fundamentală

Când interacționăm cu un LLM direct — fie că e un model de la Anthropic ( de exemplu, Claude Opus 4.6), OpenAI ( de exemplu, GPT‑5.2) sau orice alt furnizor — îi dăm un text, el ne returnează un text. Este ca un coleg foarte deștept, care știe enorm de multe lucruri, dar nu are acces la nimic: nici la internet, nici la baza de date, nici la sistemul de fișiere. Poate doar să gândească și să formuleze răspunsuri.

Un agent, pe de altă parte, este acel coleg deștept căruia i-ai dat și acces la tooluri. Poate să caute în baza de date, poate să trimită emailuri, poate să citească fișiere și să apeleze API-uri. Și — asta este partea interesantă — el singur decide când și ce unealtă să folosească. Nu trebuie să îi spunem explicit "acum caută în baza de date". El citește întrebarea noastră, se gândește și decide singur că are nevoie de o căutare în baza de date.

Documentația Strands Agents SDK, frameworkul open-source pe care îl vom folosi ca referință în acest articol, definește trei componente fundamentale:

  1. Modelul — LLM-ul care gândește;

  2. Tool-urile — funcțiile pe care agentul le poate apela;

  3. Bucla agentului (Agent Loop) — mecanismul care le leagă pe toate.

Bucla agentului: inima sistemului

Să intrăm mai adânc în modul cum funcționează bucla asta. Când un utilizator trimite un mesaj, se întâmplă următorul ciclu:

Mai întâi, agentul asamblează un prompt complet. Nu trimite doar mesajul utilizatorului către model. Adaugă și un sistem prompt (care definește personalitatea și regulile agentului), istoricul conversației, plus o descriere detaliată a fiecărui tool disponibil — cu nume, descriere și schema parametrilor.

Apoi, trimite totul la LLM. Modelul analizează și produce un răspuns. Aici vine momentul cheie: răspunsul poate fi text simplu (răspunsul final) sau o cerere de tool call — un bloc JSON prin care modelul spune "vreau să apelez toolul X cu parametri Y".

Dacă modelul cere un tool, bucla agentului validează cererea, execută funcția respectivă, capturează rezultatul și îl reinjectează în conversație. Modelul primește rezultatul și poate raționa mai departe: poate cere alt tool, poate corecta direcția sau poate produce răspunsul final.

Bucla se oprește în următoarele situații:

Diagrama ne arată structura recursivă care este alcătuită din trei părți: Reasoning (LLM-ul care gândește), Tool Selection (ce tool să fie selectat) și Tool Execution (execuția toolului) după care iarăși vine un call către LLM și, până la urmă, un răspuns final.

Toolurile: mâinile agentului

Dacă bucla este inima agentului, toolurile sunt mâinile. Un tool în Strands se definește simplu — decorezi o funcție Python cu \@tool, scrii un docstring clar, și gata:

@tool
def search_database(query: str, 
    max_results: int = 10) -> str:
    """Caută în baza de date a produselor.

    Folosește-l când utilizatorul întreabă despre disponibilitate sau prețuri.
    NU-l folosi pentru întrebări de cultură generală.
    """
    # logica de business aici

Ce este important de înțeles: descrierea toolului este cea mai importantă parte. Modelul nu citește codul funcției — citește descrierea. Pe baza ei decide când și cum să apeleze toolul. O descriere vagă sau ambiguă duce la decizii greșite. Practic, descrierea toolului este un contract între dezvoltator și model.

Strands suportă și tooluri asincrone pentru operații de lungă durată, tooluri care returnează rezultate progresiv (streaming), și validare de scheme prin Pydantic.

MCP: protocolul care standardizează totul

Până aici am vorbit despre tooluri locale — funcții Python definite în același proiect cu agentul. Dar ce facem când vrem să conectăm agentul la servicii externe? Baze de date, API-uri, platforme cloud?

Aici intră în scenă MCP — Model Context Protocol. Este un standard deschis care rezolvă o problemă practică: înainte de MCP, fiecare framework AI avea propriul mod de a conecta tooluri. Un tool scris pentru un framework nu funcționa cu altul. Fiecare integrare era un efort custom.

MCP standardizează conectivitatea toolurilor, asemănător cu un USB pentru hardware sau HTTP pentru web.

Arhitectura este simplă: client-server. Un server MCP expune tooluri — primește cereri și returnează rezultate. Un client MCP, integrat în agent, descoperă ce tooluri sunt disponibile și le apelează când este nevoie.

Când clientul se conectează la server, mai întâi întreabă: "Ce tooluri ai?" Serverul răspunde cu o listă de definiții — nume, descrieri, scheme de parametri. Agentul le integrează transparent alături de toolurile locale. Din perspectiva modelului, nu există nicio diferență între un tool local și unul de pe un server MCP la distanță.

Conectarea practică arată cam așa:

from mcp import StdioServerParameters, stdio_client
from strands import Agent
from strands.tools.mcp import MCPClient

mcp_client = MCPClient(lambda: stdio_client(
    StdioServerParameters(command="uvx", args=["awslabs.aws-documentation-mcp-server@latest"])
))

agent = Agent(tools=[mcp_client])
agent("Ce este AWS Lambda?")

Câteva linii de cod și agentul poate interoga toată documentația AWS.[^2] Fără niciun tool scris manual.

Un exemplu pentru folosirea unui tool MCP cu un agent Strands.

Un agent se poate conecta la mai multe servere MCP simultan — unul pentru baze de date, altul pentru e-mail, altul pentru calendar. Modelul vede o paletă unificată de tooluri și poate orchestra apeluri între toate într-o singură sesiune. Poate interoga baza de date, compune un e-mail cu rezultatele și programa o întâlnire de follow-up — totul autonom.

Transportul este abstractizat: stdio pentru tooluri locale (serverul rulează ca subproces, comunicarea e prin stdin/stdout) sau HTTP streamabil pentru servere remote în producție. Toolul funcționează la fel, indiferent de transport.

Construirea unui server MCP

Ca să închidem cercul, merită menționat cât de simplu este să construiești un server MCP. Practic, decorezi funcții Python, scrii docstringul, implementezi logica de business, iar frameworkul se ocupă de restul: conformitatea cu protocolul JSON-RPC 2.0, descoperirea toolurilor, validarea inputului, serializarea rezultatelor. Dezvoltatorul scrie doar logica de business. Protocolul este invizibil.

Concluzie

Mintea unui agent AI nu este o cutie neagră. Este o buclă elegantă: gândește, acționează, observă, repetă. Modelul stă în centru ca motor de raționament, toolurile îi extind brațele în lumea reală, iar MCP oferă țesutul conectiv care leagă totul de un ecosistem de capabilități.

Note și referințe:

  1. Documentația oficială Strands

  2. Un exemplu pentru folosirea unui tool MCP cu un agent Strands

Conferință TSM

NUMĂRUL 165 - CyberSecurity & AI

Sponsori

  • BT Code Crafters
  • Betfair
  • MHP
  • .msg systems
  • P3 group
  • Cognizant Softvision
  • BMW TechWorks Romania

INTERVIURI