Giornata 1 — Fondamenti tecnici, strategia e prompting
2 marzo 2026
Al termine della giornata sarai in grado di:
| Orario | Parte | Sessione | Argomenti |
|---|---|---|---|
| 10:30 – 11:00 | Mattina | Introduzione del corso |
|
| 11:00 – 11:30 | Mattina | Prima parte |
|
| 11:30 – 11:45 | ☕ Break | ||
| 11:45 – 13:00 | Mattina | Seconda parte |
|
| 13:00 – 14:00 | 🍽 Pranzo libero | ||
| 14:00 – 14:55 | Pomeriggio | Prima parte |
|
| 14:55 – 15:05 | ☕ Break | ||
| 15:05 – 15:50 | Pomeriggio | Seconda parte |
|
| 15:50 – 16:00 | Chiusura | Chiusura |
|
Definizioni · Stato dell'arte · Falsi miti · Il cambio di paradigma
Adozione ancora disomogenea: le grandi OTA sono anni avanti rispetto alle PMI
| Mito | Realtà |
|---|---|
| "L'AI è sempre accurata" | Produce errori convincenti (allucinazioni) |
| "Capisce tutto come un umano" | Predice il prossimo token, non ragiona |
| "È autonoma e imprevedibile" | Segue distribuzioni statistiche sui dati |
| "Sostituirà tutti" | Automatizza task ripetitivi, non ruoli interi |
| "È troppo complessa per le PMI" | API e no-code abbassano la barriera d'ingresso |
Come funzionano i modelli linguistici di grandi dimensioni
Un Large Language Model è una rete neurale addestrata a predire il prossimo token in una sequenza di testo.
Prima di elaborare il testo, l'LLM lo converte in token (frammenti di parole).
Strumento interattivo: platform.openai.com/tokenizer
| Parametro | Effetto | Esempio uso |
|---|---|---|
temperature |
0 = deterministico, 1 = creativo, >1 = caotico | 0.2 per FAQ, 0.9 per copywriting |
top_p |
Tronca al top P% di probabilità cumulativa | 0.9 default sicuro |
max_tokens |
Limite di token generati | 150 per tweet, 2000 per articolo |
stop |
Stringa che interrompe la generazione | "\n\n" per risposte brevi |
Memoria di lavoro del modello: limiti e implicazioni pratiche
La context window è la quantità massima di testo che il modello può "vedere" in un singolo momento di elaborazione.
| Modello | Context window | ≈ Parole italiane |
|---|---|---|
| GPT-4o | 128.000 token | ~96.000 |
| Claude 3.5 Sonnet | 200.000 token | ~150.000 |
| Gemini 2 Pro | 2.000.000 token | ~1.500.000 |
| GPT-4o mini | 128.000 token | ~96.000 |
| Scenario | Token stimati | Strategia |
|---|---|---|
| Chatbot prenotazioni (chat breve) | 1.000–5.000 | Nessun problema, modello mini |
| Analisi di 50 recensioni | ~20.000 | Batch, un'analisi per volta |
| Q&A su catalogo completo (500 prodotti) | >100.000 | RAG obbligatorio |
| Risposta singola a cliente | 200–800 | API diretta, economico |
Addestrare un modello sui propri dati
| Fase | Dati | Chi lo fa | Costo |
|---|---|---|---|
| Pre-training | Trilioni di token da internet | Solo i lab (OpenAI, Anthropic…) | $10M–$100M+ |
| Supervised FT | Poche centinaia–migliaia di esempi | Aziende, sviluppatori | $100–$10.000 |
| RLHF / RLAIF | Preferenze umane o AI | Principalmente i lab | Elevato |
| Prompting | Esempi nel testo | Chiunque | Costo chiamata API |
Prompt: "Sei l'assistente di Hotel Bellavista.
Rispondi in modo caldo e professionale.
Ecco le nostre politiche: [500 token]
Ecco i nostri servizi: [800 token]
Domanda cliente: check-out tardivo?"
~1.400 token di contesto ad ogni chiamata
Prompt: "Domanda cliente:
check-out tardivo?"
Tono, politiche e stile già incorporati nel modello
~30 token di contesto ad ogni chiamata
| Criterio | Usa prompting | Considera fine-tuning |
|---|---|---|
| Tempo disponibile | Disponibile subito | Settimane per dati + training |
| Volume di richieste | Basso / medio | Molto alto (costo contesto) |
| Stile output | Generico o semi-specifico | Molto rigido o branded |
| Dati disponibili | Pochi o nessuno | Decine-centinaia di esempi |
| Competenze tecniche | Nessuna | Sviluppatore o ML engineer |
Collegare un LLM ai tuoi dati senza addestrarlo
Un modello di embedding converte testo in un vettore di numeri che rappresenta il suo significato.
Cerca parole esatte
SELECT * FROM faq
WHERE testo LIKE '%check-out%'
Non trova "orario di partenza"
Cerca per significato semantico
query = embed("a che ora devo lasciare la stanza?")
results = db.search(query, top_k=3)
Trova check-out, partenza, late check-out…
Soluzioni comuni per database vettoriali: Pinecone, Weaviate, Chroma, pgvector (PostgreSQL), Qdrant
| Aspetto | RAG | Fine-tuning |
|---|---|---|
| Aggiornamento dati | Facile (ricarica documenti) | Costoso (riaddestrare) |
| Trasparenza | Alta (si vede la fonte) | Bassa (dati incorporati) |
| Allucinazioni su fatti | Ridotte (chunk come ancoraggio) | Presenti |
| Stile di output | Non cambia il comportamento del modello | Modifica stile e comportamento |
| Setup tecnico | Medio (vector DB, pipeline) | Medio-alto (dataset, GPU) |
Sistemi autonomi che pianificano e agiscono nel mondo reale
Riceve richiesta, verifica disponibilità PMS, applica politiche tariffarie, genera conferma e invia email al cliente
Analizza storico, eventi locali e competitor → propone automaticamente il piano tariffario settimanale al revenue manager
Scansiona OTA ogni ora, confronta tariffe con le proprie, notifica il team se il gap supera una soglia definita
Monitora TripAdvisor, Google, Booking in tempo reale, bozza risposte personalizzate e le invia dopo approvazione umana
Pianifica itinerari su misura, prenota ristoranti e attività, risponde a domande pre e post soggiorno in linguaggio naturale
Aggrega dati da PMS, CRM e canali OTA ogni mattina → genera report KPI con anomalie evidenziate e pronto per il briefing
| Scenario | Affidabilità | Note |
|---|---|---|
| Task semplici con strumenti chiari | Alta | 1-3 passi, tool ben definiti |
| Ricerca e sintesi di informazioni | Alta | Nessuna azione irreversibile |
| Workflow multi-step (5-10 passi) | Media | Richiede supervisione |
| Task aperti, goal ambiguo | Bassa | Non raccomandato in produzione |
| Azioni finanziarie autonome | Non consigliato | Supervisione umana sempre |
Come un LLM esegue azioni nel mondo reale
Un LLM da solo produce solo testo. Per fare qualcosa, ha bisogno di strumenti (tools).
Ogni strumento viene definito con uno schema che il modello usa per generare chiamate corrette.
{
"name": "verifica_disponibilita",
"description": "Controlla disponibilità camere nel PMS",
"parameters": {
"tipo_camera": {
"type": "string",
"enum": ["standard", "deluxe", "suite"],
"description": "Tipo di camera richiesta"
},
"data_arrivo": {
"type": "string",
"format": "date",
"description": "Data arrivo (YYYY-MM-DD)"
},
"notti": {
"type": "integer",
"description": "Numero di notti"
}
},
"required": ["tipo_camera", "data_arrivo", "notti"]
}
| Tool | Azione | Sistema integrato |
|---|---|---|
verifica_disponibilita |
Controlla camere libere | PMS (Opera, Mews, Cloudbeds) |
crea_prenotazione |
Prenota e conferma | PMS + Channel Manager |
cerca_meteo |
Previsioni per destinazione | API meteo |
invia_notifica |
Email/SMS al cliente | CRM, Mailchimp, Twilio |
aggiorna_tariffa |
Modifica prezzi | Revenue management system |
MCP è uno standard aperto (Anthropic, 2024) per collegare LLM a strumenti e fonti di dati in modo interoperabile.
# Il modello genera questo codice:
results = web_search("AI news")
content_list = []
for r in results:
content = web_fetch(r.url)
content_list.append(content)
write_blog(content_list)
1 round-trip · solo l'output finale rientra nel contesto LLM
tools = [
# 1. Aggiungere l'execution environment
{"type": "code_execution_20250522",
"name": "code_execution"},
# 2. Segnare i tool richiamabili da codice
{
"name": "query_database",
"description": "...",
"input_schema": {...},
"allowed": ["code_execution"]
}
]
Il tool code_execution fornisce la sandbox; allowed espone la funzione come callable nell'ambiente.
for su N elementi, eseguiti in paralleloif/else sul risultato di un tool per decidere il tool successivoweb_search — il filtering è applicato automaticamentesearch_tool cerca le definizioni rilevanti su richiesta, via regex o query BM25Si riprende nel pomeriggio
ChatGPT, Claude, Copilot e Gemini — accesso, costi e prime attività concrete
| Strumento | Azienda | Punto di forza | Gratis? |
|---|---|---|---|
| ChatGPT | OpenAI | Uso generale, il più noto; immagini (DALL-E 3) | Sì (limitato) |
| Claude.ai | Anthropic | Scrittura lunga, analisi documenti PDF | Sì (limitato) |
| Microsoft Copilot | Microsoft | Integrato in Outlook, Teams, Excel, Word | Sì (web) |
| Google Gemini | Integrato in Gmail, Docs, Drive, Sheets | Sì (base) |
La funzione Progetti (piano Pro) salva contesto fisso — policy, tono, istruzioni — senza doverlo riscrivere ad ogni conversazione.
Se usi già Microsoft 365, verifica con il tuo fornitore IT se il piano M365 Copilot è già attivabile sul tuo tenant.
Chi usa già Google Workspace ottiene il valore maggiore dal piano a pagamento, grazie alle integrazioni native con Gmail e Drive.
| Se… | Usa | Piano |
|---|---|---|
| Usi già Microsoft 365 (Outlook, Teams, Excel) | Microsoft Copilot M365 | $30/utente/mese |
| Usi già Google Workspace (Gmail, Drive) | Google Gemini | €21.99/mese |
| Vuoi analizzare documenti e scrivere testi articolati | Claude.ai | Free per iniziare, Pro ($18/mese) per uso quotidiano |
| Vuoi l'opzione più versatile, con generazione immagini | ChatGPT | Free per iniziare, Plus ($20/mese) per uso quotidiano |
Dove l'AI crea valore nella tua attività turistica
Il punto di partenza per identificare opportunità AI è una mappa dei processi aziendali ripetitivi.
| Adatti | Non adatti (o non ancora) |
|---|---|
| Rispondere a email tipo con personalizzazione | Gestione conflitti complessi con ospiti |
| Generare descrizioni di camere / pacchetti | Decisioni legali (rimborsi, danni) |
| Riepilogare feedback e recensioni | Supervisione operativa fisica |
| Proporre itinerari personalizzati | Relazioni con clienti VIP ad alto valore |
| Tradurre comunicazioni multilingua | Valutazioni HR su performance collaboratori |
| Task | Frequenza | Impatto | Sforzo stimato |
|---|---|---|---|
| 1. | |||
| 2. | |||
| 3. |
Comunicare con i modelli AI in modo preciso e sistematico
Nessun esempio, solo istruzione
"Classifica questa recensione come positiva o negativa: 'La colazione era fredda'"
Veloce, economico, sufficiente per task semplici
2-5 esempi prima del task
"Positiva: 'Vista mozzafiato' Negativa: 'Stanza piccola' Classifica: 'Colazione fredda'"
Migliora precisione e formato output
Chiedi ragionamento esplicito
"Ragiona passo per passo: 1) Identifica il problema 2) Valuta il tono 3) Dai la classificazione"
Task complessi, ragionamento, calcoli
Un template è un prompt con variabili da riempire a runtime.
Sei il responsabile delle relazioni con gli ospiti di {{nome_struttura}}.
Hai ricevuto questa recensione su {{piattaforma}}:
---
{{testo_recensione}}
---
Scrivi una risposta professionale che:
- Ringrazi l'ospite per il feedback
- Risponda specificamente al punto principale
- {{istruzione_specifica}}
- Rimanga sotto {{max_parole}} parole
"Sei il social media manager di Agriturismo Le Colline. Scrivi 3 varianti di post Instagram per promuovere il weekend di degustazione vini del 15 marzo. Formato: - Emoji all'inizio - Max 150 caratteri - 3-5 hashtag rilevanti - Tono caldo e autentico"
🍷 Sabato 15 marzo vi aspettiamo tra i nostri vigneti per una degustazione indimenticabile. #agriturismo #vino #toscana 🌿 Weekend di gusto e natura: degustazione con vista sulle colline. Posti limitati! #wine #tuscany #weekend ✨ Ogni sorso racconta la nostra terra. Vi aspettiamo il 15 marzo. #degustazione #vino #italianwine
"Rispondi a questa recensione negativa. Tono: professionale e comprensivo. Riconosci i problemi specifici. Offri un contatto diretto. Max 100 parole. Non essere difensivo."
Sei un esperto di turismo in Sicilia orientale.
Crea un itinerario di 5 giorni per:
- Coppia, 35-40 anni
- Interessi: storia greco-romana, cucina locale, passeggiate moderate
- Budget: medio-alto
- Periodo: aprile
- Base: Siracusa
- Senza guida: autonomi in auto
Per ogni giorno indica:
- Mattina / pomeriggio / sera
- Tempo di guida stimato
- 1 ristorante consigliato con specialità tipica
- 1 nota pratica (prenotazione consigliata, orari, ecc.)
"Dai questa policy di cancellazione: [testo policy] Rispondi a questa domanda di un ospite: 'Se cancello 10 giorni prima ricevo il rimborso completo?' Sii preciso, breve, in tono amichevole."
"Scrivi una descrizione commerciale per questo pacchetto: - 3 notti suite vista mare - Colazione inclusa - Accesso SPA illimitato - Cena romantica (1 sera) - Prezzo: €480 a notte Target: coppie, occasioni speciali. Max 80 parole. Tono evocativo."
| Errore | Effetto | Soluzione |
|---|---|---|
| Prompt troppo vago | Output generico, inutilizzabile | Specifica formato, lunghezza, tono |
| Nessun contesto aziendale | Risposta generica, non branded | Aggiungi nome, settore, valori |
| Dire cosa NON fare solo | Il modello non sa cosa fare | Di' COSA vuoi, non solo cosa evitare |
| Task multipli in un prompt | Risultato mediocre su tutto | Un prompt = un task |
| Nessuna struttura output | Formato imprevedibile | Specifica: "rispondi in lista", "usa JSON" |
Analizza le seguenti recensioni di un hotel e produce un report strutturato.
Recensioni:
---
{{lista_recensioni}}
---
Per ogni recensione, identifica:
1. Sentiment complessivo: Positivo / Neutro / Negativo
2. Temi principali menzionati (max 3 per recensione)
3. Punteggio implicito 1-5
Poi produci:
- Top 3 punti di forza ricorrenti
- Top 3 aree di miglioramento
- 1 azione concreta raccomandata
Formato output: JSON strutturato
Ottimizzazione del testo del singolo prompt: ruolo, istruzione, formato, vincoli, esempi few-shot.
Progettazione dell'intero contesto passato al modello:
GDPR, rischi pratici e uso responsabile dell'AI
| Rischio | Descrizione | Impatto |
|---|---|---|
| Prompt injection | Un input malevolo altera il comportamento del modello | Dati esposti, azioni non autorizzate |
| Data leakage | Il modello "ricorda" dati sensibili inseriti nel contesto | Esposizione dati clienti/aziendali |
| Model inversion | Attacchi che estraggono dati dai parametri del modello | Rilevante solo per fine-tuning su dati sensibili |
| Allucinazioni nei dati fattuali | Il modello inventa prezzi, policy, informazioni legali | Danni reputazionali, contestazioni |
Per batch processing di dati clienti: usa sempre pseudonimizzazione e conserva la mappatura in locale.
Riepilogo · Risorse · Prossimi passi
Grazie per la giornata.
Appuntamento al Giorno 2.
Abbreviazioni e termini usati durante la giornata
| OTA | Online Travel Agency — piattaforme di prenotazione online (Booking.com, Expedia, Airbnb) |
| PMS | Property Management System — gestionale hotel per prenotazioni, camere e fatturazione |
| CRM | Customer Relationship Management — sistema per gestire dati e relazioni con i clienti |
| KPI | Key Performance Indicator — indicatore chiave di performance aziendale |
| FAQ | Frequently Asked Questions — domande frequenti con risposte precompilate |
| DMC | Destination Management Company — operatore locale che organizza servizi turistici in loco |
| B2B / B2C | Business-to-Business / Business-to-Consumer — tipo di relazione commerciale |
| LLM | Large Language Model — modello AI addestrato su grandi quantità di testo |
| ML | Machine Learning — disciplina dell'AI che apprende da dati senza regole esplicite |
| RAG | Retrieval Augmented Generation — tecnica che collega un LLM a documenti esterni |
| API | Application Programming Interface — interfaccia per la comunicazione tra sistemi software |
| MCP | Model Context Protocol — standard Anthropic per collegare agenti AI a strumenti esterni |
| GPU | Graphics Processing Unit — processore specializzato usato per addestrare modelli AI |
| GDPR | General Data Protection Regulation — regolamento UE sulla protezione dei dati personali |
| DPA | Data Processing Agreement — accordo contrattuale sul trattamento dei dati con fornitori terzi |
| SOC 2 | Service Organization Control 2 — certificazione di sicurezza per fornitori cloud |