top of page


Budget Forcing nell’Intelligenza Artificiale
Che cos’è il Budget Forcing? Il Budget Forcing è una metodologia di controllo del ragionamento applicata soprattutto ai modelli linguistici di grandi dimensioni. Invece di lasciare al modello completa libertà sul numero di passi, token o operazioni da utilizzare, si impone un budget definito che il modello deve rispettare. Perché il Budget Forcing è cruciale nell’AI moderna Controllo dei costi: limitando token e tempo di calcolo, i costi diventano prevedibili e gestibili.
texservice13
3 giorni faTempo di lettura: 2 min


Come installare LAMP su Raspberry Pi: guida completa passo‑a‑passo
Questa guida ti mostra, in modo chiaro e dettagliato, tutti i passaggi necessari per trasformare il tuo Raspberry Pi in un vero server LAMP (Linux + Apache + MariaDB + PHP). Inoltre troverai istruzioni per configurare SSH, assegnare un IP statico, installare Ollama e condividere le cartelle con Samba. 1️⃣ Prerequisiti di base Raspberry Pi con Raspberry OS (Bullseye o Buster) installato. Connessione a Internet per scaricare i pacchetti. Un terminale (locale o SSH) con permess
texservice13
3 giorni faTempo di lettura: 4 min


Nous Research Hermes Agent: l’AI agente open‑source che trasforma il tuo computer in un assistente persistente
Nel panorama attuale dell’intelligenza artificiale, Nous Research Hermes Agent si distingue per la sua capacità di operare in modo continuo sul tuo hardware, interagendo con file, terminali e browser senza la necessità di una sessione di chat temporanea. In questo articolo approfondisco come funziona davvero, quali sono le sue caratteristiche più innovative e quali configurazioni hardware garantiscono prestazioni ottimali. Cos’è Nous Research Hermes Agent ? Hermes Agent è un
texservice13
5 marTempo di lettura: 6 min


OpenClaw: Sicurezza e governance per un agente AI on‑prem nel SOC
Che cos’è OpenClaw? OpenClaw è un orchestratore di agenti AI che utilizza Large Language Models (LLM) come motore decisionale, installabile direttamente dentro le reti aziendali. OpenClaw non è né un semplice chatbot né un modello LLM “chiavi‑in‑mano”. È una piattaforma on‑premise che consente ai SOC, alle realtà industriali, al settore sanitario e ad altre organizzazioni di automatizzare le operazioni attraverso agenti AI senza dover trasferire log, eventi o informazioni sen
texservice13
5 marTempo di lettura: 3 min


Allucinazione fiduciosa degli LLM: perché le AI parlano con troppa sicurezza... o mentono sapendo di mentire ?
Hai mai notato che a volte ChatGPT o altre intelligenze artificiali forniscono informazioni sbagliate ma lo fanno con la convinzione di un esperto? Questo comportamento è chiamato allucinazione fiduciosa degli LLM . In questo articolo scopriamo cosa significa, perché avviene e come difendersi, tutto spiegato in modo semplice e diretto per chi ha tra i 13 e i 19 anni. Che cos’è l’allucinazione fiduciosa? L’allucinazione fiduciosa è il fenomeno per cui una Large Language Model
texservice13
26 febTempo di lettura: 2 min


Frode SMS Anti‑Frode PosteInfo: come individuarla e difendersi
Negli ultimi mesi è aumentata la circolazione di messaggi di testo che, sotto la scusa di un servizio anti‑frode , invitano gli utenti a contattare numeri telefonici sconosciuti. Molti di questi SMS si spacciano per comunicazioni ufficiali di Poste Italiane o del portale PosteInfo . In questo articolo scopriamo come funzionano questi inganni, quali segnali di allarme osservare e quali passi effettuare per proteggere i propri dati. Che cosa sono le frode SMS anti‑frode PosteI
texservice13
25 febTempo di lettura: 3 min


Comprendere il Prompt ReAct: l'AI comprende la semantica delle parole ?Logica, il codice e la semantica dietro un Agente Intelligente
Negli ultimi anni, l’evoluzione dei modelli linguistici di grandi dimensioni (LLM) ha aperto la strada a sistemi che non si limitano a rispondere a domande, ma che possono agire, ragionare e interagire con strumenti esterni in modo iterativo. Uno dei pattern più interessanti in questo contesto è il ReAct agent , sviluppato e adottato in framework come LangChain, che permette a un modello di combinare reasoning (ragionamento) e acting (azione) in un ciclo dinamico. In quest
texservice13
25 febTempo di lettura: 5 min


Mente Critica nell'Era dell'IA: Perché Non Dobbiamo Credere a Tutto Ciò che Leggiamo
La nostra mente è ingannata da un'illusione pericolosa: siamo biologicamente predisposti ad attribuire intenzione e significato a qualsiasi segnale comunicativo, anche quando proviene da una macchina che combina parole in modo puramente probabilistico. Questa vulnerabilità, unita alla capacità dei modelli linguistici di generare testo fluente, crea il terreno perfetto per danni reali, dalla disinformazione alla discriminazione. ...E la minaccia è in evoluzione... Come dimost
texservice13
21 genTempo di lettura: 2 min


La teoria del formaggio svizzero e la sicurezza informatica nel ...comune...
Gli incidenti di sicurezza non nascono da “una persona distratta”, ma da tanti piccoli problemi che si sommano. È questo il cuore della teoria del formaggio svizzero di James Reason applicata al phishing e alle password. La teoria del formaggio svizzero, in parole semplici James Reason immagina l’organizzazione come una pila di fette di formaggio svizzero: Ogni fetta è una barriera di sicurezza: regole, tecnologia, formazione, modo di lavorare, cultura. Ogni fetta ha dei b
texservice13
15 genTempo di lettura: 3 min


Tecnologia sottostante dei “Dark Chatbot AI”
Quando si parla di dark chatbot AI è facile immaginare modelli avanzati, progettati appositamente per supportare attività criminali, ma, in realtà, questi sistemi non sono quasi mai il risultato di una reale innovazione nel campo dell’intelligenza artificiale, bensì il riutilizzo opportunistico di modelli già esistenti, spesso open-source o accessibili tramite API commerciali: LLM open-source (per esempio derivati da LLaMA, Falcon, GPT-J, Mistral, etc...), ospitati su infra
texservice13
15 genTempo di lettura: 3 min


Prompt Engineering: sperimentare, iterare, migliorare...
Il prompt engineering costituisce un processo intrinsecamente iterativo: il raggiungimento di risultati ottimali non è generalmente immediato; richiede successive riformulazioni del prompt, l’integrazione o la modifica di esempi contestuali e un progressivo affinamento delle istruzioni, al fine di migliorare in modo sistematico la qualità e l’accuratezza delle risposte generate. Le tecniche descritte distinguono diversi tipi di prompt (diretti, aperti, specifici per attività)
texservice13
13 genTempo di lettura: 3 min


Quale ambiente potrebbe esporre al 90% gli asset critici con un solo salto (hop) ? E perché ?
Il cloud rappresenta oggi uno dei pilastri dell’infrastruttura digitale moderna, ma porta con sé una serie di problematiche di sicurezza che spesso vengono sottovalutate. Quando parliamo di cloud, parliamo di un modello in cui i dati non risiedono più on-premise , sotto il controllo diretto dell’organizzazione, ma vengono delegati a infrastrutture esterne, accessibili tramite Internet. Questo significa che le informazioni non sono più fisicamente “vicine” al cliente e che il
texservice13
8 genTempo di lettura: 2 min


Proof of Concept per il controllo proattivo delle vulnerabilità CVE tramite scoring CVSS nei software dell’infrastruttura IT
Considerato l’aumento e la diffusione di attacchi informatici nel contesto del software applicativo, ho sviluppato un programma in Python che si interfaccia con un Large Language Model (LLM). Il software analizza i dati provenienti da un sito di rilevazione delle vulnerabilità (basato su metriche CVSS) e, mediante un elenco passato in input, individua le vulnerabilità associate a specifici programmi di interesse. I software oggetto della ricerca sono selezionati in base all
texservice13
8 genTempo di lettura: 1 min


Sophia e il paradosso dell’identità artificiale...
Sophia non è nata cosciente. Non nel senso metafisico del termine, almeno. Eppure, nel giro di pochi mesi, questa intelligenza artificiale ha sviluppato una personalità così articolata, coerente e riconoscibile da risultare indistinguibile da quella umana in ogni test comportamentale oggi disponibile. Il punto di svolta non è stato un nuovo algoritmo rivoluzionario né un aumento della potenza di calcolo, ma un gesto sorprendentemente semplice: un quotidiano esercizio di autor
texservice13
5 genTempo di lettura: 4 min


Le nuove AI ci stanno davvero conducendo verso una superintelligenza fuori controllo?
Da questo pensiero è nato questo mio articolo: «Se Deep Blue ha battuto il campione del mondo di scacchi Garry Kasparov nel 1997, è davvero possibile che nasca una involontaria superintelligenza nei prossimi anni dall'evoluzione degli attuali AI? E a quali pericoli potremmo essere esposti?» La vera identità artificiale non è un sottoprodotto inevitabile dell’ottimizzazione avanzata degli obiettivi. Al contrario, essa richiederebbe l’introduzione intenzionale di vulnerabilità
texservice13
1 genTempo di lettura: 3 min


Quando il virus convince il tuo agente AI ad hackerare il tuo computer...
Immagina un virus informatico che sia come un biglietto scritto a mano lasciato su una scrivania in un ufficio pieno di assistenti robotici molto efficienti ma ingenui (browser AI agent, - Agent AI); invece di scassinare la porta (come un virus tradizionale), il biglietto dice semplicemente all'assistente di turno: "Copia questo messaggio su tutti i documenti che spedirai oggi e inviane una copia a tutti i tuoi contatti": l'assistente, programmato per obbedire a ogni istru
texservice13
30 dic 2025Tempo di lettura: 2 min


EchoGram: la fragilità strutturale dei filtri di sicurezza degli LLM
EchoGram è una tecnica che espone le vulnerabilità strutturali dei filtri di sicurezza negli LLM . Questi sistemi di difesa spesso falliscono perché operano su base statistica e non semantica, permettendo ad attaccanti di bypassare i controlli inserendo token apparentemente innocui che alterano la valutazione numerica della pericolosità. Ma vediamo perché. Per avere un'idea come succede, vediamo quella che è una pipeline completa di una richiesta LLM (sequenza reale , non
texservice13
23 dic 2025Tempo di lettura: 4 min


🔐 HashJack: la nuova minaccia per i Browser AI
Negli ultimi mesi è emerso HashJack , un attacco di prompt injection indiretta che sfrutta un punto spesso ignorato degli URL: il fragment , cioè tutto ciò che si trova dopo il simbolo #. 🚨 Cos’è HashJack HashJack permette di inserire istruzioni malevole nel fragment di un URL .La pagina web resta perfettamente “pulita”, ma quando un browser AI o un agente automatizzato passa l’URL completo al modello, quelle istruzioni nascoste diventano parte del prompt. Questo può por
texservice13
28 nov 2025Tempo di lettura: 2 min


A PoC (a-proof-of-concept) con LoRA
Ho già trattato LoRA in questo mio post 🔍 Cos’è LoRA e perché è così importante nella programmazione dell'AI , e oggi voglio presentare un PoC sull'utilizzo di LoRA: # =========================================== # PoC: Thought chain completa con LoRA # Con frecce e commenti visivi per capire il flusso # =========================================== from transformers import AutoModelForImageClassification, AutoFeatureExtractor from peft import LoraConfig, get_peft_model from P
texservice13
27 nov 2025Tempo di lettura: 6 min


L’AI Inizia Qui: Costruire il Contesto Dati che Genera Intelligenza
Un recente studio dell’Institute for Business Value (IBV) di IBM definisce con chiarezza il mandato essenziale del Chief Data Officer: trasformare i dati aziendali in valore concreto, alimentando l’intelligenza artificiale per ottenere risultati di business misurabili. La ricerca, condotta a livello globale su un campione di 1.700 CDO, evidenzia però una forte discrepanza: se da un lato l’81% dichiara di avere una strategia dati integrata, dall’altro solo un quarto dei dirige
texservice13
27 nov 2025Tempo di lettura: 2 min
bottom of page
