Vai al contenuto

Home lab nel 2026: il perché prima del come, e perché ne vale ancora la pena

Home lab nel 2026: il perché prima del come, e perché ne vale ancora la pena

Home lab nel 2026: il perché prima del come, e perché ne vale ancora la pena

Una sera di aprile, finita la cena, sopra l’armadio del garage un mini PC fa luci colorate. Le luci sono il LED di stato della scheda di rete, sincronizzate con il traffico di un backup notturno verso uno dei nodi di produzione su Hetzner. Un amico, in casa per un caffè, vede le luci e mi chiede una versione gentile di una domanda dura: ma a cosa ti serve davvero quel coso lì?. È una domanda buona, e io sono il primo a farmela ogni tre mesi. La rispondo qui, perché credo che sia la domanda giusta da farsi nel 2026, in cui un VPS Hetzner CX22 costa 6 euro al mese e su quei 6 euro fai girare un blog WordPress, una rete Mattermost piccola e un n8n.

L’home lab nel 2026 non è scontato. Non è “passione di nicchia per smanettoni” (quella era prima), non è “DIY economico” (è meno economico di prima, perché RAM e VRAM negli ultimi sei mesi hanno avuto un’esplosione di prezzo). È una scelta tecnica e politica che va difesa con argomenti, non con romanticismo. Provo a darli, in ordine di peso operativo per chi lavora come me, da founder tecnico di una piccola software house.

Ragione uno: capire cosa c’è sotto un servizio web

La prima ragione è la più banale e la più sottovalutata. Quando deployo un’applicazione su una VPS prefabbricata, l’astrazione che il provider mi vende è comoda: clicco, attendo 90 secondi, ho un IP pubblico e un Debian fresco. Quello che non vedo è la stratificazione sotto: l’hypervisor (di solito KVM, dentro un Proxmox o un cugino, come ho raccontato in Proxmox bare-metal in casa), il bridge di rete del nodo fisico, lo schema di NAT del datacenter, lo storage backend (locale o distribuito), la chain di firewall fra la mia VPS e l’internet.

Quando un servizio web non funziona “come dovrebbe”, la differenza fra debug rapido e debug-fortunato è la conoscenza di quegli strati. In 12 anni di lavoro come dev e poi CTO ho visto tante volte un developer assumere che “la rete funziona”, e poi spendere otto ore a debuggare un timeout applicativo che era un MTU mismatch su un bridge OVS del provider. Avere un home lab in cui quel livello l’hai montato tu, con iproute2 a mano e un tcpdump aperto, ti compra una velocità di diagnosi che il sapere teorico non compra.

Concretamente: la prima volta che ho dovuto debuggare un problema di MTU su un tunnel VPN fra il cluster di casa e il cluster di produzione, l’ho risolto in 25 minuti perché avevo già visto, in casa, cosa succede quando un MTU sbagliato fa drop dei pacchetti grandi. La prima volta che ho debuggato lo stesso problema su una VPS gestita, anni prima, ci avevo messo mezza giornata. Non perché fossi peggiore di adesso. Perché non avevo mai toccato quel layer.

L’home lab è palestra di consapevolezza. Non è “il modo giusto di imparare”. È un modo, e per chi pensa con le mani è il più rapido.

Ragione due: ambiente controllato a costo marginale zero

La seconda ragione è il vero motivo economico per cui Romiltec mantiene un home lab serio. Da quando il team è cresciuto a cinque persone e ai progetti attivi sono diventati 10-30 (tenant editoriali, prodotto AI Multisite, prototipi interni, R&D di routing multi-LLM), il MacBook di ciascuno di noi ha smesso di reggere il peso di tutto. Docker stack pesanti, modelli AI di test, indici Typesense da centinaia di milioni di articoli: roba che 5 anni fa stava in un container locale e che oggi pretende un mini-cluster.

La soluzione che abbiamo adottato è dare a ogni dev un set di LXC dedicate sul cluster Proxmox interno, accessibili da qualsiasi rete via Tailscale. Sviluppi sul tuo MacBook, ma il database, l’indice di ricerca, il queue worker, il modello AI girano su LXC reali con risorse vere, sul ferro di casa. Il MacBook diventa un thin client per IDE e browser, niente di più.

Il calcolo economico è netto. Il mini PC che fa da nodo del cluster di sviluppo è costato 280 euro su AliExpress più 50 euro di RAM extra, per 8 core / 16 thread / 32 GB RAM. Energia: in zona 30 euro all’anno, perché il consumo medio è sui 25 W. Costo totale ammortizzato su 3 anni: poco più di un caffè al giorno. Cinque dev su quel ferro in parallelo, ognuno con LXC isolate, fanno tutti i loro test senza che il MacBook si pieghi. Lo stesso carico, tradotto in VPS Hetzner, sarebbe nell’ordine di 200-300 euro al mese, e ogni dev avrebbe spazio limitato.

Questa è R&D a costo marginale zero. Quando nasce un’idea, in stand-up del lunedì, non devo dire “valutiamo se vale la spesa di provisioning di una VM su Hetzner per fare il proof of concept”. Dico: “spinniamo una LXC sul cluster casa stasera”. E giovedì sappiamo se l’idea regge. La cadenza di sperimentazione cambia. Le idee marginali vengono testate, perché testarle non costa niente. Quelle che reggono escono dal lab e diventano servizi su Hetzner. Le altre vengono spente con un pct destroy e nessun rimorso.

Questo, per un founder tecnico, è il valore strategico vero dell’home lab nel 2026. Non lo è per chi gestisce una webagency che monta WordPress per piccoli clienti su un piano tutto compreso: per loro, l’home lab è overhead. Per chi vive di prodotto e di R&D, è infrastruttura strategica.

Ragione tre: sovranità del dato, AI on-premise, anti lock-in

La terza ragione è quella che, citata dal palco del WP Meetup di Pisa di marzo, ha fatto annuire la sala con la frase che mi è rimasta più di tutte: “siamo diventati i giardini dei cinque grandi”. Era un partecipante che parlava del lock-in dei modelli cloud, e aveva ragione. Apple, Google, Microsoft, Meta, e in posizione decisiva oggi anche Anthropic e OpenAI, hanno costruito ciascuno un giardino in cui i nostri dati personali e aziendali stanno comodi finché stanno dentro, e diventano illeggibili appena cerchi di portarli fuori.

Sul versante personale, la conseguenza è banale: le foto di famiglia delle mie due figlie, i video del 2015 al mare, il PDF del primo curriculum che scrissi nel 2009, stanno tutti su Google Photos e Google Drive. Se Google domani cambia pricing, dimezza la quota gratuita, mette pubblicità nel viewer, o perde l’accesso al mio account per un falso positivo di sicurezza, io perdo dieci anni di archivio di vita. Tenere una copia leggibile in casa, su un NAS TrueNAS RAID-Z2, sincronizzata in cifrato off-site su un secondo provider EU, è una decisione di sovranità: il mio archivio non vive in un giardino di qualcun altro.

Sul versante aziendale, la conseguenza è strategica. Romiltec gira un set di esperimenti AI in casa con modelli on-premise (GLM 4.7 Flash, Qwen3 30B MoE, GPT OSS 20, Whisper) su una scheda dedicata, con un chiaro vantaggio di governance: i dataset editoriali dei nostri tenant non escono mai dall’infrastruttura controllata. Quando un cliente chiede dove va il mio articolo prima di uscire dal vostro pre-processing AI?, la risposta è precisa: resta in zona europea, e per le elaborazioni R&D resta sul ferro di casa di Rocco. È un argomento che si traduce in audit semplici e in clausole contrattuali pulite. È data residency operativa, non solo dichiarata.

C’è anche un vantaggio economico che si è fatto serio negli ultimi sei mesi. I prezzi delle API LLM commerciali sono in aumento e in fluttuazione costante. Con un modello on-premise di buona qualità che gira su una 5090 a casa, il costo marginale di una chiamata è il consumo elettrico della scheda durante l’inferenza, niente di più. Per i task ad alta cardinalità (classificazione di milioni di articoli per i pipeline editoriali, summarization batch, voice-to-text con Whisper), il calcolo è netto: on-premise vince. Per i task agentici complessi (Cloud Code che lavora su una codebase grossa) il cloud commerciale vince ancora. La tecnica è scegliere il giusto strumento per il giusto task, e l’home lab mi dà l’opzione che il puro cloud non mi dà.

Ragione quattro: cloud personale senza abbonamenti

La quarta ragione è la più “domestica” e la più sottovalutata da chi vede l’home lab solo dal lato professionale. Ho 41 anni, due figlie nate nel 2015 e nel 2019, una famiglia che produce foto e video al ritmo di 200 GB all’anno. Le foto sono accessibili dal mio iPhone, da quello di mia moglie, dal MacBook delle bambine quando fanno i compiti. Tutto questo gira su un Nextcloud self-hosted su un mini PC dedicato, con storage su un NAS TrueNAS in RAID-Z2 (5 dischi SSD SATA, dei quali due possono morire senza che io perda un byte), backup cifrato off-site su Backblaze B2 region EU.

Il costo: il mini PC era un PC vecchio di famiglia, riconvertito. I dischi sono SSD SATA recuperati. La licenza Nextcloud è zero. L’unica spesa ricorrente è il backup B2, sui 4 euro al mese per il volume di archivio. Il confronto con un piano famiglia Google Drive da 2 TB (sui 100 euro all’anno) o un piano iCloud equivalente è netto, ma il vero punto non è il prezzo. È che le foto delle bambine non sono una merce di scambio per un servizio “gratis”. Stanno in casa. Sono mie. Tornano a essere oggetti, non lead di marketing.

L’argomento “ma fai questo solo perché sei tecnico” è vero solo in parte. Il setup iniziale richiede competenze. La gestione quotidiana, una volta che il sistema è in piedi, costa 15 minuti al mese: controlli i log di backup, verifichi che lo snapshot ZFS più recente sia integro, aggiorni Nextcloud quando esce una minor release. Per chi è dentro al mestiere, è meno fatica di gestire i fix continui delle policy GDPR di un servizio cloud che cambia ToS due volte l’anno.

Ragione cinque: backup secondario di servizi cloud

La quinta ragione è di igiene operativa. Anche se uso Google Workspace per la posta aziendale, anche se il backup off-site di Romiltec va su Backblaze B2 region EU, l’home lab è il livello finale di backup secondario dei servizi che dipendono da provider terzi.

Concretamente: ogni notte un job sul cluster di casa fa pull via API Google Workspace di tutta la posta inbox e archive di tutti i miei account, in formato MBOX, e la committa su un repo Borg locale cifrato. Ogni notte un job analogo fa dump dei contatti, dei file di Drive marcati come business-critical, dei calendari. Ogni settimana un job pulla la lista dei miei repo GitHub privati e li committa anche localmente. Ogni mese, un check di restore campionato (estraggo una mail random dal Borg di tre mesi fa e verifico che sia leggibile).

È paranoia? È insegnamento operativo. Nel 2024 un nostro cliente ha avuto un account Google sospeso per un falso positivo di sicurezza durato dieci giorni, e in quei dieci giorni la sua azienda non vedeva la sua posta. Il backup secondario è il livello in cui la mia continuità di business non dipende dalle decisioni di un provider americano che decide via algoritmo se sono o meno trustworthy. È la stessa logica del backup 3-2-1, applicata al SaaS.

Il costo di questo backup secondario è basso: occupa sui 200 GB sul NAS di casa, gira di notte, lo gestisce uno script Borg di 60 righe. La tranquillità che produce è alta. Vale lo storage che consuma.

Quando l’home lab NON vale la pena

Ho elencato le ragioni a favore. Onestà dice di elencare anche le ragioni contro, perché un Workshop che vende solo l’idea positiva non è onesto.

L’home lab non vale la pena se non hai tempo. Il setup iniziale è non banale: due o tre weekend pieni per montare il primo nodo Proxmox, il primo NAS, il primo tunnel di accesso remoto. Dopo è in zona 30 minuti al mese di manutenzione attiva. Ma quei due o tre weekend iniziali devi averli, e devi avere la pazienza di sbattere la testa contro un MTU che non passa o un kernel che non boot. Se la tua giornata è già piena al 105% fra lavoro e famiglia, comprati un piano cloud e dormi tranquillo.

L’home lab non vale la pena se non ti diverte smanettare. Dico una banalità: se l’idea di tre ore di terminale al sabato pomeriggio ti fa venire l’orticaria, l’home lab non è il tuo strumento. C’è chi ha una passione per il proprio lavoro che si estende dal lunedì alla domenica, e chi ha una sana separazione fra ufficio e casa. Entrambe le posture sono legittime. Solo la prima rende l’home lab fattibile. Senza la curiosità di base, ogni problema è un fastidio.

L’home lab non vale la pena se i tuoi dati domestici non valgono il rischio fisico. Un home lab vive in casa, esposto al furto, all’incendio, alla rottura idraulica, all’umidità del garage. Niente di drammatico, ma è un rischio che non hai con un datacenter Tier III. La mitigation è il backup off-site (B2 EU per Romiltec, B2 EU anche per il NAS di famiglia), ma il backup off-site funziona solo se il dato critico è duplicato. Se in casa hai roba che non hai duplicato altrove, il fuoco se la prende. Se non sei attrezzato a fare il duplicato off-site, l’home lab introduce un rischio invece di mitigarlo.

L’home lab non vale la pena se il tuo carico di lavoro è prevalentemente di compliance HIPAA o equivalenti. Per regimi di compliance sanitaria stretta, il cloud certificato è quasi sempre l’unica via ragionevole. L’home lab può ospitare R&D, ma non può ospitare i dati di produzione regolamentati. È una distinzione importante che ho dovuto chiarire con un cliente potenziale lo scorso autunno: il fatto che io tenga ferro in casa non significa che ci faccia girare tutto. Il regime di compliance dei dati determina dove i dati vivono.

Il punto di vista founder: l’home lab come dichiarazione di indipendenza tecnica

Tiro le fila. L’home lab nel 2026, per un founder tecnico, è cinque cose insieme: palestra di consapevolezza, ambiente di R&D a costo marginale zero, presidio di sovranità del dato, cloud personale di famiglia, livello finale di backup secondario. Nessuna di queste cinque, da sola, giustifica l’investimento di tempo e attenzione. Tutte e cinque insieme, sì.

Quello che ho capito in 16 anni di home lab (dal Pentium 4 con Ubuntu del 2010 al cluster Proxmox + TrueNAS + GPU dedicate del 2026) è che l’home lab non è una scelta di portafoglio. È una scelta di postura. La postura è: non delego al cloud commerciale la comprensione di come funzionano i miei strumenti, la velocità della mia sperimentazione, il custodire dei miei dati personali e aziendali sensibili, l’indipendenza dai cambi di policy di provider che non ho scelto democraticamente. È esattamente la postura del chiedere come funziona, prima del quanto costa, di cui parlavo in un post precedente sul mio metodo di lavoro.

Per chi ha la stessa postura, il calcolo è banale: l’home lab restituisce molto più di quanto costa. Per chi non ce l’ha, anche un home lab costoso non restituirebbe nulla, perché il valore non sta nel ferro: sta nell’uso che ne fa chi lo possiede.

Una sera di aprile, fine cena, sopra l’armadio del garage un mini PC fa luci colorate. Quelle luci sono un servizio R&D che gira, un Nextcloud che sincronizza foto di famiglia, un backup notturno che parte verso un datacenter europeo. L’amico in casa per il caffè si fa una idea. Io mi tengo la mia: nel 2026, tenere ferro in casa è una dichiarazione di indipendenza tecnica, e una scelta operativa che paga ogni mese, sul piano del lavoro, della famiglia e della governance dei dati. Per chi vive in quel mestiere, vale ancora la pena. Anzi, oggi più di prima.