Utrata danych w małej firmie zwykle nie kończy się filmową sceną w serwerowni, tylko… ciszą. Strona przestaje działać w weekend, księgowa w poniedziałek nie może otworzyć pliku z rozliczeniami, a handlowcy odkrywają, że katalog produktowy wrócił do wersji sprzed miesiąca. Wspólnym mianownikiem takich historii jest brak świeżych i sprawdzonych kopii. Zasada 3-2-1 jest prosta: trzy kopie danych, na co najmniej dwóch typach nośników, z jedną kopią poza siedzibą. Ten artykuł przekłada tę zasadę na konkret: jak zbudować i utrzymać plan kopii zapasowych obejmujący hosting www, dane z biura (NAS) i chmurę – tak, by test przywrócenia nie był loterią.
Kopie zapasowe nie są celem samym w sobie. Mają umożliwić powrót do pracy po awarii w akceptowalnym czasie i z akceptowalną stratą danych. Dwie liczby porządkują całość: RPO (Recovery Point Objective – ile danych możesz stracić; np. 4 godziny pracy) i RTO (Recovery Time Objective – ile czasu możesz być „w dół”; np. 2 godziny). Dla strony firmowej RPO=24h często wystarczy, ale dla systemu zamówień lub plików księgowych bezpieczniej przyjąć RPO=1–4h. Te liczby decydują o harmonogramach, narzędziach i kosztach. Bez nich łatwo przepłacić albo – co gorsza – żyć w fałszywym poczuciu bezpieczeństwa.
Zanim wybierzesz narzędzia, spisz, co naprawdę istnieje. Zwykle wychodzą trzy kategorie: (1) hosting www (pliki strony, repozytoria, bazy danych, skrzynki pocztowe), (2) dane w biurze (udostępnienia na NAS, foldery działów, kopie stacji roboczych), (3) usługi w chmurze (dyski współdzielone, poczta, dokumenty, CRM). Każda kategoria ma inny rytm zmian i inne wymagania. Skupimy się na układzie 3-2-1 obejmującym hosting, NAS i chmurę do przechowywania kopii niezmienialnych.
W wersji minimalistycznej, a zarazem odpornej na typowe awarie, architektura wygląda tak: (A) Kopie w hostingu – szybkie snapshoty i zrzuty baz, trzymane krótko, do szybkich „cofnięć”. (B) Kopia lokalna na NAS – pełniejsze, skonsolidowane kopie z hostingu i z komputerów, trzymane dłużej, dostępne w sieci biurowej do szybkiego przywrócenia. (C) Kopia niezmienialna w chmurze – szyfrowane archiwum z retencją i immutability (blokadą zapisu), odcięte od ataków ransomware i przypadkowych skasowań. Ta trójka zapewnia elastyczność: awaria jednego elementu nie unieruchamia całego planu.
Panele hostingowe często oferują automatyczne snapshoty i przywracanie jednym kliknięciem. To świetne na wypadek złej aktualizacji wtyczki czy edycji motywu, ale nie wystarcza jako jedyne zabezpieczenie: kopia „u dostawcy” nie jest „poza siedzibą” i bywa współdzielona z tą samą infrastrukturą. Dlatego: skonfiguruj codzienny zrzut bazy (mysqldump/pg_dump) i paczkę plików (tar/zip bez katalogów tymczasowych), trzymaj minimum 7 rotacji oraz eksportuj te kopie na NAS po bezpiecznym połączeniu (SFTP/rsync przez SSH). Dobra praktyka: po każdej większej aktualizacji zrób ręczny punkt z krótszym opisem („przed aktualizacją wtyczek 2025-10-01”).
NAS pełni dwie role: (1) magazyn na bieżące udostępnienia dla zespołu i (2) węzeł backupu. Jeśli NAS ma dwa dyski w RAID1, pamiętaj: RAID to wysoka dostępność, a nie kopia zapasowa. Na NASie utwórz udział „Backup” i odseparuj go od zwykłych udziałów – użytkownicy nie powinni mieć tam praw zapisu. Zaciągaj na NAS: zrzuty z hostingu, wersje plików z komputerów (client backup), oraz – jeśli używacie – exporty danych z systemów branżowych (np. ERP). Stosuj wersjonowanie i retencję (np. 30 dni codziennych, 12 miesięcy comiesięcznych). NAS to miejsce, z którego przywrócisz plik lub katalog w minuty, bez ściągania z internetu.
Największym ryzykiem są dziś ataki szyfrujące. Jeśli atakujący uzyska dostęp do sieci biurowej, może zaszyfrować również udział na NAS. Dlatego trzecią kopię trzymaj w chmurze jako obiektowy magazyn z włączoną immutability (blokadą modyfikacji/wymazania przez określony czas) i wersjonowaniem. Pliki wysyłaj zaszyfrowane po stronie klienta (hasła/klucze tylko u Ciebie). Retencja niech odzwierciedla wymagania prawne i biznesowe: np. 30 dni wersji dziennych + 12 miesięcy wersji miesięcznych, z 7-dniową blokadą niezmienialności dla dziennych i 30-dniową dla miesięcznych. Dzięki temu nawet „admin złośliwie skasował” nie niszczy ostatniej kopii.
Harmonogram musi respektować cykl pracy firmy i RPO/RTO. Przykładowy układ dla małego zespołu (czas lokalny, Europa/Warszawa): o 22:00 inkrementy plików z komputerów → NAS, o 23:00 zrzuty baz i paczka plików z hostingu → NAS, o 01:00 transfer różnic NAS → chmura. W weekendy dodatkowo pełny backup i weryfikacja integralności. Raz w miesiącu archiwum miesięczne z dłuższą retencją. Każde zadanie ma alert e-mail/komunikator „sukces/porażka” – brak alertu = problem.
To, co odróżnia „plan na papierze” od realnego zabezpieczenia, to cykliczne testy. Raz w miesiącu przywróć na środowisko testowe: archiwum strony (plik + baza), folder z NAS i losowy plik z archiwum chmurowego. Sprawdź spójność (sumy kontrolne), uprawnienia i czas trwania. Zanotuj kroki w runbooku (krótkiej instrukcji odzyskania), przechowuj kopię offline (wydruk/PDF na zaszyfrowanym nośniku), a link do wersji aktualnej miej w managerze haseł. Dzięki temu w stresie nie odkrywasz procedury od zera.
Każda warstwa ma mieć inny zestaw poświadczeń. Konta techniczne do backupu nie powinny być lokalnymi administratorami na stacjach. Klucze szyfrujące trzymaj w managerze haseł z dostępem co najmniej dwóch osób (redundancja wiedzy). Dostępy do chmury ogranicz politykami (rola „tylko zapis” dla procesu backupu, „tylko odczyt” dla weryfikacji, „admin” wyłącznie dla dwóch osób – z 2FA). Kopii nie montuj na stałe w systemie plików użytkowników: im mniej okazji do „kliknięć przez przypadek”, tym lepiej.
W serwisach opartych na CMS różne mechanizmy mają różny sens. Migawka systemowa (snapshot) szybko cofa całą maszynę/hosting do punktu w czasie – dobre na „awarię aktualizacji”. Eksport bazy (mysqldump/pg_dump) jest lepszy, gdy chcesz przywrócić selektywnie lub porównać różnice. Archiwum plików (media, motywy, wtyczki) zamknij w paczce z wykluczeniami (cache, logi). Mieć oba – migawkę i zrzut – to komfort decyzyjny: cofasz całość albo składasz selektywnie. Pamiętaj, że migawka w tym samym środowisku nie spełnia „1” w 3-2-1 (kopia poza siedzibą).
Komputery biurowe lub laptopy najlepiej chronić przyrostowo do NAS, z włączonym wersjonowaniem i wykluczeniami (cache przeglądarki, katalogi tymczasowe). Co tydzień warto mieć pełną kopię w obrazie najważniejszej stacji (np. dział księgowości), co ułatwia szybkie odtworzenie całego środowiska po awarii sprzętu. „Nośnik innego typu” w praktyce uzyskujemy przez połączenie dysków NAS (HDD) z chmurą obiektową i ewentualnie okresowym snapshotem offline na zewnętrzny dysk odłączany fizycznie (air-gap) i przechowywany poza biurem.
Najlepsze technologie nie pomogą, jeśli codzienność jest chaotyczna. Dwie zasady mocno podnoszą odporność. Po pierwsze, segregacja uprawnień: użytkownicy pracują na kontach bez uprawnień administratora; admin służy tylko do instalacji. Po drugie, polityka plików „wspólnych”: ważne dokumenty żyją na NAS (z wersjonowaniem), a nie na pulpicie. Wtedy pojedynczy „zły klik” nie niszczy jedynej kopii. W połączeniu z niezmienialnym archiwum w chmurze daje to spokojny sen.
Każde zadanie backupowe powinno kończyć się raportem (sukces/porażka, liczba plików, przyrost, czas trwania). Jeden skrótowy e-mail dziennie dla osoby odpowiedzialnej wystarczy, ale ustaw także alert „czerwony” na porażkę. Raz w tygodniu warto przejrzeć wykresy przyrostów: nagły spadek lub wzrost to sygnał, że coś się dzieje (np. katalog przeniesiono, ktoś zmienił strukturę, wirus szyfruje pliki). Monitoring nie musi być skomplikowany – ważna jest regularność.
Koszt 3-2-1 to suma trzech czynników: sprzęt NAS (jednorazowo + dyski), transfer i składowanie w chmurze (miesięcznie), oraz czas ludzi (konfiguracja i testy). Oszczędzać można mądrze: kompresja i deduplikacja (mniej danych do chmury), „glacierowe” klasy składowania dla archiwów miesięcznych, krótsza retencja dla kopii o niskiej wartości (np. stacje, na których brak krytycznych danych). Nie oszczędzaj na immutability i testach przywracania – to elementy, które robią różnicę między „mieliśmy backup” a „wróciliśmy do pracy”.
Dzień 1: ustal RPO/RTO i listę systemów. Dzień 2: skonfiguruj zrzuty baz i archiwum plików w hostingu. Dzień 3: postaw NAS, utwórz udziały „Dane” i „Backup”. Dzień 4: uruchom kopie stacji → NAS (inkrementy nocne, wersjonowanie). Dzień 5: transfer NAS → chmura (szyfrowanie, wersjonowanie, immutability). Dzień 6: harmonogramy + alerty. Dzień 7: pierwszy test przywrócenia strony na subdomenę testową. Dzień 8: test przywrócenia folderu z NAS. Dzień 9: spis „runbook” i dostępów; klucze w managerze haseł. Dzień 10: krótkie szkolenie zespołu i wpisanie testu miesięcznego do kalendarza.
Zasada 3-2-1 nie jest kosztowną fanaberią, tylko praktyką, która zamienia kryzys w niedogodność. Gdy masz szybkie „cofnięcie” w hostingu, solidny NAS z wersjami i zaszyfrowane archiwum w chmurze z niezmienialnością, przestajesz się zastanawiać „czy odzyskamy”, a jedynie „jak szybko”. Kluczem jest prostota i dyscyplina: jasne RPO/RTO, stały harmonogram, alerty i comiesięczny test. Reszta to rutyna – i o to w kopiach zapasowych chodzi.
NIST – nist.gov – wytyczne bezpieczeństwa i odporności na incydenty, w tym planowanie kopii zapasowych.
CERT Polska – cert.pl – raporty o zagrożeniach (ransomware) i praktykach obrony w polskich realiach.
Cloud Security Alliance – cloudsecurityalliance.org – dobre praktyki przechowywania danych w chmurze i polityk niezmienialności.
US-CISA – cisa.gov – zalecenia dot. backupów 3-2-1, segmentacji uprawnień i odporności na ransomware.
Sprawdź naszych specjalistów w praktycznym działaniu. Zobacz co możemy zrobić dla Twojej firmy - przejrzyj ofertę lub skorzystaj z bezpłatnej konsultacji.