windows 7, odzyskiwanie i pita...

ostatnio w ramach porządków i pewnych zmian w rozkładzie i zawartości biurka, postanowiłem przenieść swoją instalację windows 7 z dysku Seagate Momentus XT 320GB na jeden z OCZ Vortexów, które zostały mi po zmianie moich MacBookowych dysków na Intele 710. ponieważ miałem już swego czasu pozytywne wrażenia po jednokrotnym zastosowaniu windowsowego backup & restore, postanowiłem skorzystać z tego mechanizmu i tym razem. błąd. boot z USB instalacyjnego z Windows 7 i próba wykonania odzyskania obrazu z zasobu sieciowego kończyła się błędem (0x80070057) informującym mnie o złym parametrze. ma to sens, choć niestety, nie posunęło mnie w rozważaniach. parę godzin zmian, w końcu poddałem się i wykonałem kopię na jeden z pozostałych dysków lokalnych - ale niestety zgodnie z moimi przewidywaniami, nie zapewniło mi to sukcesu. dramat. moje google-fu okazało się nienajgorsze, ponieważ po paru kolejnych poszukiwaniach znalazłem wątek, w którym odważni odkrywcy życia wewnętrznego systemu Windows zauważyli, że odzyskanie obrazu ma szanse powodzenia, gdy tuż przed jego rozpoczęciem wyjmie się klucz USB z systemu. istotnie, zapewniło to sukces, ponieważ udało mi się uniknąć tego błędu - trafiłem następnie na inny (0x80042406). tym razem okazało się, że windows backup nie potrafi w locie dostosować odtwarzanego obrazu do mniejszej partycji mimo, że danych jest wielokrotnie mniej. seagate miał jedną, 320GB partycję, na której było tylko 70GB danych. OCZ ma pojemność 240GB… i tu kolejny zgrzyt. po kolejnym reboocie, zamianie dysków, zmniejszeniu partycji do 200GB (kolejna masakra - narzędzie systemowe nie może zmniejszyć partycji poniżej ostatnich sektorów zajętych przez pliki niemożliwe do przesunięcia - co oznacza, że miałem dużego farta, ponieważ 200GB do których mogłem zmniejszyć dysk mieściło się na OCZ - defrag ani inne narzędzia nie potrafiły tu pomóc) i tradycyjnym wyjęciu klucza USB we właściwym momencie - odtworzenie obrazu się rozpoczęło. ...

września 16, 2012 · Łukasz Bromirski

service provider wargames :)

na PLNOGu w trakcie swojej sesji o BGP blackholingu zapowiedziałem, że zorganizujemy dla wszystkich chętnych operatorów bardzo techniczne, ale nie pozbawione elementów zabawy i to dobrej zabawy - szkolenie techniczne z różnego rodzaju mechanizmów i technik do zastosowania w swoich sieciach. mam na myśli blackholing, sinkholing, QPPB, NetFlow a także rzeczy takie jak ochrona szkieletu MPLS/VPLS, utrzymanie mimo wszystko szybkiej konwergencji, dobre praktyki utrzymania urządzeń opartych o IOS, IOS-XE i IOS-XR i wiele, wiele innych. wstępnie termin ustalamy na 9-15 kwietnia (realnie warsztaty potrwają od 9’ego do 14’ego i to od rana do nocy :) ). jeśli zainteresowała Was taka reklama, poczekajcie na doprecyzowanie agendy poszczególnych dni i szykujcie budżety :) ...

października 7, 2011 · Łukasz Bromirski

flexible netflow i CLI - część druga

jakiś czas temu pisałem o możliwości podejrzenia na żywo co dzieje się z ruchem przechodzącym przez router i jak rozkłada się on z podziałem na poszczególne systemy autonomiczne (z opcjami sortowania/agregacji po bajtach, pakietach i innych cechach). niedawno do możliwości flexible netflow dołączyła możliwość wykorzystania mechanizmu NBAR, a dokładniej - posłużenia się nim do segregacji danych w pamięci podręcznej NetFlow. co to oznacza? ...

lutego 15, 2011 · Łukasz Bromirski

pf, altq i piękno dostępu do kodu...

…właśnie po raz kolejny mnie to uderzyło. przed chwilą w ramach pewnych eksperymentów potrzebowałem zdefiniować dużo tysięcy (bardzo dużo) kolejek korzystając z ALTQ. niestety, bardzo szybko w trakcie parsowania pf.conf pfctl zameldował, że: pfctl: DIOCADDALTQ: Cannot allocate memory wystarczy jednak w tych trzech plikach: /usr/include/altq/altq_hfsc.h /usr/src/sbin/pfctl/missing/altq/altq_hfsc.h /usr/src/sys/contrib/altq/altq/altq_hfsc.h zmienić stałą #define HFSC_MAX_CLASSES 64 na żądaną wartość, przebudować kernel i wszystko działa jak powinno.

stycznia 23, 2011 · Łukasz Bromirski

serwer OpenSSH pod windows 7

dostawanie się do zdalnych Windowsów przez Remote Desktop jest w momencie pracy na konsoli lub na łączu które nie oferuje radości posiadania jakiejkolwiek przepustowości po prostu męką. tak się złożyło, że parę takich maszyn stoi w różnych miejscach - i fajnie byłoby mieć do nich zdalny dostęp. na pomoc przychodzi cygwin (jest jeszcze VanDyke’owy V-Shell, ale troszkę drogi do zastosowań niebiznesowych), który pozwala zastosować prawdziwe OpenSSH i wszelkie korzyści z tym związane (SCP/etc). ...

stycznia 8, 2011 · Łukasz Bromirski

bgp w labie

dawno dawno temu, zabawa z BGP (samo nieco ironiczne tłumaczenie tego akronimu jako Bardzo Groźny Protokół zdaje się zdradzać w którą stronę podąża ten akapit) była zdecydowanie zarezerwowana dla wtajemniczonych tego świata, którzy nieco jak Lemowski Trurl i Klapaucjusz naśmiewali się z niewiedzy, ale z drugiej strony sami tą wiedzą się nie dzielili. potem zmieniło się wiele, opary w jaskiniach wiedzy nieco się rozrzedziły, pojawiły się kursy, certyfikacje, elitarne a potem masowe kursy - i nagle BGP ma w domu każda gospodyni domowa, gdyż bez niego nie wrzuci sobie via bluetooth nowego kontaktu do komórki. ...

listopada 21, 2010 · Łukasz Bromirski

lisp@plnog#5

uparłem się - a choć wiało w oczy i pierwszego dnia infrastruktura dała nam w kość, udało mi się odpalić w trakcie PLNOGa routery xTR dla LISP. nie, nie chodzi o programowanie routerów Cisco za pomocą tego języka programowania, a o Location/ID Split, czyli koncepcje zmiany podejścia do obsługi ruchu w Internecie. w skrócie - obsługujemy ruch jak do tej pory, ale poszczególnym lokalizacjom (firmom, użytkownikom) przydzielamy adresy IPv4 i IPv6 z nowej puli - dla której ruch obsługujemy w sposób specjalny. LISP jest de facto koncepcją na sieć nakładkową, w czym nie ma nic rewolucyjnego, ale jest jednocześnie pierwszą wdrożoną w Internecie “na żywo” taką siecią. po co zatem w ogóle bawić się w takie rzeczy? LISP daje między innymi jasną do definicji politykę inżynierii ruchu - zarówno wchodzącego jak i wychodzącego i to bez potrzeby stosowania BGP. dla operatorów jest prostym sposobem jak ograniczyć stale rosnące zapotrzebowanie routerów brzegowych na pojemność tablic FIB (szkieletowe i tak zwykle obsługują ruch za pomocą MPLSu). ...

października 24, 2010 · Łukasz Bromirski

flexible netflow w służbie statystyk

kwestia dokładnego nadzoru ruchu wymienianego pomiędzy systemami autonomicznymi w dobie peerowania się ze wszystkimi we wszystkich dostępnych IXach stała się kluczowa do możliwości utrzymania realnej przewidywalności prowadzonego biznesu, optymalizacji wykupionych usług oraz oczywiście - optymalnej inżynierii ruchu w sieci. dosyć popularnym, otwartym oprogramowaniem do prostego zliczania i wizualizacji ruchu wymienianego z poszczególnymi ASami oraz obciążenia połączeń z rozbiciem na poszczególne ASy jest pakiet AS-Stats - bardzo prosty, wydajny i dający szybko wgląd w to co się dzieje na routerze. kluczowym elementem pakietu jest plik knownlinks, który zawiera zestawienie identyfikatorów interfejsów - ponieważ próbki NetFlow eksportowane do kolektora zawierają tylko identyfikator. plik ten wygląda następująco: ...

września 19, 2010 · Łukasz Bromirski

pf_ring, 32 tysiące reguł i Intel X520

wygląda na to, że coraz więcej ciekawych rzeczy pojawia się ‘pod strzechami’. parę osób skupionych wokół projektu nTop we współpracy z Intelem stworzyło implementację sterownika dla linuksa pozwalającą na stworzenie do 32 tysięcy reguł filtrujących realizowanych sprzętowo przez kartę sieciową - kartę 10GE Intel X520. 32 tysiące reguł to trochę mało żeby obsłużyć router z duża ilością użytkowników i sesji, ale prawdopodobnie wystarczająco żeby zaprojektować ‘sprzętowy’ firewall dla serwera czy stacji roboczej. takie zabawy prowadziła swego czasu NVidia w chipsetach nForce i pochodnych. ...

września 4, 2010 · Łukasz Bromirski

RAIDu historia krótka

część z zaglądających do mnie na stronę zauważyła, że przez jakiś czas strona była niedostępna. złożyła się na to awaria RAIDu 5’ego w moim serwerze na którym stoi strona WWW. niezawodne FreeBSD bardzo starało się kontynuować pracę po awarii pierwszego dysku ale w ciągu 30 minut (!!!) padł drugi dysk. temperatura bardzo odpowiednia dla pracy całości, najwyraźniej po prostu 5 lat ciągłej pracy w końcu je wykończyły (jeśli kogoś to interesuje, były to identyczne dyski Seagate’a). na szczęście procedura odczytania zawartości z dysków zajęła tylko trzy dni :D ...

czerwca 12, 2010 · Łukasz Bromirski