Category

Metryki

Category

O długach i kredytach słyszymy na każdym kroku. W dobie wszechobecnego konsumpcjonizmu karty kredytowe, leasingi i kredyty hipoteczne to codzienność. O długu technicznym czy technologicznym też słyszał chyba każdy, kto ma styczność z projektami informatycznymi. Niemniej jednak, przemyślane i niebanalne podejście do tematu widuje się zaskakująco rzadko.  Jak zdefiniować dług techniczny, co różni go od zwykłego niedbalstwa oraz jak możemy go mierzyć – to wszytko wyjaśnię w poniższym wpisie.

Czym jest dług?

Dług jest pewnego rodzaju zobowiązaniem, czy może raczej obowiązkiem spłaty tego zobowiązania na rzecz wierzyciela. Zwyczajowo od długu nalicza się odsetki, które podwyższają podstawowe zobowiązanie. Im szybciej taki dług spłacamy, tym mniejsze odsetki oddajemy. Podobnie sprawa wygląda z długiem technicznym. W tym wypadku odsetki przybierają formę dłuższego czasu wymaganego do wdrożenia zmian. Przyczyny występowania długu technicznego są różne. Czasem wprowadza się go świadomie poprzez wdrażanie rozwiązań tymczasowych czy też z uwagi na istotne okoliczności zewnętrzne. Z reguły jednak jest on konsekwencją presji biznesowej, błędnych decyzji projektowych, przekładania w nieskończoność refactoringu czy aktualizacji zależności.

Czym dług techniczny nie jest?

Jeżeli dług ma mieć jakikolwiek sens, musi, tak jak kredyt, nieść ze sobą jakąś korzyść. Tak samo zaciągnięcie długu technicznego musi gwarantować solidny zysk. Nie jest to więc efekt złych praktyk, wynikających zazwyczaj z lenistwa bądź braku umiejętności. Jeżeli nie piszemy testów i świadomie rezygnujemy z techniki Test Driven Development, to stwierdzenie, że robimy to, „żeby było szybciej”, jest po prostu zakłamywaniem rzeczywistości. Nawet jeżeli samo napisanie kodu będzie trwało krócej (z czym zresztą praktycy TDD się nie zgodzą), to już jego wdrożenie na produkcję czy też pierwsza modyfikacja cały ten „bonus” pochłonie. Podobnie jest z ignorowaniem podstawowej struktury kodu. Tworzenie ogromnych metod (mających po kilka tysięcy linii), dlatego, że nie ma czasu na refactoring? A tak szczerze – ile zajmuje wydzielenie fragmentu do osobnej metody? 5 sekund? Nie oszukujmy się zatem, że nie robimy tego z powodu braku czasu.

Metryki długu technicznego

Jak mierzycie w projekcie dług techniczny? „MD to fix” wyświetlane przez SonarQube? To wyjątkowo popularna metoda, ale według mnie wyjątkowo bezwartościowa. Nie jest to liczba, która realnie jest w stanie wpłynąć na czas dostarczania zmian, jakość procesu wytwórczego czy też bezpieczeństwo aplikacji. Jak inaczej możemy ugryźć temat pomiaru długu? Przede wszystkim należy zastanowić się, w czym nam on w ogóle przeszkadza. Według mnie podstawowy problem dotyczy właśnie czasu wykonania zmian, zarówno ze względu na pracochłonność ich implementacji, jak i czas potrzebny na kompilacje i wdrożenie. Jak można przełożyć to na liczby?

„Czas potrzebny na podbicie wersji zależności po publikacji CVE. Przyjmijmy wartość 15 minut. Co gwarantuje ta metryka? Przede wszystkim szybką reakcję na opublikowanie podatności bezpieczeństwa, w wykorzystywanych przez nas bibliotekach czy narzędziach. Powiedzmy sobie szczerze, że w tak krótkim czasie możemy zaktualizować się tylko o wersję patch (zgodnie z wersjonowaniem semantycznym). Zatem, aby utrzymać tak rygorystyczne kryteria, musimy regularnie dbać o aktualizację wersji minor i major, aby cały czas wykorzystywać linię zapewniającą stałe wsparcie dostawcy/autorów. Samo podbicie zależności to jednak dopiero połowa sukcesu. Należy jeszcze wdrożyć zaktualizowaną paczkę na produkcję. I tu pojawia się druga metryka.

„Czas od commitu (wykonania) zmiany do wdrożenia jej na wszystkie instancje produkcyjne”. Znów 15 minut. Tym razem dbamy o to, aby kompilacja aplikacji była możliwie szybka. Następnie wykonujemy wdrożenie na środowisko staging, tam testujemy podstawowe procesy biznesowe. Po prawidłowym zakończeniu testów rozpoczynamy wdrożenie produkcyjne. Oczywiście bez pełnej automatyzacji uzyskanie tak krótkiego czasu byłoby niemożliwe. Zarówno testy, jak i wdrożenia czy restarty, muszą być wykonywane bez ingerencji człowieka. To zapewnia także powtarzalność i dobrą estymację czasu wykonania.

Także strukturę kodu możemy pośrednio kontrolować za pomocą metryk. „Procent klas oznaczonych jako publiczne”. W skrócie – im więcej klas jest wystawionych publicznie, tym łatwiej doprowadzić system do postaci spaghetti. Klasa upubliczniona, czyli dostępna z dowolnego miejsca w systemie. Często właśnie z lenistwa upubliczniamy więcej niż trzeba. W Javie jest to głównie związane z domyślnymi ustawieniami IDE, które każdą klasę oznaczają jako publiczną. Sama zmiana tego jednego szablonu daje ogromną poprawę jakości tworzonego kodu. Jednak nawet wtedy trzeba pilnować się, aby otwierać jedynie te klasy, które faktycznie są interfejsem danego pakietu/modułu, a nie te, których kawałek akurat przyda się w innym miejscu.

A jak w Waszych projektach wygląda mierzenie się z długiem technicznym? Zachęcam do dyskusji w komentarzach.

Każdy z nas chce być szczęśliwy. Jednak czy da się zmierzyć szczęście? Czy możemy z pełnym przekonaniem stwierdzić, o ile jesteśmy szczęśliwsi danego dnia? Czy ktokolwiek usłyszał „dzisiaj jestem o 10% bardziej szczęśliwy niż tydzień temu”? Szczerze wątpię, jednak jeśli nawet, to czy miałoby to jakikolwiek sens? Nikt przecież nie oczekuje matematycznego podejścia do uczuć. Inaczej natomiast wygląda to w przypadku oprogramowania.

Eksperckie przeczucia

Sukces da się zmierzyć liczbami. A wszyscy, którzy twierdzą inaczej po prostu boją się prawdy.

Jo Nesbo

Tu równie często spotykam się z bardzo luźnym podejściem, „na czuja”, zamiast operowania twardymi liczbami. A mogłoby się wydawać, że to właśnie liczby powinny być naturalnym sposobem komunikacji w świecie technologii.

Szkolenia z architektury systemów często rozpoczynam od pytania: co rozumiemy przez „dobrą architekturę”? Jakie cechy świadczą o tym, że jest ona właściwa? Zazwyczaj odpowiedzi uzależnione są od profilu konkretnej firmy. Kilka z nich jednak się powtarza i ustalamy, że architektura powinna być:

  • utrzymywalna,
  • elastyczna,
  • dopasowana,
  • testowalna,
  • bezpieczna.

Gdy mamy już gotową listę, proszę o zapisanie na kartkach definicji jednej z powyższych cech, np. testowalności. Następnie każdy czyta swoją definicję i z każdą kolejną wypowiedzią rośnie konsternacja.

„Testowalność oznacza możliwość weryfikacji każdego komponentu systemu”

„Testowalność osiągamy przez krótki czas wykonania testów”

„Testowalność rozumiemy jako wysoki procent pokrycia kodu testami automatycznymi”

Co się stało? Chwilę wcześniej wszystko było uzgodnione, a teraz pojawiły się rozbieżności. I całe szczęście, że wydarzyło się to w kontrolowanych warunkach, podczas szkolenia, a nie kiedy wszyscy już wrócili do pracy. Wtedy skończyłoby się na tym, że jeden zespół dodaje testy, aby zwiększać pokrycie, a drugi je usuwa, byleby kompilacja odbywała się tak szybko, jak wcześniej. I konflikt gotowy. A wystarczyło wyrównać poziom świadomości.

Wyrównywanie poziomu świadomości

Do takiej operacji uspójniania oczekiwań możemy wykorzystać liczby. Uzgodnienie skali (bądź też skal) danej cechy, ujednolica jej rozumienie. Przeanalizujmy poniższe przykłady:

„Czas w minutach potrzebny do wykonania testów automatycznych na środowisku ciągłej integracji”

„Procent ścieżek krytycznych pokrytych testami end2end”

„Liczba funkcjonalnych błędów blokujących wykrytych na środowisku produkcyjnym”

„Procent procesów biznesowych możliwych do przetestowania akceptacyjnie bez wykorzystania GUI”

Oczywiście skale te bardzo się między sobą różnią. Ciężko wypracować „jedyną słuszną” definicję jakiejś cechy. Zawsze zależy ona od technologii (będzie inna dla aplikacji web i systemów embedded), stanu projektu (właśnie startuje czy jest rozwijany od 12 lat) czy też oczekiwań klienta (safe to fail czy fail-safe). Ważne jest jednak, że w obrębie jednej grupy ludzi dane zagadnienie rozumiane jest jednoznacznie.

Metryki

Skoro mamy już skale, możemy pójść krok dalej i zdefiniować metryki. Zazwyczaj określamy trzy wartości: obecną (current), cel (goal) oraz znakomitą (wish) . Dla czasu wykonania testów może to być np.:

  • wartość aktualna = 8 minut
  • cel = 6 minut
  • wartość znakomita = 4 minuty

Mierząc zmiany wartości metryki, widzimy, w jakim kierunku zmierza nasz projekt i na ile udało nam się osiągnąć założone cele. Doszliśmy zatem do poziomu, w którym możemy śmiało powiedzieć, że zgodnie z naszą definicją „po ostatnich zmianach aplikacja jest o 21% bardziej testowalna”. Już nie „przeczucia”, a liczby świadczą o właściwej bądź niewłaściwej realizacji zadań. Powoduje to też wzrost przejrzystości naszej pracy w oczach biznesu (czyli naszego klienta). Przenosi nas z poziomu „zawsze coś tam dłubiecie i refaktoryzujecie” do poziomu „Wasza praca ma teraz mierzalne efekty”.

A jakie są Wasze doświadczenia z metrykami? Zachęcam do podzielenia się nimi w komentarzach.