Plan szkolenia
1. Wprowadzenie do AI w inżynierii oprogramowania
• Modele LLM w kontekście kodu – jak działają tokeny i okno kontekstowe?
• Przegląd ekosystemu narzędzi: Copilot, Chat vs Autocomplete
• Konfiguracja środowiska – instalacja wtyczek do VS Code / IntelliJ
2. GitHub Copilot i alternatywy w praktyce (Coding Assistants & LLMs)
• Ghost Text: Efektywne wykorzystanie autouzupełniania kodu
• Generowanie kodu z komentarzy: Zamiana języka naturalnego na logikę biznesową
• Interaktywny Chat w IDE: Praca z panelem bocznym (wyjaśnianie błędów, pytania o składnię)
• Cursor IDE: Przegląd edytora natywnie wspieranego przez AI
• Claude 3.5 Sonnet vs Google Gemini 1.5 Pro w pracy z kodem
• Porównanie: GitHub Copilot vs Tabnine vs Amazon CodeWhisperer
3. Refaktoryzacja i praca z kodem Legacy
• Automatyczne wyjaśnianie niezrozumiałych fragmentów kodu
• Translacja kodu między językami (np. Java -> Kotlin)
• Optymalizacja złożoności cyklomatycznej z pomocą sugestii AI
• Dokumentowanie kodu – automatyczne generowanie Javadoc/DocBlock
4. AI w zapewnieniu jakości (Quality Assurance)
• SonarLint + AI: Analiza statyczna kodu wspierana sztuczną inteligencją
• Generowanie testów jednostkowych (Unit Tests) – tworzenie asercji
• Generowanie przypadków brzegowych (Edge cases)
• Testim.io / Mabl: Wstęp do samonaprawiających się testów E2E
5. Bezpieczeństwo i poufność kodu (Security)
• Ryzyko wycieku własności intelektualnej – jak nie trenować publicznych modeli na kodzie firmowym
• Halucynacje AI – wykrywanie nieistniejących bibliotek i błędnych importów
• Analiza podatności – wykorzystanie AI do wstępnego audytu bezpieczeństwa
6. Lokalne modele AI (Prywatność i Offline)
• Wprowadzenie do Ollama i LM Studio
• Uruchamianie modeli open-source (np. Llama 3, Mistral) lokalnie
• Porównanie modeli chmurowych z lokalnymi pod kątem bezpieczeństwa danych
7. Podsumowanie i sesja Q&A
• Kiedy NIE używać AI? Pułapki "ślepego zaufania"
• Przyszłość roli programisty w erze AI