Zwiń/rozwiń wszystkie opisy
Przełącz kolory
Advanced Micro Devices (AMD)
vBackend GPU dla Open Shading Language na architekturę AMD RDNA
PROJEKT: Backend GPU dla Open Shading Language na architekturę AMD RDNA
PROBLEM DO ROZWIĄZANIA:
Open Shading Language (OSL) jest branżowym standardem dla programowalnych
shaderów używanych w profesjonalnym renderingu 3D, w tym w Blender Cycles,
Autodesk Arnold, Chaos V-Ray oraz Radeon ProRender. Obecnie OSL działa
wyłącznie na CPU, co stanowi wąskie gardło wydajnościowe w nowoczesnych
pipeline'ach renderowania wykorzystujących GPU. Brak wsparcia dla platformy
obliczeniowej ROCm/HIP ogranicza możliwości producentów oprogramowania do
modelowania i renderingu 3D w zakresie pełnego wsparcia dla kart graficznych
AMD RDNA.
ZAŁOŻENIA PROJEKTU:
Celem projektu jest zaprojektowanie i implementacja backendu ROCm/HIP dla OSL
umożliwiającego wykonywanie grup shaderów bezpośrednio na kartach graficznych
AMD.
KLUCZOWE WYMAGANIA:
• Pełna kompatybilność API z istniejącą implementacją CPU OSL
• Zachowanie mechanizmów ShadingSystem/ShaderGroups
• Transparentne wiązanie parametrów i specjalizacja shaderów
• Integracja z istniejącymi rendererami lub własnym prostym rendererem
implementującym obsługę OSL
CELE DO OSIĄGNIĘCIA:
1. Implementacja nowej ścieżki generowania shaderów OSL dla platformy ROCm
2. Wykorzystanie LLVM do generowania i optymalizacji kodu pośredniego (LLVM-IR)
dla architektury AMDGPU
3. Kompilacja kodu LLVM-IR dla platformy ROCm/HIP
4. Implementacja systemu umożliwiającego wykonywanie wygenerowanego kodu
w kernelach obliczeniowych platformy ROCm/HIP
5. Integracja z własnym lub wybranym rendererem
6. Przygotowanie wkładu (pull request) do projektu open-source OSL
FUNKCJE DOCELOWEGO ROZWIĄZANIA:
• Biblioteka OSL(HIP) z integracją CMake i testami CI/CD
• Działająca integracja z rendererem hosta:
- Wsparcie dla przełączników (np. --amdgpu, --gfx1030) uruchamiających
backend HIP
- Detekcja możliwości sprzętowych
• Pełna kompatybilność API z OSL CPU
• Dokumentacja techniczna i przykłady użycia
• Benchmarki wydajnościowe porównujące wykonanie CPU vs GPU
PRZEWIDYWANE TECHNOLOGIE:
• Open Shading Language (OSL) - język shaderów i runtime
• ROCm/HIP - platforma programowania GPU AMD
• LLVM - infrastruktura kompilatorów
• LLVM AMDGPU - backend kompilatora dla architektury AMDGPU
• Architektura RDNA (RDNA2/RDNA3)
• CMake - system budowania
• Git/GitHub - kontrola wersji i współpraca z ASWF
• CI/CD - automatyczne testowanie
WSTĘPNA LISTA ZADAŃ:
Faza 1 (tygodnie 1-3): Analiza i prototyp
- Analiza architektury OSL i backendu LLVM
- Uruchomienie przykładów i testów OSL
- Konfiguracja środowiska deweloperskiego ROCm/HIP
- Kompilacja LLVM ze wsparciem dla:
• AMDGPU backend
• Kompilatora clang z obsługą HIP
Faza 2 (tygodnie 4-8): Implementacja core
- Rozszerzenie API OSL o nowe przełączniki:
• --amdgpu
• --device gfx (np. gfx1030, gfx1100)
• --hip-runtime
- Implementacja generowania kodu dla backendu AMDGPU
- Walidacja wygenerowanych shaderów (LLVM-IR)
- Kompilacja LLVM-IR do AMDGPU ISA
- Linkowanie wygenerowanych kodów do kerneli HIP
- Podstawowe testy funkcjonalne
Faza 3 (tygodnie 9-12): Integracja z rendererem
- Implementacja prostego renderera lub integracja z wybranym rendererem:
• Blender Cycles (HIP), lub
• Radeon ProRender, lub
• Własny prosty renderer demonstracyjny
- Testy kompatybilności z istniejącymi shaderami OSL
- Implementacja przełączników build/runtime
Faza 4 (tygodnie 13-14): Optymalizacja i finalizacja
- Optymalizacja wydajności dla architektury RDNA
- Benchmarki i porównanie z wersją CPU
- Dokumentacja techniczna
- Przygotowanie wkładu do projektu OSL (pull request)
WARTOŚĆ PROJEKTU:
• Przyspieszenie renderingu shaderów o rząd wielkości dzięki wykorzystaniu GPU
• Podstawa do integracji backendu AMDGPU w aplikacjach do renderingu 3D
• Umożliwienie wykorzystania kart graficznych AMD w profesjonalnych studio 3D
• Wkład w ekosystem open-source wykorzystywany przez miliony użytkowników
Blendera i komercyjnych rendererów
KONSULTANCI:
• Konsultant AMD i właściciel projektu: Jakub Poła
• Koordynator projektów (AMD/Uczelnia): Piotr Dębski
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
Standardowo projekt nie wymaga przekazania majątkowych praw autorskich ani
podpisania NDA. W przypadku pracy z wrażliwymi danymi lub technologiami AMD
(jeśli zajdzie taka potrzeba w trakcie realizacji), może być wymagane
podpisanie standardowej umowy o poufności lub przekazania majątkowych praw autorskich.
vZunifikowane API ray tracingu dla platform CPU, APU i GPU - backend CPU dla HIPRT
PROJEKT: Zunifikowane API ray tracingu dla platform CPU, APU i GPU - backend CPU dla HIPRT
PROBLEM DO ROZWIĄZANIA:
HIPRT (HIP Ray Tracing) to framework AMD do wysokowydajnego ray tracingu na GPU,
wykorzystywany w aplikacjach renderingu offline i symulacji fizycznych. HIPRT
działa na GPU AMD oraz GPU NVIDIA poprzez platformę HIP.
Obecnie brak wsparcia dla CPU ogranicza możliwości wykorzystania pełnego
potencjału platformy sprzętowej. Hybrydowe wykorzystanie CPU i GPU w jednym
API umożliwiłoby elastyczne rozdzielanie obciążenia - pewne elementy renderowane
przez GPU, inne przez CPU - w zależności od charakterystyki sceny. Jest to
szczególnie istotne dla aplikacji renderingu offline (filmy, animacje,
wizualizacje architektoniczne), które nadal korzystają z mocy obliczeniowej
wielordzeniowych procesorów CPU, oraz w dobie nowego typu komputerów APU
(Accelerated Processing Unit), gdzie pamięć operacyjna służy zarówno jednostce
centralnej jak i karcie graficznej, eliminując kopiowanie danych i umożliwiając
efektywne hybrydowe renderowanie.
ZAŁOŻENIA PROJEKTU:
Celem projektu jest rozszerzenie biblioteki HIPRT o backend CPU, umożliwiający
uruchamianie tego samego kodu ray tracingu na procesorach, APU i GPU pod jednym,
zunifikowanym API.
KLUCZOWE WYMAGANIA:
• Pełna kompatybilność API z istniejącą implementacją GPU HIPRT
• Zachowanie mechanizmów BLAS/TLAS i struktur BVH
• Transparentne mapowanie wywołań API między GPU i CPU
• Wsparcie dla platform APU z Unified Memory Architecture (UMA)
CELE DO OSIĄGNIĘCIA:
1. Implementacja backendu CPU dla HIPRT z pełną kompatybilnością API
2. Ścieżka 1 (priorytetowa): Mapowanie wywołań HIPRT API na kernele Intel Embree
3. Ścieżka 2 (badanie możliwości): Kompilacja kodu pośredniego (LLVM-IR)
wygenerowanego dla targetu AMDGPU na CPU przy pomocy LLVM/HIPRTC/HIP-CPU
(tzw. bitcode retargeting)
4. Optymalizacja dla platform APU z Unified Memory Architecture
5. Przygotowanie wkładu (pull request) do oficjalnego repozytorium HIPRT
FUNKCJE DOCELOWEGO ROZWIĄZANIA:
• Funkcjonalny backend CPU z pełną kompatybilnością API HIPRT
• Implementacja ścieżki Embree (mapowanie HIPRT → Embree kernels)
• Badanie ścieżki bitcode retargeting (LLVM/HIPRTC)
• Optymalizacje dla platform APU z pamięcią współdzieloną (UMA)
• Benchmarki wydajnościowe porównujące wykonanie CPU/GPU/hybrydowe
• Dokumentacja techniczna z przykładami użycia
• Raport z testów i optymalizacji dla platform APU
PRZEWIDYWANE TECHNOLOGIE:
• HIPRT - framework ray tracingu AMD
• HIP (Heterogeneous-compute Interface for Portability)
• ROCm - platforma obliczeniowa AMD
• LLVM - infrastruktura kompilatorów
• HIPRTC - runtime compilation dla HIP
• Intel Embree - biblioteka ray tracingu CPU
• Architektura RDNA (GPU AMD)
• APU - procesory AMD z Unified Memory Architecture (UMA)
• CMake - system budowania
• Git/GitHub - kontrola wersji i współpraca z AMD GPUOpen
WSTĘPNA LISTA ZADAŃ:
Faza 1 (tygodnie 1-3): Analiza i prototyp
- Analiza architektury HIPRT i API
- Uruchomienie przykładów i testów HIPRT
- Konfiguracja środowiska deweloperskiego (HIPRT, Embree, ROCm)
- Badanie możliwości retargetingu kodu pośredniego AMDGPU na CPU
- Proof-of-concept: prosty ray tracing na CPU z Embree
Faza 2 (tygodnie 4-9): Implementacja ścieżki Embree
- Mapowanie struktur danych HIPRT do Embree:
• BLAS (Bottom-Level Acceleration Structure)
• TLAS (Top-Level Acceleration Structure)
• BVH (Bounding Volume Hierarchy)
- Implementacja klas odpowiedzialnych za tracing:
• hiprtGeometryTraversal i jego warianty
• hiprtSceneTraversal i jego warianty
- Rozszerzenie frameworka testowego
- Podstawowe testy funkcjonalne
Faza 3 (tygodnie 10-12): Optymalizacja dla APU
- Identyfikacja algorytmów, struktur danych i ich lokalizacji (host/device)
istotnych dla APU
- Implementacja optymalizacji dla Unified Memory Architecture:
• Eliminacja kopiowania danych między CPU a GPU
• Współdzielenie struktur BVH
• Dynamiczne rozdzielanie pracy (load balancing)
- Testy hybrydowego wykonania CPU+GPU na platformie APU
- Benchmarki wydajnościowe
Faza 4 (tygodnie 13-14): Badanie ścieżki LLVM (opcjonalne) i finalizacja
- Badanie możliwości retargetingu bitcode (HIPRTC → x86)
- Dokumentacja techniczna
- Raport z testów i optymalizacji dla APU
- Przygotowanie wkładu do repozytorium HIPRT (pull request)
WARTOŚĆ PROJEKTU:
• Rozszerzenie możliwości biblioteki HIPRT o nowe platformy sprzętowe
• Elastyczne wykorzystanie wszystkich zasobów obliczeniowych (CPU+GPU)
w ray tracingu
• Optymalizacja dla platform APU AMD z pamięcią współdzieloną
• Umożliwienie hybrydowego renderingu offline w aplikacjach profesjonalnych
• Popularyzacja platformy obliczeniowej AMD ROCm/HIP
• Wkład w ekosystem open-source AMD GPUOpen
KONSULTANCI:
• Konsultant AMD i właściciel projektu: Jakub Pola
• Koordynator projektów (AMD/Uczelnia): Piotr Dębski
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
Standardowo projekt nie wymaga przekazania majątkowych praw autorskich ani
podpisania NDA. W przypadku pracy z wrażliwymi danymi lub technologiami AMD
(jeśli zajdzie taka potrzeba w trakcie realizacji), może być wymagane
podpisanie standardowej umowy o poufności lub przekazania majątkowych praw autorskich.
vCapgemini AI Voice Driven Offboarding Assistant
1. Wstęp
W dzisiejszych organizacjach IT, procesy związane z offboardingiem pracowników (czyli ich formalnym zakończeniem współpracy z projektem lub organizacją) są często skomplikowane i czasochłonne. Zwykle obejmują one powtarzające się czynności administracyjne, takie jak dezaktywacja dostępu do systemów, przekazywanie wiedzy, zbieranie dokumentacji, czy zamykanie projektów i zadań. Wielokrotnie, te procesy odbywają się w sposób manualny, przez co są podatne na błędy, mogą być nieefektywne i wymagają dużych nakładów czasowych.
Celem projektu jest stworzenie asystenta głosowego, który poprowadzi użytkownika przez proces offboardingu w sposób automatyczny, efektywny i przyjazny. Asystent będzie wykorzystywał technologie rozpoznawania mowy i syntezowania mowy (głosowej interakcji) w chmurze Azure, co pozwoli na łatwą integrację z istniejącymi systemami wykorzystywanymi w firmach IT. Dzięki takiemu rozwiązaniu, możliwe będzie zautomatyzowanie wielu czynności, które w tradycyjnych procesach wymagają manualnego zaangażowania.
2. Założenia projektu:
• Stworzenie asystenta głosowego, który przeprowadzi pracownika przez proces offboardingu w sposób zorganizowany i bezbłędny.
• Asystent powinien wykorzystywać usługę Azure AI Speech do rozpoznawania i generowania mowy.
• Integracja z narzędziami i systemami wykorzystywanymi w projektach IT, np. Azure DevOps (do zarządzania dostępami, zadaniami, repozytoriami), Active Directory (do zarządzania użytkownikami) oraz innymi systemami firmowymi.
• Głosowa interakcja z użytkownikiem ma zapewniać intuicyjność i łatwość obsługi, zmniejszając czas oraz błędy w procesie.
• System ma generować raport z przebiegu procesu offboardingu po jego zakończeniu, zawierający m.in. zamknięte zadania, zaktualizowane dostępności oraz inne istotne dane.
3. Cele do osiągnięcia:
• Automatyzacja procesu offboardingu: Zaimplementowanie inteligentnego systemu, który zminimalizuje potrzebę ręcznego przeprowadzania procesu offboardingu.
• Interakcja głosowa: Zastosowanie technologii rozpoznawania mowy i syntezatora mowy w celu stworzenia przyjaznej interfejsu głosowego.
• Integracja z systemami firmowymi: Integracja asystenta z popularnymi systemami IT, takimi jak Azure DevOps czy Active Directory, w celu wykonania niezbędnych operacji administracyjnych.
• Raportowanie: Generowanie podsumowania po zakończeniu procesu, które będzie zawierać informacje o przebiegu offboardingu, wykonanych zadaniach oraz aktualnych statusach dostępu i obowiązków pracownika (np. eksport do Jiry/Confluence)
4. Funkcje docelowego rozwiązania:
1. Interakcja głosowa – asystent rozpozna polecenia użytkownika oraz odpowie na pytania i wskazówki głosowe.
2. Zarządzanie dostępami – asystent automatycznie zaktualizuje dostępność użytkownika w różnych systemach (np. usunięcie dostępu do Azure DevOps, kont w Active Directory).
3. Zamykanie zadań – asystent poprosi o zakończenie lub przypisanie otwartych zadań w projektach IT, upewniając się, że nie ma zaległości.
4. Powiadomienia i przypomnienia – w trakcie procesu offboardingu, asystent będzie przypominał o ważnych krokach i terminach.
5. Generowanie raportu – po zakończeniu procesu, asystent wygeneruje dokument z podsumowaniem, wskazując zakończone kroki, zaktualizowane dane oraz inne istotne informacje.
6. Zarządzanie dokumentacją – asystent będzie wspierał proces zbierania lub przekazywania dokumentacji związanej z projektem (np. przekazywanie haseł, instrukcji).
7. Logowanie i audyt – rejestrowanie działań w systemie w celu zachowania zgodności z procedurami audytowymi.
5. Technologie do wykorzystania:
• Azure Cognitive Services – wykorzystanie usług Azure AI Speech do rozpoznawania mowy i syntezatora mowy.
• Azure Active Directory – do zarządzania użytkownikami i dostępami.
• Azure DevOps API – integracja z systemem zarządzania projektami w celu aktualizacji zadań i dostępów.
• Python/Java– do pisania backendu oraz integracji z usługami zewnętrznymi (np. poprzez API).
6. Lista wstępnych zadań do realizacji:
1. Analiza wymagań – szczegółowe określenie funkcjonalności systemu oraz zaplanowanie integracji z systemami.
2. Projektowanie interfejsu głosowego – opracowanie struktury dialogów i ścieżek interakcji z użytkownikiem.
3. Integracja z systemami – opracowanie integracji z Azure DevOps, Active Directory oraz innymi niezbędnymi systemami.
4. Implementacja rozpoznawania mowy – wykorzystanie Azure AI Speech do rozpoznawania i syntezowania mowy.
5. Testowanie i optymalizacja – testowanie wszystkich funkcji, w tym integracji z systemami zewnętrznymi oraz interfejsu głosowego.
6. Generowanie raportów – opracowanie funkcji generowania podsumowań i raportów końcowych.
7. Zakończenie i podsumowanie – przygotowanie dokumentacji, instrukcji użytkownika oraz raportu z przebiegu realizacji projektu.
Projekt ma na celu zarówno zapoznanie studentów z technologiami Azure i sztuczną inteligencją w praktyce, jak i nauczenie ich integracji różnych systemów w celu automatyzacji procesów administracyjnych w organizacji IT.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vCapgemini Flaky Test & Coverage Coach in CI
1. Wprowadzenie
W procesie Continuous Integration (CI), automatyczne testowanie kodu jest kluczowym elementem w zapewnieniu jakości oprogramowania. Niemniej jednak, zespół deweloperski może napotkać szereg wyzwań związanych z testami, w tym flaky tests oraz niskie pokrycie kodu testami.
• Flaky tests to testy, które przechodzą lub zawodzą w zależności od różnych czynników, takich jak zmiany w środowisku, różnice w czasie wykonywania testu lub inne losowe okoliczności. Są one szczególnie problematyczne, ponieważ nie dostarczają wiarygodnych informacji na temat jakości kodu i mogą prowadzić do fałszywych wyników, utrudniając wykrywanie rzeczywistych błędów.
• Niskie pokrycie kodu to sytuacja, w której testy jednostkowe lub integracyjne nie obejmują wszystkich istotnych części aplikacji. Brak pokrycia może prowadzić do sytuacji, gdzie krytyczne błędy nie są wychwytywane przez testy, co wpływa na niezawodność produktu.
Celem tego projektu jest stworzenie narzędzia, które pozwoli zautomatyzować analizę wyników testów w procesie CI, wykrywać flaky tests, analizować pokrycie kodu i generować rekomendacje dotyczące poprawy jakości testów. Narzędzie to będzie wspierać proces automatyzacji jakości (Quality Automation) poprzez wykrywanie problemów związanych z testami, a także generowanie szkiców nowych testów i refaktoryzację istniejących.
2. Założenia projektu:
Projekt ma na celu stworzenie asystenta jakości testów, który będzie analizował logi z testów przeprowadzanych w ramach procesu CI/CD, wskazywał na flaky tests, słabe pokrycie kodu i generował propozycje działań, takich jak dodawanie testów czy refaktoryzacja istniejących. W ramach projektu zespół będzie musiał wykonać kilka kluczowych zadań:
• Zbieranie danych o wynikach testów z systemów CI (np. Jenkins, GitLab CI).
• Analiza danych, identyfikowanie flaky tests oraz obszarów kodu z niskim pokryciem.
• Generowanie raportów i rekomendacji dla zespołu developerskiego.
• Generowanie szkiców nowych testów (unit/integration) oraz wskazówek do refaktoryzacji.
3. Cele do osiągnięcia:
1. Wykrywanie flaky tests: Narzędzie musi wykrywać testy, które na przemian przechodzą i zawodzą w zależności od różnych czynników (np. czasu wykonania, zależności od zasobów zewnętrznych, itp.).
2. Analiza pokrycia kodu: Narzędzie powinno analizować raporty pokrycia kodu (np. generowane przez Jacoco) i wskazywać obszary kodu, które nie są dostatecznie testowane.
3. Generowanie rekomendacji: Na podstawie wyników analizy, aplikacja powinna sugerować, które testy warto dodać i jak zrefaktoryzować istniejące testy, aby poprawić ich niezawodność i stabilność.
4. Generowanie szkieletów testów: Narzędzie powinno automatycznie tworzyć szkielet nowych testów jednostkowych lub integracyjnych na podstawie wykrytych luk w pokryciu kodu.
5. Integracja z systemami CI: Narzędzie powinno integrować się z popularnymi systemami CI (Jenkins, GitLab CI), aby automatycznie analizować wyniki testów i pokrycie kodu na każdym etapie procesu CI/CD.
4. Lista funkcji docelowego rozwiązania:
1. Zbieranie i analiza logów testów z CI/CD:
○ Zbieranie danych z logów testów (np. Jenkins, GitLab CI).
○ Analiza wyników testów pod kątem flaky tests i niestabilności.
2. Analiza pokrycia kodu (coverage):
○ Integracja z narzędziami do analizy pokrycia kodu (np. Jacoco).
○ Wyświetlanie raportu o pokryciu kodu w postaci wykresów lub tabel.
○ Identyfikacja obszarów kodu, które wymagają dodatkowych testów.
3. Wykrywanie flaky tests:
○ Automatyczne wykrywanie testów, które przechodzą lub zawodzą na przemian, na podstawie historii wyników.
○ Możliwość analizy zależności od środowiska lub czasu wykonania testów.
4. Generowanie rekomendacji i raportów:
○ Automatyczne generowanie raportu z wynikami analizy pokrycia kodu i flaky tests.
○ Propozycje, gdzie warto dopisać testy.
○ Rekomendacje refaktoryzacji testów w celu poprawy ich niezawodności.
5. Generowanie szkieletów testów:
○ Na podstawie analizy pokrycia kodu, generowanie szkieletów nowych testów (unit, integration) do istniejącego kodu.
6. Integracja z narzędziami CI/CD:
○ Integracja z Jenkins, GitLab CI lub innymi systemami CI, aby automatycznie pobierać dane o wynikach testów.
○ Możliwość integracji z systemem powiadomień (np. Slack), aby automatycznie informować zespół o wynikach analizy.
7. Wizualizacja wyników:
○ Graficzna prezentacja wyników testów i pokrycia kodu (np. wykresy słupkowe, heatmapy).
5. Technologie do wykorzystania:
• Język programowania: Java lub Python (w zależności od preferencji zespołu).
• Framework do testów: JUnit / TestNG (do generowania testów).
• CI/CD: Jenkins, GitLab CI, Travis CI, GitHub Actions (do zbierania wyników testów).
• Pokrycie kodu: Jacoco, Cobertura (do analizy pokrycia kodu).
• Baza danych: MySQL lub SQLite (do przechowywania historii wyników testów i pokrycia kodu).
• Frontend (opcjonalnie): React / Angular (jeśli chcecie stworzyć prosty interfejs webowy do prezentacji wyników).
• Narzędzia do wizualizacji danych: D3.js, Chart.js (do tworzenia wykresów).
Integracja z powiadomieniami: E-mail API.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vMySeaMates - Seafarer Networking App
Seafarers travel globally and often don’t know when friends or former colleagues happen to be in the same port. This project aims to create an application (Mobile App or a Progressive Web App (PWA)), that helps seafarers reconnect socially, discover nearby friends, and stay engaged through simple gamified achievements.
Students will design and build a functional MVP that demonstrates how application technologies, geolocation and local caching can be combined to create a smart and engaging seafarer‑focused networking tool. Students can make use of vibe coding or other AI support.
Recommended Tech Stack
- Frontend
React Native (Expo) (or React with PWA) + Typescript
React Navigation, Zustand (or Redux Toolkit), React Query (or RTK Query)
...
- Backend
Node.js (Express) + TypeScript
PostgreSQL + Prisma ORM
...
Support offered by company:
- Consultations by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 5 people, 6 people, 7 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
We would like to keep the IP rights. The project should be implemented in English.
vCUG (Comarch User Group) inteligenty identyfikator (tzw. badge)
Comarch organizuje coroczną konferencję „CUG - międzynarodowa konferencja organizowana przez firmę Comarch w Krakowie dla klientów, partnerów i ekspertów IT. Skupia się na prezentacjach trendów, case studies i networkingu w branżach jak telekomunikacja, lojalność, finanse, ubezpieczenia, e-fakturowanie”.
Uczestnicy konferencji typowo otrzymują identyfikatory tzw. badge czyli obecnie „plakietki” z danymi zaproszonego i planem konferencji. Rozważamy możliwość wykorzystania na konferencji jako gadżetu tzw. inteligentnych identyfikatorów, czyli urządzeń wielkości karty kredytowej z ekranem e-ink z dodatkowymi możliwościami.
Globalnie taki pomysł już występował przy okazji „nerdowskich” konferencji, powstały nawet w tym kierunku projekty open source jak: Badger2040, eInk Badge czy Open Badge Project.
Chcielibyśmy się odróżnić rozwijając taki projekt np. o komunikację LORA, WiFi HaLow (wifi długiego zasięgu) lub wręcz o łączność satelitarną.
Grupa projektowa musiałaby zaprojektować taki badge, zbudować prototyp i przygotować do „masowej” produkcji.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 2/2
Dodatkowe uwagi:
(brak)
vInnowacyjne „smart” urządzenie zwiększające możliwości sportowca za pomocą wibracji.
Bardzo świeże kanadyjsko francuskie badanie z grudnia 2025 (Benjamina Pageaux z Université de Montréal i zespół z Université Savoie Mont Blanc https://pubmed.ncbi.nlm.nih.gov/40419138/) pokazuje, że przykładając pasywną wibrację ścięgien Achillesa i rzepki przez 10 minut przed rowerem zwiększa moc wyjściową i tętno bez wzrostu postrzeganego wysiłku (tutaj wnioski bardzo uproszczono – grupa projektowa musiałaby w trakcie projektu dogłębnie zrozumieć badanie, jego wnioski i metodykę)
Każde nowe odkrycie dające możliwości zwiększenia wydajności w sporcie/treningu jest bardzo cenne (wręcz w bardzo dosłownym znaczeniu), bo daje możliwość stworzenia nowego ekosystemu (lub mówiąc bardziej wprost drogiego gadżetu dla sportowców i ambitnych amatorów) ekspirującego takie odkrycie. Historycznie przykłady takich ekosystemów to zegarki sportowe, pulsometry, mocomierze, czujniki temperatury głębokiej ciała.
Celem projektu zespołowego jest analiza i odtworzenie badania a następnie stworzenie ekosystemu złożonego z urządzenia generującego wibracje oraz aplikacji na telefony komórkowe. Potencjalnie zespół dążyłby do stworzenia „startapu” oferującego takie urządzenia.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vLokalny asystent AI do inteligentnego przeszukiwania i analizy zasobów organizacji.
1. Opis i cel projektu
Celem projektu jest zaprojektowanie i budowa zaawansowanego systemu klasy Workplace Knowledge Discovery. System ma pełnić rolę „cyfrowego mózgu” organizacji, który integruje rozproszone źródła danych (e-maile, czaty, kalendarze, dokumenty wewnętrzne) i umożliwia pracownikom szybkie pozyskiwanie informacji za pomocą naturalnego języka.
Kluczowym wyróżnikiem projektu jest podejście Privacy-First. Całość przetwarzania danych oraz wnioskowania przez model LLM (Large Language Model) musi odbywać się lokalnie w infrastrukturze organizacji, bez przesyłania wrażliwych danych do zewnętrznych serwisów chmurowych (typu OpenAI/Anthropic).
2. Zakres prac (Milestones)
Zespół projektowy zostanie podzielony na role odpowiedzialne za następujące etapy:
* Integracja z Google Workspace: Rozbudowa istniejących interfejsów asystenta dla Google Chat, Gmail oraz Calendar. Zapewnienie dwustronnej komunikacji i bezpiecznego uwierzytelniania.
* Budowa ekosystemu MCP (Model Context Protocol): Implementacja serwerów MCP stanowiących warstwę abstrakcji dla systemów wewnętrznych firmy (np. bazy danych, systemy biletowe, repozytoria dokumentów).
* Architektura Agentowa: Stworzenie systemu agentów AI zdolnych do planowania złożonych zadań (np. „Znajdź wolny termin i podsumuj ostatnie ustalenia z klientem X na podstawie maili i czatów”).
* Local LLM Optimization: Dobór i optymalizacja lokalnego modelu językowego (np. Llama 3, Mistral) pod kątem zadań typu Reasoning oraz Retrieval Augmented Generation (RAG).
Backend & Orchestration: Stworzenie wydajnej warstwy pośredniej zarządzającej przepływem informacji między interfejsem użytkownika a modelami AI i źródłami danych.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 2/2
Dodatkowe uwagi:
(brak)
vNiskokosztowy Holter EKG
Holter EKG to przenośne urządzenie medyczne do ciągłego monitorowania pracy serca przez 24-48 godzin (czasem dłużej)
Pacjentowi zakłada się 3-12 elektrod na klatce piersiowej, podłączonych do małego rejestratora (wielkości smartfona) noszonego na pasku. Rejestruje ono aktywność elektryczną serca podczas codziennych czynności – snu, pracy, wysiłku – wychwytując arytmie czy zmiany, których nie widać na standardowym EKG (10-minutowym).
Celem zespołu byłoby zbudowanie autorskiego holtera wraz z aplikacją do analizy danych wykorzystującą algorytmy sztucznej inteligencji. Za podstawę projektu posłużyłby jeden z OpenSourcowych projektów np. MobilECG-II (GitHub) lub „Rasberry Pi Pico W z ECG+PPG+stetoskop”.
W ramach zadania, w zależności od liczności grupy należałoby:
1. Jako prototyp:
a. Oprogramować mikrokontroler np. ESP32 tak aby zbierał dane z czujnika Elektrokardiogramu np. AD8232, max86150;
b. Zintegrować mikrokontroler z adapterem kart SD w celu zapisu danych z czujników;
c. Przeanalizować sygnały z sesji pomiarowych za pomocą znanych metod analizy ekektrokardiogramów;
2. Jako rozwiązanie półprofesjonalne
a. Na bazie prototypu zaprojektować „customową” płytę urządzenia;
b. Zaprojektować i wytworzyć obudowę urządzenia umożliwiającą noszenie go przez 20+h;
c. Opracować oprogramowanie analizujące wyniki;
d. Porównać wyniki z komercyjnym holterem.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób, 6 osób, 7 osób, 8 lub więcej osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vPlatforma dynamometryczna z uproszczonym systemem motion capture do wspomagania treningu siłowego.
W naszym projekcie chcielibyśmy skupić się na dynamicznej analizie wykonywanych ćwiczeń siłowych (np. przysiadu ze sztangą) w celu poprawy wzorców ruchowych. Jako narzędzie pomocnicze w analizie system może wspomagać się analizą motion capture bazującą na czujnikach przyspieszenia rozłożonych w kluczowych miejscach ciała.
Technicznie Platforma dynamometryczna najczęściej dwie płyty z zespołem tensometrów, a czujniki przyspieszenia, potrzebne do analizy ruchu to niewielkie urządzenia bezprzewodowe z własną baterią i interfejsem BT (np. WT9011DCL-BT50 BLE 5.0). Do tego potrzebny jest system wizualizujący i analizujący odczyty z tych urządzeń.
Zakres prac projektowych zostanie dostosowany do wielkości zespołu, a będzie składał się między innymi z:
1. Próby zbudowania platformy z tensometrów i dostępnych wzmacniaczy do belek tensometrycznych (typowy -hx711 może być za wolny)
2. Studium DIY or Buy w kontekście pomiaru dynamometrycznego (rozważenie gotowych mat tensometrycznych zamiast opcji budowy własnego rozwiązania)
3. Próby rejestracji ruchu za pomocą czujników przyspieszenia
4. Studium DIY or Buy w kontekście bezprzewodowych węzłów czujników przyspieszenia (WT9011DCL-BT50 BLE 5.0 vs własny projekt)
5. Wprawienia w ruch (na podstawie danych motion capture) modelu 3D w silniku gry komputerowej
6. Praca ze sportowcem i analiza danych zebranych z badań jego ruchu.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
Correct Context
vBenchmark DSL and framework for complex distributed testing
There is few benchmarking and parameter optimization solutions on the market, from extremely simple like "time" and "hyperfine" to more complex like time series database benchmark frameworks, geekbench and phoronix suites.
Those are either simple for quick micro benchmarks and/or tied to specific solutions that can be monetized.
Idea is to build DSL and framework that allow:
- express complex scenarios
- extending DSL
- extending framework
- automate boilerplate and all popular scenarios
- automate reporting
- automate data generation
with main focus on developer UX
Maybe this example can show, what needs to be built and what current software on the market doesn't offer:
Let's assume we want to test 4 distributed storage engine in complex, cloud environments, each variant can be tuned with hundreds of parameters.
Infrastructure to setup such environment takes about 30m-1h and also some parts are specific to variant of storage engine.
Setting up storage engine itself takes up to 5min. Part of the setup is also data generated in other place of infrastructure component, and this takes 30min. Reconfiguration of each config option and make sure it's stable, takes 2-10min.
We want to execute series of 10x 2min benchmarks for each combination of storage engine and parameters.
What we want - and what most of the systems lack
- online tracking of results
- good final reporting
- automatic failure handling and recovery
- dependency management for various situations (don't waste 1h infra setup if it's already there; that requires declarative approach and dependency handling within DSL/software)
- restarting failed tests only without doing data generation and other expensive setup from scratch, but force test execution or data generation when critical part change that may impact test results
- allowing manual actions during test execution (when something breaks on infra, give us time to fix network for example to avoid 1-2h setup of infra from scratch)
What is on the market:
- predefined tests which are hard to customize, they don't support scenarios like failover and custom action handling
- test frameworks which are generic, and taking consideration time to execute, most developers and administrators don't decide to build their frameworks on top of it, making the code very single test specific and also they handle most of the errors manually which is costly and time consuming (when sth breaks they fix it and run again, and test execution is usually sequential due to infrastructure availability; example: we have one server, when test breaks, test framework not executing other test, and it cannot execute in parallel).
Technologies
- python-aim for reporting probably
- a lot of linux/nix
- AI tools suggest that good solution for DSL is kotlin, but whatever is good, including own language (for sure it needs to be statically typed)
Deliverables:
- DSL (in form of abstract language or documentation that handles all cases expressed above)
- examples of DSL showing various scenarios, sequential expensive tests, parallel tests, extensiveness of DSL for new scenarios not handled by core framework
- framework that executes DSL
- reporting integration
- if quality is good, project will be open sourced
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
prawa autorkskie (choć planowane jest otwarcie kodu jeśli jakość będzie dobra)
vDynamic Resource Allocation for Trino - Petabyte Scale Query Engine
https://trino.io/ originally developed as Presto at Facebook in 2012, is petabyte scale distributed SQL engine.
Problem: Each analytical query submitted to Trino may have vastly different resource requirements – from a few GB to tens of TB of RAM. Ideally, a Trino cluster should autoscale based on demand. However, the only form of autoscaling currently available is reactive autoscaling: "we're running low on resources, give me more!". Trino was design for on-prem servers and lacks feature for using full potential of dynamic cloud environments where resources can be scaled ad-hoc.
Solution: A system where users declare estimated resource requirements when submitting a query (e.g., "this query needs ~500 GB RAM"). The system then signals the autoscaler to expand the cluster and holds off on executing the query until resources are available. This way the safety margin can be kept low and the cluster manage its memory more efficiently. Extension for that solution could be also having heuristic/ML models to adjust resources for query automatically.
Why choose this project?
🔹 Work with a real big data system used by global companies
🔹 Hands-on experience with Kubernetes and cloud autoscaling
🔹 Opportunity to contribute to an open-source project
🔹 Validation of the solution in our production environment
Main Focus Deliverables:
✅ Implementing resource requirement declaration (e.g., via session properties mechanism)
✅ Extending the Resource Groups mechanism with query holding logic
✅ Mechanism to release queries once the required cluster capacity is reached
Deliverables:
✅ Adding information about queued queries to Prometheus metrics endpoint (e.g.: "biggest single waiting query needs 313 GB; total requested is 2.3 TB")
✅ Mechanism to compare submitted requirements against observed (e.g.: "user claimed the query needed 501 GB, but actually this was 724 GB)
✅ Configuring a test environment using AWS EKS/Karpenter/Keda
✅ Evaluating some possible approaches to defining the actual autoscaling target based on new metrics
✅ Submitting a contribution to the Trino open-source project
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people, 5 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
prawa autorkie/licencja - to będzie potrzebne tylko do momentu aż kod nie wejdzie do oficjalnego repozytorium projektu open source
vTrino - PetaByte Scale Performance Optimization
At terabyte scale, data doesn't fit in memory – it must be read from storage during query execution. A single query might scan billions of rows across thousands of files, making storage performance a critical bottleneck. The wrong choice can mean the difference between 30 seconds and 30 minutes.
S3-compatible object storage is the standard solution. There are several open-source options (Ceph, MinIO, Storj) and managed services (Hetzner Object Storage), each with different architectures and trade-offs.
The project: benchmark them on Hetzner infrastructure with tens of terabytes of real data (provided by us) and produce a practical comparison. This is not "install, run queries, note results" project. Each system has dozens of tuning parameters – comparing defaults tells you nothing. The team will need to understand each architecture, design fair benchmarks, handle caching effects, test failure scenarios, and package everything as reproducible infrastructure-as-code.
Why choose this project?
🔹 Learn how distributed storage systems work under the hood
🔹 Hands-on experience with infrastructure-as-code, on-prem and cloud deployment
🔹 Work with Trino – a popular open-source SQL engine for big data (created by Facebook)
🔹 Produce a benchmark useful for companies building European data infrastructure
🔹 Work with realistic, production-scale data
Critical Deliverables:
✅ Setting up reproducible test infrastructure on Hetzner
✅ Setting up reproducible deployment of: Ceph, MinIO, Storj, Hetzner Object Storage
✅ Tunning (backed by benchmark data) of services above to be comparable (no point of comparing badly configured storage)
✅ Synthetic speed test of each setup
Deliverables:
✅ Designing benchmark methodology: isolating variables, statistical significance
✅ Setting up benchmark environment with Trino SQL engine on top of each storage in reproducible way (easily parallelizable)
✅ Running benchmarks with realistic queries (provided by us)
✅ Exploring behavior: varying file sizes, concurrency, finding performance cliffs
✅ Failure testing: node failures, recovery time, data integrity
✅ Setting up reproducible deployment of: Garage, RustFS, SeaweedFS and Apache Ozone
✅ Analyzing performance and cost
✅ Documenting findings
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people, 5 people, 6 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
NDA
CSHARK
vAI-powered ESG Reporting System – Sustainable Digital Products Lab
Współczesne produkty cyfrowe coraz częściej podlegają wymogom raportowania ESG oraz realizacji Celów Zrównoważonego Rozwoju (SDG). Jednocześnie organizacje projektujące i rozwijające rozwiązania cyfrowe napotykają istotne bariery: brak spójnych narzędzi do mierzenia wpływu produktów cyfrowych, trudności w interpretacji wytycznych ESG i WCAG, niski poziom świadomości projektowej oraz ograniczony dostęp do przystępnej, kontekstowej edukacji w zakresie zrównoważonego projektowania. Projekt odpowiada na te wyzwania poprzez zaprojektowanie i implementację kompleksowego systemu ESG wspieranego przez AI, dedykowanego produktom cyfrowym.
Celem projektu jest stworzenie narzędzia umożliwiającego mierzenie, analizę oraz raportowanie kluczowych aspektów zrównoważonego rozwoju w produktach cyfrowych, ze szczególnym uwzględnieniem dostępności cyfrowej (WCAG 2.2 AA), inkluzywności oraz śladu węglowego. System będzie również pełnił funkcję edukacyjną – poprzez zintegrowany chatbot AI lub moduł treningowy AI użytkownicy będą mogli lepiej zrozumieć zasady ESG, dostępności cyfrowej oraz odpowiedzialnego projektowania produktów cyfrowych.
Projekt zakłada podejście systemowe i interdyscyplinarne, łączące proces projektowy (UX/UI, Product Discovery) z implementacją technologiczną. Kluczowym założeniem jest wykorzystanie tzw. Sovereign AI – w szczególności modelu Bielik – jako alternatywy dla komercyjnych dużych modeli językowych (LLM), z naciskiem na transparentność, kontrolę danych oraz zgodność z europejskimi wartościami i regulacjami.
Projekt będzie realizowany we współpracy ze studentami SWPS. Zadania dla zespołu Development (studenci PWR):
- Setup środowisk lokalnych oraz repozytorium- przygotowanie lokalnych środowisk developerskich, udostępnienie dostępów do repozytorium,
- Implementacja backendu LLM oraz chatbota AI- benchmarki wykorzystania różnych podejść do hostowania LLM z priorytetyzowaniem Bielika v3.0, przygotowanie danych;
- Implementacja przygotowanego designu (frontend + integracja z backendem)- wdrożenie designu, przygotowanego przez zespoły UX/UI
- Integracja WCAG (np. axe-core)
- Integracja śladu węglowego- dodanie modułu do analizy CO2 produktów cyfrowych
- Testowanie oraz deployment
- Code Review / iteracyjny feedback
Wymagane narzędzia i technologie
-Design (SWPS):
- Figma
- Miro
- Jira
-Development (PWR):
- GitHub
- VSCode
- Python (basic)
- Docker (basic)
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vOpen Source kontra Imperium
Motywacja
Napięcia polityczne między USA a UE pogarszają postrzeganie wspólnych wartości przez Europejczyków. Dla Europy, która do tej pory akceptowała dominację amerykańskich big techów i nie konkurowała w obszarze aplikacji webowych, otwiera się okno możliwości na rozwój własnych rozwiązań.
W praktyce wiele rozwiązań dla aplikacji webowych już istnieje w domenie open source. Chcesz zrezygnować z Gmaila — możesz hostować własny serwer pocztowy. Nie podoba Ci się Google Drive — możesz uruchomić własny serwer do współdzielenia plików wraz z edytorami online. Nie chcesz, aby Facebook zarządzał Twoją prywatnością — możesz postawić własny serwer Mastodon.
Nasz cel
Stworzyć zestaw skryptów Infrastructure as Code, które umożliwią automatyczne uruchamianie aplikacji webowych jako alternatywy dla ofert takich firm jak Google czy Meta.
Rozwiązania mają być wykorzystywane przez rodziny, społeczności i większe grupy ludzi, aby obniżyć koszty infrastruktury, integrować użytkowników oraz umożliwić im zarządzanie własnymi danymi bez udostępniania ich stronom trzecim lub narzędziom AI. Użytkownicy mają być właścicielami rozwiązań i odzyskać kontrolę nad swoją prywatnością.
System ma być samowystarczalny — zawierać mechanizmy backupu, centralne zarządzanie użytkownikami, automatyczne tworzenie i obsługę certyfikatów, podstawowy monitoring oraz możliwość działania zarówno publicznie w internecie, jak i wyłącznie za VPN-em. Celem jest zastąpienie takich usług jak Gmail, Google Drive, Google Calendar, współdzielenie plików i wielu innych przy użyciu oprogramowania open source.
Jak to ma działać
Użytkownik końcowy nadal musi:
Kupić własną domenę.
Wykupić hosting (AWS, Azure, Hetzner itp.) albo postawić własny serwer z dostępem do internetu.
Po spełnieniu tych warunków skrypty IaC przejmują konfigurację infrastruktury i wdrażają potrzebne aplikacje oraz usługi.
Podstawowe i kluczowe skrypty do uruchamiania aplikacji na:
serwerze należącym do użytkownika,
Hetznerze lub innych dostawcach hostingu
będą open source i dostępne bezpłatnie dla wszystkich.
Model biznesowy opiera się na sprzedaży usług wokół tych skryptów, takich jak:
konfiguracja i zarządzanie infrastrukturą na publicznych hostingach (np. Hetzner) w imieniu klientów i społeczności,
usługi konsultingowe dla użytkowników i organizacji korzystających z rozwiązania,
w późniejszym etapie — współpraca z europejskimi dostawcami hostingu (np. Hetzner), którzy płaciliby za rozwój i dostosowanie skryptów do swoich platform.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Wymagana jest umowa o przekazaniu majątkowych praw autorskich
vdash-mqtt
1. Problem do rozwiązania
Dash (Python + React) świetnie sprawdza się w klasycznych dashboardach, ale źle radzi sobie z danymi strumieniowymi o wyższej częstotliwości (≥1 Hz).
Główne problemy:
- callbacki Dash działają po stronie serwera (Python),
- każde odświeżenie danych wymaga round‑trip HTTP,
- typowy pipeline [MQTT -> Python -> Dash -> Przeglądarka] generuje duże opóźnienia,
Istniejące biblioteki (np. dash‑mqtt) są nieutrzymywane i wadliwe. Brakuje nowoczesnego komponentu, który umożliwia odbiór MQTT bezpośrednio w przeglądarce i aktualizację wizualizacji w czasie rzeczywistym.
2. Założenia projektu
- Projekt open‑source.
- Architektura client‑side first: MQTT przez WebSocket w JavaScript, minimalna rola Pythona (konfiguracja, layout).
- Brak klasycznych callbacków Dash w ścieżce danych.
3. Dlaczego ten projekt jest ciekawy?
- Rozwiązuje realny problem spotykany przez naszych klientów.
- Łączy Python, JavaScript, sieci i wizualizację danych.
Efekt końcowy to działająca biblioteka, którą można realnie używać i rozwijać dalej.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Jeśli to dowieziesz masz publiczny ślad w open-source
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAn AI-Powered System for Resume Validation, Scoring, and Improvement
The objective of this project is to develop an AI-powered application for automated resume (CV) validation, scoring, and improvement. The system will enable users to import resumes and automatically divide them into logical sections such as personal information, experience, technologies. Each section will be analyzed and assigned a quality score based on predefined criteria and AI-assisted evaluation.
Using open-source and freely available Large Language Models (LLMs) executed locally, the application will generate contextual feedback and actionable improvement suggestions for each resume section. The system is designed to assist users in enhancing the clarity, structure, and effectiveness of their CVs while preserving data privacy through local execution.
Architecture & Implementation:
The application will be implemented primarily in Python and designed to run locally, with the option to be deployed to cloud infrastructure if required. The backend will handle CV parsing, sectioning, scoring logic, machine learning workflows, and AI-driven feedback generation.
A fully functional frontend interface will be provided to allow users to upload resumes, review scores, and view AI-generated recommendations. The application will leverage to integrate open-source LLMs.
All source code will be maintained and version-controlled using GitHub, ensuring transparency, reproducibility, and ease of collaboration.
Summary:
This project serves as a Proof of Concept (PoC) for an AI-driven Resume Analysis and Improvement system, combining software engineering and applied artificial intelligence. The solution emphasizes local execution, open-source AI models, and practical usability, while maintaining flexibility for future cloud deployment.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Patryk Siedlecki, Senior Software Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vAutomated MLOps (ML/AI Operations) Workshop and Training Infrastructure using Infrastructure as Code (IaC) and Continuous Integration/Continuous Delivery (CI/CD)
Description:
The objective of this project is to build a Continuous Integration/Continuous Delivery (CI/CD) environment that will serve as the practical foundation for MLOps training and workshops.
Project Deliverables: The primary artifact of this project is a functional CI/CD system defined as Infrastructure as Code (IaC). This environment must be:
- Fully Documented: Including comprehensive laboratory manuals/guides in English for participants.
- Tested and Version-Controlled: Ensuring reliability and reproducibility.
- Instructor-Ready: Offering a stable base to support the trainer during the hands-on, practical portions of the training.
Summary: In short, this project involves developing an infrastructure-as-code tool that, upon deployment, creates a complete, ready-to-use training infrastructure for automating ML/AI solutions.
Technologies to be used:
- Infrastructure as Code (IaC): Terraform
- Public Cloud: AWS or Microsoft Azure (including cloud-native ML/AI services)
- CI/CD: Azure DevOps or GitHub Actions
- Version Control: GitHub
- Orchestration: Kubernetes
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Michal Studenny, DevOps Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vAutomation of GitLab CI Runner Provisioning using IaC (Terraform) and Proxmox: Migration of CI Pipelines for an Embedded C/C++ Project from Jenkins to GitLab CI
The goal of this project is to build a Continuous Integration/Continuous Delivery (CI/CD) environment based on GitLab, and to use it to test the feasibility of migrating a real, production embedded C/C++ project from an existing Jenkins-based environment.
This task will require infrastructure/IT and DevOps activities, but may also involve diving into the software development aspects of the project and collaborating closely with the developers responsible for the source code.
Project Deliverables: The primary artifact of this project should be a functional CI/CD system that offers all the capabilities of the current one. If achieving full feature parity is impossible, any limitations must be identified along with potential workarounds to resolve these issues.
In summary, this project serves as a Proof of Concept (PoC) for a new DevOps solution.
Technologies to be used:
- Core Systems: GitLab, Jenkins
- Infrastructure & OS: Linux, fundamental networking concepts
- Programming & Scripting: Python, C/C++, Perl
- Version Control: Git, ClearCase
I- nfrastructure as Code (IaC): Terraform (via Proxmox)
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Radoslaw Karczewski, Lead DevOps Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vCertifyFlow – System Zarządzania Ciągłością Uprawnień
1. Opis Projektu
Budowa aplikacji webowej do ewidencjonowania certyfikatów i uprawnień pracowników, z automatycznym systemem powiadomień o zbliżających się terminach wygaśnięcia.
Kluczowe funkcjonalności (MVP):
- Pulpit (Dashboard): Wizualizacja wygasających uprawnień (system "Sygnalizacji": zielony, żółty, czerwony).
- System powiadomień: E-maile wysyłane z wyprzedzeniem (np. 90, 60 i 30 dni przed końcem ważności).
- Raportowanie: Eksport listy osób, których uprawnienia wymagają odnowienia w danym kwartale.
- Integracja z systemami SSO oraz LDAP
Funkcjonalności per Rola:
Admin: Definiuje "Katalog Uprawnień" (np. SEP, UDT, Prawo jazdy kat. C, Certyfikat Azure). Dla każdego typu określa koszt odnowienia vs koszt ponownego wyrobienia.
Manager: Widzi listę swoich pracowników i daty wygaśnięcia ich uprawnień. Otrzymuje zbiorcze raporty miesięczne.
Pracownik: Wprowadza datę uzyskania uprawnienia i jego numer. Widzi licznik dni pozostałych do wygaśnięcia.
2. Stos technologiczny
- Wersja 1:
- Backend w Django
- Frontend w React
- Wersja 2:
- Backend w Flask
- Frontend w jQuery
Baza danych oparta o MariaDB lub PostgreSQL
3. Role
- Frontend developer
- Backend developer
- (opcjonalnie) Project Manager
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Firma GlobalLogic będzie jedynym właścicielem praw autorskich dot. rozwiązania. Osoby uczestniczące w projekcie nie będą mogły udostępniać szczegółów techicznych osobom trzecim. Sam udział w projekcie oraz cel nie są objęte klauzulą poufnosci
vInventory Manager
We want to launch a project to transform the way we manage our 15,000+ hardware assets. Currently our inventory system is based on Atlassian Jira. In order to improve efficiency, we are building a custom "middleware" layer that will allow our team members to interact with asset data without requiring a Jira license.
The core of this project involves engineering a synchronization engine that mirrors Jira’s data into a standalone database. This system must be bidirectional: it needs to reflect Jira updates in our local database and push field changes - like status updates or ownership transfers - from custom UI back into Jira via its API.
Ideal candidates for project shall meet following criteria:
* Knowledge of Angular/React, CSS,
* Knowledge of the software development process and its technologies
* Understanding of client/server architecture and RESTful APIs services (Node.JS)
* Understanding of OOP, SOLID, and Design Patterns
* Good English – spoken and written
* Nice to have:
* * Knowledge of HTML, Typescript
* * Experience in developing Micro-Services is a plus
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people
Acceptable project language: English, Polish
Available groups: 2/2
Additional remarks:
Realizacja projektu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich i podpisania umowy o zachowaniu poufności (NDA).
vOfficePet: Office Pet Registry and Coordination System
The objective of this project is to develop a coordination and registry system that allows employees to report and manage the presence of pets, such as dogs and cats, within the office environment. The application will enable employees to register planned visits with pets, specify dates and times, and provide basic pet-related information.
The system will support improved workplace coordination by offering visibility into pet presence in the office, helping to avoid unwanted interactions. Additionally, the solution may support basic policy enforcement, notifications, and historical tracking of pet visits.
The solution will be designed as an application with an option to push to the cloud if needed, utilizing a centralized database to store pet visit records and user information.
The backend will be implemented in Python, with the source code maintained and version-controlled using GitHub. The application should be packed as a Docker container, managed by a load balancer, and run by some orchestration solution.
A publicly accessible web application frontend will provide an intuitive interface for employees to register and view pet visits. Monitoring and visualization of operational data such as pet visit frequency, peak office days, and usage trends, will be implemented using an open-source observability tool.
This project serves as a Proof of Concept (PoC) for a modern Office Coordination and Pet Registry system, combining software engineering, cloud technologies, and DevOps practices. The focus of the project is on digitizing and streamlining real-world office workflows related to pet-friendly workplace policies.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Tatsiana Havina, Senior Software Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vSmartLab: A Cloud-Native Laboratory Asset and Equipment Management System
Description:
The objective of this project is to develop a comprehensive laboratory management system. This solution will enable the inventorying of equipment and tools, status tracking, and the logging of shortages, defects, and repairs. Additionally, real-time monitoring of equipment utilization and ongoing maintenance work by specific personnel will be facilitated.
Architecture & Implementation: The solution will be architected on cloud technologies utilizing a centralized database.
- The backend will be implemented in Python, with the source code version-controlled via GitHub.
- Infrastructure as Code (IaC) principles will be applied using Terraform, allowing for the automated deployment and scaling of the environment.
- A publicly hosted web application frontend will be provided for user access.
- The monitoring and visualization of operational data—including equipment status, utilization rates, and breakdown frequency—will be achieved using Grafana dashboards.
Summary: This project serves as a Proof of Concept (PoC) for a next-generation Laboratory Management system. It seamlessly integrates software engineering, cloud architecture, and DevOps practices with a strong emphasis on accurately digitizing real-world laboratory workflows.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Yevhenii Sheverdin, Senior DevOps Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vUniwersalny Moduł Pomiaru Przepływu Powietrza (STM32 Anemometer)
Celem projektu jest zaprojektowanie i budowa prototypu inteligentnego anemometru opartego na rodzinie STM32 np. STM32F4 (Nucleo/Discovery). Urządzenie ma być rozwiązaniem o szerokim zakresie pomiarowym, zdolnym do pracy w różnych średnicach rur. Przykładem wykorzystania jest pomiar mocy wyciągu kuchennego lub pomiar przepływu powietrza wentylatorów o średnicy 3-15 cm. Przygotowanie podstawowej dokumentacji oraz przeprowadzenie testów funkcjonalnych. Moduł powinien wysyłać zmierzone dane prędkości powietrza do komputera. Opcjonalnie na komputerze można przygotować GUI z wykresami czasowymi.
Projekt jest przewidziany dla około czterech osób o uzupełniających się kompetencjach:
1. Elektronik:
-Analiza dostępnych metod pomiarowych
-Wybór i kalibracja czujnika przepływu
-Zaprojektowanie układu pomiarowego.
-W związku z niedługim czasem trwania projektu, nie ma konieczności projektowania całego PCB, ale mile widziane jest zaprojektowanie PCB dołączanego do Nucleo/Discovery z potrzebnym układem pomiarowym/filtracyjnym
2. Programista:
-Konfiguracja peryferiów STM32F4
-Implementacja algorytmów przeliczających sygnał napięciowy na prędkość i przepływ.
-Opracowanie interfejsu komunikacyjnego np. wysyłanie danych do PC.
-Implementacja filtracji cyfrowej sygnału.
3. Mechanik:
-Projekt i realizacja obudowy urządzenia - wydruk 3D lub gotowe rozwiązanie ze sklepu
-Projekt adapterów umożliwiających montaż na różnych typach źródła przepływu powietrza (np 3 rodzaje wentylatorów plus standardowa rura wentylacyjna fi100)
4. Tester:
-Przygotowanie testów
-Weryfikacja poprawności działania urządzenia
-Porównanie powstałego rozwiązania z Anemometrem dostępnym na rynku (np Anemometr Unit UT363S)
5. Opcjonalny programista GUI:
-oprogramowanie PC łączące się z modułem i wyświetlające odczytane dane
-wykresy pomiarów w czasie
-możliwość konfiguracji parametrów urządzenia z poziomu PC
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Firma GlobalLogic będzie jedynym właścicielem praw autorskich dot. rozwiązania. Osoby uczestniczące w projekcie nie będą mogły udostępniać szczegółów techicznych osobom trzecim. Sam udział w projekcie oraz cel nie są objęte klauzulą poufnosci.
GoodByte
vBrama (Bridge) Matter dla urządzeń „legacy”: integracja czujników/aktuatorów z RS-485/Modbus (lub CAN) z ekosystemem Matter
Problem
+ Matter to warstwa aplikacyjna dla smart home oparta o IPv6 i ma ułatwiać interoperacyjność między ekosystemami (Google/Apple/Amazon itd.).
+ W praktyce, natywne „operacyjne” transporty Matter są dziś Wi-Fi, Thread i Ethernet, a BLE służy głównie do commissioning’u (parowania/prowizjonowania), więc wiele istniejących urządzeń na „starych” magistralach (np. RS-485/Modbus, CAN, własne protokoły) nie wejdzie do Matter bezpośrednio.
+ Dlatego celem projektu jest stworzenie bramy Matter (Matter Bridge), która „wystawi” urządzenia nie-Matter jako endpoints w sieci Matter i przetłumaczy komunikację między światem legacy a Matter.
Założenia
+ Brama jest pełnoprawnym urządzeniem Matter (np. po Ethernet/Wi-Fi), które można dodać do kontrolera (np. aplikacji smart home).
+ Po stronie „legacy” brama komunikuje się z co najmniej jednym protokołem spoza Wi-Fi/Thread, np.:
+ RS-485/Modbus RTU (rekomendowane – proste, przemysłowe), albo CAN;
+ Brama mapuje urządzenia legacy (np. czujnik temperatury, przekaźnik) na odpowiednie modele/klastry Matter (w uproszczeniu: „tłumaczenie API i stanu”).
Cele do osiągnięcia
+ Działający prototyp bramy, która:
+ wykrywa/konfiguruje urządzenia legacy,
+ prezentuje je w Matter jako bridged devices,
+ pozwala nimi sterować/odczytywać stany z poziomu kontrolera Matter.
Funkcje docelowego rozwiązania
+ Commissioning bramy (np. BLE do przekazania danych sieciowych) i praca operacyjna po Ethernet/Wi-Fi.
+ Warstwa komunikacji z RS-485/Modbus (adresacja, ramki, retry, timeouty, diagnostyka).
+ „Device mapping”: zamiana danych legacy ↔ atrybuty/komendy Matter (np. On/Off, pomiary).
+ Obsługa wielu urządzeń jako osobne endpointy (min. 2–3 typy urządzeń legacy).
+ Logowanie/telemetria (debug, statystyki jakości łącza, błędy protokołu).
+ Testy integracyjne z co najmniej jednym popularnym kontrolerem/aplikacją.
Przewidywane technologie
+ Matter / Project CHIP (Connected Home IP) jako baza stosu.
+ Platforma sprzętowa: np. embedded Linux (gateway) albo MCU + RTOS (w zależności od zakresu).
+ Interfejs legacy: RS-485 (UART + transceiver), ewentualnie CAN.
+ Sieć operacyjna bramy: Ethernet/Wi-Fi (zgodnie z Matter).
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
Przekazanie majątkowych praw autorskich.
vSystem lokalizacji obiektów w przestrzeni wewnętrznej i zewnętrznej z wykorzystaniem BLE i pomiaru RSSI
Problem do rozwiązania
W wielu zastosowaniach (hale, biura, magazyny, kampusy) potrzebna jest lokalizacja osób/przedmiotów tam, gdzie GPS nie działa lub jest zbyt niedokładny. Celem jest stworzenie taniego i prostego systemu pozycjonowania opartego o BLE.
Założenia projektu
+ W obszarze działania rozmieszczone są beacony BLE nadające cyklicznie ramkę advertising (stały format).
+ Pozycje beaconów są znane i zapisane w systemie (wprowadzane z góry lub rejestrowane podczas uruchomienia).
+ Lokalizowany obiekt ma tag/odbiornik, który skanuje beacon’y, mierzy RSSI i wysyła dane do jednostki obliczeniowej.
Cel projektu
+ Wyznaczanie przybliżonej pozycji obiektu na podstawie RSSI z wielu beaconów (w czasie quasi-rzeczywistym).
+ Ocena i poprawa dokładności poprzez filtrację RSSI i kalibrację środowiska.
Funkcje docelowego rozwiązania
+ Rejestr beaconów w systemie: ID + przypisana pozycja.
+ Skanowanie BLE i zbieranie pomiarów: (beacon ID, RSSI, timestamp).
+ Buforowanie danych i wysyłka do jednostki centralnej.
+ Filtracja/wygładzanie RSSI (np. średnia krocząca, filtr Kalmana / prostsze metody).
+ Algorytm estymacji pozycji (np. model tłumienia + ważenie odległości / uproszczona triangulacja).
+ Raportowanie pozycji (np. konsola / prosty dashboard) + logowanie danych do analizy.
Przewidywane technologie
+ BLE: beacon’y + skanowanie advertising.
+ Firmware na mikrokontrolerze (np. Nordic nRF52/nRF53 lub podobny).
+ Komunikacja tag → jednostka centralna: np. UART/USB/Wi-Fi (w zależności od sprzętu).
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
Przekazanie majątkowych praw autorskich.
vSystem rezerwacji i zarządzania przechowalniami bagażu
Opis:
Podróżni niekorzystający z samochodów, często napotykają na problem logistyczny związany z przechowaniem bagażu między porannym wymeldowaniem a późniejszym odjazdem. Wymaga to od nich noszenia sporego bagażu ze sobą. Konieczność ta utrudnia zwiedzanie, a przechowalnie często są albo przepełnione, albo bardzo słabo zareklamowane, co utrudnia takim podróżnym zagospodarowanie takim czasem. Z drugiej strony, wiele lokalnych punktów usługowych i handlowych dysponuje niewykorzystaną przestrzenią magazynową. Proponowany system ma na celu rozwiązanie tego problemu poprzez stworzenie platformy, która ułatwia i standaryzuje proces przechowywania bagażu w sieci partnerów.
Cel Projektu:
Głównym celem jest zaprojektowanie i stworzenie systemu informatycznego, który połączy turystów poszukujących miejsca na bagaż z właścicielami lokali, które takie miejsce posiadają. System ma nie tylko wskazywać lokalizację punktów, ale przede wszystkim zarządzać całym cyklem życia usługi przechowywania w czasie rzeczywistym.
Projekt zakłada stworzenie aplikacji mobilnej dla klienta, która posłuży jako narzędzie do lokalizowania najbliższych punktów partnerskich, weryfikacji ich aktualnego obłożenia oraz dokonywania natychmiastowych rezerwacji miejsc.
Drugą częścią projektu jest narzędzie dla przechowalni, które pozwoli na efektywne zarządzanie dostępną przestrzenią magazynową I rezerwacjami. System musi umożliwiać definiowanie limitów przyjmowanych bagaży oraz zapewniać bezpieczną procedurę weryfikacji tożsamości przy oddawaniu i odbieraniu pakunków. Celem jest stworzenie kompletnego ekosystemu, który eliminuje pomyłki przy wydawaniu bagażu, automatyzuje proces płatności i rezerwacji oraz zapewnia transparentność transakcji dla obu stron, zastępując tradycyjne kwitki papierowe bezpiecznym systemem cyfrowym.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 0/1
Dodatkowe uwagi:
Będzie i przekazanie praw autorskich i NDA, my jako firma dostarczymy
vCentralna Platforma Zarządzania Podatnościami (Vulnerability Management)
Kontekst / problem
W praktyce DevSecOps zespoły używają wielu skanerów (SAST, DAST, skan zależności/obrazów kontenerowych). Wyniki mają różne formaty (np. SARIF, JSON narzędzi), zawierają duplikaty i generują „szum”, utrudniając triage oraz priorytetyzację napraw. Brakuje jednego miejsca, które agreguje, normalizuje i deleguje prace naprawcze do backlogu.
Cel
Zbudowanie platformy klasy Vulnerability Management działającej jako „Single Pane of Glass” dla stanu bezpieczeństwa wielu projektów: odbiór raportów z CI/CD, normalizacja do wspólnego modelu danych, dashboardy oraz automatyczne wystawianie zadań w systemie ticketowym.
Zakres funkcji (MVP)
Agregacja raportów
API do przyjmowania raportów (push z CI/CD) + możliwość importu plików.
Obsługa min. 3 źródeł, np.:
SAST: Semgrep (JSON lub SARIF),
DAST: OWASP ZAP (JSON),
Container/Dependencies: Trivy (JSON) lub OWASP Dependency-Check.
Normalizacja i deduplikacja
Ujednolicenie pól (projekt, typ skanu, komponent/biblioteka, lokalizacja, severity, opis, rekomendacja).
Mechanizm fingerprint (deterministyczny klucz) do wykrywania duplikatów między skanami i w czasie.
Statusy podatności (np. NEW/OPEN/FIXED/IGNORED) + historia zmian.
Wizualizacja / dashboard
Widok per projekt: rozkład severity, trendy, nowe vs naprawione.
Lista podatności z filtrowaniem i szczegółami (dowód, ścieżka/URL, identyfikator CVE/reguły).
Integracja z systemem ticketowym
Automatyczne tworzenie issue/ticketów dla podatności spełniających reguły (np. >= High, lub „nowe”).
Powiązanie podatności ↔ ticket, brak duplikatów ticketów.
Integracja min. z jednym systemem: GitHub Issues / GitLab Issues / Jira.
Wymagania niefunkcjonalne
Uruchomienie lokalne: docker compose up (backend, frontend, DB).
CI: build + lint + testy (min. backend).
Podstawowe bezpieczeństwo aplikacji: auth (np. JWT), role (admin/viewer), logowanie zdarzeń, brak sekretów w repo.
Dokumentacja: README, opis architektury i kontraktu API.
Proponowane technologie (otwarte na wybór)
Backend: Python/FastAPI lub Node/NestJS
DB: PostgreSQL
Frontend: React/Vue
Integracje: webhook/API narzędzi, OpenAPI/Swagger
(Opcjonalnie) worker/kolejka do przetwarzania raportów: Redis/RQ lub RabbitMQ
Wstępna lista zadań
Projekt modelu danych + migracje DB
Endpointy: projekty, skany, podatności, reguły, integracja ticketowa
Parsery/normalizery 3 narzędzi + fingerprint
UI: dashboard + tabela + detale
Ticket connector + deduplikacja
Testy + CI + dokumentacja + demo E2E (raport z CI → dashboard → ticket)
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Narzędzia opensource
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
NDA wymagane
vmPoparcie
W Polsce funkcjonuje wiele portali umożliwiających zgłaszanie inicjatyw (petycje, wnioski, konsultacje, pomysły typu budżet obywatelski). W większości z nich kluczowym ograniczeniem jest brak wiarygodnej, odpornej na nadużycia identyfikacji osoby popierającej – co utrudnia odróżnienie realnego poparcia od głosów generowanych, wielokrotnych lub podszywających się pod inne osoby.
Celem projektu jest stworzenie webowej platformy, która umożliwi:
- publikację treści inicjatywy (petycji/wniosku/pomysłu),
- zbieranie zweryfikowanego poparcia od użytkowników,
- moderację i akceptację treści przez administratorów,
- anonimizację danych osób popierających, przy jednoczesnym prezentowaniu liczby unikalnych, zweryfikowanych osób dla każdej inicjatywy.
Projekt zakłada integrację z usługą IDENTT, która oferuje scenariusze integracji z mObywatel i potwierdzaniem tożsamości użytkownika.
Zakres funkcjonalny
1) Część publiczna (dla obywateli)
- przeglądanie listy inicjatyw (statusy: „w przygotowaniu”, „w zbiórce”, „zakończona”, „odrzucona/wycofana”),
- podgląd szczegółów inicjatywy (opis, załączniki, data startu/końca, wymagany próg poparcia – jeśli dotyczy),
-wyrażenie poparcia:
- rozpoczęcie procesu weryfikacji tożsamości przez IDENTT (z użyciem mObywatel),
- zapis poparcia jako unikalnego (1 osoba = 1 poparcie na inicjatywę),
- prezentacja wyniku: liczba unikalnych zweryfikowanych osób, bez ujawniania danych osobowych.
2) Panel inicjatora (wnioskodawcy)
- dodanie inicjatywy przez formularz (treść, kategoria, uzasadnienie, załączniki, dane kontaktowe do korespondencji z administracją),
- podgląd statusu wniosku i historii decyzji (np. „do uzupełnienia”, „weryfikacja”, „zaakceptowano”, „odrzucono”),
- ewentualne uzupełnienie/odpowiedź na komentarze administratora.
3) Panel administracyjny (moderacja i akceptacja)
- kolejka inicjatyw: przegląd, filtrowanie, przypisywanie, wersjonowanie treści,
- decyzje: akceptacja / odrzucenie / prośba o uzupełnienie + uzasadnienie,
- publikacja inicjatyw do zbiórki,
- podstawowe narzędzia antynadużyciowe (np. blokady, rate limiting, analiza anomalii, logi audytowe).
Kluczowy element: anonimizacja przy zachowaniu unikalności poparcia
Aby spełnić wymaganie „prawdziwe osoby, ale bez ujawniania danych”, proponujemy podejście pseudonimizacyjne:
- po udanej weryfikacji tożsamości platforma nie zapisuje pełnych danych identyfikacyjnych użytkownika (np. imienia i nazwiska),
- zamiast tego zapisuje stabilny identyfikator techniczny pochodzący z procesu weryfikacji w formie tokenu/identyfikatora sesji + po stronie platformy: hash + salt (lub HMAC) → „pseudonim użytkownika”,
- sprawdzenie unikalności poparcia polega na porównaniu pseudonimu w obrębie danej inicjatywy,
w widoku publicznym pokazujemy wyłącznie licznik unikalnych pseudonimów, ewentualnie z agregacją statystyczną (np. po gminie/województwie) tylko jeśli dane są wystarczająco zanonimizowane (np. progi minimalne).
Wymagania niefunkcjonalne:
- bezpieczeństwo: szyfrowanie w tranzycie (TLS), szyfrowanie danych w spoczynku, separacja sekretów, audyt logów,
- prywatność: minimalizacja, pseudonimizacja, możliwość retencji danych licznikowych bez danych osobowych,
- skalowalność: obsługa dużych pików ruchu (np. medialna inicjatywa),
dostępność: WCAG (minimum podstawowe), responsywność.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- udostępnienie / sfinansowanie przez firmę niezbędnej infrastruktury
- wsparcie działu prawnego
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
konieczność podpisania NDA, proponowany model projektu: open source
vWatermarkowanie + steganografia + weryfikacja podpisów + optymalizacje RAM (backend + frontend)
Kontekst / problem
Serwisy webowe dystrybuują obrazy jako istotne aktywa (materiały premium, zdjęcia produktowe, treści autorskie). Widoczne watermarki (logo w rogu) bywają łatwe do usunięcia (kadrowanie, retusz), a metadane można skasować. Celem jest rozwiązanie, które łączy watermark widoczny/niewidoczny, steganografię oraz kryptografię, a jednocześnie działa wydajnie na backendzie i w przeglądarce/mobilnie.
Cel
Zbudowanie systemu, który generuje warianty obrazów serwowanych użytkownikom:
nakłada widoczny watermark (np. tekst/siatka z pseudonimem użytkownika),
osadza steganograficzny payload w pikselach,
payload jest podpisany kryptograficznie i możliwy do zweryfikowania,
pipeline jest zoptymalizowany pod RAM/CPU po stronie backendu i frontendowego renderingu/weryfikacji.
Zakres funkcji (MVP)
Serwowanie obrazów z kontrolą dostępu
Autoryzacja (np. JWT) i generowanie krótkotrwałych signed URL / tokenów.
Warianty: thumbnail/medium/full (resize + kompresja).
Cache (ETag / cache-control) aby ograniczać powtórne przetwarzanie.
Przetwarzanie obrazów (pipeline)
Dekodowanie → transformacje → enkodowanie (JPEG/WEBP/AVIF zależnie od stosu).
Konfigurowalne parametry jakości i limitów rozdzielczości/rozmiaru.
Widoczny watermark
Overlay tekst/grafika dopasowany do rozdzielczości, przezroczystość, pozycja lub powtarzalny wzór (utrudnia prosty crop).
Treść: nazwa serwisu + pseudonim użytkownika (nie dane osobowe).
Steganografia (payload w pikselach)
Payload minimalny, np.: {image_id, variant_id, user_pseudo, iat, nonce, alg_ver}.
Osadzanie i ekstrakcja (embed/extract) w obrazie (nie tylko EXIF).
Wersjonowanie algorytmu (alg_ver) i testy odporności na rekompresję/skalowanie.
Podpis i weryfikacja
Payload podpisany (np. Ed25519/ECDSA lub HMAC – z uzasadnieniem modelu zaufania).
Narzędzie weryfikacyjne: API i/lub CLI: „wczytaj obraz → wyciągnij payload → sprawdź podpis → pokaż wynik”.
Optymalizacje zużycia pamięci (wymagane do oceny)
Backend: ograniczenie równoległych transformacji (worker pool), unikanie pełnego buforowania w RAM, limity wejścia.
Frontend: lazy loading (srcset/sizes, loading="lazy"), weryfikacja w Web Worker (brak blokowania UI), unikanie wielokrotnego dekodowania bitmap.
Wymagania niefunkcjonalne
docker compose up uruchamia całość (API, przetwarzanie, storage, DB, frontend).
CI: build + lint + testy (min. krytyczne ścieżki: embed/extract, verify).
Dokumentacja: opis architektury, model zagrożeń (crop/recompress/screenshot/hotlinking/replay) i wdrożone mitigacje.
Raport wydajności: RAM/CPU/latency przed i po optymalizacjach + metodologia.
Proponowane technologie (otwarte na wybór zespołu)
Backend: Node.js (sharp/libvips) lub Python (pyvips/Pillow)
DB: PostgreSQL
Storage: MinIO/S3 lub filesystem (MVP)
Crypto: libsodium / jose / WebCrypto (weryfikacja po stronie klienta opcjonalnie)
Frontend: React/Vue + Web Worker / OffscreenCanvas (jeśli potrzebne)
Wstępna lista zadań
Projekt API (pobieranie wariantów, signed URL, verifier) + model DB
Implementacja pipeline’u przetwarzania (resize/encode/watermark)
Implementacja steganografii (embed/extract) + wersjonowanie
Podpisywanie payloadu + verifier (API/CLI)
Frontend: galeria + lazy loading + opcjonalny “Verified badge”
Profilowanie i ograniczenia RAM/CPU, testy obciążeniowe, cache
Testy odporności: recompress/crop/resize → ocena „co przetrwało” + wnioski
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Narzędzia opensource
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
NDA wymagane
vInteligentny asystent do rozmowy z bazą danych
Projekt zakłada stworzenie asystenta w formie czatu, który przyjmuje od użytkownika pytanie w postaci tekstowej i zwraca odpowiedź na podstawie danych zgromadzonych w relacyjnej bazie danych. Asystent będzie znał strukturę bazy (schemat), dzięki czemu będzie potrafił generować zapytania SQL służące do pobrania właściwych informacji, a następnie na ich podstawie udzielać odpowiedzi.
W trakcie projektu uczestnicy będą pracować z technologiami związanymi z dużymi modelami językowymi (LLM). Istotnym elementem będzie wykorzystanie mechanizmu function calling, czyli wywoływania funkcji przez model językowy na podstawie ich opisu, co zwiększa możliwości podejmowania decyzji przez LLM.
Kluczowe elementy projektu:
+ Uzupełnianie bazy wektorowej fragmentami tekstu (chunkami) przygotowanych opisów.
+ Wyszukiwanie w bazie wektorowej informacji powiązanych z pytaniem użytkownika – wtedy, gdy model uzna to za potrzebne.
+ Generowanie zapytań SQL przez model językowy w oparciu o pobrane konteksty.
+ Prezentowanie wyników użytkownikowi w sposób czytelny, wraz z uzasadnieniem i opisem kroków, które zostały wykonane.
Całość projektu można określić jako system jednoagentowy oparty o RAG (Retrieval-Augmented Generation) oraz function calling.
Przydatna będzie znajomość: języka Python, zasad działania baz relacyjnych, projektowania większej struktury aplikacji.
Zaplanowane są materiały dydaktyczne w formie przydatnych artykułów, wstępnej prezentacji omawiającej cały projekt oraz bieżący kontakt przez komunikator. Sam realizowałem projekt zespołowy 2 lata temu, więc wiem z czym to się je.
Tagi: Text-to-SQL, baza wektorowa, PostgreSQL, LLM, modele embeddingowe, Python, function calling, chunkowanie tekstu, proste UI, zapytania SQL, API do LLM, RAG, Jupyter Notebook, środowisko conda, Git, współpraca zespołowa, planowanie, kamienie milowe.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
Akceptowana wielkość grupy: 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 3/3
Dodatkowe uwagi:
Realizacja projektu będzie wymagała przekazania majątkowych praw autorskich do całości rezultatów projektu na rzecz firmy InsERT oraz podpisania umowy o zachowaniu poufności (NDA).
vNeuroCar Traffic Monitor
Celem projektu jest opracowanie, implementacja oraz walidacja metody automatycznego wykrywania anomalii w danych generowanych przez stacje pomiaru ruchu pojazdów eksploatowane przez Generalną Dyrekcję Dróg Krajowych i Autostrad. W ramach projektu przewiduje się wykorzystanie rzeczywistych danych pochodzących z 16 stałych stacji pomiaru ruchu, zlokalizowanych na autostradach oraz drogach krajowych na obszarze województw dolnośląskiego i opolskiego. Planowane jest zastosowanie metod uczenia głębokiego, w szczególności głębokich sieci neuronowych (DNN) opartych na architekturze transformerów, do modelowania wielowymiarowych szeregów czasowych oraz automatycznej identyfikacji anomalii wskazujących na zdarzenia nietypowe, błędy pomiarowe lub zmiany charakterystyki ruchu.
Zadania:
* Przegląd literatury i istniejących metod detekcji anomalii w szeregach czasowych
* Analiza struktury danych ze stacji pomiaru ruchu
* Przygotowanie i wstępne przetwarzanie danych
* Opracowanie bazy danych do przechowywania danych czasowych (ClickHouse)
* Implementacja modelu detekcji anomalii opartego na architekturze transformerów
* Definicja metryki i kryterium wykrywania anomalii
* Eksperymentalna walidacja metody na danych rzeczywistych
* Implementacja prostego prototypu aplikacji prezentującej wyniki
Technologie:
* Linux
* Python
* PyTorch
* Microservices / REST / gRPC API
* Git / GitLab
* Docker / Docker Compose
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
- Dostęp do danych ze stacji pomiarowych
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vNeuroCar Vehicle Detector
Celem projektu jest opracowanie wydajnego neuronowego detektora wybranych elementów pojazdów, przeznaczonego dla systemu Neurocar. Detektor powinien umożliwiać wykrywanie wybranego zestawu elementów (np. obrys całego pojazdu, tablicy rejestracyjnej, tablic specjalnych, kół, kierowcy, pasażera itp.). Dodatkowo detektor powinien wykrywać dodatkowe cechy obrazu/pojazdu, takie jak np.: przód/tył, dzień/noc, obraz dobrej/złej jakości, klasa 4+1. Możliwe położenia pojazdów na obrazie są ograniczone i wynikają ze specyfikacji systemu Neurocar.
Wynikowy model sieci neuronowej powinien być możliwy do zapisania w formacie ONNX i przetestowany w warunkach rzeczywistych. Pożądana jest wydajność >25 fps na 1 rdzeniu CPU ARM Cortex-A76 (Raspberry Pi 5) oraz >500 fps (akcelerator Hailo8L).
Zadania:
* Opracowanie taksonomii wykrywanych elementów pojazdów i cech obrazu.
* Opracowanie metody półautomatycznego generowania danych uczących dla detektora cech pojazdów przy użyciu dostępnych, otwartych (np. z repozytorium HuggingFace) dużych modeli do segmentacji obrazu. Dane źródłowe (wideo + metadane) z rzeczywistych implementacji systemu Neurocar dostarczy Neurosoft.
* Opracowanie architektury sieci neuronowej detektora, uczenie sieci (PyTorch).
* Przetestowanie rozwiązania w warunkach rzeczywistych, opracowanie statystyczne wyników jakości i wydajności.
Technologie:
* komputer Raspberry Pi 5
* akcelerator neuronowy Hailo-8L
* Linux
* Python
* C++
* Gitlab
* PyTorch
Wyniki:
* metoda półautomatycznego generowania danych uczących dla detektora elementów pojazdów (kod i dane w repozytorium gitlab)
* metoda generowania modelu (ONNX) sieci detektora (kod i dane w repozytorium gitlab)
* statystyczne wyniki jakości detektora działającego w warunkach rzeczywistych (kod i dane w repozytorium gitlab)
* raport końcowy, prezentacja (pdf)
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
- Dostęp do punktów pomiarowych NeuroCar -> pozyskanie danych
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAI Asystent Medyczny
Projekt dotyczy stworzenia narzędzia informatycznego (AI Asystenta Medycznego) wspierającego osoby znajdujące się w wymagających sytuacjach opiekuńczych, poprzez uporządkowanie informacji oraz zapewnienie stałego, cyfrowego wsparcia decyzyjnego i emocjonalnego.
Celem projektu jest stworzenie wirtualnego asystenta medyczno-psychologicznego opartego o AI, który będzie pełnił rolę: „drugiej pary rąk i głowy” dla opiekuna, źródła prostych, zrozumiałych odpowiedzi dostępnych 24/7, emocjonalnego wsparcia i poczucia bycia „zaopiekowanym”.
Asystent nie zastępuje lekarza ani psychologa, ale wspiera opiekuna w codziennych decyzjach, redukuje stres i pomaga uporządkować wiedzę.
Projekt zakłada użycie nowoczesnych, dostępnych technologii, w tym: silnik AI (OpenAI / ChatGPT (API)), frontend / landing page: narzędzia no-code, komunikacja (WhatsApp / Meta Business API), płatności (Stripe), AWS, zarządzanie projektem: GitHub, Trello.
Nice have team: kluczowe role obejmują specjalistę z zakresu AI i modeli językowych (LLM), osobę odpowiedzialną za warstwę graficzną i UX rozwiązania oraz Project Managera koordynującego prace zespołu.
Pracujemy w 1-tygodniowych sprintach. Błyskawicznie wypuszczamy MVP, następnie kolejne interakcje z użytkownikami.
Udział w projekcie daje zespołowi możliwość pracy nad projektem o realnym znaczeniu społecznym oraz ciekawym, aktualnym temacie technologicznym. Studenci zyskują praktyczne doświadczenie przy szybkim budowaniu MVP, realny wpływ na kształt rozwiązania, referencje oraz pracę w startupowej atmosferze. Dla zaangażowanych osób przewidziana jest możliwość kontynuacji współpracy po zakończeniu projektu.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich i/lub podpisania umowy o zachowaniu poufności (NDA)
vAI-Powered Smart Home Automation System
Celem projektu jest stworzyć środowisko symulujące działanie systemu, do którego wpinamy różne urządzenia smart home.
Główne cele to:
Stworzenie dwóch aplikacji komunikujących się po UDP/TCP. Jedna z aplikacji będzie działała jako symulator urządzeń smart home, dostarczając dane do serwera.
Druga z aplikacji będzie odpowiadała za odbieranie i przetwarzanie danych otrzymanych od symulatora.
Aplikacja działająca jako serwer będzie miała możliwość komunikacji z urządzeniami w celu dostarczania aktualizacji stanu (zarządzanie klientami).
Aplikacja działająca jako serwer będzie zbierała dane otrzymywane od klientów oraz podejmowała decyzje na ich podstawie przy pomocy AI.
Krótko mówiąc, mamy dwie aplikacje z dwukierunkową komunikacją: jedna działa jako klient, a druga jako serwer. Symulujemy działanie urządzeń smart home i przy pomocy AI po stronie serwera zarządzamy klientami.
Do realizacji proponujemy:
- Python
- UDP/TCP (preferencyjnie UDP dla prostoty rozwiązania, natomiast tutaj jeszcze jest obszar do namysłu)
- Protobuf do kodowania/dekodowania wiadomości
W kwestii AI na pewno będzie to wykorzystanie gotowych rozwiązań - konkrety do ustalenia z grupą.
W obecnej formie nie przewidujemy potrzeby wykorzystania dodatkowego sprzętu do pracy w chmurze czy użycia realnych urządzeń smart home. W projekcie chcmy się skupić na aspektach projektowych, koncepcyjnych oraz architektonicznych, aby pokazać przekrój różnych problemów napotykanych w codziennym życiu. Stworzenie środowiska działającego jako symulator ma pomóc uprościć niektóre z aspektów, tak żeby umożliwić realizację projektu w przewidzianym czasie. W zależności od liczby osób w zespole dostosujemy ilość funkcji do realizacji.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people, 5 people, 6 people, 7 people, 8 or more people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The project will provide students with hands-on experience in implementing AI models and integrating them into a real-world application.
It will also enhance their understanding of client-server architecture and system design.
The project is suitable for students with basic knowledge of programming, AI, and web/mobile development.
vAplikacja do przeprowadzania walk testów w ramach badań sieci 5G/6G (INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas)
Celem projektu jest zaprojektowanie i implementacja systemu do realizacji walk testów sieci komórkowych 5G/6G z wykorzystaniem urządzeń użytkownika końcowego (UE – User Equipment), w szczególności smartfonów.
System umożliwi zbieranie, agregację, analizę oraz wizualizację danych radiowych, a także aktywne generowanie ruchu sieciowego w kontrolowanych warunkach.
Projekt realizowany będzie przez zespół studentów, z naciskiem na:
• praktyczne poznanie architektury sieci komórkowych,
• przetwarzanie danych pomiarowych,
• systemy rozproszone,
• nowoczesne podejścia wytwórcze (no-code / vibe-coding).
Zakres funkcjonalny systemu
1. Pomiary sieci: System zbiera kompletne parametry sieci komórkowej (np. RSRP, SINR, 5G) podczas pomiarów stacjonarnych i mobilnych typu walk test.
2. Centralizacja danych: Dane z urządzeń mobilnych są przesyłane w czasie rzeczywistym do centralnej, ustrukturyzowanej bazy danych na serwerze.
3. Interfejs API: Dostęp do zgromadzonych zasobów zapewnia REST API, umożliwiające filtrowanie danych i integrację z narzędziami takimi jak Python.
4. Generowanie ruchu: Narzędzie pozwala na aktywne lub automatyczne generowanie ruchu sieciowego w oparciu o zadane scenariusze i stan urządzenia.
5. Analiza przestrzenna: System tworzy mapy propagacji sygnału i automatycznie identyfikuje obszary o niewystarczającej gęstości pomiarów.
6. Planowanie walk testów: Moduł optymalizacji wyznacza ścieżki pomiarowe w celu maksymalizacji pokrycia terenu oraz analizy kluczowych zdarzeń, takich jak handovery.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas
vEnterprise review bot
Code reviews are essential, but organizing them shouldn’t feel like herding cats. At Nokia, we already use an internal GitLab review bot to help assign reviewers and post automated hints—but over time it has grown into an unmaintainable tangle of scripts. This project is about designing and building its clean, modern successor.
Students will create a real-time review bot that integrates with GitLab (and optionally Gerrit) using webhooks instead of periodic scanning. When a developer requests reviewers via a simple comment, the bot automatically selects suitable reviewers based on project rules, load balancing, and availability. It also posts helpful automated comments when common conditions are detected, such as missing changelog entries.
The system will include a web-based dashboard where developers can track their pending reviews, manage projects, and set out-of-office status. As a forward-looking extension, the bot may integrate LLMs to provide automatic code review suggestions—bringing AI directly into everyday developer workflows.
The backend will be implemented in Python using modern web frameworks and backed by a proper relational database (e.g. PostgreSQL). The frontend technology is open-ended, giving students freedom to design a clean and usable interface. This is a production-style project focused on good architecture, maintainability, and real-world engineering practices—not a one-off script.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vNarzędzie do generowania realistycznych danych wydajnościowych (PM) dla sieci telekomunikacyjnych (INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas)
Celem projektu jest zaprojektowanie i implementacja narzędzia do generowania realistycznych, lecz sztucznych danych wydajnościowych (Performance Management – PM) wykorzystywanych w sieciach telekomunikacyjnych (4G/5G/6G).
Generowane dane mają odwzorowywać statystyczne i czasowe charakterystyki rzeczywistych danych sieciowych, przy jednoczesnym braku danych wrażliwych, co umożliwi ich wykorzystanie do:
• testowania systemów analitycznych,
• walidacji algorytmów AI/ML,
• szkoleń i laboratoriów akademickich,
• symulacji zdarzeń i incydentów sieciowych.
Projekt realizowany będzie przez zespół studentów, z naciskiem na:
• inżynierię danych,
• symulację systemów złożonych,
• orkiestrację procesów,
• wykorzystanie LLM do generowania scenariuszy.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas
vPrzygotowanie interaktywnej makiety przedstawiające działanie systemu FRMCS
Projekt: Mini-FRMCS – demonstrator sterowania ruchem kolejowym (LEGO + BLE)
Celem projektu jest zbudowanie działającego modelu systemu zarządzania ruchem, inspirowanego FRMCS, na makiecie 1×1,5 m.
Etap 1 – Makieta i sterowanie (obowiązkowy)
2 pociągi LEGO City (Powered Up, BLE)
Centralna aplikacja (laptop)
Połączenie BLE z oboma pociągami
Logika zgód: tylko jeden pociąg na danym odcinku
Komendy STOP/GO, sterowanie prędkością
Stabilne, powtarzalne demo systemu
Etap 2 – Lokalizacja (rozszerzenie)
Dodanie beaconów do pociągów
Podział toru na segmenty (strefy)
Określanie, w którym segmencie znajduje się pociąg
Integracja lokalizacji z logiką ruchu
Po zrealizowaniu minimum możliwe rozszerzenie zakresu projektu.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
(brak)
vRules Engine for L1 Software
Product testing is essential before releasing it to the client, but it is often overlooked and deemed an unnecessary cost. What about situations where running tests costs actual money? During component testing of Base Transceiver Stations (BTS), every test execution costs money due to the electricity used not only to power up the BTS but also to cool them down. Furthermore, reserving valuable time of very expensive devices for incorrect tests is simply wasting time and, again, money.
Based on this premise, the Rules Engine was conceived. To save time and money, we need to validate whether tests are "making sense," which requires checking if the test input is correct. Unfortunately, this is not an easy task: in the case of L1 testing, test inputs consist of dozens of different messages exchanged between Layer 1 and Layer 2. Thousands of features already implemented in Nokia NR Layer 1 have changed and modified these messages, adding layers of dependencies between them and creating scenarios where it is much easier to create an incorrect message than a proper one. Such a situation is currently unmanageable by human intervention (DPCD - Dedicated Protein-Carbon Device), so we need to create a tool for this.
Students will create a new tool that will be seamlessly integrated into existing testing environments. When tests are run, after generating test input messages, the newly created tool will validate them. Rules for validating messages will be sourced from L1 System Architects and from existing NIDD rules, which need to be translated into L1 message dependencies.
This tool will also be available to L1 System Architects, allowing them to investigate existing dependencies within messages to make their new changes less error prone.
The system will include:
A tool, implemented as a Python package, that could be utilized in L1 System Architecture R&D work and integrated into existing test environments.
A system to automatically identify new rules and integrate them into the existing rule set.
A system to translate NIDD-based rules into dependencies for L1 messages.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vSatNOGS Ground Station v2 — Motorized Tracker
In this project we will build a motorized SatNOGS ground station with an azimuth–elevation tracker. Using the SatNOGS Rotator v3, Raspberry Pi, SDR, and open-source software (satnogs-client/rotctl + GNU Radio), we’ll assemble, wire, and calibrate a rotator that automatically follows low-Earth-orbit satellites across the sky.
Expect hands-on work: mechanics (2020 extrusion, gearing), drivers and controller setup, pointing models, pass scheduling, and live decodes.
Outcome: a campus-demoable station that tracks satellites in real time with higher SNR and longer, cleaner passes.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people, 5 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
3-5 students can participate in this project
Bazą jest projekt z zeszlego roku: github.com/czupirrek/satnogs
Tracker, który chcemy zbudowac: https://wiki.satnogs.org/SatNOGS_Rotator_v3
vRobot wspinający się z napędem magnetycznym
Inspekcja pionowych stalowych konstrukcji (zbiorniki, kadłuby statków, wieże) jest trudna i niebezpieczna dla ludzi. Rozwiązaniem są roboty wspinające się, które dzięki magnetycznym kołom mogą poruszać się po ferromagnetycznych powierzchniach pod dowolnym kątem, również pod wodą.
Konstrukcja mechaniczna pojazdu jest już rozpoczęta – dobrane są koła magnetyczne, silniki oraz ich kontrolery. Celem projektu jest opracowanie elektroniki sterującej oraz oprogramowania umożliwiającego zdalne sterowanie robotem i monitorowanie jego stanu.
Zakres prac zespołu:
- Integracja istniejących komponentów (silniki, koła magnetyczne)
- Dobór i integracja mikrokontrolera sterującego
- Implementacja komunikacji przewodowej (do pracy podwodnej) oraz bezprzewodowej (LoRa, WiFi)
- Opracowanie interfejsu operatora (aplikacja webowa)
- Dodanie czujników (IMU, czujniki prądu) i telemetrii
- Testy na pionowych powierzchniach stalowych w powietrzu i pod wodą
Ostateczny zakres projektu zostanie ustalony na początku semestru i będzie dostosowany do wielkości i kompetencji zespołu oraz dostępności sprzętu. Jesteśmy otwarci na modyfikacje listy zadań i priorytetów w zależności od kierunku, w którym rozwinie się projekt. Istnieje możliwość kontynuacji prac nad projektem w formie praktyk wakacyjnych lub pracy inżynierskiej.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób, 7 osób, 8 lub więcej osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vZdalnie sterowany pojazd podwodny (ROV)
Celem projektu jest zbudowanie w zdalnie sterowanego pojazdu podwodnego (ROV – Remotely Operated Vehicle) na podstawie przygotowanych instrukcji oraz gotowych komponentów. Konstrukcja bazuje na elementach drukowanych 3D (technologia FDM) oraz rurze akrylowej stanowiącej szczelną komorę na elektronikę. Pojazd wyposażony będzie w 5 thrusterów, kamerę z transmisją obrazu na żywo oraz przewodową komunikację przez tether.
Projekt ma charakter integracyjny – studenci poznają aspekty mechaniczne, elektroniczne i programistyczne systemów podwodnych. Gotowy ROV posłuży jako platforma do dalszych prac – montażu dodatkowych sensorów, chwytaków lub systemów nawigacji w kolejnych projektach.
Zakres prac zespołu:
- Druk 3D elementów ramy i obudowy
- Montaż ramy i integracja rury akrylowej z endcapami
- Montaż i uszczelnienie pędników (thrusterów)
- Montaż kamery w wodoszczelnej obudowie
- Wykonanie tethera (przewód zasilająco-komunikacyjny)
- Integracja elektroniki wewnątrz komory (sterownik, zasilanie, komunikacja)
- Uruchomienie systemu zdalnego sterowania (joystick/gamepad + komunikacja przewodowa)
- Testy szczelności i pływalności
- Testy w wodzie i kalibracja napędu
- Dokumentacja procesu budowy i instrukcja obsługi
Ostateczny zakres projektu zostanie ustalony na początku semestru i będzie dostosowany do wielkości i kompetencji zespołu oraz dostępności sprzętu. Jesteśmy otwarci na modyfikacje listy zadań i priorytetów w zależności od kierunku, w którym rozwinie się projekt. Istnieje możliwość kontynuacji prac nad projektem w formie praktyk wakacyjnych lub pracy inżynierskiej.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób, 7 osób, 8 lub więcej osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
(brak)
vBot do rezerwacji parkingu (INS, Prowadzący: dr inż Jarosław Drapała)
"Projekt oraz implementacja nowej wersji Bota Slackowego do rezerwacji parkingu
Ze względu na ograniczoną liczbę miejsc parkingowych, system rezerwacji jest kluczowy aby z niego efektywnie korzystać
Obecnie funkcjonujący Bot pozwalający na rezerwacje przez Slacka cieszy sie dużą popularnością, jednak nie jest utrzymywalny ze względu na stos technologiczny.
Nowa iteracja Bota mogłaby oprócz wyrównania funkcjonalności poprzedniego, dodać nowe możliwości
Kluczowe wymaganie to interakcja poprzez Slacka, dodatkowe interfejsy mogą być również rozważone
Podstawowym wymaganiem jest napisanie aplikacji backendowej zintegrowanej z Google Calendarem i Slackiem, docelowo uruchomionej na AWS.
Potencjalnie wykorzystanie LLM-a do interpretacji tekstu"
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący: dr inż Jarosław Drapała
vSystem zarządzania zasobami bibliotecznymi Ocado (INS, Prowadzący: dr inż Jarosław Drapała)
Zostań twórcą systemu, który zapanuje nad biblioteką książek i gier planszowych w naszym wrocławskim biurze. Szukamy zespołu, który przełoży logistyczne wyzwania na intuicyjną aplikację dla pracowników.
Zakres zadań:
Magazyn: Budowa bazy danych i logiki zarządzania obiegiem (wypożyczenia, rezerwacje, zwroty).
Wizualizacja: Stworzenie graficznego interfejsu prezentującego stan magazynowy i dostępność pozycji.
System alertowy: System śledzący terminy zwrotów oraz zasoby pracowników z mechanizmem automatycznych komunikatów oraz indywidualnych powiadomień.
Rozwój kolekcji: Funkcja zbierania zapotrzebowania na nowe zakupy.
Technologie:
Realizacja projektu będzie oparta na nowoczesnych i branżowych standardach:
Backend: Java, Python lub Node.js
Frontend: React
Dlaczego warto?
To nie jest projekt „do szuflady”. Będziesz pracować nad systemem, który rozwiązuje realny problem zarządzania zasobami wewnątrz organizacji. Zapewnimy Ci wsparcie merytoryczne i wgląd w to, jak projektujemy użyteczne narzędzia dla naszych inżynierów.
Wchodzisz w to?
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący: dr inż Jarosław Drapała
vZdecentralizowany system nadzorowanych transakcji
"Projekt oraz implementacja zdecentralizowanego systemu do przeprowadzania nadzorowanych transakcji pomiedzy użytkownikami.
Przykład użycia:
Na imprezie firmowej pracownicy biorą udział w różnych grach, za które otrzymują punkty.
Na końcu za zebrane punkty pracownicy mogą uzyskać nagrody.
Aby zapewnić uczciwy przebieg rozgrywki, punkty muszą zostać odpowiednio przypisane dla pracowników.
Założeniem systemu jest zdecentralizowany sposób przydzielania punktów (np. oparty o elektroniczny podpis lub blockchain).
Wymaganiem rozwiązania jest brak serwera centralnego.
Projekt przeznaczony dla zaangażowanych studentów z umiejętnościami w technologiach webowych."
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAI Ops
Projekt koncentruje się na stworzeniu platformy AIOps, która uprości i przyspieszy proces tworzenia oraz obsługi Service Impact Notifications (SIN). Są to powiadomienia służące do przekazywania informacji o incydentach w infrastrukturze IT, które zakłócają działanie określonych regionów oraz usług. Zakłócenia te mogą wynikać z nieprawidłowego działania komponentów sieciowych, serwerów lub innych kluczowych elementów środowiska technologicznego. Komunikaty pozwalają szybko przekazać jasną informację i problemie zespołom w firmie.
Obecnie proces tworzenia powiadomień SIN jest w dużej mierze realizowany manualnie. Obejmuje to identyfikację usług, przygotowanie opisu zdarzenia, określenie regionu oraz czasu jej wystąpienia, a także uzupełnienie dodatkowych informacji. Sposób ten jest czasochłonny oraz podatny na błędy.
Celem projektowego rozwiązania jest pełna automatyzacja tego procesu poprzez użycie modelu sztucznej inteligencji, aby system samodzielnie analizował dostępne dane, identyfikował zależności, generował propozycję treści powiadomienia oraz automatycznie uzupełniał kluczowe informacje. System usprawni zarządzanie incydentami poprzez dostarczenie szybszych i bardziej zawodnych powiadomień.
Kluczowym elementem projektu jest nauczenie modelu zarządzania, tworzenia i edytowania powiadomień SIN. W tym celu potrzebne jest zebranie odpowiednich danych. Studenci będą mieli dostęp do zbioru powiadomień SIN z przeszłości i odpowiadającym im ticketom.
Przykładowe dane, które będą udostępniane studentom:
a) Powiadomienia SIN,
b) Tickety odpowiadające powiadomieniom SIN.
System powinien zostać nauczony zależności pomiędzy treścią ticketa a odpowiadającym mu powiadomieniem SIN. Oznacza to, że na podstawie informacji zawartych w tickecie model powinien być w stanie automatycznie wygenerować poprawne i kompletne powiadomienie SIN, które następnie powinno być poddane weryfikacji użytkownika.
Technologie i narzędzia
Przygotowano wstępną propozycje listy technologii, które mogą zostać wykorzystane w projekcie. Należy jednak traktować je jako sugestie. Wybór technologii, narzędzi i języka programowania pozostaje kwestią otwartą i zależy od zespołu.
Kluczowe technologie:
- Modele NLP - do klasyfikacji, ekstrakcji informacji i generowanie treści powiadomień SIN
- Systemy baz danych oraz narzędzia do agregacji danych
- Metody probabilistyczne i statystyczne - analiza danych, walidacja modeli, ocena jakości.
Przykładowe narzędzia dk wykorzystania:
- Python - implementacja algorytmów, ekstrakcja informacji, budowa pipeline’u
- Langflow - projektowanie modułowych przepływów danych i architektury systemu
- Ollama - framework i CLI do lokalnego uruchamiania modeli LLM
- Mistral, GPT - modele językowe, które mogą zostać wykorzystane do generowania opisów i powiadomień
- Hugging Face Transformers - biblioteka do pracy z modelami NLP
- FastAPI lub Flask - tworzenie backendu systemu
Poziom wiedzy i umiejętności kandydatów
Wskazane jest, aby studenci posiadali podstawową wiedzę i umiejętności w programowaniu, szczególnie w obszarze ML i AI, tak aby byli w stanie przygotować, wytrenować oraz wykorzystać model w praktycznym rozwiązaniu. Dodatkowo przydatna będzie ogólna znajomość systemów ticketowych (np. ASM lub innych narzędzi ITSM), co ułatwi zrozumienie struktury ticketów i sposobu ich działania. Zespół powinien dysponować kompetencjami pozwalającymi na stworzenie systemu lub aplikacji realizującej założenia projektu.
Proponowane cele projektowe
Cele projektowe mogą zostać rozszerzone lub zmodyfikowane w zależności od umiejętności oraz pomysłów zespołu. Poniżej przedstawiono bazowy zestaw celów, który stanowi proponowany zakres prac przewidziany do realizacji.
1. Zbudowanie modułu przetwarzania ticketa:
a. Automatyczne pobieranie danych z ticketa.
b. Przetwarzanie i normalizacja treści.
c. Przekazywanie danych do modelu i odbiór wygenerowanych wyników.
2. Stworzenie modelu ML generującego krótki opis incydentu:
a. Przygotowanie modelu, który na podstawie treści ticketa tworzy zwięzły opis przedstawiający aktualny stan incydentu.
3. Stworzenie modelu ML generującego powiadomienia SIN:
a. Opracowanie modelu, który na podstawie ticketa generuje poprawny, kompletny i spójny komunikat SIN.
4. Implementacja systemu obsługującego generowanie powiadomień SIN:
a. Stworzenie backendu, który umożliwia wykorzystanie funkcji tworzenia powiadomień na podstawie ticketa.
b. Integracja z modelem ML oraz bazą danych
c. Przygotowanie interfejsu użytkownika
5. Dostarczenie działającego prototypu:
a. Kompletny system, który przetwarza realne tickety i generuje SIN.
b. Dokumentacja techniczna rozwiązania.
c. Prezentacja działania systemu na przykładach.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 0/1
Dodatkowe uwagi:
(brak)
vMail2Order
Projekt realizowany dla platformy e-commerce obsługującej klientów B2B z branży farb i materiałów wykończeniowych. Celem jest opracowanie inteligentnego systemu, który automatycznie przechwytuje wiadomości e-mail zawierające zamówienia generowane z systemów POS (point of sales) partnerów handlowych i na ich podstawie tworzy zamówienia na platformie e-commerce.
1. Wymagane technologie i narzędzia
Aby projekt zakończył się sukcesem, studenci muszą sprawnie poruszać się w środowisku, które pozwala na integrację systemów.
• System kontroli wersji: Git (wymagana umiejętność pracy na repozytorium zdalnym, np. GitHub/GitLab).
• Komunikacja: REST API (umiejętność tworzenia i odpytywania endpointów, obsługa formatu JSON).
• Język angielski: Dokumentacja techniczna oraz przykładowe zamówienia są w języku angielskim.
2. Preferowane technologie
Pozostawiamy studentom dowolność w doborze konkretnych bibliotek, jednak ze względu na specyfikę problemu rekomendujemy:
• Język programowania: Python (rekomendowany ze względu na biblioteki Data Processing/AI) LUB Node.js.
• Przetwarzanie danych/OCR: Doświadczenie lub chęć nauki narzędzi takich jak Tesseract, OpenAI API, Azure Form Recognizer lub bibliotek typu PyPDF2/Pandas.
• Konteneryzacja: Docker (mile widziane dostarczenie rozwiązania w kontenerze).
• Chmura: Podstawowa znajomość Azure lub AWS będzie dodatkowym atutem (wdrożenie Serverless).
3. Wymagany poziom wiedzy i umiejętności
Projekt jest klasyfikowany jako Backend / Data Engineering. Nie wymagamy wiedzy z zakresu systemu SAP (dostarczymy specyfikację interfejsu).
• Poziom ogólny: Mid (Intermediate) w wybranym języku programowania. Zespół powinien składać się z osób, które potrafią samodzielnie pisać czysty kod i tworzyć prostą architekturę aplikacji.
• Kluczowa kompetencja: Umiejętność analitycznego myślenia. Najtrudniejszą częścią projektu nie jest samo programowanie, a logiczne zaprojektowanie algorytmu, który "zrozumie", że "Qty: 100" w PDF-ie oznacza ilość sztuk.
• Mile widziane: Wcześniejsze doświadczenie w pracy z wyrażeniami regularnymi (Regex) lub prostymi modelami LLM/AI.
4. Planowane zadania do realizacji (High-Level Scope)
Projekt podzielony jest na etapy, które symulują wdrożenie komercyjne:
1. Analiza i Design:
o Analiza dostarczonych próbek zamówień (PDF/Email).
o Zaprojektowanie mapowania danych: Pole w PDF -> Pole w JSON.
o Wybór technologii do ekstrakcji danych.
2. Budowa konektora E-mail:
o Stworzenie modułu, który automatycznie pobiera nowe wiadomości ze dedykowanej skrzynki pocztowej.
o Filtracja wiadomości (oddzielenie spamu od zamówień).
3. Implementacja silnika ekstrakcji:
o Implementacja algorytmu sczytującego treść z załączników.
o Walidacja danych (np. sprawdzenie czy numer produktu ma poprawny format).
4. Integracja i Raportowanie:
o Generowanie pliku wyjściowego JSON zgodnego ze specyfikacją PPG.
o Wysłanie danych do "Mock Servera" (symulatora SAP), który wystawimy dla studentów.
o Obsługa błędów (co system ma zrobić, gdy nie może odczytać pliku?).
5. Dokumentacja i Demo:
o Prezentacja działającego rozwiązania.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vPPG Academy
PPG Academy – mobilna platforma rozwoju dla profesjonalnych malarzy
PPG Academy to innowacyjny projekt aplikacji mobilnej, której celem jest wsparcie młodych malarzy po zakończeniu edukacji zawodowej. Aplikacja zapewnia ciągły dostęp do krótkich szkoleń, certyfikatów cyfrowych, ścieżek rozwoju kompetencji oraz społeczności zawodowej – wszystko w jednym, nowoczesnym i intuicyjnym środowisku. Projekt łączy technologie mobile-first, MS365, Power Automate, Azure oraz elementy AI i grywalizacji, oferując realne zastosowanie biznesowe w skali międzynarodowej.
Najważniejsze wymagania projektu PPG Academy:
Funkcjonalna aplikacja mobilna z podejściem mobile-first
Aplikacja musi być zaprojektowana i zaimplementowana przede wszystkim z myślą o użytkownikach mobilnych, z responsywnym i intuicyjnym interfejsem.
Integracja z platformą MS365 oraz Power Automate
Kluczowym elementem jest wykorzystanie MS365 i Power Automate do zarządzania workflow, automatyzacji procesów szkoleniowych, certyfikacyjnych oraz innych funkcji biznesowych.
Implementacja warstwy grywalizacji
Aplikacja powinna zawierać mechanizmy motywacyjne, takie jak system odznak i punktów doświadczenia, które zwiększą zaangażowanie użytkowników i wspomogą rozwój kompetencji.
Dlaczego warto wziąć udział?
Pracując nad PPG Academy, zdobędziesz praktyczne doświadczenie w projektowaniu aplikacji na potrzeby dużej, globalnej organizacji, rozwiniesz kompetencje w obszarze nowoczesnych technologii cloudowych i AI, a Twoje rozwiązania mogą realnie trafić do użytkowników na rynku. To świetna okazja, aby zbudować portfolio, pracować na rzeczywistych wymaganiach biznesowych i mieć wpływ na produkt, który wspiera rozwój zawodowy tysięcy ludzi. Jeśli chcesz tworzyć nowoczesne, użyteczne rozwiązania i zobaczyć, jak Twój projekt może żyć poza uczelnią — ten projekt jest dla Ciebie!
Technologie wykorzystywane w projekcie:
Front-end aplikacji będzie oparty na mobile-first z responsywnym designem, a studenci sami wybiorą odpowiednie technologie. W back-endzie sugerowane jest wykorzystanie REST API w Node.js lub ASP.NET Core, jednak ostateczny wybór należy do zespołu. W obszarze AI proponowane są funkcje takie jak automatyczne generowanie quizów, personalizowane rekomendacje oraz detekcja emocji w feedbacku. Do prototypowania można użyć Replit. Warstwa grywalizacji może obejmować silnik odznak i system punktów doświadczenia. Wszystkie wymienione technologie są jedynie sugestiami, a decyzje dotyczące ich zastosowania pozostają do wyboru przez studentów.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vPPG Measure
Profesjonalni malarze spędzają dużo czasu podczas pierwszej wizyty u klienta na ręcznym mierzeniu powierzchni, obliczaniu metrażu i zbieraniu danych potrzebnych do przygotowania oferty. Proces ten jest czasochłonny, podatny na błędy i rzadko wystandaryzowany. PPG Measure ma na celu uproszczenie i cyfryzację tego etapu — aby praca malarza była szybsza, dokładniejsza i bardziej profesjonalna.
Cel projektu:
Stworzenie mobilnego narzędzia, które umożliwi malarzom szybkie przeprowadzanie inspekcji na miejscu i dokumentowanie wszystkich niezbędnych danych dotyczących budynku lub pomieszczeń do malowania. Narzędzie ma gromadzić i organizować pomiary, plany pomieszczeń oraz opisy powierzchni, w tym notatki i zdjęcia. Na tym etapie projekt skupia się wyłącznie na zbieraniu i strukturyzacji danych pomiarowych — bez sugerowania systemów malarskich czy materiałów.
Proponowane technologie i narzędzia
W ramach projektu PPG Measure rekomendujemy wykorzystanie następujących technologii i narzędzi, które ułatwią realizację założeń i zapewnią zgodność z wymaganiami ekosystemu PPG. Jednocześnie jesteśmy otwarci na inne technologie i rozwiązania, które zespoły studenckie zaproponują, pod warunkiem ich akceptacji przez zespół PPG.
Wybór konkretnych narzędzi pozostaje elastyczny i będzie ustalany na bieżąco.
• Front-end: Replit jako środowisko programistyczne oraz Lovable jako framework do tworzenia responsywnych, mobilnych interfejsów w podejściu mobile-first.
• Back-end: Technologia do ustalenia, z możliwością wyboru innych rozwiązań zgodnych z wymaganiami projektu i ekosystemu.
• AI: Wykorzystanie rozpoznawania obrazu do pomiarów oraz inteligentnych sugestii materiałowych, przy jednoczesnym otwarciu na alternatywne podejścia i narzędzia.
Dlaczego warto wziąć udział w projekcie?
• Realny wpływ na branżę – Twój kod i pomysły pomogą stworzyć narzędzie, które zmieni sposób pracy profesjonalnych malarzy.
• Nowoczesne technologie – Praca z AI, rozpoznawaniem obrazu, integracją z chmurą i mobilnymi rozwiązaniami.
• Praktyczne doświadczenie – Projekt łączy elementy UX, programowania front-end i back-end, a także integracji z systemami chmurowymi.
• Możliwość współpracy z globalną firmą – PPG to lider w branży farb i powłok, a projekt ma potencjał wdrożenia w wielu krajach.
• Portfolio i networking – Udział w innowacyjnym projekcie zwiększy Twoją atrakcyjność na rynku pracy.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 0/1
Dodatkowe uwagi:
(brak)
vProcurement Savings Tracker
Procurement Savings Tracker
Opis projektu: Stwórz profesjonalną platformę webową, która zastąpi Excela w zarządzaniu milionowymi oszczędnościami firmowymi. Twoim zadaniem jest zbudowanie systemu klasy Savings Tracker – od logiki biznesowej, przez bezpieczeństwo, aż po analitykę danych.
Jakie będą twoje zadania i co Cię czeka?
• Backend: Budowa silnika obsługującego Approval Workflow, wersjonowanie danych i zaawansowaną logikę walidacji.
• Frontend & UX: Zaprojektowanie interfejsu, który uniemożliwia popełnienie błędu i prowadzi użytkownika „za rękę” przez skomplikowany proces raportowania oszczędności. Jako dopełnienie systemu stworzysz dashboardy podglądu, takie jak My Projects czy KPI Summary.
• Data & BI: Projektowanie relacyjnej bazy danych i tworzenie interaktywnych raportów BI (wizualizacja trendów i targetów).
• Security & Auth: Implementacja profesjonalnego logowania Single Sign-On (SSO) w oparciu o ekosystem Microsoft 365.
Stack technologiczny propozycje:
• Język: Python (np. Framework Django lub FastAPI).
• Baza danych: SQL Server / Azure SQL.
• Frontend: HTML/CSS/JS (opcjonalnie frameworki typu React.js lub Streamlit)
• Business Intelligence: Power BI
Dlaczego warto wybrać ten projekt?
To unikalna okazja, by przejść drogę od czystego kodu do wdrożenia profesjonalnego systemu klasy enterprise – zbuduj projekt, który stanie się najmocniejszym punktem twojego portfolio. Projekt idealny dla przyszłego Python Developera, Data Engineera lub Analityka Systemowego
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vOctoTS - time series stored in Git
Celem projektu jest zaproponowanie protokołu przechowywania serii czasowych w formie tekstowej w repozytorium Git oraz zaimplementowanie zestawu narzędzi które będą wspomagać używanie takiej formy przechowywania.
Dzięki stworzonym narzędziom powstanie możliwośc stworzenia wyzwalanych okresowo akcji ciągłej integracji, które będą mogły przechowywać wyniki swojego działania w repozytorium z którego są uruchamiane, a następnie umożliwią wizualizację tych danych czerpanych bezpośrednio z repozytorium.
Realizacja projektu pozwoli połączyć wiedze i umiejętności deweloperskie i DevOps.
Technologie:
Frontend - js/ts/react
Git
Akcje CI - go/node.js/python
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAI for CI/CD (AWS)
Cel projektu: Zbudowanie rozwiązania, które zbiera metadane z procesu CI/CD (repozytoria, buildy, testy, deploymenty, logi i alerty), a następnie wykorzystuje AI do identyfikacji przyczyn problemów, łączenia zdarzeń w spójne incydenty oraz proponowania kroków naprawczych dla zespołów inżynierskich działających na AWS.
Charakterystyka rozwiązania:
- Użytkownik zachowuje kontrolę nad decyzjami: może korygować i oceniać rekomendacje AI (feedback loop).
- System uczy się na podstawie historii: wykorzystuje poprzednie korelacje, oceny użytkowników i wyniki wdrożeń do ciągłego doskonalenia.
- Projekt ukierunkowany na powtarzalność i produktowalność: gotowe integracje i wzorce dla typowych pipeline’ów CI/CD w środowisku AWS.
Proponowane funkcjonalności:
- Pobieranie sygnałów z procesu wytwórczego: metadane repozytoriów (PR/commit), statusy buildów i testów, deploymenty, logi i alarmy (np. CloudWatch, EventBridge, webhooks).
- Automatyczna korelacja i hierarchizacja zdarzeń (lokalny silnik AI + reguły) w celu wskazania prawdopodobnej przyczyny (root cause) i wpływu.
- Rekomendacje remediacji (np. cofnięcie wdrożenia, ponowne uruchomienie joba, naprawa testu, korekta konfiguracji).
- Ocena decyzji AI przez użytkowników (approve/override), z zapisem uzasadnień i wyników.
- Wykorzystanie historii korelacji i ocen do ulepszania modeli (learning/retuning).
- Integracja z innymi inicjatywami (np. agentami DevOps, Observability) oraz narzędziami zespołu.
Środowisko i integracje (AWS):
- Repozytoria i pipeline’y: AWS CodeCommit / GitHub / GitLab, AWS CodeBuild, AWS CodePipeline, AWS CodeDeploy.
- Monitoring i zdarzenia: Amazon CloudWatch (metrics/logs/alarms), AWS X-Ray (opcjonalnie), Amazon EventBridge.
-Artefakty i dane: Amazon S3 (logi/raporty), opcjonalnie wektorownia/eval store.
- Bezpieczeństwo i zgodność: IAM, szyfrowanie, ograniczenie dostępu do danych produkcyjnych.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania umowy o zachowaniu poufności (NDA).
vAI for Infrastructure as Code (IaC)
Cel projektu: Zbudowanie rozwiązania, które analizuje kod IaC (Terraform) używany przez zespoły, ocenia jakość i zgodność z guardrailami, porównuje wersje oraz proponuje bezpieczne zmiany / remediacje. Agent ma wspierać szybkie przeglądy, ograniczać dług techniczny i standaryzować praktyki w środowiskach chmurowych (multi-cloud: AWS / Microsoft Azure / Google Cloud).
Charakterystyka rozwiązania:
- Kontrola po stronie użytkownika: możliwość korekty rekomendacji, akceptacji/odrzucenia i komentowania wyników (feedback loop).
- Uczenie na historii: wykorzystanie wcześniejszych ocen, różnic między wersjami i efektów wdrożeń do poprawy trafności.
- Produktowalność: powtarzalne reguły i szablony dla typowych modułów Terraform; gotowe integracje i raporty.
Proponowane funkcjonalności:
- Ingest i analiza IaC: wczytanie modułów/stacków Terraform, parsowanie zmiennych, providerów, polityk.
- Ocena jakości i zgodności: walidacja względem standardów (naming, tagging, sieć, IAM/role), wykrywanie anty-wzorów.
- Porównanie wersji (diff): identyfikacja zmian o wysokim ryzyku (np. security, networking, koszt).
- Rekomendacje remediacji: propozycje poprawek (pull request templates), linki do modułów referencyjnych i reguł.
- Skoring i raporty: scoring jakości, raport „as-is vs to-be”, listy naruszeń guardrailów i ich krytyczność.
- Pętla informacji zwrotnej: ocena przez inżyniera (approve/override), zapisywanie uzasadnień i wyników.
Środowisko i integracje (multi-cloud):
- Repozytoria: Git (PR/commit hooks) i rejestry modułów.
- Chmury: AWS / Microsoft Azure / Google Cloud (mapowanie reguł per provider).
- Artefakty i dane: magazyn raportów/ocen, historia diffów i feedbacku, (opcjonalnie) wektorownia na potrzeby wyszukiwania wzorców.
- Bezpieczeństwo: IAM/role, szyfrowanie artefaktów, separacja danych projektowych.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu wymaga przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania umowy o zachowaniu poufności (NDA).
vAI for Landing Zone (GCP)
Cel projektu: Zbudowanie rozwiązania dedykowanego dla Google Cloud (GCP), które z pomocą AI przekształca PRD (Product Requirements Document) w WBS, projekt docelowej Landing Zone, generuje IaC (Terraform/KRM) zgodny z politykami organizacji oraz waliduje konfigurację względem najlepszych praktyk i guardrailów. Efekt: szybsze, powtarzalne i zgodne z polityką uruchamianie środowisk chmurowych na Google Cloud.
Charakterystyka rozwiązania:
- Human-in-the-loop: użytkownik może korygować rekomendacje AI, zatwierdzać/odrzucać zmiany i dodawać komentarze (audytowalne decyzje).
- Uczenie się na historii: model wykorzystuje poprzednie oceny i wyniki wdrożeń, by poprawiać trafność generowanych artefaktów i walidacji.
- Produktowalność i standaryzacja: wzorce „Project Factory”, moduły referencyjne, katalog polityk Organization Policy oraz checklisty zgodności.
Proponowane funkcjonalności (AI-assisted LZ):
- PRD → WBS: parsowanie wymagań (PRD) i automatyczne tworzenie Work Breakdown Structure z przypisaniem właścicieli i zależności.
- Projekt architektury LZ: generowanie referencyjnej architektury (organizacja/foldery/projekty) z uwzględnieniem VPC/SVPC, IAM, sieci, logowania/monitoringu, kluczy i tożsamości.
- Generowanie IaC: tworzenie modułów Terraform/KRM dla zasobów (np. VPC, subnets, firewall, Cloud NAT, GKE, Cloud SQL, Cloud Storage, Pub/Sub, Cloud Run, Cloud Build/Deploy).
- Polityki i zgodność: mapowanie wymagań na Organization Policy, IAM (role, zasadnicze uprawnienia), VPC-SC (jeśli dotyczy) oraz reguły kosztowe/etykietowanie.
- Walidacja i rekomendacje remediacji: sprawdzenie wygenerowanej konfiguracji względem guardrailów, wskazanie odchyleń, propozycje poprawek i „fix-it PRs”.
- Integracje krzyżowe: powiązanie z pipeline’ami CI/CD (pre-merge checks), z obserwowalnością (Cloud Logging/Monitoring) i repozytoriami polityk.
- Feedback & re-use: każda decyzja użytkownika (approve/override) zasila bazę wiedzy dla kolejnych wdrożeń.
Środowisko i integracje (GCP — przykłady):
- AI & automatyzacja: Vertex AI / Gemini (analiza PRD, generacja WBS i reguł), orkiestracja w Cloud Run/Cloud Functions lub Workflows.
- Konfiguracja i polityki: Organization Policy, IAM, Cloud Asset Inventory (ocena stanu), Config Controller / Anthos Config Management (KRM), Terraform z Google Provider.
- Sieć i bezpieczeństwo: VPC, Cloud NAT, Firewalls, Private Service Connect, opcjonalnie VPC Service Controls, Secret Manager.
- Przechowywanie artefaktów: Cloud Storage (raporty, pliki konfiguracyjne), BigQuery (telemetria/eval), opcjonalnie Artifact Registry.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wymagać przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania NDA.
vAI for Observability (AWS)
Cel projektu: Zbudowanie rozwiązania dedykowanego dla AWS, które zbiera sygnały obserwowalności (metryki, logi, trasy/APM) i wykorzystuje AI do korelacji zdarzeń, identyfikacji przyczyn źródłowych (root cause) oraz proponowania automatyzowalnych kroków naprawczych. Celem jest skrócenie czasu analizy incydentów (MTTD/MTTR), obniżenie kosztów telemetrycznych oraz podniesienie jakości decyzji operacyjnych w środowiskach budowanych na AWS.
Charakterystyka rozwiązania:
- Kontrola użytkownika: możliwość zatwierdzania/odrzucania i komentowania wniosków AI (feedback loop) z audytowalnym śladem.
- Uczenie na historii: wykorzystywanie poprzednich korelacji i ocen do ciągłego doskonalenia modeli/reguł (human-in-the-loop).
- Optymalizacja kosztów: polityki retencji, sampling i kontrola kardynalności metryk/logów w oparciu o natywne mechanizmy AWS.
- Integracja z runbookami: gotowe akcje remediacyjne uruchamiane z poziomu AWS (rollback, scale-out, feature-flag switch, restart).
Proponowane funkcjonalności (AWS-native):
- Ingest sygnałów z usług AWS:
- Metryki/logi/alerty: Amazon CloudWatch (Metrics, Logs, Alarms, Logs Insights, Container Insights dla EKS/ECS).
- Trasy/APM przykładowo: AWS Distro for OpenTelemetry (ADOT) + AWS X-Ray (instrumentacja usług: Lambda, ECS/EKS, API Gateway, ALB/NLB, RDS, DynamoDB).
- Zdarzenia: Amazon EventBridge (integracje z usługami i webhookami), Amazon SNS/SQS (kolejkowanie).
- Historia i audyt: AWS CloudTrail (powiązanie zmian z incydentami).
- Korelacja i hierarchizacja zdarzeń: lokalny silnik korelacyjny + modele AI, deduplikacja i łączenie symptomów (np. błąd w API ↔ throttling w DynamoDB ↔ spike latency).
- Diagnoza i rekomendacje: sugerowane remediacje (np. AWS Systems Manager Automation runbooks, rollback w CodeDeploy/CodePipeline, zmiana konfiguracji autoskalera).
- Ocena decyzji AI przez użytkowników: approve/override + uzasadnienie, które uczy model i modyfikuje reguły.
- Wykorzystanie historii: re-use wcześniejszych korelacji/ocen do tłumienia hałasu i poprawy trafności alertów.
Środowisko i integracje (AWS):
- Źródła i analiza: Amazon CloudWatch (Metrics/Logs/Alarms, Logs Insights), AWS X-Ray, AWS Distro for OpenTelemetry (ADOT), AWS CloudTrail, Amazon OpenSearch Service (opcjonalnie), Amazon S3 (archiwizacja/long-term), AWS Glue/Athena (analizy ad-hoc).
- Automatyzacja/remediacja: AWS Systems Manager (Automation/Run Command/Incident Manager/OpsCenter), AWS Step Functions, AWS Lambda, AWS CodeDeploy/CodePipeline (rollback).
- Koszty i kontrola kardynalności: Metric Filters, Metric Streams, retencja dla Logs/Tracing, budżety i alarmy kosztowe (AWS Budgets/Cost Anomaly Detection).
- Bezpieczeństwo i zgodność: IAM least-privilege, KMS (szyfrowanie), separacja danych, tagowanie zasobów, kontrola PII.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wymagać przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania NDA.
Splunk a Cisco company
vCode Fixer
Tytuł projektu
Automatyzacja aktualizacji zależności z wykorzystaniem LLM oraz analizy migracji wersji
Opis projektu
Współczesne projekty programistyczne w dużym stopniu opierają się na zewnętrznych bibliotekach i pakietach open source. Zależności te często zawierają błędy lub podatności bezpieczeństwa, które są naprawiane w nowszych wersjach.
W przypadku aktualizacji wersji minor proces ten jest zazwyczaj prosty. Natomiast aktualizacja wersji major często wiąże się z niekompatybilnościami oraz koniecznością wprowadzenia zmian w kodzie zgodnie z dokumentacją migracyjną danej biblioteki. Obecnie cały ten proces jest wykonywany manualnie i bywa czasochłonny.
Celem projektu jest stworzenie narzędzia, które automatyzuje proces aktualizacji zależności na podstawie zgłoszeń typu Bug w aplikacji JIRA oraz wykorzystuje modele językowe (LLM) do wspomagania migracji pomiędzy wersjami.
Problem do rozwiązania
Projekt zakłada stworzenie narzędzia, które:
• integruje się z aplikacja Jira,
• identyfikuje zgłoszenia typu Bug powiązane z wadliwymi lub podatnymi zależnościami,
• automatycznie aktualizuje wersję biblioteki,
• przygotowuje Pull Request (PR) z proponowanymi zmianami.
Największym wyzwaniem dla narzedzia, jest obsługa aktualizacji wersji major, które wymagają analizy dokumentacji migracyjnej, a nastpnie wprowadzenia zmian w kodzie źródłowym zgodnie z tymi zaleceniami.
Założenia projektu
• Zgłoszenia typu Bug w Jira zawierają informacje o:
o problematycznej bibliotece,
o aktualnie używanej wersji,
o dostępnej nowszej wersji zawierającej poprawkę błędu lub podatności.
• Kod żródłowy projektu będzie przychowywany w repozytorium Git i ma CI/CD.
• Projekt ma charakter proof of concept – nie jest wymagane rozwiązanie produkcyjne.
Cele projektu
1. Automatyzacja aktualizacji zależności na podstawie zgłoszeń w Jira.
2. Rozróżnienie aktualizacji minor i major.
3. Wykorzystanie LLM / agentów do:
o analizy dokumentacji migracyjnej,
o proponowania zmian w kodzie.
4. Przygotowywanie pull requestów możliwie bliskich poprawnemu rozwiązaniu.
5. Przeprowadzenie researchu istniejących narzędzi rozwiązujących podobny problem.
Funkcjonalności docelowego rozwiązania
1. Integracja z Jira
• Pobieranie zgłoszeń typu Bug za pomocą API.
• Ekstrakcja informacji o:
- zależności,
- wersjach biblioteki,
- repozytorium kodu.
2. Identyfikacja zależności
• Lokalizacja biblioteki w projekcie
• Określenie typu aktualizacji:
- minor – kompatybilna wstecznie,
- major – potencjalnie niekompatybilna.
3. Aktualizacja:
a) wersja minor – narzędzie powinno:
• automatycznie podbić wersję biblioteki,
• pobrać nową wersję zależności,
• zbudować/skompilować projekt,
• przygotować pull request z wprowadzonymi zmianami.
b) wersji major - narzędzie powinno:
• wyszukać w internecie oficjalną dokumentację oraz migration guidelines,
• przeanalizować dokumentację pod kątem zmian łamiących kompatybilność,
• wykorzystać LLM do:
- identyfikacji miejsc w kodzie wymagających zmian,
- zaproponowania i zaaplikowania poprawek,
• skompilować projekt,
• przygotować pull request (docelowo jak najbliższy poprawnego rozwiązania).
5. Feedback loop
• analiza wyników pipeline CI/CD.
• identyfikacja:
- który job zakończył się błędem,
- potencjalnej przyczyny niepowodzenia.
• iteracyjne poprawianie kodu przy wsparciu LLM.
6. Research istniejących rozwiązań
• Analiza dostępnych narzędzi (np. Dependabot, Renovate itp.).
Technologie:
• Dowolność wyboru języka programowania i frameworków.
• Integracja z:
- Jira API,
- GitHub,
- CI/CD.
• Obowiązkowe użycie LLM lub podejścia agentowego (np. OpenAI API lub podobne rozwiązania).
Planowane formy współpracy:
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
podpisanie NDA i umowy zwiazanej z przekazaniem majatkowych praw autorskich
Test Driven Solutions
vAssetFlow - Track, manage, and optimize company resources effortlessly
1. Context and Concept
Equipment Manager is a platform designed for IT and Operations departments to comprehensively catalog company assets (hardware, licenses, accessories). The system enables tracking of the full lifecycle of an asset – from purchase, through assignment to an employee, to disposal. The main assumption is to ensure transparency: at any moment, it must be clear who holds a specific piece of equipment and what its status is (e.g., in repair, available, assigned).
2. Main Goal
To create a central asset database (Single Source of Truth) that eliminates the need for Excel spreadsheets, and to automate processes related to issuing and returning equipment (onboarding/offboarding). The system is also intended to prevent unnecessary costs by monitoring license and warranty expirations.
3. Problems to Solve (Business Case)
Manual Tracking Inefficiency: Eliminating human errors and obsolete data resulting from maintaining registers in spreadsheets.
Lack of Resource Visibility: Difficulty in quickly determining who currently has a specific laptop or if there are available software licenses.
Operational Bottlenecks: Delays in preparing workstations for new employees due to a lack of knowledge about available equipment.
Shadow IT & Cost Leakage: Purchasing unnecessary licenses while the company owns underutilized assets.
4. List of Tasks (Scope of Work)
The project scope has been divided into modules to facilitate effort estimation:
A. Module: User Roles & Access Control
Implement a Role-Based Access Control (RBAC) system with at least three levels:
Admin: Full access to asset management, user assignments, and system settings.
Manager/Technician: Ability to update asset status, perform check-ins/check-outs, and view reports.
Employee (Read-only): Ability to view currently assigned equipment and its warranty status.
Secure API endpoints based on the user's role.
B. Module: Unified Asset Dashboard & Media Management
Design the database structure for different asset types (Hardware vs. Software/Licenses).
Implement CRUD operations for assets, including a Media Upload feature:
Integration with a storage service (e.g., Azure Blob Storage, AWS S3, or local storage) to save and retrieve photos of the equipment (e.g., for documenting damage or identifying specific models).
Create a dashboard with filtering and search capabilities, presenting real-time statuses and visual asset previews.
C. Module: Assignment Management (Check-in / Check-out)
Implement business logic for assigning equipment to a user and releasing it.
Create a full history of changes (Audit Trail) – a chronological log of who held the asset and its condition (with photo support for "before" and "after" handovers).
D. Module: Automation and Alerts
Mechanism for monitoring critical dates (warranty, license renewal).
System of proactive alerts for administrators (e.g., "License X expires in 30 days").
E. Module: QR/Barcode Integration
Generate unique QR codes for each asset.
Scanning functionality for quick lookup or status updates during physical inventory counts
6. Suggested Technology Stack
The choice of technology is flexible. While we suggest a modern approach, the team is free to select tools that best fit their skills and the project's requirements. Possible combinations include:
Backend: .NET / Node.js
Frontend: React / Vue / Angular
Storage: Azure Blob Storage / AWS S3 / Cloudinary (for documents and photos)
Database: SQL (PostgreSQL/SQL Server) for maintaining process integrity
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people, 5 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The produced code remains the property of its authors, with full rights to use it freely, while granting TDS an unlimited license to further use, exploit, and develop it within its internal structures.
vHireFlow - Automated onboarding tool
1. Context and Concept
HireFlow is a centralized HR platform designed to digitize and fully automate the lifecycle of a new hire. The system orchestrates tasks between HR, IT, and Team Leaders, ensuring a consistent and professional welcoming experience. It eliminates communication chaos by transforming dozens of scattered emails into a single, transparent "step-by-step" digital workflow.
2. Main Goal
To create a digital workflow that guides an employee through all stages of employment—from signing documents to system provisioning and initial training. The system aims to shorten the time to full productivity and ensure full accountability by tracking who completed which task and when.
3. Problems to Solve (Business Case)
Operational Fragmentation: Onboarding tasks are spread across departments, leading to oversights (e.g., no laptop on day one).
Manual Tracking Overhead: HR spends excessive time manually reminding stakeholders about upcoming tasks.
Lack of Accountability: Difficulty in identifying where the onboarding process is "stuck" for a particular hire.
Document Mismanagement: Risks associated with lost or incomplete employment documentation and consents.
4. List of Tasks (Scope of Work)
A. Module: User Roles & Access Control (RBAC)
Implementation of a role-based system tailored to the company structure:
Admin/HR: Full process management, adding new hires, and monitoring all statuses.
Team Leader (TL): Role focused on support and culture. The TL is responsible for conducting the welcome interview and has view-only access to the hire’s progress to stay informed without active management of the entire process.
Employee (New Hire): Access to a personalized onboarding roadmap and a portal for uploading required documents.
Secure API endpoints ensuring that TLs and Employees can only access data relevant to their specific roles.
B. Module: Digital Document & Media Management
Creation of a secure portal for HR and employees to upload, sign, and verify documentation (contracts, IDs, certificates).
Media Support: Implementation of a module to store and display employee profile photos and document scans (requires integration with storage services like Azure Blob Storage or AWS S3).
C. Module: Onboarding Progress Tracker
A visual "roadmap" for the new hire, showing completed vs. pending tasks.
A monitoring dashboard for HR and TLs to track progress. While the TL has a passive role, they use this view to ensure the employee is integrating smoothly.
D. Module: Automation and Notifications
System of smart reminders for upcoming deadlines (e.g., reminding HR to ship hardware or the TL about the scheduled welcome interview).
Automated email or system notifications upon completion of key onboarding milestones.
5. Extensions (Optional)
KUP/IP Rights Automation: Integration with the Copyright Tax Deduction process to automatically collect necessary technical abstracts from the start.
Gamification Engine: "Achievements" for completing training modules to increase new hire engagement.
Enterprise SSO: Secure login via Google Workspace (TDS domain).
6. Technology Stack
The choice of technology is flexible. While we suggest a modern approach, the team is free to select tools that best fit their skills and the project's requirements. Possible combinations include:
Backend: .NET / Node.js
Frontend: React / Vue / Angular
Storage: Azure Blob Storage / AWS S3 / Cloudinary (for documents and photos)
Database: SQL (PostgreSQL/SQL Server) for maintaining process integrity
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people, 5 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The produced code remains the property of its authors, with full rights to use it freely, while granting TDS an unlimited license to further use, exploit, and develop it within its internal structures.
vdAIgnosis helper – AI-based assistant for healthcare workers
dAIgnosis is a smart support tool focusing specifically on gynecology and reproductive health for healthcare professionals such as doctors, nurses, and midwives. Its goal is to speed up the diagnostic process and let medical workers focus more on the patient, not just the data. The web-based platform allows users to upload test results, connect them with patient history, and ask the system for insights or suggestions.
The gynecology area has seen a significant rise in diagnostic challenges in recent years, with conditions like PCOS (Polycystic Ovary Syndrome) and endometriosis often going undiagnosed or misdiagnosed for years. A specialized diagnostic assistant in this field could deliver a strong impact from the very beginning.
If a patient already has a diagnosis, the tool highlights whether the latest results show improvement or potential concerns. If the case is still open, the tool suggests possible diagnoses to explore further through additional testing or patient interviews.
The system also recommends similar cases and diagnoses based on a shared library of anonymized patient stories and general medical knowledge. Healthcare professionals can contribute to this library by uploading anonymized patient histories. If they agree, their contact info may be attached to shared cases, allowing others to reach out and consult them when a similar diagnosis is suggested.
The project will use Retriever Accelerator Framework developed by Thaumatec as the foundation for the web application. This means that key features such as login, user management, access control, and the basic UI are already in place – allowing the team to focus fully on building and integrating medical logic and AI functionality.
Possible applications:
Hospitals and clinics can use dAIgnosis to support diagnostics in complex or unclear cases,
Doctors can get suggestions for rare conditions or additional questions to ask during consultation,
Medical professionals can learn from past cases and connect with others who handled similar diagnoses,
The goal:
To design and develop a smart web tool that supports medical workers in the diagnostic process, reduces time spent on manual data analysis, and helps build a growing library of real-world patient cases – starting from a high-impact area like reproductive health.
Project description:
dAIgnosis is a smart support tool focusing specifically on gynecology and reproductive health for healthcare professionals such as doctors, nurses, and midwives. Its goal is to speed up the diagnostic process and let medical workers focus more on the patient, not just the data. The web-based platform allows users to upload test results, connect them with patient history, and ask the system for insights or suggestions.
The gynecology area has seen a significant rise in diagnostic challenges in recent years, with conditions like PCOS (Polycystic Ovary Syndrome) and endometriosis often going undiagnosed or misdiagnosed for years. A specialized diagnostic assistant in this field could deliver a strong impact from the very beginning.
If a patient already has a diagnosis, the tool highlights whether the latest results show improvement or potential concerns. If the case is still open, the tool suggests possible diagnoses to explore further through additional testing or patient interviews.
The system also recommends similar cases and diagnoses based on a shared library of anonymized patient stories and general medical knowledge. Healthcare professionals can contribute to this library by uploading anonymized patient histories. If they agree, their contact info may be attached to shared cases, allowing others to reach out and consult them when a similar diagnosis is suggested.
The project will use Retriever Accelerator Framework developed by Thaumatec as the foundation for the web application. This means that key features such as login, user management, access control, and the basic UI are already in place – allowing the team to focus fully on building and integrating medical logic and AI functionality.
Possible applications:
Hospitals and clinics can use dAIgnosis to support diagnostics in complex or unclear cases,
Doctors can get suggestions for rare conditions or additional questions to ask during consultation,
Medical professionals can learn from past cases and connect with others who handled similar diagnoses,
The goal:
To design and develop a smart web tool that supports medical workers in the diagnostic process, reduces time spent on manual data analysis, and helps build a growing library of real-world patient cases – starting from a high-impact area like reproductive health.
The task is to:
Integrate patient data upload and visualization into the Retriever framework,
Develop an AI module to suggest diagnostic directions and evaluate test progression,
Implement a search and recommendation engine for similar cases,
Enable optional contact between healthcare workers based on shared, anonymized cases,
Prepare a Proof of Concept (PoC) solution by developing a sample application frontend, along with the backend and an AI model.
Technology:
Retriever Accelerator Framework (.NET + React),
Python for backend AI modules,
LLM-based text analysis (e.g. GPT APIs),
Vector databases for case similarity search,
Secure web technologies (HTTPS, GDPR/RODO compliance),
Angular/ React
Azure AI Foundry - LLM models (LLama, GPT, Gemini)
Competences required:
Basic web development (.NET, JavaScript/React and Python),
Interest in AI or medical data processing,
Understanding of how to work with structured and unstructured data,
Student competencies / experience that will facilitate project delivery: ability to critically evaluate LLM results and experience working in a Scrum team.
Nice to have:
Basic UI/UX design knowledge,
Experience with AI integration,
Szacowany nakład pracy:
80h Design and development of the platform backend
50h Design and development of the platform frontend
60h Design and development of the LLM AI Agent
40h AI model training & fine tunning
20h Testing platform
Osoba kontaktowa: Mateusz Supeł | msup@thaumatec.com
Planowana forma współpracy:
Substantive consultations provided by a company employee,
Expert supervision by a company employee over the entire project or specific parts,
Participation of a company employee in project meetings,
Provision or funding of necessary hardware/software by the company for project execution,
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 5 people
Acceptable project language: English, Polish
Available groups: 0/2
Additional remarks:
(none)
vAMA - Assembly Measurement Automation (automatyzacja okresowej kontroli pomiarów na liniach montażowych)
Obecny proces opiera się na ręcznym zapisie wyników pomiarów oraz ich późniejszym
przepisywaniu do systemów raportowych lub arkuszy. Powoduje to:
ryzyko błędów ludzkich i nieczytelnych zapisów,
opóźnienia w dostępności danych,
ograniczoną możliwość analizy trendów i wykrywania odchyleń,
wysokie zaangażowanie czasowe pracowników,
trudności w zapewnieniu spójności i archiwizacji danych.
Proponowane rozwiązanie
Wdrożenie aplikacji webowej dostępnej na tabletach i laptopach, umożliwiającej:
bezpośrednie wprowadzanie wyników pomiarów przez operatorów,
automatyczne zapisywanie danych na serwerze,
elastyczne zarządzanie punktami pomiarowymi (dodawanie / usuwanie),
integrację z narzędziami analitycznymi (Power BI, Ignition),
bieżącą wizualizację wyników i trendów.
Korzyści biznesowe
1. Redukcja kosztów operacyjnych
ograniczenie czasu poświęcanego na ręczne przepisywanie danych,
zmniejszenie liczby błędów i poprawek,
uproszczenie procesu audytów i raportowania.
2. Poprawa jakości i zgodności
pełna identyfikowalność danych pomiarowych,
szybkie wykrywanie odchyleń i trendów,
wsparcie wymagań jakościowych i audytowych (traceability).
3. Zwiększenie efektywności produkcji
szybszy dostęp do danych w czasie rzeczywistym,
możliwość natychmiastowej reakcji na nieprawidłowości,
ograniczenie przestojów wynikających z opóźnionej informacji.
4. Skalowalność i standaryzacja
możliwość rozszerzenia rozwiązania na kolejne linie i procesy,
jednolity standard raportowania i danych w całym zakładzie.
5. Fundament pod dalszą automatyzację (Industry 4.0)
gotowa baza danych pod zaawansowaną analitykę,
integracja z systemami produkcyjnymi i BI,
możliwość dalszej automatyzacji pomiarów w przyszłości.
Ryzyka i ich ograniczenie
Adopcja użytkowników – szkolenia, prosty interfejs, pilotaż.
Integracja IT – wykorzystanie standardów webowych i API.
Bezpieczeństwo danych – kontrola dostępu, kopie zapasowe, zgodność z
polityką IT.
Wskaźniki sukcesu (KPI)
skrócenie czasu raportowania,
redukcja błędów w danych,
dostępność danych w czasie rzeczywistym,
liczba zautomatyzowanych kontroli,
poziom wykorzystania systemu przez użytkowników.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Przekazanie majątkowych praw autorskich. podpisanie umowy o zachowaniu poufności
veRejestr APS
Aplikacja powinna bazować na liście wszystkich dostępnych instrukcji pracy standaryzowanej z obszaru QC w Wałbrzychu i Jelczu, z możliwością filtrowania po dokładnym obszarze użytkowania. Każda instrukcja z listy powinna być podlinkowana do oryginalnego dokumentu (konieczne stworzenie centralnego miejsca np. na Sharepoint). Każda instrukcja musi posiadać historię swojej wersji, a pod linkiem ma znajdować się tylko aktualna wersja, z możliwością dostępu do wersji archiwalnych [po każdej weryfikacji i aktualizacji instrukcji stara wersja trafia do archiwum].
Stworzenie intuicyjnej metody tworzenia planu rocznego do weryfikacji instrukcji, z możliwością jego
śledzenia i finalnego automatycznego zatwierdzania [każdy obszar, w którym jest używana dana instrukcja, będzie miał inną ścieżkę akceptacji]. Z poziomu aplikacji użytkownik ma mieć możliwość rozpoczęcia tworzenia nowej instrukcji (przydatna będzie automatyczna informacja do użytkowników, aby nie powielać tworzenia dokumentu przez osoby np. z innej zmiany). Tworzenie nowych instrukcji oraz weryfikacja istniejących powinna być odzwierciedlona na osi czasu (np. Gantt na zasadzie MS Project) w taki sposób, aby cała listę użytkownik mógł również filtrować według swojego obszaru. Aplikacja powinna posiadać zakładkę z listą uwag lub czynności trudnych
zgłaszanych np. po patrolach, obserwacjach, sygnałach od pracowników, z możliwością dopasowania tych wpisów do konkretnej instrukcji i zaplanowania wdrażania środków zaradczych (przygotowanie planu realizacji).
Proponowane narzędzia do wykorzystania przy tworzeniu aplikacji:
Power Apps (konieczny, z wykorzystaniem Modern Components)
Power Automate + Outlook (konieczny) + Teams (opcja)
Sharepoint List (konieczny)
Power BI (opcja - ewentualnie do finalnej wizualizacji)
Język Python (możliwość zastosowania jako aspekt poprawiający płynność i wizualizację)
Wizualizacja propozycji strony głównej (nie zawiera wszystkich wymaganych szczegółów)
Ekrany aplikacji – propozycja:
1. Dashboard główny
Liczba instrukcji do weryfikacji w tym miesiącu wg. wybranego obszaru
Liczba instrukcji po terminie
Wykres obszarów (ilość APS + ilość zaległych)
Statystyki dla QA → szybki przegląd jakości
2. Lista instrukcji
Filtrowanie po obszarze / statusie / właścicielu
Buttony: Edytuj, Wyświetl historię weryfikacji, Nowa weryfikacja
3. Szczegóły instrukcji
Dane podstawowe
Historia wersji
Powiązane aktywne procesy weryfikacyjne
4. Ekran procesu weryfikacji
Data startu, termin, status
Załączanie pliku nowej wersji
Zmiana statusu na "Zakończona"
Automatyczne wyliczanie opóźnienia (Power Apps / Power Automate)
5. Panel administratora QA
Dodawanie nowych instrukcji
Zarządzanie obszarami
Raport xlsx, pdf (do pobrania - opcjonalnie)
Proponowany zestaw przepływów:
1. Powiadomienie o rozpoczęciu weryfikacji
Uruchamiane gdy tworzony jest nowy element na liście Weryfikacja_APS.
Wyślij mail do:
Osoba_weryfikująca
QA (np. lista dystrybucyjna QualityAssurance)
W treści:
Numer instrukcji
Termin zakończenia
Link do formularza weryfikacji
2. Przypomnienie o zbliżającym się terminie
Flow uruchamiany codziennie (scheduled flow):
Filtr: Termin_weryfikacji - 7 dni
Jeśli status ≠ Zakończona → wyślij przypomnienie
3. Powiadomienie o opóźnieniach
Codzienny trigger
Jeśli Today > Termin i Status ≠ Zakończona →
e-mail do właściciela + QA: „Instrukcja X jest przeterminowana o Y dni.”
4. Automatyczna zmiana statusu instrukcji
Po zakończeniu weryfikacji:
Porównaj wersję → jeśli zmieniona → aktualizuj w liście Instrukcje_APS
Zapisz Data_ostatniej_weryfikacji
Ustaw Status: Aktualna
5. Powiadomienie o publikacji nowej wersji
Do wszystkich użytkowników obszaru:
Nowa wersja → automatyczny e-mail
W treści link do pliku + changelog
To główne założenia, które w trakcie realizacji mogą ulegać modyfikacji.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Przekazanie majątkowych praw autorskich, podpisanie umowy o zachowaniu poufności, własny komputer
vRękawiczka tensometryczna wizualizująca obciążenia statyczne i dynamiczne dłoni i nadgarstka podczas pracy
Do badania ergonomii stanowiska pracy pozycji dłoni i nadgarstka aktualnie stosujemy system Xsens (motion capture) oraz metody ręczne RULA czy temotoka. Dane wyjściowe służą wizualizacji procesów do poprawy kaizen albo ustalania rotacji i wizualizacji poprawnej metody pracy. Celem ww działań dot. identyfikacji i redukcji zagrożeń jest prewencja chorób zawodowych, w szczególności Zespołu Cieśni Kanału Nadgarstka czy Zespołu Łokcia Tenisisty.
Wspomniane wyżej systemy i metody są wymagające w użyciu dla pracowników produkcji i kadry zarządzającej – konieczność ubierania całego kombinezonu i jego kalibracji itd., albo ręczne - nieobiektywne, bo obarczone błędem pomiarowym. Obecnie brakuje nam wygodnych i precyzyjnych przyrządów służących pomiarowych albo wskaźnikowych dotyczących ergonomii pozycji dłoni i nadgarstka, w szczególności siły chwytu/nacisku oraz krytycznych kątów wychylenia nadgarstka. Uzupełnienie tych danych jest kluczowe dla naszego celu, jakim jest eliminacja przyczyn potencjalnych chorób zawodowych.
Poszukujemy rozwiązania kompaktowego i niekrępującego, do użycia przez każdego pracownika, nie tylko przez specjalnie wyszkolony personel. System musi umożliwiać transmisję danych w czasie rzeczywistym do aplikacji (mobilnej/PC) w celu podglądu problematycznych procesów na żywo. Kluczowym wymaganiem jest tryb pracy autonomicznej (offline). Chcemy wyposażyć pracowników w ten sprzęt, aby mogli samodzielnie weryfikować ergonomię swojej pracy bez konieczności patrzenia w ekran i współuczestniczyli w projektowaniu i wykonywaniu kaizen. W ramach wsparcia planujemy współpracę z lekarzami medycyny pracy i SANEPID.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 0/1
Dodatkowe uwagi:
Wymóg przekazania majątkowych praw autorskich, podpisanie umowy o zachowaniu poufności, własny komputer
vOpracowanie i weryfikacja algorytmu VSLAM jako źródła lokalizacji urządzeń transportu bliskiego w środowisku produkcyjnym. Ocena dokładności, odporności i wymagania wdrożeniowe
Celem projektu jest zbudowanie stanowiska testowego (wózek widłowy + kamery RGB + edge GPU) i przeprowadzenie eksperymentów w realnej hali w celu oceny VSLAM (ang. Visual Simultaneous Localization and Mapping) w trzech obszarach: (1) dokładność trajektorii, (2) odporność na typowe zakłócenia hali, (3) wymagania integracyjne (kalibracja, synchronizacja, obciążenie obliczeniowe). W projekcie zostanie zastosowana biblioteka PyCuVSLAM. PyCuVSLAM to biblioteka programistyczna w języku Python, stanowiąca interfejs do algorytmów Visual SLAM akcelerowanych sprzętowo przy użyciu kart GPU NVIDIA (CUDA). PyCuVLSAM umożliwia jednoczesne budowanie mapy otoczenia oraz estymacja pozycji i orientacji obiektu (np. wózka widłowego lub robota mobilnego) na podstawie danych z kamer. W odróżnieniu od klasycznych metod lokalizacji stosowanych w środowiskach magazynowo-produkcyjnych (takich jak znaczniki QR, linie magnetyczne czy systemy UWB), PyCuVSLAM nie wymaga infrastruktury zewnętrznej, bazując wyłącznie na analizie obrazu z kamer monocularnych lub stereo. Dzięki temu potencjalnie umożliwia elastyczne wdrożenia w istniejących halach produkcyjnych bez kosztownych modyfikacji środowiska.
Wynikiem końcowym projektu będzie raport porównawczy, rekomendacje konfiguracji czujników i minimalny prototyp integracji z urządzeniem NVIDIA Jetson.
Cele i pytania badawcze
Celem projektu jest sprawdzenie, czy PyCuVSLAM zapewnia wystarczającą dokładność lokalizacji dla zastosowań magazynowo-produkcyjnych (monitoring floty / nawigacja wspomagana / półautonomia).
Pytania badawcze:
Jaka jest dokładność lokalizacji (ATE/RPE, dryf, stabilność orientacji) w typowej hali?
Jak zmienia się jakość przy:
różnych prędkościach i manewrach wózka,
różnym oświetleniu (dzień/noc, strefy z refleksami),
dynamicznych przeszkodach (ruch ludzi/wózków),
“featureless” odcinkach (długie białe ściany/korytarze)?
Jak trudne jest wdrożenie (kalibracja, synchronizacja, parametry, utrzymanie map)?
Hipotezy (H)
H1: w stabilnych warunkach (tekstura + poprawna kalibracja) PyCuVSLAM osiągnie błąd rzędu kilku metrów
H2: największym ryzykiem degradacji będą synchronizacja, błędy kalibracji i zmienne oświetlenie.
H3: multi-camera / więcej obserwacji sceny poprawi odporność w “trudnych” fragmentach hali.
3. Zakres testów offline (przed testami w hali)
Celem testów (offline) jest:
przeanalizowanie dokumentacji PyCuVSLAM oraz dostępnych przykładów użycia,
identyfiacja wymagań sprzętowych i programowych biblioteki, w szczególności:
wymagania dotyczące GPU (CUDA),
wersje systemu operacyjnego, sterowników oraz bibliotek (np. CUDA, cuDNN),
wymagania dotyczące kamer i formatów danych wejściowych,
przygotowanie środowiska uruchomieniowego na platformie NVIDIA Jetson Orin,
przeprowadzenie portowania i konfiguracji PyCuVSLAM na docelowym hardware,
pmplementacja pipeline’u odtwarzania danych,
szybka weryfikacja, czy PyCuVSLAM działa stabilnie na danych z wózka (bez ryzyka i kosztów hali),
wyłapanie “wąskich gardeł” integracyjnych (kalibracja, synchronizacja, parametry),
przygotowanie rekomendowanych konfiguracji (kamery/ustawienia) i scenariuszy na halę.
Dane wejściowe (dostarczane przez TSafety)
TSafety dostarczy zestaw nagrań z wózka widłowego obejmujący:
strumienie wideo z kamer (mono lub stereo; opcjonalnie multi-camera),
metadane czasowe (timestampy), jeśli są dostępne,
informacje o konfiguracji (FPS, rozdzielczość, ekspozycja, FOV),
jeśli możliwe: dodatkowe sygnały pomocnicze (np. IMU, enkodery, log prędkości) – nawet jeśli PyCuVSLAM ich nie wykorzystuje, są przydatne do analizy i “ground-truth”.
3.1 Zadanie: Odtwarzanie danych i uruchomienie PyCuVSLAM w trybie zbliżonym do rzeczywistego
Celem zadania jest przygotowanie kompletnego pipeline’u przetwarzania danych, który umożliwi uruchomienie algorytmu PyCuVSLAM w warunkach możliwie zbliżonych do pracy w czasie rzeczywistym, mimo że wykorzystywane będą dane wcześniej zarejestrowane.
Studenci przystąpią do zaprojektowania i implementacji systemu, który odtwarza zapisane dane sensoryczne (wideo / obrazy / dane IMU, jeśli dostępne) w taki sposób, aby symulować ich napływ „na żywo”, z zachowaniem oryginalnej częstotliwości próbkowania oraz kolejności czasowej.
3.1.1 Zakres realizacji zadania
I. Przygotowanie danych wejściowych.
wykorzystanie wcześniej zarejestrowanych sekwencji video lub zestawów obrazów z kamer (monocularnych lub stereo),
zapewnienie poprawnego formatu danych zgodnego z wymaganiami PyCuVSLAM,
uwzględnienie kalibracji kamer (parametry wewnętrzne i, jeśli dotyczy, zewnętrzne).
II. Zaimplementowanie mechanizów odtwarzania danych.
a) stworzenie modułu odczytu danych z dysku, który:
publikuje kolejne klatki obrazu w zadanym interwale czasowym,
symuluje rzeczywiste opóźnienia (np. 30 FPS, 10 FPS),
umożliwia zatrzymanie, wznowienie oraz restart sekwencji,
zadba o synchronizację czasową danych (jeśli używane są dodatkowe sensory).
III. Integracja z PyCuVSLAM
uruchomienie PyCuVSLAM w trybie przetwarzania strumieniowego,
przekazywanie danyuch do algorytmu dokładnie tak, jak miałyby one pochodzić z kamery zamontowanej na pojeździe,
zapewnienie ciągłość przetwarzania oraz obsługę potencjalnych opóźnień obliczeniowych.
IV. Monitoring działania systemu
rejestrowanie estymowanej pozycji i orientacji w czasie,
zapisywanie przebiegu trajektorii oraz mapy środowiska,
monitorowanie wykorzystania zasobów obliczeniowych (CPU/GPU) i opóźnienia pipeline’u.
3.2 Efekt końcowy
Po zakończeniu zadania studenci powinni dysponować:
działającym pipeline’em umożliwiającym realistyczne testowanie PyCuVSLAM bez fizycznego robota lub wózka,
możliwością powtarzalnych eksperymentów na tych samych danych,
podstawą do dalszych analiz jakości lokalizacji, stabilności algorytmu oraz jego przydatności w środowisku produkcyjnym.
4. Zakres i scenariusze testowe w hali
Pętla referencyjna: przejazd po zamkniętej pętli 50–150 m.
Długi korytarz: 30–80 m z powtarzalnym tłem (regały).
Strefa refleksów: posadzka błyszcząca / światła punktowe.
Ruch dynamiczny: przejazd obok pieszych i innego wózka (bez ingerencji w bezpieczeństwo).
Manewry precyzyjne: dojazd do palety, cofanie, skręt w miejscu, podnoszenie masztu (sprawdzenie wpływu wibracji i zmian widoku).
Restart / relokacja: start z innego miejsca, sprawdzenie jak łatwo wznowić spójny układ odniesienia
5. Metodyka pomiaru “prawdy” (ground truth)
System geodezyjny.
UWB RTLS jako referencja.
markery na wybranych punktach (aruco).
6. Architektura systemu testowego
6.1 Sprzęt
Edge GPU: NVIDIA Jetson (np. Orin) lub PC z RTX (jeśli dopuszczalne). cuVSLAM jest projektowany pod real-time na Jetson.
Kamera RGB lub/i stereo (np. RealSense / ZED / inna).
Mocowanie: sztywne, odporne na wibracje (rama przy dachu kabiny / masztu, ale uwaga na zasłanianie).
6.2 Software
PyCuVSLAM (Python) + logowanie trajektorii + narzędzia ewaluacji
Alternatywnie/równolegle: ROS (opcja)
7. Metryki i ocena jakości
ATE (Absolute Trajectory Error) - błąd pozycji po dopasowaniu do GT.
RPE (Relative Pose Error) - błąd odcinkowy / dryf na segmentach.
Wydajność: FPS, opóźnienie, użycie GPU/CPU, dropped frames.
opis: https://docs.google.com/document/d/1RdwFTTjO0oZ3lt3TFJn7VQ4sbqsk6w94W6mGq3kEQkg/edit?usp=sharing
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAI-Based Translation Quality Evaluator (TQE) for Document Workflows
An AI tool that ingests an original document and its translated version, automatically evaluates translation quality, and returns an overall rating plus targeted feedback. The solution will combine Natural Language Processing, LLM-based evaluation, and practical software engineering into a usable “translation QA” pipeline.
Main features:
1. Document ingestion & alignment (source vs. translation)
• Support common formats (e.g., TXT/DOCX/PDF) and extract text reliably (handle headings, lists, tables).
o Segment text into units (sentences/paragraphs) and align source-to-target segments even when lengths differ.
o Produce an “alignment view” so reviewers can trace every score back to specific parts of the documents.
2. Quality scoring with AI + transparent criteria
• Generate a multi-dimensional score, for example: Accuracy/Faithfulness, Fluency/Grammar, Terminology consistency, Style/Tone, and Formatting preservation.
o Use an LLM (with specified metrics) to compute per-segment scores and an aggregated document score.
o Require the evaluator to output short evidence-based notes (e.g., “meaning changed”, “missing sentence”, “wrong number/date”), not just a number.
3. Error detection, reporting, and improvement hints
• Detect common issues: omissions/additions, mistranslations, named entities and numbers inconsistencies, glossary violations, and untranslated fragments.
o Provide a structured report: overall grade, per-section breakdown, and a ranked list of highest-impact problems.
o Optional: allow “re-evaluate after fix” or propose corrected translations for flagged segments (clearly separated from the evaluation).
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vAnalysis and implementation of multi-source chatbot (majority in Confluence) when there are thousands of pages, no tagging, duplicated or obsolete articles
Problem statement
A chatbot connected to Confluence (thousands of pages) and other sources (Stack overflow) produces low-quality, “nonsense” answers.
Confluence content is largely untagged, inconsistent, and contains duplicates/outdated pages.
Chatbot does not detect profiles and does not adjust the level of complexity of the answers to the profile (data engineers, business users, architects)
Objectives
Propose an end-to-end architecture for a knowledge chatbot that is grounded in sources and avoids hallucinations. Technology that works the best with non cloud Confluence and thousands of articles.
Define a practical content preparation strategy that works - include main recommendation and minimal actions that could improve the quality of provided answers
Deliver actionable recommendations: “what to fix first” and expected impact.
Provide an evaluation framework and test plan that can be executed on synthetic/redacted data.
Assumptions and constraints
No access to production Confluence pages for students.
Available technologies are related to the Open AI and Copilot
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vAplikacja/ Strona do zapisów na konferencje dla studentów
Problem to solve:
When we organize an event for all students from Wroclaw (different universities) – we don’t have a dedicated website/application for that. We would like to have one place where we can add all the information.
Main information:
- Overview of the event: purpose, description, mission
- Agenda
- Venue – information about location (main event) and watch parties
- Q&A about the event
Speakers:
- Speakers profiles – with photos, short description
- Possibility to contact a Speaker (e.g., e-mail, link to LinkedIn profile)
Materials (treasures for people who downloaded the app):
- Materials from previous events
- Job offers from Volvo Group (from tech)
Contact with speakers and attendees:
- Feedback after the session (simple without many questions) with a question on what they would like to hear about in the next event
- Information about mentorship opportunities
Sign-up possibility:
- Students can sign up for the event on this website – a short form with basic required information (name, surname, email address).
- There should also be an admin panel to check how many people are signed up and who exactly.
- Possibility to send an email/notification to all registered people.
Technology stack:
- Backend: C#, .NET, Azure
- Frontend: Typescript, React
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vApplication for automated sensitivity classification for documents or data
Project goal:
- Build and pilot an application (online or offline) that automatically classifies documents/data into: Open, Internal, Confidential, Strictly Confidential
- Additionally, the application must flag whether the document/data contains personal information by setting: “contains personal information”
Functional scope (MVP):
- Automatic sensitivity classification based on document/data content
- Personal Information detection and flagging
- Supported input formats (to be confirmed; minimum proposal):
- Office documents: DOCX, PPTX, XLSX, PDF, TXT
- Data: JSON
- Operating modes:
- Online (service/assistant) or offline (local tool)
- Delivered either as an Office plugin or a dedicated Assistant (final choice to be confirmed during Discovery).
- Expected Output:
- Classification level + Personal Information flag
- Explainability (e.g., which rules/sections contributed to the decision)
Proposed Tasks:
1. Exploration of the solution design and possible technologies
- Decide on classification approach:
- Rule-based (keyword dictionaries/regex + Personal Information detectors)
- ML/LLM (contextual classification)
- Hybrid (deterministic Personal Information flagging and hybrid sensitivity scoring)
- Defining architecture, security, audit/logging, integration points.
2. MVP implementation
- Pipeline design and implementation (proposal: text extraction -> Personal Information detection -> sensitivity classification -> result + metadata)
- Basic UI/UX
3. Testing and calibration
- Prepare reference set of sanitized documents and data to measure quality.
- Personal Information detection
- Classification vs expected labels
4. Possible applications
- Office Plugin
- Online Application
- Offline Application
Deliverables:
- Requirements clarification document (scope, assumptions, constraints)
- Architecture/design document (including data flow)
- MVP tool (with the agreed input formats and output)
- Documentation (user guide + operational notes if online)
- Pilot report (quality metrics, findings, recommendations)
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vAuto-Analysis of Message Center announcements for Power Platform
The system automatically monitors all Microsoft 365 Message Center announcements that relate to the Power Platform and its components (Power Apps, Power Automate, Dataverse, Copilot for Power Platform, etc.).
Whenever a new applicable announcement appears, it goes through an automated analysis process. The results of this analysis are stored in an internal “repository” (e.g., database, SharePoint list, or similar tracking system).
Goal:
The goal of this initiative is to ensure proactive, consistent, and efficient handling of all Microsoft Message Center (MC) announcements related to the Power Platform. By automating the analysis and classification of these announcements, the organization can reduce manual workload, detect impactful changes earlier, ensure timely communication, and maintain an up-to-date knowledge repository. This contributes to improved platform stability, compliance, and operational readiness.
Scope of work:
Included in Scope:
- Automatic retrieval of all MC announcements related to Power Platform and its components.
- Automated classification based on category, priority, and impact.
- Automated workflows for planned maintenance, routine updates, and unclear messages.
- Creation and maintenance of a structured repository.
- Automated stakeholder communication when needed.
- Monitoring services such as Power Apps, Power Automate, Microsoft Copilot (Power Platform), Microsoft Dataverse, and overall, Power Platform.
- Use of Power Platform and AI/GenAI capabilities to automate classification and summarization.
Out of Scope:
- Manual investigation of complex or ambiguous MC messages (triggered, not executed automatically).
- Handling announcements unrelated to Power Platform.
- Full lifecycle management of business-critical changes.
- Automatic remediation of issues caused by updates.
- Monitoring of non-Microsoft services.
Detailed Process Description:
1. Automated Collection & Pre-Processing:
- Retrieval of all relevant MC announcements and extraction of metadata.
2. Automated Classification:
- Category: maintenance, new feature, breaking change, etc.
- Priority: urgency and impact-based.
- Impact level across solutions and environments.
3. Automated Actions:
A. Planned Maintenance:
- Automatic notifications to solution owners and Tenant Admins.
- Repository entry updated and closed.
B. Regular Service Updates:
- Automatic closure with analysis saved.
C. Unclear or High-Impact Announcements:
- Automated GenAI summary created.
- Administrators alerted for review.
- Item remains open until resolved.
4. Repository Storage:
- All items stored with full history, analysis, actions taken, and status.
Technology and tools to be utilized:
The technology stack involves Power Platform components, including AI and generative AI capabilities:
• Power Automate (Or Agent flows)
• AI Builder
• MS Copilot Studio (Optional)
If needed, the process can integrate signals from other Microsoft services.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vCreate application for leads process
Initiative Definition & Evaluation Application (IDEA)
1. Project Overview
The Initiative Definition & Evaluation Application (IDEA) application is one of the first pillars of the Leads Process structure. It is a centralized intake and qualification solution designed to standardize how requests ("leads") are submitted, verified, and tracked. IDEA introduces a single, structured request form that captures all essential information required to open and assess a project, reducing ambiguity, manual follow-ups, and unnecessary meetings.
The application acts as a front gate to the initiative lifecycle, ensuring that only well-defined, compliant, and value-driven initiatives enter discovery and subsequent delivery phases.
2. Problem Statement & Background
Currently, requests are often initiated through various channels (e-mails, meetings, chats, etc.), leading to:
* Incomplete or inconsistent requirements,
* Repeated clarification meetings,
* Delays in discovery and implementation phases,
* Limited transparency of needs and workload,
* Difficulty measuring lead flow and performance.
IDEA addresses these challenges by enforcing structured data collection, early verification, and real-time visibility into the leads pipeline.
3. Project Objectives
Primary Objectives
* Create a single-entry point for all lead requests,
* Ensure complete and high-quality requirements at submission period,
* Enable early verification (e.g. DPO verification or governance checks),
* Provide end-to-end visibility of incoming leads.
Secondary Objectives
* Reduce time-to-discovery,
* Minimize coordination and meetings,
* Enable data-driven prioritization and planning,
* Support cost-efficient resource utilization.
4. Scope
In Scope
* Design and implementation of application IDEA,
* Definition of mandatory and optional input fields,
* Submission workflow and routing to responsible verifiers,
* Lead status tracking,
* Data model for reporting,
* PowerBI Leads Dashboard for KPIs and insights.
5. Structure & Required Fields
The IDEA application is designed to capture all minimum information required to initiate an initiative.
Core Identification
* Initiative title
* Organization
Business Context
* Initiative background
* Business challenge
Scope & Requirements
* High-level scope
* Basic requirements (functional / non-functional)
* Assumptions, constraints, risks
Planning Inputs
* High-level time-plan / target dates
* Active WBS for Discovery Phase
Governance & Contacts
* SPOC
* Business Owner
* Involved Stakeholders / Key Users / SMEs
6. Process Flow Draft
Step 1 -Open IDEA
Requestor accesses the application.
Step 2 - Complete Request
Requestor fills in all required fields. Smart validation ensures completeness and clarity before submission.
Step 3 - Submit Request
Upon clicking Send , the lead is registered in the system/list.
Step 4 -Verification
The request is automatically routed to the responsible verifier for:
* Validation of compliance with applicable regulations,
* Assignment of the responsible DPO or dedicated team,
* Assessment of data protection relevance and impact,
* Formal decision: approval or rejection of the request.
* Additional space for more clarification needed, etc.
Step 5 - Lead Status Assignment
Post-verification, the lead receives a status such as (to be verified):
* Submitted
* Under Review
* Assigned
* Approved - Discovery Phase
* Ongoing - Implementation Phase
* Rejected / Needs Clarification
Step 6 - Visibility & Reporting
All leads are stored in a structured dataset feeding the Lead Dashboard.
7. Lead Dashboard
A dedicated Lead Dashboard provides transparency and insights. Could be provided in PowerBI solution or anything similar. It is a transparent view of the IDEA as a base.
KPIs
* Total number of submitted leads
* Lead throughput (e.g. quarterly)
* Average lead time (e.g. Submission --> Approval --> Discovery)
* Average time to request completeness
* Leads by Organization
* Leads by responsible DPO / team
* Any other: to be verified
Value of the Dashboard
* Supports prioritization decisions
* Identifies bottlenecks
* Enables capacity planning
* Provides management-level visibility
8. Expected Outcomes
* Standardized, high-quality initiatives requests repo,
* Reduced lead intake cycle-time,
* More effective clarification and requirements gathering sessions,
* Improved transparency of the needs,
* Data-driven decision-making.
9. Given Values
For Business
* Less meetings = more clarity,
* Faster initiation of valuable initiatives,
* Predictable and transparent request handling,
* Better prioritization and cost awareness.
For Team
* Clearer requirements backlog,
* Reduced re-work and interruptions,
* Improved planning accuracy,
* Ability to focus effort where it matters most.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vCreating workflow application using AI-powered spec-driven development (SDD) technologies
Spec-driven development (SDD), czyli rozwój oprogramowania sterowany specyfikacją, to nowoczesna metodologia pracy, która zyskała na znaczeniu w 2025 roku wraz z popularyzacją agentów AI (takich jak GitHub Copilot).
W tym podejściu to specyfikacja, a nie kod, staje się głównym artefaktem i „źródłem prawdy” projektu. Zamiast pisać kod ręcznie lub prosić AI o generowanie fragmentów na podstawie luźnych instrukcji (tzw. vibe coding), programista tworzy szczegółową, ustrukturyzowaną dokumentację, którą agenci AI przekształcają w działające oprogramowanie.
Jako student posiadający darmowy dostęp do GitHub Copilot w 2026 roku, możesz korzystać z frameworka Tessl, aby tworzyć aplikacje w oparciu o specyfikacje.
Oto jak te technologie współpracują ze sobą w praktyce:
1. Claude Sonnet 4.5 w GitHub Copilot
W 2026 roku studenci otrzymują darmowy plan Copilot Pro, który obejmuje dostęp do zaawansowanych modeli innych firm, w tym Claude Sonnet 4.5.
Możesz wybrać ten model w oknie czatu (model picker) w swoim edytorze kodu (np. VS Code).
Sonnet 4.5 jest uznawany za jeden z najlepszych modeli do zadań agentowych i programowania opartego na logice.
2. Wykorzystanie frameworka Tessl
Tessl to platforma do tworzenia oprogramowania typu „AI-native”, która promuje podejście Spec-Driven Development (SDD).
Tworzenie przez specyfikację: Zamiast pisać kod linijka po linijce, tworzysz pliki specyfikacji (specs) w języku naturalnym lub ustrukturyzowanym formacie.
Rola Claude Sonnet 4.5: Framework Tessl wykorzystuje „agenty” do interpretacji tych specyfikacji. Model Sonnet 4.5 (dostępny przez Copilota) dobrze radzi sobie z tym zadaniem, zamieniając Twoje wymagania na gotowy, przetestowany kod.
Zadanie polega na :
- skonfigurowaniu środowiska opartego o wyżej wymienione technologie
- przygotowaniu specyfikacji i wygenerowaniu prostej aplikacji typu workflow bazującej na aktualnej wersji Angular w oparciu o dostarczone wymagania.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vMeeting Action Orchestrator (bez AI/LLM)
1. Opis ogólny
Meeting Action Orchestrator to aplikacja osadzona w ekosystemie Microsoft 365, której celem jest automatyzacja follow upów po spotkaniach, ale w sposób deterministyczny — bez użycia jakichkolwiek modeli AI lub funkcji generatywnych.
System ma pobierać szczegóły wybranego spotkania z kalendarza, umożliwić użytkownikowi wygodne stworzenie notatek (Minutes) według struktury:
• Decisions (podjęte decyzje)
• Actions / Tasks (zadania)
• Risks / Issues (ryzyka/problemy)
…a następnie utworzyć konkretne zadania w Plannerze lub To Do, zapisać Minutes w SharePoint oraz (opcjonalnie) przesłać podsumowanie na wskazany kanał Teams.
To jest projekt czysto inżynierski: integracje, formularze, przepływy, reguły, architektura, uprawnienia, API, brak czarnej skrzynki.
2. Cele projektu
Cele techniczne
• Poznanie Microsoft Graph API (głównie: Events, Users, Planner, ToDo, SharePoint, Teams).
• Zbudowanie aplikacji M365 z pełną ścieżką: Auth → API → logika → zapis → powiadomienia.
• Praktyka w projektowaniu integracji i obsługi uprawnień OAuth 2.0 / Microsoft Entra ID.
• Praktyka w tworzeniu przewidywalnych automatyzacji (bez AI).
Cele biznesowe
• Zmniejszenie czasochłonności follow upów po spotkaniach.
• Ustandaryzowanie notatek i zadań projektowych.
• Poprawa komunikacji między członkami zespołu.
3. Funkcjonalności
3.1 Core (obowiązkowe)
1. Wybór spotkania z kalendarza
• Użytkownik loguje się (OAuth + Graph delegated permissions).
• System pobiera listę spotkań przyszłych i minionych (np. z 7 dni).
• Użytkownik wybiera jedno spotkanie.
• Pobierani są:
o uczestnicy,
o organizator,
o data/czas,
o agenda (jeśli istnieje),
o link do spotkania,
o lokalizacja / online.
2. Formularz „Minutes”
Formularz zawiera 3 sekcje:
• Decisions – lista stringów.
• Actions – każde zadanie zawiera:
o opis,
o osoba przypisana (z listy uczestników),
o termin realizacji,
o priorytet (Low/Normal/High).
• Risks – tekst + opcjonalnie właściciel ryzyka.
Formularz może być:
• panel webowy (React/Angular/Vue),
• lub panel w Teams (tab app).
3. Zapis Minutes do SharePoint
System zapisuje Minutes jako:
• JSON w bibliotece „Meeting Minutes”,
•
o generuje PDF/HTML (opcjonalnie)
•
o nadaje nazwę:
Minutes_<yyyy-MM-dd>_<MeetingSubject>.json/pdf.
4. Automatyczne tworzenie zadań
Jedno kliknięcie:
„Create tasks in Planner/To Do”.
System tworzy zadania na podstawie sekcji Actions:
• opis = opis akcji,
• przypisana osoba = wyciągnięta z uczestników,
• dueDate = z formularza,
• ewentualnie bucket = „Meeting Actions”.
System zwraca linki do zadań.
3.2 Advanced (opcjonalne)
1. Szablony notatek
• Student może dodać listę predefiniowanych układów Minutes, np.:
o Scrum Retro,
o Risk Review,
o Arch Meeting,
o Steering Committee Notes.
• Szablony są przechowywane w SharePoint (lista „Minutes Templates”).
2. Podsumowanie w Teams
Po zapisaniu Minutes:
• wysyłana jest Adaptive Card na wybrany kanał Teams,
• karta zawiera:
o nazwę spotkania,
o organizatora,
o decyzje,
o liczbę zadań,
o przyciski:
„Open Minutes”
„Open Planner Tasks”
Dodatkowo można wrzucić załącznik (PDF).
3.3 Ultra (opcjonalne dla chętnych)
1. Reguły priorytetów
Prosty engine if/else, np.:
• jeśli akcja zawiera tag [RFC] → due date = +3 dni,
• jeśli zawiera [BLOCKER] → priorytet = High,
• jeśli zawiera [RISK] → przenieś do sekcji Risk.
2. Słowniki / tagi (Term Store)
Student dodaje:
• własne taxonomie,
• np. ProjectType, MeetingType, DecisionType.
W Minutes można wymusić, aby decyzja miała przynajmniej 1 tag.
3. „Nudge” przed kolejnym spotkaniem
System wykrywa, że:
• istnieją otwarte zadania z poprzedniego spotkania,
• oraz zbliża się następne spotkanie z identycznym tytułem lub cykliczne.
Wysyła wtedy przypomnienie:
• Adaptive Card w Teams,
• lub e-mail z listą niedokończonych zadań.
4. Architektura systemu
4.1 Komponenty
• Frontend (SPA lub Teams Tab App)
UI dla wyboru spotkań, wypełniania Minutes i uruchamiania tasków.
• Backend API
obsługuje:
o OAuth,
o Połączenia z Graph,
o Tworzenie plików,
o Tworzenie Planner tasks,
o Logikę reguł,
o Zapis do SharePoint.
• SharePoint
o Biblioteka Meeting Minutes (PDF/JSON),
o Lista Minutes Templates (opcjonalnie),
o Term Store (opcjonalnie).
• Planner / To Do
Zapisy zadań.
• Teams (opcjonalnie)
Adaptive Cards dla powiadomień.
4.2 Diagram logiczny (opis tekstowy)
1. Użytkownik loguje się → API pobiera token.
2. Front pobiera listę spotkań → GET /me/events.
3. Użytkownik wybiera spotkanie → API pobiera szczegóły.
4. Wypełnia Minutes → Front wysyła JSON do backendu.
5. Backend:
o zapisuje Minutes → SharePoint,
o generuje zadania → Planner/ToDo,
o generuje podsumowanie → Teams (opcjonalnie),
o zwraca linki i status.
5. Wykorzystane API Graph
Kalendarz
• GET /me/events
• GET /me/events/{id}
Planner
• POST /planner/tasks
• POST /planner/plans/{id}/tasks
To Do
• POST /me/todo/lists/{id}/tasks
SharePoint
• POST /sites/{id}/drive/items/root:/Minutes/...:/content
• GET /sites/{id}/lists/{id} (szablony)
Teams
• POST /teams/{id}/channels/{id}/messages
• adaptacyjne karty: @microsoft/teamsfx, adaptivecards.io
6. Wymagania niefunkcjonalne
• Autoryzacja: OAuth 2.0 + PKCE, delegated permissions.
• Przechowywanie sekretów: Key Vault lub plik user secret (dev).
• Obsługa błędów: retry, timeouts, logowanie.
• Telemetria: App Insights (darmowy tier ok).
• Dostępność: min. przeglądarka + Teams.
• Testy:
o jednostkowe (logika Minutes, reguły),
o integracyjne (Graph mock lub integration tokens).
7. Kryteria ukończenia
Minimalne (Core)
• można wybrać spotkanie,
• można utworzyć Minutes,
• Minutes zapisuje się na SharePoint,
• tworzone są zadania w Planner/ToDo,
• aplikacja działa z autentycznym tokenem użytkownika.
Dobry projekt (Core + Advanced)
• istnieją szablony Minutes,
• jest podsumowanie wysyłane na Teams,
• UI jest przyjazne i logiczne.
Świetny projekt (Core + Advanced + Ultra)
• działają reguły priorytetów,
• istnieją tagi i walidacje,
• działa system Nudge przed kolejnym spotkaniem,
• projekt jest solidnie przetestowany i udokumentowany.
8. Backlog przykładowy (do wrzucenia jako GitHub Issues)
Sprint 1
• Rejestracja aplikacji w Entra ID
• Implementacja OAuth + pobranie access_token
• Wylistowanie spotkań użytkownika
Sprint 2
• Pobieranie szczegółów spotkania
• UI do edycji Minutes (Decisions/Actions/Risks)
• Zapis Minutes do SharePoint
Sprint 3
• Tworzenie zadań Planner/ToDo
• Pokazywanie linków w UI
Sprint 4 (opcjonalnie)
• Szablony Minutes
• Adaptive Card Summary
Sprint 5 (ultra)
• Reguły priorytetów
• Nudge dla zadań
• Taxonomie/Term Store
9. Co student musi oddać
• Repo z kodem
• README (uruchomienie, konfiguracja, scopes)
• Diagram architektury
• Zrzuty ekranu lub film (5 min)
• Plik security.md (scopes, przepływy danych)
• Przykładowe Minutes + wygenerowane zadania
10. Podsumowanie
Ten projekt łączy:
✔ praktyczne użycie Graph,
✔ czyste automatyzacje M365,
✔ architekturę i struktury danych,
✔ UI + integracje + logikę biznesową,
❌ zero AI, zero kosztów.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vMicrosoft Release plans Auto-Analysis
Goal:
Deliver a reliable, automated capability that continuously monitors Microsoft Power Platform Release Plans, classifies every update by impact and priority, and triggers the right operational actions, so that tenant admins and product owners can respond faster, reduce risk, and capture opportunities from new/changed features.
Key outcomes
• Early visibility of material changes (e.g., AI features, breaking changes, deprecations) with targeted notifications to the Power Platform Tenant Administrator and relevant stakeholders.
• Single source of truth (“repository”) capturing each plan item, version diffs, impact/priority scores, and audit trail.
• Actionable workflows to update items, summarize changes, and (optionally) create tasks for review or mitigation.
Scope of the work:
Included in the scope:
• Coverage of Power Platform sections in Microsoft Release Plans: Power Apps, Power Pages, Power Automate, Microsoft Copilot Studio, AI Builder, Microsoft Dataverse, Governance & Administration, and Pro Development.
• Automated ingestion of plan items and updates, including change detection (content edits, status changes, date shifts).
• Automated analysis & classification (category, change type, impact, priority, AI relevance, “breaking change” flag).
• Repository persistence of the analyzed results, including version history and change logs.
• Automated actions, such as:
o Update repository items with a summary of changes whenever Microsoft edits a plan item.
o Notify the Power Platform Tenant Administrator on major/specific changes (AI features, significant product functionality updates).
• Dashboards & reports (trend of changes per product area, lead time to review, open actions by priority).
• Optional: task creation in Azure DevOps/Planner and Teams adaptive card notifications.
Out of scope:
• Automated remediation in production environments.
• Non-Power Platform product families beyond what you listed.
• Licensing automation or budget approval workflows.
• Parsing of non public or paywalled sources.
Detailed Process Description:
1. Ingestion & Change Detection
o Scheduled retrieval of Release Plan content (Power Platform sections).
o Diff engine to detect additions/edits/status changes.
2. Analysis & Classification
o Natural language summarization and classification (e.g., New/GA/Preview/Deprecation/Security/Breaking).
o Impact & priority scoring; AI feature tagging; risk flags.
3. Repository (Dataverse recommended)
o Tables for Feature Items, Change Logs, Classifications, Notifications, Subscriptions.
4. Action Orchestration (Power Automate)
o Update repository items + generate change summaries.
o Notify Tenant Admin and subscribed owners for Major/Special updates.
o Optional: Create review tasks in ADO/Planner; send Teams Adaptive Cards.
5. Experience Layer
o Power Apps admin console for search/review/override.
o Power BI dashboards for trend & SLA tracking.
o Copilot Studio assistant to “ask” about upcoming changes.
6. Governance & Security
o Role based access to tables and flows, audit history, and data retention.
Technology and tools to be utilized:
The technology stack involves Power Platform components, including AI and generative AI capabilities:
• Power Automate
• Dataverse
• AI Builder
• Power Apps
• Power BI
• MS Copilot Studio
If needed, the process can integrate signals from other Microsoft services (e.g., SharePoint, Azure DevOps or Teams).
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vRozbudowa aplikacji "Technik w Terenie" – systemu klasy Field Service Management (FSM)
Technik w Terenie (https://technik-w-terenie.pl/) to istniejące, działające komercyjnie oprogramowanie dedykowane firmom serwisowym, instalacyjnym i technicznym. System pozwala na efektywne zarządzanie pracownikami mobilnymi, zlecanie zadań oraz monitorowanie postępów prac w czasie rzeczywistym.
W dobie cyfryzacji, firmy serwisowe odchodzą od papierowych protokołów na rzecz aplikacji mobilnych i webowych. Nasz projekt ma na celu wprowadzenie platformy na wyższy poziom poprzez dodanie zaawansowanych funkcji analitycznych, logistycznych i operacyjnych, które bezpośrednio przekładają się na realną wartość biznesową.
Głównym założeniem jest rozbudowa obecnej architektury o moduły wspierające optymalizację pracy i automatyzację oraz przygotowujące aplikację do wejścia na rynki zagraniczne.
Bardzo duży nacisk położony będzie na poprawę doświadczeń użytkownika (UX) zarówno dla koordynatorów w biurze, jak i techników w terenie (stąd w zespołach po stronie FE mile widziane będą osoby z doświadczeniem w projektowaniu użytecznych i czytelnych interfejsów użytkownika, a od strony BE doświadczone w pracy nad systemami o dużej skalowalności oraz z mocnym naciskiem na bezpieczeństwo projektowanych rozwiązań).
Zakładamy, że w ramach projektu wdrożymy jedno lub kilka funkcjonalności takich jak:
- Kartoteka klienta (CRM) z pełną historią interakcji i zleceń.
- Obsługa zadań wielodniowych oraz zadań cyklicznych
- Zarządzanie godzinami pracy oraz niedostępnością pracowników (urlopy, zwolnienia)
- Nowe typy widoków - listy, kalendarza
- Rozbudowana "Karta zadania" i obsługa wielu typów załączników (zdjęcia, PDF, dokumenty)
- Elektroniczne protokoły odbioru
- Automatyczne przypomnienia o wizycie
- Timeline z wizualizacją czasów dojazdów do klienta
- Multi-języczność aplikacji
Wszystkie wykonywane prace będą wymagały graficznego zaprojektowania zmian na FE, po akceptacji których prowadzone będą prace developerskie.
Aplikacja posiada nowoczesny stack technologiczny, co gwarantuje zdobycie komercyjnie cenionego doświadczenia:
- Frontend: JavaScript, React
- Backend: TypeScript, Node.js, Express.js.
- Baza danych: MongoDB
- Inne: REST API
Dlaczego warto wybrać ten projekt?
1. Realny produkt (Production-Ready): Nie budujecie projektu "do szuflady". Wasz kod może stać się częścią narzędzia używanego przez realne firmy i setki pracowników. To ogromny atut w CV.
2. Kompleksowość: Projekt dotyka wielu aspektów inżynierii oprogramowania – od skomplikowanej logiki biznesowej na backendzie, po zaawansowaną wizualizację danych na frontendzie.
3. Elastyczność współpracy: Zapraszamy grupy Full-stackowe, ale jesteśmy otwarci na współpracę dwóch wyspecjalizowanych grup (np. jedna FE, druga BE).
4. Wsparcie merytoryczne: Pracujecie na bazie istniejącego, działającego systemu, co eliminuje problem "czystej kartki" i pozwala skupić się na dostarczaniu konkretnych funkcjonalności.
Dołącz do projektu "Technik w Terenie" i stwórz z nami przyszłość zarządzania usługami terenowymi!
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 2/2
Dodatkowe uwagi:
Realizacja tematu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich i podpisania umowy o zachowaniu poufności (NDA)
vAgileLens - Gives the sense of “seeing Agile clearly”
Zespoły programistyczne korzystające z metodologii Agile często zmagają się z rozproszonym raportowaniem i brakiem jasności co do postępów prac. Narzędzia takie jak Azure DevOps zazwyczaj oferują jedynie podstawowe widżety oraz raporty, które nie posiadają funkcji interaktywnych ani możliwości zaawansowanej personalizacji.
Rozwiązaniem tego problemu jest stworzenie własnych intuicyjnych rozwiązań typu dashboardy/rozszerzenia, zaprojektowanych tak, aby dostarczać informacje o metrykach wydajności zespołów SCRUM i SAFe oraz wypełniać lukę poprzez dostarczenie czytelnych i łatwo konfigurowalnych wizualizacji, pomagających zespołom w inspekcji, adaptacji i ciągłym doskonaleniu.
Kluczowa funkcjonalność:
- obliczanie kluczowych metryk
- możliwość agregowania i filtrowania metryk/danych
- interaktywna wizualizacja KPI związanych z zespołami SCRUM / SAFe w czasie rzeczywistym
- konfigurowalne wykresy i widżety
- skalowalność dla wielu zespołów
- integracja z Azure DevOps
Wykorzystywane technologie: Angular/TypeScript, .NET/C#, REST API, MS SQL, Azure Cloud
Projekt wymaga podstawowej wiedzy z programowania w C#.
-------------------------------------------------------------------------------------------------
Dlaczego warto wybrać ten projekt?
- możliwość zapoznania się z metodologią Agile i prowadzenia projektów w dużej międzynarodowej firmie
- możliwość zapoznania się z nowoczesnymi technologiami i ich wykorzystaniu przy budowie platformy Industry 4.0
- możliwość tworzenia innowacyjnego projektu od podstaw ze wsparciem doświadczonych specjalistów
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Projekt wymaga podpisania umowy o zachowaniu poufności
Projekt wymaga przekazania praw autorskich
Ostatnia aktualizacja: 2026-02-12T12:50:29.738781+01:00
