Zwiń/rozwiń wszystkie opisy
Przełącz kolory
ChartWorld GmbH
vMySeaMates - Seafarer Networking App
Seafarers travel globally and often don’t know when friends or former colleagues happen to be in the same port. This project aims to create an application (Mobile App or a Progressive Web App (PWA)), that helps seafarers reconnect socially, discover nearby friends, and stay engaged through simple gamified achievements.
Students will design and build a functional MVP that demonstrates how application technologies, geolocation and local caching can be combined to create a smart and engaging seafarer‑focused networking tool. Students can make use of vibe coding or other AI support.
Recommended Tech Stack
- Frontend
React Native (Expo) (or React with PWA) + Typescript
React Navigation, Zustand (or Redux Toolkit), React Query (or RTK Query)
...
- Backend
Node.js (Express) + TypeScript
PostgreSQL + Prisma ORM
...
Support offered by company:
- Consultations by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 5 people, 6 people, 7 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
We would like to keep the IP rights. The project should be implemented in English.
vCUG (Comarch User Group) inteligenty identyfikator (tzw. badge)
Comarch organizuje coroczną konferencję „CUG - międzynarodowa konferencja organizowana przez firmę Comarch w Krakowie dla klientów, partnerów i ekspertów IT. Skupia się na prezentacjach trendów, case studies i networkingu w branżach jak telekomunikacja, lojalność, finanse, ubezpieczenia, e-fakturowanie”.
Uczestnicy konferencji typowo otrzymują identyfikatory tzw. badge czyli obecnie „plakietki” z danymi zaproszonego i planem konferencji. Rozważamy możliwość wykorzystania na konferencji jako gadżetu tzw. inteligentnych identyfikatorów, czyli urządzeń wielkości karty kredytowej z ekranem e-ink z dodatkowymi możliwościami.
Globalnie taki pomysł już występował przy okazji „nerdowskich” konferencji, powstały nawet w tym kierunku projekty open source jak: Badger2040, eInk Badge czy Open Badge Project.
Chcielibyśmy się odróżnić rozwijając taki projekt np. o komunikację LORA, WiFi HaLow (wifi długiego zasięgu) lub wręcz o łączność satelitarną.
Grupa projektowa musiałaby zaprojektować taki badge, zbudować prototyp i przygotować do „masowej” produkcji.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 2/2
Dodatkowe uwagi:
(brak)
vInnowacyjne „smart” urządzenie zwiększające możliwości sportowca za pomocą wibracji.
Bardzo świeże kanadyjsko francuskie badanie z grudnia 2025 (Benjamina Pageaux z Université de Montréal i zespół z Université Savoie Mont Blanc https://pubmed.ncbi.nlm.nih.gov/40419138/) pokazuje, że przykładając pasywną wibrację ścięgien Achillesa i rzepki przez 10 minut przed rowerem zwiększa moc wyjściową i tętno bez wzrostu postrzeganego wysiłku (tutaj wnioski bardzo uproszczono – grupa projektowa musiałaby w trakcie projektu dogłębnie zrozumieć badanie, jego wnioski i metodykę)
Każde nowe odkrycie dające możliwości zwiększenia wydajności w sporcie/treningu jest bardzo cenne (wręcz w bardzo dosłownym znaczeniu), bo daje możliwość stworzenia nowego ekosystemu (lub mówiąc bardziej wprost drogiego gadżetu dla sportowców i ambitnych amatorów) ekspirującego takie odkrycie. Historycznie przykłady takich ekosystemów to zegarki sportowe, pulsometry, mocomierze, czujniki temperatury głębokiej ciała.
Celem projektu zespołowego jest analiza i odtworzenie badania a następnie stworzenie ekosystemu złożonego z urządzenia generującego wibracje oraz aplikacji na telefony komórkowe. Potencjalnie zespół dążyłby do stworzenia „startapu” oferującego takie urządzenia.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vLokalny asystent AI do inteligentnego przeszukiwania i analizy zasobów organizacji.
1. Opis i cel projektu
Celem projektu jest zaprojektowanie i budowa zaawansowanego systemu klasy Workplace Knowledge Discovery. System ma pełnić rolę „cyfrowego mózgu” organizacji, który integruje rozproszone źródła danych (e-maile, czaty, kalendarze, dokumenty wewnętrzne) i umożliwia pracownikom szybkie pozyskiwanie informacji za pomocą naturalnego języka.
Kluczowym wyróżnikiem projektu jest podejście Privacy-First. Całość przetwarzania danych oraz wnioskowania przez model LLM (Large Language Model) musi odbywać się lokalnie w infrastrukturze organizacji, bez przesyłania wrażliwych danych do zewnętrznych serwisów chmurowych (typu OpenAI/Anthropic).
2. Zakres prac (Milestones)
Zespół projektowy zostanie podzielony na role odpowiedzialne za następujące etapy:
* Integracja z Google Workspace: Rozbudowa istniejących interfejsów asystenta dla Google Chat, Gmail oraz Calendar. Zapewnienie dwustronnej komunikacji i bezpiecznego uwierzytelniania.
* Budowa ekosystemu MCP (Model Context Protocol): Implementacja serwerów MCP stanowiących warstwę abstrakcji dla systemów wewnętrznych firmy (np. bazy danych, systemy biletowe, repozytoria dokumentów).
* Architektura Agentowa: Stworzenie systemu agentów AI zdolnych do planowania złożonych zadań (np. „Znajdź wolny termin i podsumuj ostatnie ustalenia z klientem X na podstawie maili i czatów”).
* Local LLM Optimization: Dobór i optymalizacja lokalnego modelu językowego (np. Llama 3, Mistral) pod kątem zadań typu Reasoning oraz Retrieval Augmented Generation (RAG).
Backend & Orchestration: Stworzenie wydajnej warstwy pośredniej zarządzającej przepływem informacji między interfejsem użytkownika a modelami AI i źródłami danych.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 2/2
Dodatkowe uwagi:
(brak)
vNiskokosztowy Holter EKG
Holter EKG to przenośne urządzenie medyczne do ciągłego monitorowania pracy serca przez 24-48 godzin (czasem dłużej)
Pacjentowi zakłada się 3-12 elektrod na klatce piersiowej, podłączonych do małego rejestratora (wielkości smartfona) noszonego na pasku. Rejestruje ono aktywność elektryczną serca podczas codziennych czynności – snu, pracy, wysiłku – wychwytując arytmie czy zmiany, których nie widać na standardowym EKG (10-minutowym).
Celem zespołu byłoby zbudowanie autorskiego holtera wraz z aplikacją do analizy danych wykorzystującą algorytmy sztucznej inteligencji. Za podstawę projektu posłużyłby jeden z OpenSourcowych projektów np. MobilECG-II (GitHub) lub „Rasberry Pi Pico W z ECG+PPG+stetoskop”.
W ramach zadania, w zależności od liczności grupy należałoby:
1. Jako prototyp:
a. Oprogramować mikrokontroler np. ESP32 tak aby zbierał dane z czujnika Elektrokardiogramu np. AD8232, max86150;
b. Zintegrować mikrokontroler z adapterem kart SD w celu zapisu danych z czujników;
c. Przeanalizować sygnały z sesji pomiarowych za pomocą znanych metod analizy ekektrokardiogramów;
2. Jako rozwiązanie półprofesjonalne
a. Na bazie prototypu zaprojektować „customową” płytę urządzenia;
b. Zaprojektować i wytworzyć obudowę urządzenia umożliwiającą noszenie go przez 20+h;
c. Opracować oprogramowanie analizujące wyniki;
d. Porównać wyniki z komercyjnym holterem.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób, 6 osób, 7 osób, 8 lub więcej osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vPlatforma dynamometryczna z uproszczonym systemem motion capture do wspomagania treningu siłowego.
W naszym projekcie chcielibyśmy skupić się na dynamicznej analizie wykonywanych ćwiczeń siłowych (np. przysiadu ze sztangą) w celu poprawy wzorców ruchowych. Jako narzędzie pomocnicze w analizie system może wspomagać się analizą motion capture bazującą na czujnikach przyspieszenia rozłożonych w kluczowych miejscach ciała.
Technicznie Platforma dynamometryczna najczęściej dwie płyty z zespołem tensometrów, a czujniki przyspieszenia, potrzebne do analizy ruchu to niewielkie urządzenia bezprzewodowe z własną baterią i interfejsem BT (np. WT9011DCL-BT50 BLE 5.0). Do tego potrzebny jest system wizualizujący i analizujący odczyty z tych urządzeń.
Zakres prac projektowych zostanie dostosowany do wielkości zespołu, a będzie składał się między innymi z:
1. Próby zbudowania platformy z tensometrów i dostępnych wzmacniaczy do belek tensometrycznych (typowy -hx711 może być za wolny)
2. Studium DIY or Buy w kontekście pomiaru dynamometrycznego (rozważenie gotowych mat tensometrycznych zamiast opcji budowy własnego rozwiązania)
3. Próby rejestracji ruchu za pomocą czujników przyspieszenia
4. Studium DIY or Buy w kontekście bezprzewodowych węzłów czujników przyspieszenia (WT9011DCL-BT50 BLE 5.0 vs własny projekt)
5. Wprawienia w ruch (na podstawie danych motion capture) modelu 3D w silniku gry komputerowej
6. Praca ze sportowcem i analiza danych zebranych z badań jego ruchu.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
Correct Context
vBenchmark DSL and framework for complex distributed testing
There is few benchmarking and parameter optimization solutions on the market, from extremely simple like "time" and "hyperfine" to more complex like time series database benchmark frameworks, geekbench and phoronix suites.
Those are either simple for quick micro benchmarks and/or tied to specific solutions that can be monetized.
Idea is to build DSL and framework that allow:
- express complex scenarios
- extending DSL
- extending framework
- automate boilerplate and all popular scenarios
- automate reporting
- automate data generation
with main focus on developer UX
Maybe this example can show, what needs to be built and what current software on the market doesn't offer:
Let's assume we want to test 4 distributed storage engine in complex, cloud environments, each variant can be tuned with hundreds of parameters.
Infrastructure to setup such environment takes about 30m-1h and also some parts are specific to variant of storage engine.
Setting up storage engine itself takes up to 5min. Part of the setup is also data generated in other place of infrastructure component, and this takes 30min. Reconfiguration of each config option and make sure it's stable, takes 2-10min.
We want to execute series of 10x 2min benchmarks for each combination of storage engine and parameters.
What we want - and what most of the systems lack
- online tracking of results
- good final reporting
- automatic failure handling and recovery
- dependency management for various situations (don't waste 1h infra setup if it's already there; that requires declarative approach and dependency handling within DSL/software)
- restarting failed tests only without doing data generation and other expensive setup from scratch, but force test execution or data generation when critical part change that may impact test results
- allowing manual actions during test execution (when something breaks on infra, give us time to fix network for example to avoid 1-2h setup of infra from scratch)
What is on the market:
- predefined tests which are hard to customize, they don't support scenarios like failover and custom action handling
- test frameworks which are generic, and taking consideration time to execute, most developers and administrators don't decide to build their frameworks on top of it, making the code very single test specific and also they handle most of the errors manually which is costly and time consuming (when sth breaks they fix it and run again, and test execution is usually sequential due to infrastructure availability; example: we have one server, when test breaks, test framework not executing other test, and it cannot execute in parallel).
Technologies
- python-aim for reporting probably
- a lot of linux/nix
- AI tools suggest that good solution for DSL is kotlin, but whatever is good, including own language (for sure it needs to be statically typed)
Deliverables:
- DSL (in form of abstract language or documentation that handles all cases expressed above)
- examples of DSL showing various scenarios, sequential expensive tests, parallel tests, extensiveness of DSL for new scenarios not handled by core framework
- framework that executes DSL
- reporting integration
- if quality is good, project will be open sourced
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
prawa autorkskie (choć planowane jest otwarcie kodu jeśli jakość będzie dobra)
vDynamic Resource Allocation for Trino - Petabyte Scale Query Engine
https://trino.io/ originally developed as Presto at Facebook in 2012, is petabyte scale distributed SQL engine.
Problem: Each analytical query submitted to Trino may have vastly different resource requirements – from a few GB to tens of TB of RAM. Ideally, a Trino cluster should autoscale based on demand. However, the only form of autoscaling currently available is reactive autoscaling: "we're running low on resources, give me more!". Trino was design for on-prem servers and lacks feature for using full potential of dynamic cloud environments where resources can be scaled ad-hoc.
Solution: A system where users declare estimated resource requirements when submitting a query (e.g., "this query needs ~500 GB RAM"). The system then signals the autoscaler to expand the cluster and holds off on executing the query until resources are available. This way the safety margin can be kept low and the cluster manage its memory more efficiently. Extension for that solution could be also having heuristic/ML models to adjust resources for query automatically.
Why choose this project?
🔹 Work with a real big data system used by global companies
🔹 Hands-on experience with Kubernetes and cloud autoscaling
🔹 Opportunity to contribute to an open-source project
🔹 Validation of the solution in our production environment
Main Focus Deliverables:
✅ Implementing resource requirement declaration (e.g., via session properties mechanism)
✅ Extending the Resource Groups mechanism with query holding logic
✅ Mechanism to release queries once the required cluster capacity is reached
Deliverables:
✅ Adding information about queued queries to Prometheus metrics endpoint (e.g.: "biggest single waiting query needs 313 GB; total requested is 2.3 TB")
✅ Mechanism to compare submitted requirements against observed (e.g.: "user claimed the query needed 501 GB, but actually this was 724 GB)
✅ Configuring a test environment using AWS EKS/Karpenter/Keda
✅ Evaluating some possible approaches to defining the actual autoscaling target based on new metrics
✅ Submitting a contribution to the Trino open-source project
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people, 5 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
prawa autorkie/licencja - to będzie potrzebne tylko do momentu aż kod nie wejdzie do oficjalnego repozytorium projektu open source
vTrino - PetaByte Scale Performance Optimization
At terabyte scale, data doesn't fit in memory – it must be read from storage during query execution. A single query might scan billions of rows across thousands of files, making storage performance a critical bottleneck. The wrong choice can mean the difference between 30 seconds and 30 minutes.
S3-compatible object storage is the standard solution. There are several open-source options (Ceph, MinIO, Storj) and managed services (Hetzner Object Storage), each with different architectures and trade-offs.
The project: benchmark them on Hetzner infrastructure with tens of terabytes of real data (provided by us) and produce a practical comparison. This is not "install, run queries, note results" project. Each system has dozens of tuning parameters – comparing defaults tells you nothing. The team will need to understand each architecture, design fair benchmarks, handle caching effects, test failure scenarios, and package everything as reproducible infrastructure-as-code.
Why choose this project?
🔹 Learn how distributed storage systems work under the hood
🔹 Hands-on experience with infrastructure-as-code, on-prem and cloud deployment
🔹 Work with Trino – a popular open-source SQL engine for big data (created by Facebook)
🔹 Produce a benchmark useful for companies building European data infrastructure
🔹 Work with realistic, production-scale data
Critical Deliverables:
✅ Setting up reproducible test infrastructure on Hetzner
✅ Setting up reproducible deployment of: Ceph, MinIO, Storj, Hetzner Object Storage
✅ Tunning (backed by benchmark data) of services above to be comparable (no point of comparing badly configured storage)
✅ Synthetic speed test of each setup
Deliverables:
✅ Designing benchmark methodology: isolating variables, statistical significance
✅ Setting up benchmark environment with Trino SQL engine on top of each storage in reproducible way (easily parallelizable)
✅ Running benchmarks with realistic queries (provided by us)
✅ Exploring behavior: varying file sizes, concurrency, finding performance cliffs
✅ Failure testing: node failures, recovery time, data integrity
✅ Setting up reproducible deployment of: Garage, RustFS, SeaweedFS and Apache Ozone
✅ Analyzing performance and cost
✅ Documenting findings
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people, 5 people, 6 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
NDA
CSHARK
vAI-powered ESG Reporting System – Sustainable Digital Products Lab
Współczesne produkty cyfrowe coraz częściej podlegają wymogom raportowania ESG oraz realizacji Celów Zrównoważonego Rozwoju (SDG). Jednocześnie organizacje projektujące i rozwijające rozwiązania cyfrowe napotykają istotne bariery: brak spójnych narzędzi do mierzenia wpływu produktów cyfrowych, trudności w interpretacji wytycznych ESG i WCAG, niski poziom świadomości projektowej oraz ograniczony dostęp do przystępnej, kontekstowej edukacji w zakresie zrównoważonego projektowania. Projekt odpowiada na te wyzwania poprzez zaprojektowanie i implementację kompleksowego systemu ESG wspieranego przez AI, dedykowanego produktom cyfrowym.
Celem projektu jest stworzenie narzędzia umożliwiającego mierzenie, analizę oraz raportowanie kluczowych aspektów zrównoważonego rozwoju w produktach cyfrowych, ze szczególnym uwzględnieniem dostępności cyfrowej (WCAG 2.2 AA), inkluzywności oraz śladu węglowego. System będzie również pełnił funkcję edukacyjną – poprzez zintegrowany chatbot AI lub moduł treningowy AI użytkownicy będą mogli lepiej zrozumieć zasady ESG, dostępności cyfrowej oraz odpowiedzialnego projektowania produktów cyfrowych.
Projekt zakłada podejście systemowe i interdyscyplinarne, łączące proces projektowy (UX/UI, Product Discovery) z implementacją technologiczną. Kluczowym założeniem jest wykorzystanie tzw. Sovereign AI – w szczególności modelu Bielik – jako alternatywy dla komercyjnych dużych modeli językowych (LLM), z naciskiem na transparentność, kontrolę danych oraz zgodność z europejskimi wartościami i regulacjami.
Projekt będzie realizowany we współpracy ze studentami SWPS. Zadania dla zespołu Development (studenci PWR):
- Setup środowisk lokalnych oraz repozytorium- przygotowanie lokalnych środowisk developerskich, udostępnienie dostępów do repozytorium,
- Implementacja backendu LLM oraz chatbota AI- benchmarki wykorzystania różnych podejść do hostowania LLM z priorytetyzowaniem Bielika v3.0, przygotowanie danych;
- Implementacja przygotowanego designu (frontend + integracja z backendem)- wdrożenie designu, przygotowanego przez zespoły UX/UI
- Integracja WCAG (np. axe-core)
- Integracja śladu węglowego- dodanie modułu do analizy CO2 produktów cyfrowych
- Testowanie oraz deployment
- Code Review / iteracyjny feedback
Wymagane narzędzia i technologie
-Design (SWPS):
- Figma
- Miro
- Jira
-Development (PWR):
- GitHub
- VSCode
- Python (basic)
- Docker (basic)
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vOpen Source kontra Imperium
Motywacja
Napięcia polityczne między USA a UE pogarszają postrzeganie wspólnych wartości przez Europejczyków. Dla Europy, która do tej pory akceptowała dominację amerykańskich big techów i nie konkurowała w obszarze aplikacji webowych, otwiera się okno możliwości na rozwój własnych rozwiązań.
W praktyce wiele rozwiązań dla aplikacji webowych już istnieje w domenie open source. Chcesz zrezygnować z Gmaila — możesz hostować własny serwer pocztowy. Nie podoba Ci się Google Drive — możesz uruchomić własny serwer do współdzielenia plików wraz z edytorami online. Nie chcesz, aby Facebook zarządzał Twoją prywatnością — możesz postawić własny serwer Mastodon.
Nasz cel
Stworzyć zestaw skryptów Infrastructure as Code, które umożliwią automatyczne uruchamianie aplikacji webowych jako alternatywy dla ofert takich firm jak Google czy Meta.
Rozwiązania mają być wykorzystywane przez rodziny, społeczności i większe grupy ludzi, aby obniżyć koszty infrastruktury, integrować użytkowników oraz umożliwić im zarządzanie własnymi danymi bez udostępniania ich stronom trzecim lub narzędziom AI. Użytkownicy mają być właścicielami rozwiązań i odzyskać kontrolę nad swoją prywatnością.
System ma być samowystarczalny — zawierać mechanizmy backupu, centralne zarządzanie użytkownikami, automatyczne tworzenie i obsługę certyfikatów, podstawowy monitoring oraz możliwość działania zarówno publicznie w internecie, jak i wyłącznie za VPN-em. Celem jest zastąpienie takich usług jak Gmail, Google Drive, Google Calendar, współdzielenie plików i wielu innych przy użyciu oprogramowania open source.
Jak to ma działać
Użytkownik końcowy nadal musi:
Kupić własną domenę.
Wykupić hosting (AWS, Azure, Hetzner itp.) albo postawić własny serwer z dostępem do internetu.
Po spełnieniu tych warunków skrypty IaC przejmują konfigurację infrastruktury i wdrażają potrzebne aplikacje oraz usługi.
Podstawowe i kluczowe skrypty do uruchamiania aplikacji na:
serwerze należącym do użytkownika,
Hetznerze lub innych dostawcach hostingu
będą open source i dostępne bezpłatnie dla wszystkich.
Model biznesowy opiera się na sprzedaży usług wokół tych skryptów, takich jak:
konfiguracja i zarządzanie infrastrukturą na publicznych hostingach (np. Hetzner) w imieniu klientów i społeczności,
usługi konsultingowe dla użytkowników i organizacji korzystających z rozwiązania,
w późniejszym etapie — współpraca z europejskimi dostawcami hostingu (np. Hetzner), którzy płaciliby za rozwój i dostosowanie skryptów do swoich platform.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Wymagana jest umowa o przekazaniu majątkowych praw autorskich
vAn AI-Powered System for Resume Validation, Scoring, and Improvement
The objective of this project is to develop an AI-powered application for automated resume (CV) validation, scoring, and improvement. The system will enable users to import resumes and automatically divide them into logical sections such as personal information, experience, technologies. Each section will be analyzed and assigned a quality score based on predefined criteria and AI-assisted evaluation.
Using open-source and freely available Large Language Models (LLMs) executed locally, the application will generate contextual feedback and actionable improvement suggestions for each resume section. The system is designed to assist users in enhancing the clarity, structure, and effectiveness of their CVs while preserving data privacy through local execution.
Architecture & Implementation:
The application will be implemented primarily in Python and designed to run locally, with the option to be deployed to cloud infrastructure if required. The backend will handle CV parsing, sectioning, scoring logic, machine learning workflows, and AI-driven feedback generation.
A fully functional frontend interface will be provided to allow users to upload resumes, review scores, and view AI-generated recommendations. The application will leverage to integrate open-source LLMs.
All source code will be maintained and version-controlled using GitHub, ensuring transparency, reproducibility, and ease of collaboration.
Summary:
This project serves as a Proof of Concept (PoC) for an AI-driven Resume Analysis and Improvement system, combining software engineering and applied artificial intelligence. The solution emphasizes local execution, open-source AI models, and practical usability, while maintaining flexibility for future cloud deployment.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Patryk Siedlecki, Senior Software Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vAutomated MLOps (ML/AI Operations) Workshop and Training Infrastructure using Infrastructure as Code (IaC) and Continuous Integration/Continuous Delivery (CI/CD)
Description:
The objective of this project is to build a Continuous Integration/Continuous Delivery (CI/CD) environment that will serve as the practical foundation for MLOps training and workshops.
Project Deliverables: The primary artifact of this project is a functional CI/CD system defined as Infrastructure as Code (IaC). This environment must be:
- Fully Documented: Including comprehensive laboratory manuals/guides in English for participants.
- Tested and Version-Controlled: Ensuring reliability and reproducibility.
- Instructor-Ready: Offering a stable base to support the trainer during the hands-on, practical portions of the training.
Summary: In short, this project involves developing an infrastructure-as-code tool that, upon deployment, creates a complete, ready-to-use training infrastructure for automating ML/AI solutions.
Technologies to be used:
- Infrastructure as Code (IaC): Terraform
- Public Cloud: AWS or Microsoft Azure (including cloud-native ML/AI services)
- CI/CD: Azure DevOps or GitHub Actions
- Version Control: GitHub
- Orchestration: Kubernetes
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Michal Studenny, DevOps Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vAutomation of GitLab CI Runner Provisioning using IaC (Terraform) and Proxmox: Migration of CI Pipelines for an Embedded C/C++ Project from Jenkins to GitLab CI
The goal of this project is to build a Continuous Integration/Continuous Delivery (CI/CD) environment based on GitLab, and to use it to test the feasibility of migrating a real, production embedded C/C++ project from an existing Jenkins-based environment.
This task will require infrastructure/IT and DevOps activities, but may also involve diving into the software development aspects of the project and collaborating closely with the developers responsible for the source code.
Project Deliverables: The primary artifact of this project should be a functional CI/CD system that offers all the capabilities of the current one. If achieving full feature parity is impossible, any limitations must be identified along with potential workarounds to resolve these issues.
In summary, this project serves as a Proof of Concept (PoC) for a new DevOps solution.
Technologies to be used:
- Core Systems: GitLab, Jenkins
- Infrastructure & OS: Linux, fundamental networking concepts
- Programming & Scripting: Python, C/C++, Perl
- Version Control: Git, ClearCase
I- nfrastructure as Code (IaC): Terraform (via Proxmox)
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Radoslaw Karczewski, Lead DevOps Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vCertifyFlow – System Zarządzania Ciągłością Uprawnień
1. Opis Projektu
Budowa aplikacji webowej do ewidencjonowania certyfikatów i uprawnień pracowników, z automatycznym systemem powiadomień o zbliżających się terminach wygaśnięcia.
Kluczowe funkcjonalności (MVP):
- Pulpit (Dashboard): Wizualizacja wygasających uprawnień (system "Sygnalizacji": zielony, żółty, czerwony).
- System powiadomień: E-maile wysyłane z wyprzedzeniem (np. 90, 60 i 30 dni przed końcem ważności).
- Raportowanie: Eksport listy osób, których uprawnienia wymagają odnowienia w danym kwartale.
- Integracja z systemami SSO oraz LDAP
Funkcjonalności per Rola:
Admin: Definiuje "Katalog Uprawnień" (np. SEP, UDT, Prawo jazdy kat. C, Certyfikat Azure). Dla każdego typu określa koszt odnowienia vs koszt ponownego wyrobienia.
Manager: Widzi listę swoich pracowników i daty wygaśnięcia ich uprawnień. Otrzymuje zbiorcze raporty miesięczne.
Pracownik: Wprowadza datę uzyskania uprawnienia i jego numer. Widzi licznik dni pozostałych do wygaśnięcia.
2. Stos technologiczny
- Wersja 1:
- Backend w Django
- Frontend w React
- Wersja 2:
- Backend w Flask
- Frontend w jQuery
Baza danych oparta o MariaDB lub PostgreSQL
3. Role
- Frontend developer
- Backend developer
- (opcjonalnie) Project Manager
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Firma GlobalLogic będzie jedynym właścicielem praw autorskich dot. rozwiązania. Osoby uczestniczące w projekcie nie będą mogły udostępniać szczegółów techicznych osobom trzecim. Sam udział w projekcie oraz cel nie są objęte klauzulą poufnosci
vOfficePet: Office Pet Registry and Coordination System
The objective of this project is to develop a coordination and registry system that allows employees to report and manage the presence of pets, such as dogs and cats, within the office environment. The application will enable employees to register planned visits with pets, specify dates and times, and provide basic pet-related information.
The system will support improved workplace coordination by offering visibility into pet presence in the office, helping to avoid unwanted interactions. Additionally, the solution may support basic policy enforcement, notifications, and historical tracking of pet visits.
The solution will be designed as an application with an option to push to the cloud if needed, utilizing a centralized database to store pet visit records and user information.
The backend will be implemented in Python, with the source code maintained and version-controlled using GitHub. The application should be packed as a Docker container, managed by a load balancer, and run by some orchestration solution.
A publicly accessible web application frontend will provide an intuitive interface for employees to register and view pet visits. Monitoring and visualization of operational data such as pet visit frequency, peak office days, and usage trends, will be implemented using an open-source observability tool.
This project serves as a Proof of Concept (PoC) for a modern Office Coordination and Pet Registry system, combining software engineering, cloud technologies, and DevOps practices. The focus of the project is on digitizing and streamlining real-world office workflows related to pet-friendly workplace policies.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Tatsiana Havina, Senior Software Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vSmartLab: A Cloud-Native Laboratory Asset and Equipment Management System
Description:
The objective of this project is to develop a comprehensive laboratory management system. This solution will enable the inventorying of equipment and tools, status tracking, and the logging of shortages, defects, and repairs. Additionally, real-time monitoring of equipment utilization and ongoing maintenance work by specific personnel will be facilitated.
Architecture & Implementation: The solution will be architected on cloud technologies utilizing a centralized database.
- The backend will be implemented in Python, with the source code version-controlled via GitHub.
- Infrastructure as Code (IaC) principles will be applied using Terraform, allowing for the automated deployment and scaling of the environment.
- A publicly hosted web application frontend will be provided for user access.
- The monitoring and visualization of operational data—including equipment status, utilization rates, and breakdown frequency—will be achieved using Grafana dashboards.
Summary: This project serves as a Proof of Concept (PoC) for a next-generation Laboratory Management system. It seamlessly integrates software engineering, cloud architecture, and DevOps practices with a strong emphasis on accurately digitizing real-world laboratory workflows.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
The GL expert: Yevhenii Sheverdin, Senior DevOps Engineer. No special requirements apart of general GlobalLogic legal requirements. To be checked with the GL program coordinator.
vUniwersalny Moduł Pomiaru Przepływu Powietrza (STM32 Anemometer)
Celem projektu jest zaprojektowanie i budowa prototypu inteligentnego anemometru opartego na rodzinie STM32 np. STM32F4 (Nucleo/Discovery). Urządzenie ma być rozwiązaniem o szerokim zakresie pomiarowym, zdolnym do pracy w różnych średnicach rur. Przykładem wykorzystania jest pomiar mocy wyciągu kuchennego lub pomiar przepływu powietrza wentylatorów o średnicy 3-15 cm. Przygotowanie podstawowej dokumentacji oraz przeprowadzenie testów funkcjonalnych. Moduł powinien wysyłać zmierzone dane prędkości powietrza do komputera. Opcjonalnie na komputerze można przygotować GUI z wykresami czasowymi.
Projekt jest przewidziany dla około czterech osób o uzupełniających się kompetencjach:
1. Elektronik:
-Analiza dostępnych metod pomiarowych
-Wybór i kalibracja czujnika przepływu
-Zaprojektowanie układu pomiarowego.
-W związku z niedługim czasem trwania projektu, nie ma konieczności projektowania całego PCB, ale mile widziane jest zaprojektowanie PCB dołączanego do Nucleo/Discovery z potrzebnym układem pomiarowym/filtracyjnym
2. Programista:
-Konfiguracja peryferiów STM32F4
-Implementacja algorytmów przeliczających sygnał napięciowy na prędkość i przepływ.
-Opracowanie interfejsu komunikacyjnego np. wysyłanie danych do PC.
-Implementacja filtracji cyfrowej sygnału.
3. Mechanik:
-Projekt i realizacja obudowy urządzenia - wydruk 3D lub gotowe rozwiązanie ze sklepu
-Projekt adapterów umożliwiających montaż na różnych typach źródła przepływu powietrza (np 3 rodzaje wentylatorów plus standardowa rura wentylacyjna fi100)
4. Tester:
-Przygotowanie testów
-Weryfikacja poprawności działania urządzenia
-Porównanie powstałego rozwiązania z Anemometrem dostępnym na rynku (np Anemometr Unit UT363S)
5. Opcjonalny programista GUI:
-oprogramowanie PC łączące się z modułem i wyświetlające odczytane dane
-wykresy pomiarów w czasie
-możliwość konfiguracji parametrów urządzenia z poziomu PC
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Firma GlobalLogic będzie jedynym właścicielem praw autorskich dot. rozwiązania. Osoby uczestniczące w projekcie nie będą mogły udostępniać szczegółów techicznych osobom trzecim. Sam udział w projekcie oraz cel nie są objęte klauzulą poufnosci.
vSystem rezerwacji i zarządzania przechowalniami bagażu
Opis:
Podróżni niekorzystający z samochodów, często napotykają na problem logistyczny związany z przechowaniem bagażu między porannym wymeldowaniem a późniejszym odjazdem. Wymaga to od nich noszenia sporego bagażu ze sobą. Konieczność ta utrudnia zwiedzanie, a przechowalnie często są albo przepełnione, albo bardzo słabo zareklamowane, co utrudnia takim podróżnym zagospodarowanie takim czasem. Z drugiej strony, wiele lokalnych punktów usługowych i handlowych dysponuje niewykorzystaną przestrzenią magazynową. Proponowany system ma na celu rozwiązanie tego problemu poprzez stworzenie platformy, która ułatwia i standaryzuje proces przechowywania bagażu w sieci partnerów.
Cel Projektu:
Głównym celem jest zaprojektowanie i stworzenie systemu informatycznego, który połączy turystów poszukujących miejsca na bagaż z właścicielami lokali, które takie miejsce posiadają. System ma nie tylko wskazywać lokalizację punktów, ale przede wszystkim zarządzać całym cyklem życia usługi przechowywania w czasie rzeczywistym.
Projekt zakłada stworzenie aplikacji mobilnej dla klienta, która posłuży jako narzędzie do lokalizowania najbliższych punktów partnerskich, weryfikacji ich aktualnego obłożenia oraz dokonywania natychmiastowych rezerwacji miejsc.
Drugą częścią projektu jest narzędzie dla przechowalni, które pozwoli na efektywne zarządzanie dostępną przestrzenią magazynową I rezerwacjami. System musi umożliwiać definiowanie limitów przyjmowanych bagaży oraz zapewniać bezpieczną procedurę weryfikacji tożsamości przy oddawaniu i odbieraniu pakunków. Celem jest stworzenie kompletnego ekosystemu, który eliminuje pomyłki przy wydawaniu bagażu, automatyzuje proces płatności i rezerwacji oraz zapewnia transparentność transakcji dla obu stron, zastępując tradycyjne kwitki papierowe bezpiecznym systemem cyfrowym.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 0/1
Dodatkowe uwagi:
Będzie i przekazanie praw autorskich i NDA, my jako firma dostarczymy
vCentralna Platforma Zarządzania Podatnościami (Vulnerability Management)
Kontekst / problem
W praktyce DevSecOps zespoły używają wielu skanerów (SAST, DAST, skan zależności/obrazów kontenerowych). Wyniki mają różne formaty (np. SARIF, JSON narzędzi), zawierają duplikaty i generują „szum”, utrudniając triage oraz priorytetyzację napraw. Brakuje jednego miejsca, które agreguje, normalizuje i deleguje prace naprawcze do backlogu.
Cel
Zbudowanie platformy klasy Vulnerability Management działającej jako „Single Pane of Glass” dla stanu bezpieczeństwa wielu projektów: odbiór raportów z CI/CD, normalizacja do wspólnego modelu danych, dashboardy oraz automatyczne wystawianie zadań w systemie ticketowym.
Zakres funkcji (MVP)
Agregacja raportów
API do przyjmowania raportów (push z CI/CD) + możliwość importu plików.
Obsługa min. 3 źródeł, np.:
SAST: Semgrep (JSON lub SARIF),
DAST: OWASP ZAP (JSON),
Container/Dependencies: Trivy (JSON) lub OWASP Dependency-Check.
Normalizacja i deduplikacja
Ujednolicenie pól (projekt, typ skanu, komponent/biblioteka, lokalizacja, severity, opis, rekomendacja).
Mechanizm fingerprint (deterministyczny klucz) do wykrywania duplikatów między skanami i w czasie.
Statusy podatności (np. NEW/OPEN/FIXED/IGNORED) + historia zmian.
Wizualizacja / dashboard
Widok per projekt: rozkład severity, trendy, nowe vs naprawione.
Lista podatności z filtrowaniem i szczegółami (dowód, ścieżka/URL, identyfikator CVE/reguły).
Integracja z systemem ticketowym
Automatyczne tworzenie issue/ticketów dla podatności spełniających reguły (np. >= High, lub „nowe”).
Powiązanie podatności ↔ ticket, brak duplikatów ticketów.
Integracja min. z jednym systemem: GitHub Issues / GitLab Issues / Jira.
Wymagania niefunkcjonalne
Uruchomienie lokalne: docker compose up (backend, frontend, DB).
CI: build + lint + testy (min. backend).
Podstawowe bezpieczeństwo aplikacji: auth (np. JWT), role (admin/viewer), logowanie zdarzeń, brak sekretów w repo.
Dokumentacja: README, opis architektury i kontraktu API.
Proponowane technologie (otwarte na wybór)
Backend: Python/FastAPI lub Node/NestJS
DB: PostgreSQL
Frontend: React/Vue
Integracje: webhook/API narzędzi, OpenAPI/Swagger
(Opcjonalnie) worker/kolejka do przetwarzania raportów: Redis/RQ lub RabbitMQ
Wstępna lista zadań
Projekt modelu danych + migracje DB
Endpointy: projekty, skany, podatności, reguły, integracja ticketowa
Parsery/normalizery 3 narzędzi + fingerprint
UI: dashboard + tabela + detale
Ticket connector + deduplikacja
Testy + CI + dokumentacja + demo E2E (raport z CI → dashboard → ticket)
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Narzędzia opensource
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
NDA wymagane
vmPoparcie
W Polsce funkcjonuje wiele portali umożliwiających zgłaszanie inicjatyw (petycje, wnioski, konsultacje, pomysły typu budżet obywatelski). W większości z nich kluczowym ograniczeniem jest brak wiarygodnej, odpornej na nadużycia identyfikacji osoby popierającej – co utrudnia odróżnienie realnego poparcia od głosów generowanych, wielokrotnych lub podszywających się pod inne osoby.
Celem projektu jest stworzenie webowej platformy, która umożliwi:
- publikację treści inicjatywy (petycji/wniosku/pomysłu),
- zbieranie zweryfikowanego poparcia od użytkowników,
- moderację i akceptację treści przez administratorów,
- anonimizację danych osób popierających, przy jednoczesnym prezentowaniu liczby unikalnych, zweryfikowanych osób dla każdej inicjatywy.
Projekt zakłada integrację z usługą IDENTT, która oferuje scenariusze integracji z mObywatel i potwierdzaniem tożsamości użytkownika.
Zakres funkcjonalny
1) Część publiczna (dla obywateli)
- przeglądanie listy inicjatyw (statusy: „w przygotowaniu”, „w zbiórce”, „zakończona”, „odrzucona/wycofana”),
- podgląd szczegółów inicjatywy (opis, załączniki, data startu/końca, wymagany próg poparcia – jeśli dotyczy),
-wyrażenie poparcia:
- rozpoczęcie procesu weryfikacji tożsamości przez IDENTT (z użyciem mObywatel),
- zapis poparcia jako unikalnego (1 osoba = 1 poparcie na inicjatywę),
- prezentacja wyniku: liczba unikalnych zweryfikowanych osób, bez ujawniania danych osobowych.
2) Panel inicjatora (wnioskodawcy)
- dodanie inicjatywy przez formularz (treść, kategoria, uzasadnienie, załączniki, dane kontaktowe do korespondencji z administracją),
- podgląd statusu wniosku i historii decyzji (np. „do uzupełnienia”, „weryfikacja”, „zaakceptowano”, „odrzucono”),
- ewentualne uzupełnienie/odpowiedź na komentarze administratora.
3) Panel administracyjny (moderacja i akceptacja)
- kolejka inicjatyw: przegląd, filtrowanie, przypisywanie, wersjonowanie treści,
- decyzje: akceptacja / odrzucenie / prośba o uzupełnienie + uzasadnienie,
- publikacja inicjatyw do zbiórki,
- podstawowe narzędzia antynadużyciowe (np. blokady, rate limiting, analiza anomalii, logi audytowe).
Kluczowy element: anonimizacja przy zachowaniu unikalności poparcia
Aby spełnić wymaganie „prawdziwe osoby, ale bez ujawniania danych”, proponujemy podejście pseudonimizacyjne:
- po udanej weryfikacji tożsamości platforma nie zapisuje pełnych danych identyfikacyjnych użytkownika (np. imienia i nazwiska),
- zamiast tego zapisuje stabilny identyfikator techniczny pochodzący z procesu weryfikacji w formie tokenu/identyfikatora sesji + po stronie platformy: hash + salt (lub HMAC) → „pseudonim użytkownika”,
- sprawdzenie unikalności poparcia polega na porównaniu pseudonimu w obrębie danej inicjatywy,
w widoku publicznym pokazujemy wyłącznie licznik unikalnych pseudonimów, ewentualnie z agregacją statystyczną (np. po gminie/województwie) tylko jeśli dane są wystarczająco zanonimizowane (np. progi minimalne).
Wymagania niefunkcjonalne:
- bezpieczeństwo: szyfrowanie w tranzycie (TLS), szyfrowanie danych w spoczynku, separacja sekretów, audyt logów,
- prywatność: minimalizacja, pseudonimizacja, możliwość retencji danych licznikowych bez danych osobowych,
- skalowalność: obsługa dużych pików ruchu (np. medialna inicjatywa),
dostępność: WCAG (minimum podstawowe), responsywność.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- udostępnienie / sfinansowanie przez firmę niezbędnej infrastruktury
- wsparcie działu prawnego
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
konieczność podpisania NDA, proponowany model projektu: open source
vWatermarkowanie + steganografia + weryfikacja podpisów + optymalizacje RAM (backend + frontend)
Kontekst / problem
Serwisy webowe dystrybuują obrazy jako istotne aktywa (materiały premium, zdjęcia produktowe, treści autorskie). Widoczne watermarki (logo w rogu) bywają łatwe do usunięcia (kadrowanie, retusz), a metadane można skasować. Celem jest rozwiązanie, które łączy watermark widoczny/niewidoczny, steganografię oraz kryptografię, a jednocześnie działa wydajnie na backendzie i w przeglądarce/mobilnie.
Cel
Zbudowanie systemu, który generuje warianty obrazów serwowanych użytkownikom:
nakłada widoczny watermark (np. tekst/siatka z pseudonimem użytkownika),
osadza steganograficzny payload w pikselach,
payload jest podpisany kryptograficznie i możliwy do zweryfikowania,
pipeline jest zoptymalizowany pod RAM/CPU po stronie backendu i frontendowego renderingu/weryfikacji.
Zakres funkcji (MVP)
Serwowanie obrazów z kontrolą dostępu
Autoryzacja (np. JWT) i generowanie krótkotrwałych signed URL / tokenów.
Warianty: thumbnail/medium/full (resize + kompresja).
Cache (ETag / cache-control) aby ograniczać powtórne przetwarzanie.
Przetwarzanie obrazów (pipeline)
Dekodowanie → transformacje → enkodowanie (JPEG/WEBP/AVIF zależnie od stosu).
Konfigurowalne parametry jakości i limitów rozdzielczości/rozmiaru.
Widoczny watermark
Overlay tekst/grafika dopasowany do rozdzielczości, przezroczystość, pozycja lub powtarzalny wzór (utrudnia prosty crop).
Treść: nazwa serwisu + pseudonim użytkownika (nie dane osobowe).
Steganografia (payload w pikselach)
Payload minimalny, np.: {image_id, variant_id, user_pseudo, iat, nonce, alg_ver}.
Osadzanie i ekstrakcja (embed/extract) w obrazie (nie tylko EXIF).
Wersjonowanie algorytmu (alg_ver) i testy odporności na rekompresję/skalowanie.
Podpis i weryfikacja
Payload podpisany (np. Ed25519/ECDSA lub HMAC – z uzasadnieniem modelu zaufania).
Narzędzie weryfikacyjne: API i/lub CLI: „wczytaj obraz → wyciągnij payload → sprawdź podpis → pokaż wynik”.
Optymalizacje zużycia pamięci (wymagane do oceny)
Backend: ograniczenie równoległych transformacji (worker pool), unikanie pełnego buforowania w RAM, limity wejścia.
Frontend: lazy loading (srcset/sizes, loading="lazy"), weryfikacja w Web Worker (brak blokowania UI), unikanie wielokrotnego dekodowania bitmap.
Wymagania niefunkcjonalne
docker compose up uruchamia całość (API, przetwarzanie, storage, DB, frontend).
CI: build + lint + testy (min. krytyczne ścieżki: embed/extract, verify).
Dokumentacja: opis architektury, model zagrożeń (crop/recompress/screenshot/hotlinking/replay) i wdrożone mitigacje.
Raport wydajności: RAM/CPU/latency przed i po optymalizacjach + metodologia.
Proponowane technologie (otwarte na wybór zespołu)
Backend: Node.js (sharp/libvips) lub Python (pyvips/Pillow)
DB: PostgreSQL
Storage: MinIO/S3 lub filesystem (MVP)
Crypto: libsodium / jose / WebCrypto (weryfikacja po stronie klienta opcjonalnie)
Frontend: React/Vue + Web Worker / OffscreenCanvas (jeśli potrzebne)
Wstępna lista zadań
Projekt API (pobieranie wariantów, signed URL, verifier) + model DB
Implementacja pipeline’u przetwarzania (resize/encode/watermark)
Implementacja steganografii (embed/extract) + wersjonowanie
Podpisywanie payloadu + verifier (API/CLI)
Frontend: galeria + lazy loading + opcjonalny “Verified badge”
Profilowanie i ograniczenia RAM/CPU, testy obciążeniowe, cache
Testy odporności: recompress/crop/resize → ocena „co przetrwało” + wnioski
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Narzędzia opensource
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
NDA wymagane
vInteligentny asystent do rozmowy z bazą danych
Projekt zakłada stworzenie asystenta w formie czatu, który przyjmuje od użytkownika pytanie w postaci tekstowej i zwraca odpowiedź na podstawie danych zgromadzonych w relacyjnej bazie danych. Asystent będzie znał strukturę bazy (schemat), dzięki czemu będzie potrafił generować zapytania SQL służące do pobrania właściwych informacji, a następnie na ich podstawie udzielać odpowiedzi.
W trakcie projektu uczestnicy będą pracować z technologiami związanymi z dużymi modelami językowymi (LLM). Istotnym elementem będzie wykorzystanie mechanizmu function calling, czyli wywoływania funkcji przez model językowy na podstawie ich opisu, co zwiększa możliwości podejmowania decyzji przez LLM.
Kluczowe elementy projektu:
+ Uzupełnianie bazy wektorowej fragmentami tekstu (chunkami) przygotowanych opisów.
+ Wyszukiwanie w bazie wektorowej informacji powiązanych z pytaniem użytkownika – wtedy, gdy model uzna to za potrzebne.
+ Generowanie zapytań SQL przez model językowy w oparciu o pobrane konteksty.
+ Prezentowanie wyników użytkownikowi w sposób czytelny, wraz z uzasadnieniem i opisem kroków, które zostały wykonane.
Całość projektu można określić jako system jednoagentowy oparty o RAG (Retrieval-Augmented Generation) oraz function calling.
Przydatna będzie znajomość: języka Python, zasad działania baz relacyjnych, projektowania większej struktury aplikacji.
Zaplanowane są materiały dydaktyczne w formie przydatnych artykułów, wstępnej prezentacji omawiającej cały projekt oraz bieżący kontakt przez komunikator. Sam realizowałem projekt zespołowy 2 lata temu, więc wiem z czym to się je.
Tagi: Text-to-SQL, baza wektorowa, PostgreSQL, LLM, modele embeddingowe, Python, function calling, chunkowanie tekstu, proste UI, zapytania SQL, API do LLM, RAG, Jupyter Notebook, środowisko conda, Git, współpraca zespołowa, planowanie, kamienie milowe.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
Akceptowana wielkość grupy: 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/3
Dodatkowe uwagi:
Realizacja projektu będzie wymagała przekazania majątkowych praw autorskich do całości rezultatów projektu na rzecz firmy InsERT oraz podpisania umowy o zachowaniu poufności (NDA).
vNeuroCar Traffic Monitor
Celem projektu jest opracowanie, implementacja oraz walidacja metody automatycznego wykrywania anomalii w danych generowanych przez stacje pomiaru ruchu pojazdów eksploatowane przez Generalną Dyrekcję Dróg Krajowych i Autostrad. W ramach projektu przewiduje się wykorzystanie rzeczywistych danych pochodzących z 16 stałych stacji pomiaru ruchu, zlokalizowanych na autostradach oraz drogach krajowych na obszarze województw dolnośląskiego i opolskiego. Planowane jest zastosowanie metod uczenia głębokiego, w szczególności głębokich sieci neuronowych (DNN) opartych na architekturze transformerów, do modelowania wielowymiarowych szeregów czasowych oraz automatycznej identyfikacji anomalii wskazujących na zdarzenia nietypowe, błędy pomiarowe lub zmiany charakterystyki ruchu.
Zadania:
* Przegląd literatury i istniejących metod detekcji anomalii w szeregach czasowych
* Analiza struktury danych ze stacji pomiaru ruchu
* Przygotowanie i wstępne przetwarzanie danych
* Opracowanie bazy danych do przechowywania danych czasowych (ClickHouse)
* Implementacja modelu detekcji anomalii opartego na architekturze transformerów
* Definicja metryki i kryterium wykrywania anomalii
* Eksperymentalna walidacja metody na danych rzeczywistych
* Implementacja prostego prototypu aplikacji prezentującej wyniki
Technologie:
* Linux
* Python
* PyTorch
* Microservices / REST / gRPC API
* Git / GitLab
* Docker / Docker Compose
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
- Dostęp do danych ze stacji pomiarowych
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vNeuroCar Vehicle Detector
Celem projektu jest opracowanie wydajnego neuronowego detektora wybranych elementów pojazdów, przeznaczonego dla systemu Neurocar. Detektor powinien umożliwiać wykrywanie wybranego zestawu elementów (np. obrys całego pojazdu, tablicy rejestracyjnej, tablic specjalnych, kół, kierowcy, pasażera itp.). Dodatkowo detektor powinien wykrywać dodatkowe cechy obrazu/pojazdu, takie jak np.: przód/tył, dzień/noc, obraz dobrej/złej jakości, klasa 4+1. Możliwe położenia pojazdów na obrazie są ograniczone i wynikają ze specyfikacji systemu Neurocar.
Wynikowy model sieci neuronowej powinien być możliwy do zapisania w formacie ONNX i przetestowany w warunkach rzeczywistych. Pożądana jest wydajność >25 fps na 1 rdzeniu CPU ARM Cortex-A76 (Raspberry Pi 5) oraz >500 fps (akcelerator Hailo8L).
Zadania:
* Opracowanie taksonomii wykrywanych elementów pojazdów i cech obrazu.
* Opracowanie metody półautomatycznego generowania danych uczących dla detektora cech pojazdów przy użyciu dostępnych, otwartych (np. z repozytorium HuggingFace) dużych modeli do segmentacji obrazu. Dane źródłowe (wideo + metadane) z rzeczywistych implementacji systemu Neurocar dostarczy Neurosoft.
* Opracowanie architektury sieci neuronowej detektora, uczenie sieci (PyTorch).
* Przetestowanie rozwiązania w warunkach rzeczywistych, opracowanie statystyczne wyników jakości i wydajności.
Technologie:
* komputer Raspberry Pi 5
* akcelerator neuronowy Hailo-8L
* Linux
* Python
* C++
* Gitlab
* PyTorch
Wyniki:
* metoda półautomatycznego generowania danych uczących dla detektora elementów pojazdów (kod i dane w repozytorium gitlab)
* metoda generowania modelu (ONNX) sieci detektora (kod i dane w repozytorium gitlab)
* statystyczne wyniki jakości detektora działającego w warunkach rzeczywistych (kod i dane w repozytorium gitlab)
* raport końcowy, prezentacja (pdf)
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
- Dostęp do punktów pomiarowych NeuroCar -> pozyskanie danych
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAI Asystent Medyczny
Projekt dotyczy stworzenia narzędzia informatycznego (AI Asystenta Medycznego) wspierającego osoby znajdujące się w wymagających sytuacjach opiekuńczych, poprzez uporządkowanie informacji oraz zapewnienie stałego, cyfrowego wsparcia decyzyjnego i emocjonalnego.
Celem projektu jest stworzenie wirtualnego asystenta medyczno-psychologicznego opartego o AI, który będzie pełnił rolę: „drugiej pary rąk i głowy” dla opiekuna, źródła prostych, zrozumiałych odpowiedzi dostępnych 24/7, emocjonalnego wsparcia i poczucia bycia „zaopiekowanym”.
Asystent nie zastępuje lekarza ani psychologa, ale wspiera opiekuna w codziennych decyzjach, redukuje stres i pomaga uporządkować wiedzę.
Projekt zakłada użycie nowoczesnych, dostępnych technologii, w tym: silnik AI (OpenAI / ChatGPT (API)), frontend / landing page: narzędzia no-code, komunikacja (WhatsApp / Meta Business API), płatności (Stripe), AWS, zarządzanie projektem: GitHub, Trello.
Nice have team: kluczowe role obejmują specjalistę z zakresu AI i modeli językowych (LLM), osobę odpowiedzialną za warstwę graficzną i UX rozwiązania oraz Project Managera koordynującego prace zespołu.
Pracujemy w 1-tygodniowych sprintach. Błyskawicznie wypuszczamy MVP, następnie kolejne interakcje z użytkownikami.
Udział w projekcie daje zespołowi możliwość pracy nad projektem o realnym znaczeniu społecznym oraz ciekawym, aktualnym temacie technologicznym. Studenci zyskują praktyczne doświadczenie przy szybkim budowaniu MVP, realny wpływ na kształt rozwiązania, referencje oraz pracę w startupowej atmosferze. Dla zaangażowanych osób przewidziana jest możliwość kontynuacji współpracy po zakończeniu projektu.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich i/lub podpisania umowy o zachowaniu poufności (NDA)
vAplikacja do przeprowadzania walk testów w ramach badań sieci 5G/6G (INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas)
Celem projektu jest zaprojektowanie i implementacja systemu do realizacji walk testów sieci komórkowych 5G/6G z wykorzystaniem urządzeń użytkownika końcowego (UE – User Equipment), w szczególności smartfonów.
System umożliwi zbieranie, agregację, analizę oraz wizualizację danych radiowych, a także aktywne generowanie ruchu sieciowego w kontrolowanych warunkach.
Projekt realizowany będzie przez zespół studentów, z naciskiem na:
• praktyczne poznanie architektury sieci komórkowych,
• przetwarzanie danych pomiarowych,
• systemy rozproszone,
• nowoczesne podejścia wytwórcze (no-code / vibe-coding).
Zakres funkcjonalny systemu
1. Pomiary sieci: System zbiera kompletne parametry sieci komórkowej (np. RSRP, SINR, 5G) podczas pomiarów stacjonarnych i mobilnych typu walk test.
2. Centralizacja danych: Dane z urządzeń mobilnych są przesyłane w czasie rzeczywistym do centralnej, ustrukturyzowanej bazy danych na serwerze.
3. Interfejs API: Dostęp do zgromadzonych zasobów zapewnia REST API, umożliwiające filtrowanie danych i integrację z narzędziami takimi jak Python.
4. Generowanie ruchu: Narzędzie pozwala na aktywne lub automatyczne generowanie ruchu sieciowego w oparciu o zadane scenariusze i stan urządzenia.
5. Analiza przestrzenna: System tworzy mapy propagacji sygnału i automatycznie identyfikuje obszary o niewystarczającej gęstości pomiarów.
6. Planowanie walk testów: Moduł optymalizacji wyznacza ścieżki pomiarowe w celu maksymalizacji pokrycia terenu oraz analizy kluczowych zdarzeń, takich jak handovery.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas
vEnterprise review bot
Code reviews are essential, but organizing them shouldn’t feel like herding cats. At Nokia, we already use an internal GitLab review bot to help assign reviewers and post automated hints—but over time it has grown into an unmaintainable tangle of scripts. This project is about designing and building its clean, modern successor.
Students will create a real-time review bot that integrates with GitLab (and optionally Gerrit) using webhooks instead of periodic scanning. When a developer requests reviewers via a simple comment, the bot automatically selects suitable reviewers based on project rules, load balancing, and availability. It also posts helpful automated comments when common conditions are detected, such as missing changelog entries.
The system will include a web-based dashboard where developers can track their pending reviews, manage projects, and set out-of-office status. As a forward-looking extension, the bot may integrate LLMs to provide automatic code review suggestions—bringing AI directly into everyday developer workflows.
The backend will be implemented in Python using modern web frameworks and backed by a proper relational database (e.g. PostgreSQL). The frontend technology is open-ended, giving students freedom to design a clean and usable interface. This is a production-style project focused on good architecture, maintainability, and real-world engineering practices—not a one-off script.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vNarzędzie do generowania realistycznych danych wydajnościowych (PM) dla sieci telekomunikacyjnych (INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas)
Celem projektu jest zaprojektowanie i implementacja narzędzia do generowania realistycznych, lecz sztucznych danych wydajnościowych (Performance Management – PM) wykorzystywanych w sieciach telekomunikacyjnych (4G/5G/6G).
Generowane dane mają odwzorowywać statystyczne i czasowe charakterystyki rzeczywistych danych sieciowych, przy jednoczesnym braku danych wrażliwych, co umożliwi ich wykorzystanie do:
• testowania systemów analitycznych,
• walidacji algorytmów AI/ML,
• szkoleń i laboratoriów akademickich,
• symulacji zdarzeń i incydentów sieciowych.
Projekt realizowany będzie przez zespół studentów, z naciskiem na:
• inżynierię danych,
• symulację systemów złożonych,
• orkiestrację procesów,
• wykorzystanie LLM do generowania scenariuszy.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący dr inż. Patryk Schauer, dr inż. Łukasz Falas
vRules Engine for L1 Software
Product testing is essential before releasing it to the client, but it is often overlooked and deemed an unnecessary cost. What about situations where running tests costs actual money? During component testing of Base Transceiver Stations (BTS), every test execution costs money due to the electricity used not only to power up the BTS but also to cool them down. Furthermore, reserving valuable time of very expensive devices for incorrect tests is simply wasting time and, again, money.
Based on this premise, the Rules Engine was conceived. To save time and money, we need to validate whether tests are "making sense," which requires checking if the test input is correct. Unfortunately, this is not an easy task: in the case of L1 testing, test inputs consist of dozens of different messages exchanged between Layer 1 and Layer 2. Thousands of features already implemented in Nokia NR Layer 1 have changed and modified these messages, adding layers of dependencies between them and creating scenarios where it is much easier to create an incorrect message than a proper one. Such a situation is currently unmanageable by human intervention (DPCD - Dedicated Protein-Carbon Device), so we need to create a tool for this.
Students will create a new tool that will be seamlessly integrated into existing testing environments. When tests are run, after generating test input messages, the newly created tool will validate them. Rules for validating messages will be sourced from L1 System Architects and from existing NIDD rules, which need to be translated into L1 message dependencies.
This tool will also be available to L1 System Architects, allowing them to investigate existing dependencies within messages to make their new changes less error prone.
The system will include:
A tool, implemented as a Python package, that could be utilized in L1 System Architecture R&D work and integrated into existing test environments.
A system to automatically identify new rules and integrate them into the existing rule set.
A system to translate NIDD-based rules into dependencies for L1 messages.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vSatNOGS Ground Station v2 — Motorized Tracker
In this project we will build a motorized SatNOGS ground station with an azimuth–elevation tracker. Using the SatNOGS Rotator v3, Raspberry Pi, SDR, and open-source software (satnogs-client/rotctl + GNU Radio), we’ll assemble, wire, and calibrate a rotator that automatically follows low-Earth-orbit satellites across the sky.
Expect hands-on work: mechanics (2020 extrusion, gearing), drivers and controller setup, pointing models, pass scheduling, and live decodes.
Outcome: a campus-demoable station that tracks satellites in real time with higher SNR and longer, cleaner passes.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
- Company will provision/finance the necessary hardware/software.
Accepted group size: 3 people, 4 people, 5 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
3-5 students can participate in this project
Bazą jest projekt z zeszlego roku: github.com/czupirrek/satnogs
Tracker, który chcemy zbudowac: https://wiki.satnogs.org/SatNOGS_Rotator_v3
NoSun & GRALmarine
vRobot wspinający się z napędem magnetycznym
Inspekcja pionowych stalowych konstrukcji (zbiorniki, kadłuby statków, wieże) jest trudna i niebezpieczna dla ludzi. Rozwiązaniem są roboty wspinające się, które dzięki magnetycznym kołom mogą poruszać się po ferromagnetycznych powierzchniach pod dowolnym kątem, również pod wodą.
Konstrukcja mechaniczna pojazdu jest już rozpoczęta – dobrane są koła magnetyczne, silniki oraz ich kontrolery. Celem projektu jest opracowanie elektroniki sterującej oraz oprogramowania umożliwiającego zdalne sterowanie robotem i monitorowanie jego stanu.
Zakres prac zespołu:
- Integracja istniejących komponentów (silniki, koła magnetyczne)
- Dobór i integracja mikrokontrolera sterującego
- Implementacja komunikacji przewodowej (do pracy podwodnej) oraz bezprzewodowej (LoRa, WiFi)
- Opracowanie interfejsu operatora (aplikacja webowa)
- Dodanie czujników (IMU, czujniki prądu) i telemetrii
- Testy na pionowych powierzchniach stalowych w powietrzu i pod wodą
Ostateczny zakres projektu zostanie ustalony na początku semestru i będzie dostosowany do wielkości i kompetencji zespołu oraz dostępności sprzętu. Jesteśmy otwarci na modyfikacje listy zadań i priorytetów w zależności od kierunku, w którym rozwinie się projekt. Istnieje możliwość kontynuacji prac nad projektem w formie praktyk wakacyjnych lub pracy inżynierskiej.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób, 7 osób, 8 lub więcej osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vZdalnie sterowany pojazd podwodny (ROV)
Celem projektu jest zbudowanie w zdalnie sterowanego pojazdu podwodnego (ROV – Remotely Operated Vehicle) na podstawie przygotowanych instrukcji oraz gotowych komponentów. Konstrukcja bazuje na elementach drukowanych 3D (technologia FDM) oraz rurze akrylowej stanowiącej szczelną komorę na elektronikę. Pojazd wyposażony będzie w 5 thrusterów, kamerę z transmisją obrazu na żywo oraz przewodową komunikację przez tether.
Projekt ma charakter integracyjny – studenci poznają aspekty mechaniczne, elektroniczne i programistyczne systemów podwodnych. Gotowy ROV posłuży jako platforma do dalszych prac – montażu dodatkowych sensorów, chwytaków lub systemów nawigacji w kolejnych projektach.
Zakres prac zespołu:
- Druk 3D elementów ramy i obudowy
- Montaż ramy i integracja rury akrylowej z endcapami
- Montaż i uszczelnienie pędników (thrusterów)
- Montaż kamery w wodoszczelnej obudowie
- Wykonanie tethera (przewód zasilająco-komunikacyjny)
- Integracja elektroniki wewnątrz komory (sterownik, zasilanie, komunikacja)
- Uruchomienie systemu zdalnego sterowania (joystick/gamepad + komunikacja przewodowa)
- Testy szczelności i pływalności
- Testy w wodzie i kalibracja napędu
- Dokumentacja procesu budowy i instrukcja obsługi
Ostateczny zakres projektu zostanie ustalony na początku semestru i będzie dostosowany do wielkości i kompetencji zespołu oraz dostępności sprzętu. Jesteśmy otwarci na modyfikacje listy zadań i priorytetów w zależności od kierunku, w którym rozwinie się projekt. Istnieje możliwość kontynuacji prac nad projektem w formie praktyk wakacyjnych lub pracy inżynierskiej.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób, 7 osób, 8 lub więcej osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/2
Dodatkowe uwagi:
(brak)
vBot do rezerwacji parkingu (INS, Prowadzący: dr inż Jarosław Drapała)
"Projekt oraz implementacja nowej wersji Bota Slackowego do rezerwacji parkingu
Ze względu na ograniczoną liczbę miejsc parkingowych, system rezerwacji jest kluczowy aby z niego efektywnie korzystać
Obecnie funkcjonujący Bot pozwalający na rezerwacje przez Slacka cieszy sie dużą popularnością, jednak nie jest utrzymywalny ze względu na stos technologiczny.
Nowa iteracja Bota mogłaby oprócz wyrównania funkcjonalności poprzedniego, dodać nowe możliwości
Kluczowe wymaganie to interakcja poprzez Slacka, dodatkowe interfejsy mogą być również rozważone
Podstawowym wymaganiem jest napisanie aplikacji backendowej zintegrowanej z Google Calendarem i Slackiem, docelowo uruchomionej na AWS.
Potencjalnie wykorzystanie LLM-a do interpretacji tekstu"
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący: dr inż Jarosław Drapała
vSystem zarządzania zasobami bibliotecznymi Ocado (INS, Prowadzący: dr inż Jarosław Drapała)
Zostań twórcą systemu, który zapanuje nad biblioteką książek i gier planszowych w naszym wrocławskim biurze. Szukamy zespołu, który przełoży logistyczne wyzwania na intuicyjną aplikację dla pracowników.
Zakres zadań:
Magazyn: Budowa bazy danych i logiki zarządzania obiegiem (wypożyczenia, rezerwacje, zwroty).
Wizualizacja: Stworzenie graficznego interfejsu prezentującego stan magazynowy i dostępność pozycji.
System alertowy: System śledzący terminy zwrotów oraz zasoby pracowników z mechanizmem automatycznych komunikatów oraz indywidualnych powiadomień.
Rozwój kolekcji: Funkcja zbierania zapotrzebowania na nowe zakupy.
Technologie:
Realizacja projektu będzie oparta na nowoczesnych i branżowych standardach:
Backend: Java, Python lub Node.js
Frontend: React
Dlaczego warto?
To nie jest projekt „do szuflady”. Będziesz pracować nad systemem, który rozwiązuje realny problem zarządzania zasobami wewnątrz organizacji. Zapewnimy Ci wsparcie merytoryczne i wgląd w to, jak projektujemy użyteczne narzędzia dla naszych inżynierów.
Wchodzisz w to?
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Kierunek: INS, Prowadzący: dr inż Jarosław Drapała
vZdecentralizowany system nadzorowanych transakcji
"Projekt oraz implementacja zdecentralizowanego systemu do przeprowadzania nadzorowanych transakcji pomiedzy użytkownikami.
Przykład użycia:
Na imprezie firmowej pracownicy biorą udział w różnych grach, za które otrzymują punkty.
Na końcu za zebrane punkty pracownicy mogą uzyskać nagrody.
Aby zapewnić uczciwy przebieg rozgrywki, punkty muszą zostać odpowiednio przypisane dla pracowników.
Założeniem systemu jest zdecentralizowany sposób przydzielania punktów (np. oparty o elektroniczny podpis lub blockchain).
Wymaganiem rozwiązania jest brak serwera centralnego.
Projekt przeznaczony dla zaangażowanych studentów z umiejętnościami w technologiach webowych."
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vMail2Order
Projekt realizowany dla platformy e-commerce obsługującej klientów B2B z branży farb i materiałów wykończeniowych. Celem jest opracowanie inteligentnego systemu, który automatycznie przechwytuje wiadomości e-mail zawierające zamówienia generowane z systemów POS (point of sales) partnerów handlowych i na ich podstawie tworzy zamówienia na platformie e-commerce.
1. Wymagane technologie i narzędzia
Aby projekt zakończył się sukcesem, studenci muszą sprawnie poruszać się w środowisku, które pozwala na integrację systemów.
• System kontroli wersji: Git (wymagana umiejętność pracy na repozytorium zdalnym, np. GitHub/GitLab).
• Komunikacja: REST API (umiejętność tworzenia i odpytywania endpointów, obsługa formatu JSON).
• Język angielski: Dokumentacja techniczna oraz przykładowe zamówienia są w języku angielskim.
2. Preferowane technologie
Pozostawiamy studentom dowolność w doborze konkretnych bibliotek, jednak ze względu na specyfikę problemu rekomendujemy:
• Język programowania: Python (rekomendowany ze względu na biblioteki Data Processing/AI) LUB Node.js.
• Przetwarzanie danych/OCR: Doświadczenie lub chęć nauki narzędzi takich jak Tesseract, OpenAI API, Azure Form Recognizer lub bibliotek typu PyPDF2/Pandas.
• Konteneryzacja: Docker (mile widziane dostarczenie rozwiązania w kontenerze).
• Chmura: Podstawowa znajomość Azure lub AWS będzie dodatkowym atutem (wdrożenie Serverless).
3. Wymagany poziom wiedzy i umiejętności
Projekt jest klasyfikowany jako Backend / Data Engineering. Nie wymagamy wiedzy z zakresu systemu SAP (dostarczymy specyfikację interfejsu).
• Poziom ogólny: Mid (Intermediate) w wybranym języku programowania. Zespół powinien składać się z osób, które potrafią samodzielnie pisać czysty kod i tworzyć prostą architekturę aplikacji.
• Kluczowa kompetencja: Umiejętność analitycznego myślenia. Najtrudniejszą częścią projektu nie jest samo programowanie, a logiczne zaprojektowanie algorytmu, który "zrozumie", że "Qty: 100" w PDF-ie oznacza ilość sztuk.
• Mile widziane: Wcześniejsze doświadczenie w pracy z wyrażeniami regularnymi (Regex) lub prostymi modelami LLM/AI.
4. Planowane zadania do realizacji (High-Level Scope)
Projekt podzielony jest na etapy, które symulują wdrożenie komercyjne:
1. Analiza i Design:
o Analiza dostarczonych próbek zamówień (PDF/Email).
o Zaprojektowanie mapowania danych: Pole w PDF -> Pole w JSON.
o Wybór technologii do ekstrakcji danych.
2. Budowa konektora E-mail:
o Stworzenie modułu, który automatycznie pobiera nowe wiadomości ze dedykowanej skrzynki pocztowej.
o Filtracja wiadomości (oddzielenie spamu od zamówień).
3. Implementacja silnika ekstrakcji:
o Implementacja algorytmu sczytującego treść z załączników.
o Walidacja danych (np. sprawdzenie czy numer produktu ma poprawny format).
4. Integracja i Raportowanie:
o Generowanie pliku wyjściowego JSON zgodnego ze specyfikacją PPG.
o Wysłanie danych do "Mock Servera" (symulatora SAP), który wystawimy dla studentów.
o Obsługa błędów (co system ma zrobić, gdy nie może odczytać pliku?).
5. Dokumentacja i Demo:
o Prezentacja działającego rozwiązania.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vPPG Academy
PPG Academy – mobilna platforma rozwoju dla profesjonalnych malarzy
PPG Academy to innowacyjny projekt aplikacji mobilnej, której celem jest wsparcie młodych malarzy po zakończeniu edukacji zawodowej. Aplikacja zapewnia ciągły dostęp do krótkich szkoleń, certyfikatów cyfrowych, ścieżek rozwoju kompetencji oraz społeczności zawodowej – wszystko w jednym, nowoczesnym i intuicyjnym środowisku. Projekt łączy technologie mobile-first, MS365, Power Automate, Azure oraz elementy AI i grywalizacji, oferując realne zastosowanie biznesowe w skali międzynarodowej.
Najważniejsze wymagania projektu PPG Academy:
Funkcjonalna aplikacja mobilna z podejściem mobile-first
Aplikacja musi być zaprojektowana i zaimplementowana przede wszystkim z myślą o użytkownikach mobilnych, z responsywnym i intuicyjnym interfejsem.
Integracja z platformą MS365 oraz Power Automate
Kluczowym elementem jest wykorzystanie MS365 i Power Automate do zarządzania workflow, automatyzacji procesów szkoleniowych, certyfikacyjnych oraz innych funkcji biznesowych.
Implementacja warstwy grywalizacji
Aplikacja powinna zawierać mechanizmy motywacyjne, takie jak system odznak i punktów doświadczenia, które zwiększą zaangażowanie użytkowników i wspomogą rozwój kompetencji.
Dlaczego warto wziąć udział?
Pracując nad PPG Academy, zdobędziesz praktyczne doświadczenie w projektowaniu aplikacji na potrzeby dużej, globalnej organizacji, rozwiniesz kompetencje w obszarze nowoczesnych technologii cloudowych i AI, a Twoje rozwiązania mogą realnie trafić do użytkowników na rynku. To świetna okazja, aby zbudować portfolio, pracować na rzeczywistych wymaganiach biznesowych i mieć wpływ na produkt, który wspiera rozwój zawodowy tysięcy ludzi. Jeśli chcesz tworzyć nowoczesne, użyteczne rozwiązania i zobaczyć, jak Twój projekt może żyć poza uczelnią — ten projekt jest dla Ciebie!
Technologie wykorzystywane w projekcie:
Front-end aplikacji będzie oparty na mobile-first z responsywnym designem, a studenci sami wybiorą odpowiednie technologie. W back-endzie sugerowane jest wykorzystanie REST API w Node.js lub ASP.NET Core, jednak ostateczny wybór należy do zespołu. W obszarze AI proponowane są funkcje takie jak automatyczne generowanie quizów, personalizowane rekomendacje oraz detekcja emocji w feedbacku. Do prototypowania można użyć Replit. Warstwa grywalizacji może obejmować silnik odznak i system punktów doświadczenia. Wszystkie wymienione technologie są jedynie sugestiami, a decyzje dotyczące ich zastosowania pozostają do wyboru przez studentów.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vProcurement Savings Tracker
Procurement Savings Tracker
Opis projektu: Stwórz profesjonalną platformę webową, która zastąpi Excela w zarządzaniu milionowymi oszczędnościami firmowymi. Twoim zadaniem jest zbudowanie systemu klasy Savings Tracker – od logiki biznesowej, przez bezpieczeństwo, aż po analitykę danych.
Jakie będą twoje zadania i co Cię czeka?
• Backend: Budowa silnika obsługującego Approval Workflow, wersjonowanie danych i zaawansowaną logikę walidacji.
• Frontend & UX: Zaprojektowanie interfejsu, który uniemożliwia popełnienie błędu i prowadzi użytkownika „za rękę” przez skomplikowany proces raportowania oszczędności. Jako dopełnienie systemu stworzysz dashboardy podglądu, takie jak My Projects czy KPI Summary.
• Data & BI: Projektowanie relacyjnej bazy danych i tworzenie interaktywnych raportów BI (wizualizacja trendów i targetów).
• Security & Auth: Implementacja profesjonalnego logowania Single Sign-On (SSO) w oparciu o ekosystem Microsoft 365.
Stack technologiczny propozycje:
• Język: Python (np. Framework Django lub FastAPI).
• Baza danych: SQL Server / Azure SQL.
• Frontend: HTML/CSS/JS (opcjonalnie frameworki typu React.js lub Streamlit)
• Business Intelligence: Power BI
Dlaczego warto wybrać ten projekt?
To unikalna okazja, by przejść drogę od czystego kodu do wdrożenia profesjonalnego systemu klasy enterprise – zbuduj projekt, który stanie się najmocniejszym punktem twojego portfolio. Projekt idealny dla przyszłego Python Developera, Data Engineera lub Analityka Systemowego
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vOctoTS - time series stored in Git
Celem projektu jest zaproponowanie protokołu przechowywania serii czasowych w formie tekstowej w repozytorium Git oraz zaimplementowanie zestawu narzędzi które będą wspomagać używanie takiej formy przechowywania.
Dzięki stworzonym narzędziom powstanie możliwośc stworzenia wyzwalanych okresowo akcji ciągłej integracji, które będą mogły przechowywać wyniki swojego działania w repozytorium z którego są uruchamiane, a następnie umożliwią wizualizację tych danych czerpanych bezpośrednio z repozytorium.
Realizacja projektu pozwoli połączyć wiedze i umiejętności deweloperskie i DevOps.
Technologie:
Frontend - js/ts/react
Git
Akcje CI - go/node.js/python
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
SoftServe
vAI for CI/CD (AWS)
Cel projektu: Zbudowanie rozwiązania, które zbiera metadane z procesu CI/CD (repozytoria, buildy, testy, deploymenty, logi i alerty), a następnie wykorzystuje AI do identyfikacji przyczyn problemów, łączenia zdarzeń w spójne incydenty oraz proponowania kroków naprawczych dla zespołów inżynierskich działających na AWS.
Charakterystyka rozwiązania:
- Użytkownik zachowuje kontrolę nad decyzjami: może korygować i oceniać rekomendacje AI (feedback loop).
- System uczy się na podstawie historii: wykorzystuje poprzednie korelacje, oceny użytkowników i wyniki wdrożeń do ciągłego doskonalenia.
- Projekt ukierunkowany na powtarzalność i produktowalność: gotowe integracje i wzorce dla typowych pipeline’ów CI/CD w środowisku AWS.
Proponowane funkcjonalności:
- Pobieranie sygnałów z procesu wytwórczego: metadane repozytoriów (PR/commit), statusy buildów i testów, deploymenty, logi i alarmy (np. CloudWatch, EventBridge, webhooks).
- Automatyczna korelacja i hierarchizacja zdarzeń (lokalny silnik AI + reguły) w celu wskazania prawdopodobnej przyczyny (root cause) i wpływu.
- Rekomendacje remediacji (np. cofnięcie wdrożenia, ponowne uruchomienie joba, naprawa testu, korekta konfiguracji).
- Ocena decyzji AI przez użytkowników (approve/override), z zapisem uzasadnień i wyników.
- Wykorzystanie historii korelacji i ocen do ulepszania modeli (learning/retuning).
- Integracja z innymi inicjatywami (np. agentami DevOps, Observability) oraz narzędziami zespołu.
Środowisko i integracje (AWS):
- Repozytoria i pipeline’y: AWS CodeCommit / GitHub / GitLab, AWS CodeBuild, AWS CodePipeline, AWS CodeDeploy.
- Monitoring i zdarzenia: Amazon CloudWatch (metrics/logs/alarms), AWS X-Ray (opcjonalnie), Amazon EventBridge.
-Artefakty i dane: Amazon S3 (logi/raporty), opcjonalnie wektorownia/eval store.
- Bezpieczeństwo i zgodność: IAM, szyfrowanie, ograniczenie dostępu do danych produkcyjnych.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania umowy o zachowaniu poufności (NDA).
vAI for Infrastructure as Code (IaC)
Cel projektu: Zbudowanie rozwiązania, które analizuje kod IaC (Terraform) używany przez zespoły, ocenia jakość i zgodność z guardrailami, porównuje wersje oraz proponuje bezpieczne zmiany / remediacje. Agent ma wspierać szybkie przeglądy, ograniczać dług techniczny i standaryzować praktyki w środowiskach chmurowych (multi-cloud: AWS / Microsoft Azure / Google Cloud).
Charakterystyka rozwiązania:
- Kontrola po stronie użytkownika: możliwość korekty rekomendacji, akceptacji/odrzucenia i komentowania wyników (feedback loop).
- Uczenie na historii: wykorzystanie wcześniejszych ocen, różnic między wersjami i efektów wdrożeń do poprawy trafności.
- Produktowalność: powtarzalne reguły i szablony dla typowych modułów Terraform; gotowe integracje i raporty.
Proponowane funkcjonalności:
- Ingest i analiza IaC: wczytanie modułów/stacków Terraform, parsowanie zmiennych, providerów, polityk.
- Ocena jakości i zgodności: walidacja względem standardów (naming, tagging, sieć, IAM/role), wykrywanie anty-wzorów.
- Porównanie wersji (diff): identyfikacja zmian o wysokim ryzyku (np. security, networking, koszt).
- Rekomendacje remediacji: propozycje poprawek (pull request templates), linki do modułów referencyjnych i reguł.
- Skoring i raporty: scoring jakości, raport „as-is vs to-be”, listy naruszeń guardrailów i ich krytyczność.
- Pętla informacji zwrotnej: ocena przez inżyniera (approve/override), zapisywanie uzasadnień i wyników.
Środowisko i integracje (multi-cloud):
- Repozytoria: Git (PR/commit hooks) i rejestry modułów.
- Chmury: AWS / Microsoft Azure / Google Cloud (mapowanie reguł per provider).
- Artefakty i dane: magazyn raportów/ocen, historia diffów i feedbacku, (opcjonalnie) wektorownia na potrzeby wyszukiwania wzorców.
- Bezpieczeństwo: IAM/role, szyfrowanie artefaktów, separacja danych projektowych.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu wymaga przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania umowy o zachowaniu poufności (NDA).
vAI for Landing Zone (GCP)
Cel projektu: Zbudowanie rozwiązania dedykowanego dla Google Cloud (GCP), które z pomocą AI przekształca PRD (Product Requirements Document) w WBS, projekt docelowej Landing Zone, generuje IaC (Terraform/KRM) zgodny z politykami organizacji oraz waliduje konfigurację względem najlepszych praktyk i guardrailów. Efekt: szybsze, powtarzalne i zgodne z polityką uruchamianie środowisk chmurowych na Google Cloud.
Charakterystyka rozwiązania:
- Human-in-the-loop: użytkownik może korygować rekomendacje AI, zatwierdzać/odrzucać zmiany i dodawać komentarze (audytowalne decyzje).
- Uczenie się na historii: model wykorzystuje poprzednie oceny i wyniki wdrożeń, by poprawiać trafność generowanych artefaktów i walidacji.
- Produktowalność i standaryzacja: wzorce „Project Factory”, moduły referencyjne, katalog polityk Organization Policy oraz checklisty zgodności.
Proponowane funkcjonalności (AI-assisted LZ):
- PRD → WBS: parsowanie wymagań (PRD) i automatyczne tworzenie Work Breakdown Structure z przypisaniem właścicieli i zależności.
- Projekt architektury LZ: generowanie referencyjnej architektury (organizacja/foldery/projekty) z uwzględnieniem VPC/SVPC, IAM, sieci, logowania/monitoringu, kluczy i tożsamości.
- Generowanie IaC: tworzenie modułów Terraform/KRM dla zasobów (np. VPC, subnets, firewall, Cloud NAT, GKE, Cloud SQL, Cloud Storage, Pub/Sub, Cloud Run, Cloud Build/Deploy).
- Polityki i zgodność: mapowanie wymagań na Organization Policy, IAM (role, zasadnicze uprawnienia), VPC-SC (jeśli dotyczy) oraz reguły kosztowe/etykietowanie.
- Walidacja i rekomendacje remediacji: sprawdzenie wygenerowanej konfiguracji względem guardrailów, wskazanie odchyleń, propozycje poprawek i „fix-it PRs”.
- Integracje krzyżowe: powiązanie z pipeline’ami CI/CD (pre-merge checks), z obserwowalnością (Cloud Logging/Monitoring) i repozytoriami polityk.
- Feedback & re-use: każda decyzja użytkownika (approve/override) zasila bazę wiedzy dla kolejnych wdrożeń.
Środowisko i integracje (GCP — przykłady):
- AI & automatyzacja: Vertex AI / Gemini (analiza PRD, generacja WBS i reguł), orkiestracja w Cloud Run/Cloud Functions lub Workflows.
- Konfiguracja i polityki: Organization Policy, IAM, Cloud Asset Inventory (ocena stanu), Config Controller / Anthos Config Management (KRM), Terraform z Google Provider.
- Sieć i bezpieczeństwo: VPC, Cloud NAT, Firewalls, Private Service Connect, opcjonalnie VPC Service Controls, Secret Manager.
- Przechowywanie artefaktów: Cloud Storage (raporty, pliki konfiguracyjne), BigQuery (telemetria/eval), opcjonalnie Artifact Registry.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wymagać przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania NDA.
vAI for Observability (AWS)
Cel projektu: Zbudowanie rozwiązania dedykowanego dla AWS, które zbiera sygnały obserwowalności (metryki, logi, trasy/APM) i wykorzystuje AI do korelacji zdarzeń, identyfikacji przyczyn źródłowych (root cause) oraz proponowania automatyzowalnych kroków naprawczych. Celem jest skrócenie czasu analizy incydentów (MTTD/MTTR), obniżenie kosztów telemetrycznych oraz podniesienie jakości decyzji operacyjnych w środowiskach budowanych na AWS.
Charakterystyka rozwiązania:
- Kontrola użytkownika: możliwość zatwierdzania/odrzucania i komentowania wniosków AI (feedback loop) z audytowalnym śladem.
- Uczenie na historii: wykorzystywanie poprzednich korelacji i ocen do ciągłego doskonalenia modeli/reguł (human-in-the-loop).
- Optymalizacja kosztów: polityki retencji, sampling i kontrola kardynalności metryk/logów w oparciu o natywne mechanizmy AWS.
- Integracja z runbookami: gotowe akcje remediacyjne uruchamiane z poziomu AWS (rollback, scale-out, feature-flag switch, restart).
Proponowane funkcjonalności (AWS-native):
- Ingest sygnałów z usług AWS:
- Metryki/logi/alerty: Amazon CloudWatch (Metrics, Logs, Alarms, Logs Insights, Container Insights dla EKS/ECS).
- Trasy/APM przykładowo: AWS Distro for OpenTelemetry (ADOT) + AWS X-Ray (instrumentacja usług: Lambda, ECS/EKS, API Gateway, ALB/NLB, RDS, DynamoDB).
- Zdarzenia: Amazon EventBridge (integracje z usługami i webhookami), Amazon SNS/SQS (kolejkowanie).
- Historia i audyt: AWS CloudTrail (powiązanie zmian z incydentami).
- Korelacja i hierarchizacja zdarzeń: lokalny silnik korelacyjny + modele AI, deduplikacja i łączenie symptomów (np. błąd w API ↔ throttling w DynamoDB ↔ spike latency).
- Diagnoza i rekomendacje: sugerowane remediacje (np. AWS Systems Manager Automation runbooks, rollback w CodeDeploy/CodePipeline, zmiana konfiguracji autoskalera).
- Ocena decyzji AI przez użytkowników: approve/override + uzasadnienie, które uczy model i modyfikuje reguły.
- Wykorzystanie historii: re-use wcześniejszych korelacji/ocen do tłumienia hałasu i poprawy trafności alertów.
Środowisko i integracje (AWS):
- Źródła i analiza: Amazon CloudWatch (Metrics/Logs/Alarms, Logs Insights), AWS X-Ray, AWS Distro for OpenTelemetry (ADOT), AWS CloudTrail, Amazon OpenSearch Service (opcjonalnie), Amazon S3 (archiwizacja/long-term), AWS Glue/Athena (analizy ad-hoc).
- Automatyzacja/remediacja: AWS Systems Manager (Automation/Run Command/Incident Manager/OpsCenter), AWS Step Functions, AWS Lambda, AWS CodeDeploy/CodePipeline (rollback).
- Koszty i kontrola kardynalności: Metric Filters, Metric Streams, retencja dla Logs/Tracing, budżety i alarmy kosztowe (AWS Budgets/Cost Anomaly Detection).
- Bezpieczeństwo i zgodność: IAM least-privilege, KMS (szyfrowanie), separacja danych, tagowanie zasobów, kontrola PII.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Realizacja tematu będzie wymagać przekazania majątkowych praw autorskich do wytworzonych artefaktów oraz podpisania NDA.
Splunk a Cisco company
vCode Fixer
Tytuł projektu
Automatyzacja aktualizacji zależności z wykorzystaniem LLM oraz analizy migracji wersji
Opis projektu
Współczesne projekty programistyczne w dużym stopniu opierają się na zewnętrznych bibliotekach i pakietach open source. Zależności te często zawierają błędy lub podatności bezpieczeństwa, które są naprawiane w nowszych wersjach.
W przypadku aktualizacji wersji minor proces ten jest zazwyczaj prosty. Natomiast aktualizacja wersji major często wiąże się z niekompatybilnościami oraz koniecznością wprowadzenia zmian w kodzie zgodnie z dokumentacją migracyjną danej biblioteki. Obecnie cały ten proces jest wykonywany manualnie i bywa czasochłonny.
Celem projektu jest stworzenie narzędzia, które automatyzuje proces aktualizacji zależności na podstawie zgłoszeń typu Bug w aplikacji JIRA oraz wykorzystuje modele językowe (LLM) do wspomagania migracji pomiędzy wersjami.
Problem do rozwiązania
Projekt zakłada stworzenie narzędzia, które:
• integruje się z aplikacja Jira,
• identyfikuje zgłoszenia typu Bug powiązane z wadliwymi lub podatnymi zależnościami,
• automatycznie aktualizuje wersję biblioteki,
• przygotowuje Pull Request (PR) z proponowanymi zmianami.
Największym wyzwaniem dla narzedzia, jest obsługa aktualizacji wersji major, które wymagają analizy dokumentacji migracyjnej, a nastpnie wprowadzenia zmian w kodzie źródłowym zgodnie z tymi zaleceniami.
Założenia projektu
• Zgłoszenia typu Bug w Jira zawierają informacje o:
o problematycznej bibliotece,
o aktualnie używanej wersji,
o dostępnej nowszej wersji zawierającej poprawkę błędu lub podatności.
• Kod żródłowy projektu będzie przychowywany w repozytorium Git i ma CI/CD.
• Projekt ma charakter proof of concept – nie jest wymagane rozwiązanie produkcyjne.
Cele projektu
1. Automatyzacja aktualizacji zależności na podstawie zgłoszeń w Jira.
2. Rozróżnienie aktualizacji minor i major.
3. Wykorzystanie LLM / agentów do:
o analizy dokumentacji migracyjnej,
o proponowania zmian w kodzie.
4. Przygotowywanie pull requestów możliwie bliskich poprawnemu rozwiązaniu.
5. Przeprowadzenie researchu istniejących narzędzi rozwiązujących podobny problem.
Funkcjonalności docelowego rozwiązania
1. Integracja z Jira
• Pobieranie zgłoszeń typu Bug za pomocą API.
• Ekstrakcja informacji o:
- zależności,
- wersjach biblioteki,
- repozytorium kodu.
2. Identyfikacja zależności
• Lokalizacja biblioteki w projekcie
• Określenie typu aktualizacji:
- minor – kompatybilna wstecznie,
- major – potencjalnie niekompatybilna.
3. Aktualizacja:
a) wersja minor – narzędzie powinno:
• automatycznie podbić wersję biblioteki,
• pobrać nową wersję zależności,
• zbudować/skompilować projekt,
• przygotować pull request z wprowadzonymi zmianami.
b) wersji major - narzędzie powinno:
• wyszukać w internecie oficjalną dokumentację oraz migration guidelines,
• przeanalizować dokumentację pod kątem zmian łamiących kompatybilność,
• wykorzystać LLM do:
- identyfikacji miejsc w kodzie wymagających zmian,
- zaproponowania i zaaplikowania poprawek,
• skompilować projekt,
• przygotować pull request (docelowo jak najbliższy poprawnego rozwiązania).
5. Feedback loop
• analiza wyników pipeline CI/CD.
• identyfikacja:
- który job zakończył się błędem,
- potencjalnej przyczyny niepowodzenia.
• iteracyjne poprawianie kodu przy wsparciu LLM.
6. Research istniejących rozwiązań
• Analiza dostępnych narzędzi (np. Dependabot, Renovate itp.).
Technologie:
• Dowolność wyboru języka programowania i frameworków.
• Integracja z:
- Jira API,
- GitHub,
- CI/CD.
• Obowiązkowe użycie LLM lub podejścia agentowego (np. OpenAI API lub podobne rozwiązania).
Planowane formy współpracy:
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
podpisanie NDA i umowy zwiazanej z przekazaniem majatkowych praw autorskich
vAMA - Assembly Measurement Automation (automatyzacja okresowej kontroli pomiarów na liniach montażowych)
Obecny proces opiera się na ręcznym zapisie wyników pomiarów oraz ich późniejszym
przepisywaniu do systemów raportowych lub arkuszy. Powoduje to:
ryzyko błędów ludzkich i nieczytelnych zapisów,
opóźnienia w dostępności danych,
ograniczoną możliwość analizy trendów i wykrywania odchyleń,
wysokie zaangażowanie czasowe pracowników,
trudności w zapewnieniu spójności i archiwizacji danych.
Proponowane rozwiązanie
Wdrożenie aplikacji webowej dostępnej na tabletach i laptopach, umożliwiającej:
bezpośrednie wprowadzanie wyników pomiarów przez operatorów,
automatyczne zapisywanie danych na serwerze,
elastyczne zarządzanie punktami pomiarowymi (dodawanie / usuwanie),
integrację z narzędziami analitycznymi (Power BI, Ignition),
bieżącą wizualizację wyników i trendów.
Korzyści biznesowe
1. Redukcja kosztów operacyjnych
ograniczenie czasu poświęcanego na ręczne przepisywanie danych,
zmniejszenie liczby błędów i poprawek,
uproszczenie procesu audytów i raportowania.
2. Poprawa jakości i zgodności
pełna identyfikowalność danych pomiarowych,
szybkie wykrywanie odchyleń i trendów,
wsparcie wymagań jakościowych i audytowych (traceability).
3. Zwiększenie efektywności produkcji
szybszy dostęp do danych w czasie rzeczywistym,
możliwość natychmiastowej reakcji na nieprawidłowości,
ograniczenie przestojów wynikających z opóźnionej informacji.
4. Skalowalność i standaryzacja
możliwość rozszerzenia rozwiązania na kolejne linie i procesy,
jednolity standard raportowania i danych w całym zakładzie.
5. Fundament pod dalszą automatyzację (Industry 4.0)
gotowa baza danych pod zaawansowaną analitykę,
integracja z systemami produkcyjnymi i BI,
możliwość dalszej automatyzacji pomiarów w przyszłości.
Ryzyka i ich ograniczenie
Adopcja użytkowników – szkolenia, prosty interfejs, pilotaż.
Integracja IT – wykorzystanie standardów webowych i API.
Bezpieczeństwo danych – kontrola dostępu, kopie zapasowe, zgodność z
polityką IT.
Wskaźniki sukcesu (KPI)
skrócenie czasu raportowania,
redukcja błędów w danych,
dostępność danych w czasie rzeczywistym,
liczba zautomatyzowanych kontroli,
poziom wykorzystania systemu przez użytkowników.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Przekazanie majątkowych praw autorskich. podpisanie umowy o zachowaniu poufności
veRejestr APS
Aplikacja powinna bazować na liście wszystkich dostępnych instrukcji pracy standaryzowanej z obszaru QC w Wałbrzychu i Jelczu, z możliwością filtrowania po dokładnym obszarze użytkowania. Każda instrukcja z listy powinna być podlinkowana do oryginalnego dokumentu (konieczne stworzenie centralnego miejsca np. na Sharepoint). Każda instrukcja musi posiadać historię swojej wersji, a pod linkiem ma znajdować się tylko aktualna wersja, z możliwością dostępu do wersji archiwalnych [po każdej weryfikacji i aktualizacji instrukcji stara wersja trafia do archiwum].
Stworzenie intuicyjnej metody tworzenia planu rocznego do weryfikacji instrukcji, z możliwością jego
śledzenia i finalnego automatycznego zatwierdzania [każdy obszar, w którym jest używana dana instrukcja, będzie miał inną ścieżkę akceptacji]. Z poziomu aplikacji użytkownik ma mieć możliwość rozpoczęcia tworzenia nowej instrukcji (przydatna będzie automatyczna informacja do użytkowników, aby nie powielać tworzenia dokumentu przez osoby np. z innej zmiany). Tworzenie nowych instrukcji oraz weryfikacja istniejących powinna być odzwierciedlona na osi czasu (np. Gantt na zasadzie MS Project) w taki sposób, aby cała listę użytkownik mógł również filtrować według swojego obszaru. Aplikacja powinna posiadać zakładkę z listą uwag lub czynności trudnych
zgłaszanych np. po patrolach, obserwacjach, sygnałach od pracowników, z możliwością dopasowania tych wpisów do konkretnej instrukcji i zaplanowania wdrażania środków zaradczych (przygotowanie planu realizacji).
Proponowane narzędzia do wykorzystania przy tworzeniu aplikacji:
Power Apps (konieczny, z wykorzystaniem Modern Components)
Power Automate + Outlook (konieczny) + Teams (opcja)
Sharepoint List (konieczny)
Power BI (opcja - ewentualnie do finalnej wizualizacji)
Język Python (możliwość zastosowania jako aspekt poprawiający płynność i wizualizację)
Wizualizacja propozycji strony głównej (nie zawiera wszystkich wymaganych szczegółów)
Ekrany aplikacji – propozycja:
1. Dashboard główny
Liczba instrukcji do weryfikacji w tym miesiącu wg. wybranego obszaru
Liczba instrukcji po terminie
Wykres obszarów (ilość APS + ilość zaległych)
Statystyki dla QA → szybki przegląd jakości
2. Lista instrukcji
Filtrowanie po obszarze / statusie / właścicielu
Buttony: Edytuj, Wyświetl historię weryfikacji, Nowa weryfikacja
3. Szczegóły instrukcji
Dane podstawowe
Historia wersji
Powiązane aktywne procesy weryfikacyjne
4. Ekran procesu weryfikacji
Data startu, termin, status
Załączanie pliku nowej wersji
Zmiana statusu na "Zakończona"
Automatyczne wyliczanie opóźnienia (Power Apps / Power Automate)
5. Panel administratora QA
Dodawanie nowych instrukcji
Zarządzanie obszarami
Raport xlsx, pdf (do pobrania - opcjonalnie)
Proponowany zestaw przepływów:
1. Powiadomienie o rozpoczęciu weryfikacji
Uruchamiane gdy tworzony jest nowy element na liście Weryfikacja_APS.
Wyślij mail do:
Osoba_weryfikująca
QA (np. lista dystrybucyjna QualityAssurance)
W treści:
Numer instrukcji
Termin zakończenia
Link do formularza weryfikacji
2. Przypomnienie o zbliżającym się terminie
Flow uruchamiany codziennie (scheduled flow):
Filtr: Termin_weryfikacji - 7 dni
Jeśli status ≠ Zakończona → wyślij przypomnienie
3. Powiadomienie o opóźnieniach
Codzienny trigger
Jeśli Today > Termin i Status ≠ Zakończona →
e-mail do właściciela + QA: „Instrukcja X jest przeterminowana o Y dni.”
4. Automatyczna zmiana statusu instrukcji
Po zakończeniu weryfikacji:
Porównaj wersję → jeśli zmieniona → aktualizuj w liście Instrukcje_APS
Zapisz Data_ostatniej_weryfikacji
Ustaw Status: Aktualna
5. Powiadomienie o publikacji nowej wersji
Do wszystkich użytkowników obszaru:
Nowa wersja → automatyczny e-mail
W treści link do pliku + changelog
To główne założenia, które w trakcie realizacji mogą ulegać modyfikacji.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Przekazanie majątkowych praw autorskich, podpisanie umowy o zachowaniu poufności, własny komputer
vRękawiczka tensometryczna wizualizująca obciążenia statyczne i dynamiczne dłoni i nadgarstka podczas pracy
Do badania ergonomii stanowiska pracy pozycji dłoni i nadgarstka aktualnie stosujemy system Xsens (motion capture) oraz metody ręczne RULA czy temotoka. Dane wyjściowe służą wizualizacji procesów do poprawy kaizen albo ustalania rotacji i wizualizacji poprawnej metody pracy. Celem ww działań dot. identyfikacji i redukcji zagrożeń jest prewencja chorób zawodowych, w szczególności Zespołu Cieśni Kanału Nadgarstka czy Zespołu Łokcia Tenisisty.
Wspomniane wyżej systemy i metody są wymagające w użyciu dla pracowników produkcji i kadry zarządzającej – konieczność ubierania całego kombinezonu i jego kalibracji itd., albo ręczne - nieobiektywne, bo obarczone błędem pomiarowym. Obecnie brakuje nam wygodnych i precyzyjnych przyrządów służących pomiarowych albo wskaźnikowych dotyczących ergonomii pozycji dłoni i nadgarstka, w szczególności siły chwytu/nacisku oraz krytycznych kątów wychylenia nadgarstka. Uzupełnienie tych danych jest kluczowe dla naszego celu, jakim jest eliminacja przyczyn potencjalnych chorób zawodowych.
Poszukujemy rozwiązania kompaktowego i niekrępującego, do użycia przez każdego pracownika, nie tylko przez specjalnie wyszkolony personel. System musi umożliwiać transmisję danych w czasie rzeczywistym do aplikacji (mobilnej/PC) w celu podglądu problematycznych procesów na żywo. Kluczowym wymaganiem jest tryb pracy autonomicznej (offline). Chcemy wyposażyć pracowników w ten sprzęt, aby mogli samodzielnie weryfikować ergonomię swojej pracy bez konieczności patrzenia w ekran i współuczestniczyli w projektowaniu i wykonywaniu kaizen. W ramach wsparcia planujemy współpracę z lekarzami medycyny pracy i SANEPID.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 4 osoby, 5 osób
Dopuszczalny język projektu: polski
Dostępna liczba grup: 0/1
Dodatkowe uwagi:
Wymóg przekazania majątkowych praw autorskich, podpisanie umowy o zachowaniu poufności, własny komputer
TSafety sp. z o.o.
vOpracowanie i weryfikacja algorytmu VSLAM jako źródła lokalizacji urządzeń transportu bliskiego w środowisku produkcyjnym. Ocena dokładności, odporności i wymagania wdrożeniowe
Celem projektu jest zbudowanie stanowiska testowego (wózek widłowy + kamery RGB + edge GPU) i przeprowadzenie eksperymentów w realnej hali w celu oceny VSLAM (ang. Visual Simultaneous Localization and Mapping) w trzech obszarach: (1) dokładność trajektorii, (2) odporność na typowe zakłócenia hali, (3) wymagania integracyjne (kalibracja, synchronizacja, obciążenie obliczeniowe). W projekcie zostanie zastosowana biblioteka PyCuVSLAM. PyCuVSLAM to biblioteka programistyczna w języku Python, stanowiąca interfejs do algorytmów Visual SLAM akcelerowanych sprzętowo przy użyciu kart GPU NVIDIA (CUDA). PyCuVLSAM umożliwia jednoczesne budowanie mapy otoczenia oraz estymacja pozycji i orientacji obiektu (np. wózka widłowego lub robota mobilnego) na podstawie danych z kamer. W odróżnieniu od klasycznych metod lokalizacji stosowanych w środowiskach magazynowo-produkcyjnych (takich jak znaczniki QR, linie magnetyczne czy systemy UWB), PyCuVSLAM nie wymaga infrastruktury zewnętrznej, bazując wyłącznie na analizie obrazu z kamer monocularnych lub stereo. Dzięki temu potencjalnie umożliwia elastyczne wdrożenia w istniejących halach produkcyjnych bez kosztownych modyfikacji środowiska.
Wynikiem końcowym projektu będzie raport porównawczy, rekomendacje konfiguracji czujników i minimalny prototyp integracji z urządzeniem NVIDIA Jetson.
Cele i pytania badawcze
Celem projektu jest sprawdzenie, czy PyCuVSLAM zapewnia wystarczającą dokładność lokalizacji dla zastosowań magazynowo-produkcyjnych (monitoring floty / nawigacja wspomagana / półautonomia).
Pytania badawcze:
Jaka jest dokładność lokalizacji (ATE/RPE, dryf, stabilność orientacji) w typowej hali?
Jak zmienia się jakość przy:
różnych prędkościach i manewrach wózka,
różnym oświetleniu (dzień/noc, strefy z refleksami),
dynamicznych przeszkodach (ruch ludzi/wózków),
“featureless” odcinkach (długie białe ściany/korytarze)?
Jak trudne jest wdrożenie (kalibracja, synchronizacja, parametry, utrzymanie map)?
Hipotezy (H)
H1: w stabilnych warunkach (tekstura + poprawna kalibracja) PyCuVSLAM osiągnie błąd rzędu kilku metrów
H2: największym ryzykiem degradacji będą synchronizacja, błędy kalibracji i zmienne oświetlenie.
H3: multi-camera / więcej obserwacji sceny poprawi odporność w “trudnych” fragmentach hali.
3. Zakres testów offline (przed testami w hali)
Celem testów (offline) jest:
przeanalizowanie dokumentacji PyCuVSLAM oraz dostępnych przykładów użycia,
identyfiacja wymagań sprzętowych i programowych biblioteki, w szczególności:
wymagania dotyczące GPU (CUDA),
wersje systemu operacyjnego, sterowników oraz bibliotek (np. CUDA, cuDNN),
wymagania dotyczące kamer i formatów danych wejściowych,
przygotowanie środowiska uruchomieniowego na platformie NVIDIA Jetson Orin,
przeprowadzenie portowania i konfiguracji PyCuVSLAM na docelowym hardware,
pmplementacja pipeline’u odtwarzania danych,
szybka weryfikacja, czy PyCuVSLAM działa stabilnie na danych z wózka (bez ryzyka i kosztów hali),
wyłapanie “wąskich gardeł” integracyjnych (kalibracja, synchronizacja, parametry),
przygotowanie rekomendowanych konfiguracji (kamery/ustawienia) i scenariuszy na halę.
Dane wejściowe (dostarczane przez TSafety)
TSafety dostarczy zestaw nagrań z wózka widłowego obejmujący:
strumienie wideo z kamer (mono lub stereo; opcjonalnie multi-camera),
metadane czasowe (timestampy), jeśli są dostępne,
informacje o konfiguracji (FPS, rozdzielczość, ekspozycja, FOV),
jeśli możliwe: dodatkowe sygnały pomocnicze (np. IMU, enkodery, log prędkości) – nawet jeśli PyCuVSLAM ich nie wykorzystuje, są przydatne do analizy i “ground-truth”.
3.1 Zadanie: Odtwarzanie danych i uruchomienie PyCuVSLAM w trybie zbliżonym do rzeczywistego
Celem zadania jest przygotowanie kompletnego pipeline’u przetwarzania danych, który umożliwi uruchomienie algorytmu PyCuVSLAM w warunkach możliwie zbliżonych do pracy w czasie rzeczywistym, mimo że wykorzystywane będą dane wcześniej zarejestrowane.
Studenci przystąpią do zaprojektowania i implementacji systemu, który odtwarza zapisane dane sensoryczne (wideo / obrazy / dane IMU, jeśli dostępne) w taki sposób, aby symulować ich napływ „na żywo”, z zachowaniem oryginalnej częstotliwości próbkowania oraz kolejności czasowej.
3.1.1 Zakres realizacji zadania
I. Przygotowanie danych wejściowych.
wykorzystanie wcześniej zarejestrowanych sekwencji video lub zestawów obrazów z kamer (monocularnych lub stereo),
zapewnienie poprawnego formatu danych zgodnego z wymaganiami PyCuVSLAM,
uwzględnienie kalibracji kamer (parametry wewnętrzne i, jeśli dotyczy, zewnętrzne).
II. Zaimplementowanie mechanizów odtwarzania danych.
a) stworzenie modułu odczytu danych z dysku, który:
publikuje kolejne klatki obrazu w zadanym interwale czasowym,
symuluje rzeczywiste opóźnienia (np. 30 FPS, 10 FPS),
umożliwia zatrzymanie, wznowienie oraz restart sekwencji,
zadba o synchronizację czasową danych (jeśli używane są dodatkowe sensory).
III. Integracja z PyCuVSLAM
uruchomienie PyCuVSLAM w trybie przetwarzania strumieniowego,
przekazywanie danyuch do algorytmu dokładnie tak, jak miałyby one pochodzić z kamery zamontowanej na pojeździe,
zapewnienie ciągłość przetwarzania oraz obsługę potencjalnych opóźnień obliczeniowych.
IV. Monitoring działania systemu
rejestrowanie estymowanej pozycji i orientacji w czasie,
zapisywanie przebiegu trajektorii oraz mapy środowiska,
monitorowanie wykorzystania zasobów obliczeniowych (CPU/GPU) i opóźnienia pipeline’u.
3.2 Efekt końcowy
Po zakończeniu zadania studenci powinni dysponować:
działającym pipeline’em umożliwiającym realistyczne testowanie PyCuVSLAM bez fizycznego robota lub wózka,
możliwością powtarzalnych eksperymentów na tych samych danych,
podstawą do dalszych analiz jakości lokalizacji, stabilności algorytmu oraz jego przydatności w środowisku produkcyjnym.
4. Zakres i scenariusze testowe w hali
Pętla referencyjna: przejazd po zamkniętej pętli 50–150 m.
Długi korytarz: 30–80 m z powtarzalnym tłem (regały).
Strefa refleksów: posadzka błyszcząca / światła punktowe.
Ruch dynamiczny: przejazd obok pieszych i innego wózka (bez ingerencji w bezpieczeństwo).
Manewry precyzyjne: dojazd do palety, cofanie, skręt w miejscu, podnoszenie masztu (sprawdzenie wpływu wibracji i zmian widoku).
Restart / relokacja: start z innego miejsca, sprawdzenie jak łatwo wznowić spójny układ odniesienia
5. Metodyka pomiaru “prawdy” (ground truth)
System geodezyjny.
UWB RTLS jako referencja.
markery na wybranych punktach (aruco).
6. Architektura systemu testowego
6.1 Sprzęt
Edge GPU: NVIDIA Jetson (np. Orin) lub PC z RTX (jeśli dopuszczalne). cuVSLAM jest projektowany pod real-time na Jetson.
Kamera RGB lub/i stereo (np. RealSense / ZED / inna).
Mocowanie: sztywne, odporne na wibracje (rama przy dachu kabiny / masztu, ale uwaga na zasłanianie).
6.2 Software
PyCuVSLAM (Python) + logowanie trajektorii + narzędzia ewaluacji
Alternatywnie/równolegle: ROS (opcja)
7. Metryki i ocena jakości
ATE (Absolute Trajectory Error) - błąd pozycji po dopasowaniu do GT.
RPE (Relative Pose Error) - błąd odcinkowy / dryf na segmentach.
Wydajność: FPS, opóźnienie, użycie GPU/CPU, dropped frames.
opis: https://docs.google.com/document/d/1RdwFTTjO0oZ3lt3TFJn7VQ4sbqsk6w94W6mGq3kEQkg/edit?usp=sharing
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
- Udostępnienie/sfinansowanie przez firmę niezbędnego sprzętu/oprogramowania.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vAI-Based Translation Quality Evaluator (TQE) for Document Workflows
An AI tool that ingests an original document and its translated version, automatically evaluates translation quality, and returns an overall rating plus targeted feedback. The solution will combine Natural Language Processing, LLM-based evaluation, and practical software engineering into a usable “translation QA” pipeline.
Main features:
1. Document ingestion & alignment (source vs. translation)
• Support common formats (e.g., TXT/DOCX/PDF) and extract text reliably (handle headings, lists, tables).
o Segment text into units (sentences/paragraphs) and align source-to-target segments even when lengths differ.
o Produce an “alignment view” so reviewers can trace every score back to specific parts of the documents.
2. Quality scoring with AI + transparent criteria
• Generate a multi-dimensional score, for example: Accuracy/Faithfulness, Fluency/Grammar, Terminology consistency, Style/Tone, and Formatting preservation.
o Use an LLM (with specified metrics) to compute per-segment scores and an aggregated document score.
o Require the evaluator to output short evidence-based notes (e.g., “meaning changed”, “missing sentence”, “wrong number/date”), not just a number.
3. Error detection, reporting, and improvement hints
• Detect common issues: omissions/additions, mistranslations, named entities and numbers inconsistencies, glossary violations, and untranslated fragments.
o Provide a structured report: overall grade, per-section breakdown, and a ranked list of highest-impact problems.
o Optional: allow “re-evaluate after fix” or propose corrected translations for flagged segments (clearly separated from the evaluation).
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vAnalysis and implementation of multi-source chatbot (majority in Confluence) when there are thousands of pages, no tagging, duplicated or obsolete articles
Problem statement
A chatbot connected to Confluence (thousands of pages) and other sources (Stack overflow) produces low-quality, “nonsense” answers.
Confluence content is largely untagged, inconsistent, and contains duplicates/outdated pages.
Chatbot does not detect profiles and does not adjust the level of complexity of the answers to the profile (data engineers, business users, architects)
Objectives
Propose an end-to-end architecture for a knowledge chatbot that is grounded in sources and avoids hallucinations. Technology that works the best with non cloud Confluence and thousands of articles.
Define a practical content preparation strategy that works - include main recommendation and minimal actions that could improve the quality of provided answers
Deliver actionable recommendations: “what to fix first” and expected impact.
Provide an evaluation framework and test plan that can be executed on synthetic/redacted data.
Assumptions and constraints
No access to production Confluence pages for students.
Available technologies are related to the Open AI and Copilot
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vAplikacja/ Strona do zapisów na konferencje dla studentów
Problem to solveWhen we organize an event for all students from Wroclaw (different universities) – we don’t have a dedicated website/ application for that. We would like to have one place where we can add all the information:Main information:- Overview of the event: purpose, description, mission- Agenda- Venue – information about location (main event) and watch parties- Q&A about the eventSpeakers: - Speakers profiles – with photos, short description - Possibility to contact with a Speaker? (e.g. e-mail, link to LinkedIn profile)Materials – treasures for people who downloaded the app: - Materials from previous events - Job offers from Volvo Group (from tech)Contact with speakers and attendees: - Feedback after the session (simple without many questions) with question what they would like to hear about in the next event - Information about mentorship opportunitiesSign-up possibility - Students can sign up for the event on this website – a short form with basic required information (name, surname, email address). - There should also be an admin panel to check how many people are signed up and who exactly. Possibility to send an email/ notification to all registered people Technology stack:* backend: C#, .NET, Azure,* frontend: Typescript, React
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vApplication for automated sensitivity classification for documents or data
Project goal:- Build and pilot an application (online or offline) that automatically classifies documents/data into: Open, Internal, Confidential, Strictly Confidential- Additionally, the application must flag whether the document/data contains personal information by setting: “contains personal information” Functional scope (MVP):- Automatic sensitivity classification based on document/data content- Personal Information detection and flagging- Supported input formats (to be confirmed; minimum proposal):- - Office documents: DOCX, PPTX, XLSX, PDF, TXT- - Data: JSON- Operating modes:- - online (service/assistant) or offline (local tool)- - delivered either as an Office plugin or a dedicated Assistant (final choice to be confirmed during Discovery).- Expected Output:- - Classification level + Personal Information flag- Explainability (e.g., which rules/sections contributed to the decision) Proposed Tasks:1. Exploration of the solution design and possible technologies- decide on classification approach:- - rule-based (keyword dictionaries/regex + Personal Information detectors)- - ML/LLM (contextual classification)- - hybrid (deterministic Personal Information flagging and hybrid sensitivity scoring)- defining architecture, security, audit/logging, integration points.2. MVP implementation- pipeline design and implementation (proposal: text extraction -> Personal Information detection -> sensitivity classification -> result + metadata- basic UI/UX3. Testing and calibration- Prepare reference set of sanitized documents and data to measure quality.- - Personal Information detection- - classification vs expected labels4. Possible applications- Office Plugin- Online Application- Offline Application Deliverables:- Requirements clarification document (scope, assumptions, constraints)- Architecture/design document (including data flow)- MVP tool (with the agreed input formats and output)- Documentation (user guide + operational notes if online)- Pilot report (quality metrics, findings, recommendations)
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vAuto-Analysis of Message Center announcements for Power Platform
The system automatically monitors all Microsoft 365 Message Center announcements that relate to the Power Platform and its components (Power Apps, Power Automate, Dataverse, Copilot for Power Platform, etc.).
Whenever a new applicable announcement appears, it goes through an automated analysis process. The results of this analysis are stored in an internal “repository” (e.g., database, SharePoint list, or similar tracking system).
Goal:
The goal of this initiative is to ensure proactive, consistent, and efficient handling of all Microsoft Message Center (MC) announcements related to the Power Platform. By automating the analysis and classification of these announcements, the organization can reduce manual workload, detect impactful changes earlier, ensure timely communication, and maintain an up-to-date knowledge repository. This contributes to improved platform stability, compliance, and operational readiness.
Scope of work:
Included in Scope:
- Automatic retrieval of all MC announcements related to Power Platform and its components.
- Automated classification based on category, priority, and impact.
- Automated workflows for planned maintenance, routine updates, and unclear messages.
- Creation and maintenance of a structured repository.
- Automated stakeholder communication when needed.
- Monitoring services such as Power Apps, Power Automate, Microsoft Copilot (Power Platform), Microsoft Dataverse, and overall, Power Platform.
- Use of Power Platform and AI/GenAI capabilities to automate classification and summarization.
Out of Scope:
- Manual investigation of complex or ambiguous MC messages (triggered, not executed automatically).
- Handling announcements unrelated to Power Platform.
- Full lifecycle management of business-critical changes.
- Automatic remediation of issues caused by updates.
- Monitoring of non-Microsoft services.
Detailed Process Description:
1. Automated Collection & Pre-Processing:
- Retrieval of all relevant MC announcements and extraction of metadata.
2. Automated Classification:
- Category: maintenance, new feature, breaking change, etc.
- Priority: urgency and impact-based.
- Impact level across solutions and environments.
3. Automated Actions:
A. Planned Maintenance:
- Automatic notifications to solution owners and Tenant Admins.
- Repository entry updated and closed.
B. Regular Service Updates:
- Automatic closure with analysis saved.
C. Unclear or High-Impact Announcements:
- Automated GenAI summary created.
- Administrators alerted for review.
- Item remains open until resolved.
4. Repository Storage:
- All items stored with full history, analysis, actions taken, and status.
Technology and tools to be utilized:
The technology stack involves Power Platform components, including AI and generative AI capabilities:
• Power Automate (Or Agent flows)
• AI Builder
• MS Copilot Studio (Optional)
If needed, the process can integrate signals from other Microsoft services.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vCreate application for leads process
Initiative Definition & Evaluation Application (IDEA)
1. Project Overview
The Initiative Definition & Evaluation Application (IDEA) application is one of the first pillars of the Leads Process structure. It is a centralized intake and qualification solution designed to standardize how requests ("leads") are submitted, verified, and tracked. IDEA introduces a single, structured request form that captures all essential information required to open and assess a project, reducing ambiguity, manual follow-ups, and unnecessary meetings.
The application acts as a front gate to the initiative lifecycle, ensuring that only well-defined, compliant, and value-driven initiatives enter discovery and subsequent delivery phases.
2. Problem Statement & Background
Currently, requests are often initiated through various channels (e-mails, meetings, chats, etc.), leading to:
* Incomplete or inconsistent requirements,
* Repeated clarification meetings,
* Delays in discovery and implementation phases,
* Limited transparency of needs and workload,
* Difficulty measuring lead flow and performance.
IDEA addresses these challenges by enforcing structured data collection, early verification, and real-time visibility into the leads pipeline.
3. Project Objectives
Primary Objectives
* Create a single-entry point for all lead requests,
* Ensure complete and high-quality requirements at submission period,
* Enable early verification (e.g. DPO verification or governance checks),
* Provide end-to-end visibility of incoming leads.
Secondary Objectives
* Reduce time-to-discovery,
* Minimize coordination and meetings,
* Enable data-driven prioritization and planning,
* Support cost-efficient resource utilization.
4. Scope
In Scope
* Design and implementation of application IDEA,
* Definition of mandatory and optional input fields,
* Submission workflow and routing to responsible verifiers,
* Lead status tracking,
* Data model for reporting,
* PowerBI Leads Dashboard for KPIs and insights.
5. Structure & Required Fields
The IDEA application is designed to capture all minimum information required to initiate an initiative.
Core Identification
* Initiative title
* Organization
Business Context
* Initiative background
* Business challenge
Scope & Requirements
* High-level scope
* Basic requirements (functional / non-functional)
* Assumptions, constraints, risks
Planning Inputs
* High-level time-plan / target dates
* Active WBS for Discovery Phase
Governance & Contacts
* SPOC
* Business Owner
* Involved Stakeholders / Key Users / SMEs
6. Process Flow Draft
Step 1 -Open IDEA
Requestor accesses the application.
Step 2 - Complete Request
Requestor fills in all required fields. Smart validation ensures completeness and clarity before submission.
Step 3 - Submit Request
Upon clicking Send , the lead is registered in the system/list.
Step 4 -Verification
The request is automatically routed to the responsible verifier for:
* Validation of compliance with applicable regulations,
* Assignment of the responsible DPO or dedicated team,
* Assessment of data protection relevance and impact,
* Formal decision: approval or rejection of the request.
* Additional space for more clarification needed, etc.
Step 5 - Lead Status Assignment
Post-verification, the lead receives a status such as (to be verified):
* Submitted
* Under Review
* Assigned
* Approved - Discovery Phase
* Ongoing - Implementation Phase
* Rejected / Needs Clarification
Step 6 - Visibility & Reporting
All leads are stored in a structured dataset feeding the Lead Dashboard.
7. Lead Dashboard
A dedicated Lead Dashboard provides transparency and insights. Could be provided in PowerBI solution or anything similar. It is a transparent view of the IDEA as a base.
KPIs
* Total number of submitted leads
* Lead throughput (e.g. quarterly)
* Average lead time (e.g. Submission --> Approval --> Discovery)
* Average time to request completeness
* Leads by Organization
* Leads by responsible DPO / team
* Any other: to be verified
Value of the Dashboard
* Supports prioritization decisions
* Identifies bottlenecks
* Enables capacity planning
* Provides management-level visibility
8. Expected Outcomes
* Standardized, high-quality initiatives requests repo,
* Reduced lead intake cycle-time,
* More effective clarification and requirements gathering sessions,
* Improved transparency of the needs,
* Data-driven decision-making.
9. Given Values
For Business
* Less meetings = more clarity,
* Faster initiation of valuable initiatives,
* Predictable and transparent request handling,
* Better prioritization and cost awareness.
For Team
* Clearer requirements backlog,
* Reduced re-work and interruptions,
* Improved planning accuracy,
* Ability to focus effort where it matters most.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vCreating workflow application using AI-powered spec-driven development (SDD) technologies
Spec-driven development (SDD), czyli rozwój oprogramowania sterowany specyfikacją, to nowoczesna metodologia pracy, która zyskała na znaczeniu w 2025 roku wraz z popularyzacją agentów AI (takich jak GitHub Copilot).
W tym podejściu to specyfikacja, a nie kod, staje się głównym artefaktem i „źródłem prawdy” projektu. Zamiast pisać kod ręcznie lub prosić AI o generowanie fragmentów na podstawie luźnych instrukcji (tzw. vibe coding), programista tworzy szczegółową, ustrukturyzowaną dokumentację, którą agenci AI przekształcają w działające oprogramowanie.
Jako student posiadający darmowy dostęp do GitHub Copilot w 2026 roku, możesz korzystać z frameworka Tessl, aby tworzyć aplikacje w oparciu o specyfikacje.
Oto jak te technologie współpracują ze sobą w praktyce:
1. Claude Sonnet 4.5 w GitHub Copilot
W 2026 roku studenci otrzymują darmowy plan Copilot Pro, który obejmuje dostęp do zaawansowanych modeli innych firm, w tym Claude Sonnet 4.5.
Możesz wybrać ten model w oknie czatu (model picker) w swoim edytorze kodu (np. VS Code).
Sonnet 4.5 jest uznawany za jeden z najlepszych modeli do zadań agentowych i programowania opartego na logice.
2. Wykorzystanie frameworka Tessl
Tessl to platforma do tworzenia oprogramowania typu „AI-native”, która promuje podejście Spec-Driven Development (SDD).
Tworzenie przez specyfikację: Zamiast pisać kod linijka po linijce, tworzysz pliki specyfikacji (specs) w języku naturalnym lub ustrukturyzowanym formacie.
Rola Claude Sonnet 4.5: Framework Tessl wykorzystuje „agenty” do interpretacji tych specyfikacji. Model Sonnet 4.5 (dostępny przez Copilota) dobrze radzi sobie z tym zadaniem, zamieniając Twoje wymagania na gotowy, przetestowany kod.
Zadanie polega na :
- skonfigurowaniu środowiska opartego o wyżej wymienione technologie
- przygotowaniu specyfikacji i wygenerowaniu prostej aplikacji typu workflow bazującej na aktualnej wersji Angular w oparciu o dostarczone wymagania.
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
(brak)
vMeeting Action Orchestrator (bez AI/LLM)
1. Opis ogólny
Meeting Action Orchestrator to aplikacja osadzona w ekosystemie Microsoft 365, której celem jest automatyzacja follow upów po spotkaniach, ale w sposób deterministyczny — bez użycia jakichkolwiek modeli AI lub funkcji generatywnych.
System ma pobierać szczegóły wybranego spotkania z kalendarza, umożliwić użytkownikowi wygodne stworzenie notatek (Minutes) według struktury:
• Decisions (podjęte decyzje)
• Actions / Tasks (zadania)
• Risks / Issues (ryzyka/problemy)
…a następnie utworzyć konkretne zadania w Plannerze lub To Do, zapisać Minutes w SharePoint oraz (opcjonalnie) przesłać podsumowanie na wskazany kanał Teams.
To jest projekt czysto inżynierski: integracje, formularze, przepływy, reguły, architektura, uprawnienia, API, brak czarnej skrzynki.
2. Cele projektu
Cele techniczne
• Poznanie Microsoft Graph API (głównie: Events, Users, Planner, ToDo, SharePoint, Teams).
• Zbudowanie aplikacji M365 z pełną ścieżką: Auth → API → logika → zapis → powiadomienia.
• Praktyka w projektowaniu integracji i obsługi uprawnień OAuth 2.0 / Microsoft Entra ID.
• Praktyka w tworzeniu przewidywalnych automatyzacji (bez AI).
Cele biznesowe
• Zmniejszenie czasochłonności follow upów po spotkaniach.
• Ustandaryzowanie notatek i zadań projektowych.
• Poprawa komunikacji między członkami zespołu.
3. Funkcjonalności
3.1 Core (obowiązkowe)
1. Wybór spotkania z kalendarza
• Użytkownik loguje się (OAuth + Graph delegated permissions).
• System pobiera listę spotkań przyszłych i minionych (np. z 7 dni).
• Użytkownik wybiera jedno spotkanie.
• Pobierani są:
o uczestnicy,
o organizator,
o data/czas,
o agenda (jeśli istnieje),
o link do spotkania,
o lokalizacja / online.
2. Formularz „Minutes”
Formularz zawiera 3 sekcje:
• Decisions – lista stringów.
• Actions – każde zadanie zawiera:
o opis,
o osoba przypisana (z listy uczestników),
o termin realizacji,
o priorytet (Low/Normal/High).
• Risks – tekst + opcjonalnie właściciel ryzyka.
Formularz może być:
• panel webowy (React/Angular/Vue),
• lub panel w Teams (tab app).
3. Zapis Minutes do SharePoint
System zapisuje Minutes jako:
• JSON w bibliotece „Meeting Minutes”,
•
o generuje PDF/HTML (opcjonalnie)
•
o nadaje nazwę:
Minutes_<yyyy-MM-dd>_<MeetingSubject>.json/pdf.
4. Automatyczne tworzenie zadań
Jedno kliknięcie:
„Create tasks in Planner/To Do”.
System tworzy zadania na podstawie sekcji Actions:
• opis = opis akcji,
• przypisana osoba = wyciągnięta z uczestników,
• dueDate = z formularza,
• ewentualnie bucket = „Meeting Actions”.
System zwraca linki do zadań.
3.2 Advanced (opcjonalne)
1. Szablony notatek
• Student może dodać listę predefiniowanych układów Minutes, np.:
o Scrum Retro,
o Risk Review,
o Arch Meeting,
o Steering Committee Notes.
• Szablony są przechowywane w SharePoint (lista „Minutes Templates”).
2. Podsumowanie w Teams
Po zapisaniu Minutes:
• wysyłana jest Adaptive Card na wybrany kanał Teams,
• karta zawiera:
o nazwę spotkania,
o organizatora,
o decyzje,
o liczbę zadań,
o przyciski:
„Open Minutes”
„Open Planner Tasks”
Dodatkowo można wrzucić załącznik (PDF).
3.3 Ultra (opcjonalne dla chętnych)
1. Reguły priorytetów
Prosty engine if/else, np.:
• jeśli akcja zawiera tag [RFC] → due date = +3 dni,
• jeśli zawiera [BLOCKER] → priorytet = High,
• jeśli zawiera [RISK] → przenieś do sekcji Risk.
2. Słowniki / tagi (Term Store)
Student dodaje:
• własne taxonomie,
• np. ProjectType, MeetingType, DecisionType.
W Minutes można wymusić, aby decyzja miała przynajmniej 1 tag.
3. „Nudge” przed kolejnym spotkaniem
System wykrywa, że:
• istnieją otwarte zadania z poprzedniego spotkania,
• oraz zbliża się następne spotkanie z identycznym tytułem lub cykliczne.
Wysyła wtedy przypomnienie:
• Adaptive Card w Teams,
• lub e-mail z listą niedokończonych zadań.
4. Architektura systemu
4.1 Komponenty
• Frontend (SPA lub Teams Tab App)
UI dla wyboru spotkań, wypełniania Minutes i uruchamiania tasków.
• Backend API
obsługuje:
o OAuth,
o Połączenia z Graph,
o Tworzenie plików,
o Tworzenie Planner tasks,
o Logikę reguł,
o Zapis do SharePoint.
• SharePoint
o Biblioteka Meeting Minutes (PDF/JSON),
o Lista Minutes Templates (opcjonalnie),
o Term Store (opcjonalnie).
• Planner / To Do
Zapisy zadań.
• Teams (opcjonalnie)
Adaptive Cards dla powiadomień.
4.2 Diagram logiczny (opis tekstowy)
1. Użytkownik loguje się → API pobiera token.
2. Front pobiera listę spotkań → GET /me/events.
3. Użytkownik wybiera spotkanie → API pobiera szczegóły.
4. Wypełnia Minutes → Front wysyła JSON do backendu.
5. Backend:
o zapisuje Minutes → SharePoint,
o generuje zadania → Planner/ToDo,
o generuje podsumowanie → Teams (opcjonalnie),
o zwraca linki i status.
5. Wykorzystane API Graph
Kalendarz
• GET /me/events
• GET /me/events/{id}
Planner
• POST /planner/tasks
• POST /planner/plans/{id}/tasks
To Do
• POST /me/todo/lists/{id}/tasks
SharePoint
• POST /sites/{id}/drive/items/root:/Minutes/...:/content
• GET /sites/{id}/lists/{id} (szablony)
Teams
• POST /teams/{id}/channels/{id}/messages
• adaptacyjne karty: @microsoft/teamsfx, adaptivecards.io
6. Wymagania niefunkcjonalne
• Autoryzacja: OAuth 2.0 + PKCE, delegated permissions.
• Przechowywanie sekretów: Key Vault lub plik user secret (dev).
• Obsługa błędów: retry, timeouts, logowanie.
• Telemetria: App Insights (darmowy tier ok).
• Dostępność: min. przeglądarka + Teams.
• Testy:
o jednostkowe (logika Minutes, reguły),
o integracyjne (Graph mock lub integration tokens).
7. Kryteria ukończenia
Minimalne (Core)
• można wybrać spotkanie,
• można utworzyć Minutes,
• Minutes zapisuje się na SharePoint,
• tworzone są zadania w Planner/ToDo,
• aplikacja działa z autentycznym tokenem użytkownika.
Dobry projekt (Core + Advanced)
• istnieją szablony Minutes,
• jest podsumowanie wysyłane na Teams,
• UI jest przyjazne i logiczne.
Świetny projekt (Core + Advanced + Ultra)
• działają reguły priorytetów,
• istnieją tagi i walidacje,
• działa system Nudge przed kolejnym spotkaniem,
• projekt jest solidnie przetestowany i udokumentowany.
8. Backlog przykładowy (do wrzucenia jako GitHub Issues)
Sprint 1
• Rejestracja aplikacji w Entra ID
• Implementacja OAuth + pobranie access_token
• Wylistowanie spotkań użytkownika
Sprint 2
• Pobieranie szczegółów spotkania
• UI do edycji Minutes (Decisions/Actions/Risks)
• Zapis Minutes do SharePoint
Sprint 3
• Tworzenie zadań Planner/ToDo
• Pokazywanie linków w UI
Sprint 4 (opcjonalnie)
• Szablony Minutes
• Adaptive Card Summary
Sprint 5 (ultra)
• Reguły priorytetów
• Nudge dla zadań
• Taxonomie/Term Store
9. Co student musi oddać
• Repo z kodem
• README (uruchomienie, konfiguracja, scopes)
• Diagram architektury
• Zrzuty ekranu lub film (5 min)
• Plik security.md (scopes, przepływy danych)
• Przykładowe Minutes + wygenerowane zadania
10. Podsumowanie
Ten projekt łączy:
✔ praktyczne użycie Graph,
✔ czyste automatyzacje M365,
✔ architekturę i struktury danych,
✔ UI + integracje + logikę biznesową,
❌ zero AI, zero kosztów.
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vMicrosoft Release plans Auto-Analysis
Goal:Deliver a reliable, automated capability that continuously monitors Microsoft Power Platform Release Plans, classifies every update by impact and priority, and triggers the right operational actions, so that tenant admins and product owners can respond faster, reduce risk, and capture opportunities from new/changed features.Key outcomes• Early visibility of material changes (e.g., AI features, breaking changes, deprecations) with targeted notifications to the Power Platform Tenant Administrator and relevant stakeholders.• Single source of truth (“repository”) capturing each plan item, version diffs, impact/priority scores, and audit trail.• Actionable workflows to update items, summarize changes, and (optionally) create tasks for review or mitigation.Scope of the work:Included in the scope: • Coverage of Power Platform sections in Microsoft Release Plans: Power Apps, Power Pages, Power Automate, Microsoft Copilot Studio, AI Builder, Microsoft Dataverse, Governance & Administration, and Pro Development.• Automated ingestion of plan items and updates, including change detection (content edits, status changes, date shifts).• Automated analysis & classification (category, change type, impact, priority, AI relevance, “breaking change” flag).• Repository persistence of the analyzed results, including version history and change logs.• Automated actions, such as:o Update repository items with a summary of changes whenever Microsoft edits a plan item.o Notify the Power Platform Tenant Administrator on major/specific changes (AI features, significant product functionality updates).• Dashboards & reports (trend of changes per product area, lead time to review, open actions by priority). time to review, open actions by priority).• Optional: task creation in Azure DevOps/Planner and Teams adaptive card notifications. card notifications.Out of scope:• Automated remediation in production environments.• Non-Power Platform product families beyond what you listed. Power Platform product families beyond what you listed.• Licensing automation or budget approval workflows.• Parsing of non public or paywalled sources.Detailed Process Description:1. Ingestion & Change Detectiono Scheduled retrieval of Release Plan content (Power Platform sections).o Diff engine to detect additions/edits/status changes.2. Analysis & Classificationo Natural language summarization and classification (e.g., New/GA/Preview/Deprecation/Security/Breaking). language summarization and classification (e.g., New/GA/Preview/Deprecation/Security/Breaking).o Impact & priority scoring; AI feature tagging; risk flags. feature tagging; risk flags.3. Repository (Dataverse recommended)o Tables for Feature Items, Change Logs, Classifications, Notifications, Subscriptions.4. Action Orchestration (Power Automate)o Update repository items + generate change summaries.o Notify Tenant Admin and subscribed owners for Major/Special updates.o Optional: Create review tasks in ADO/Planner; send Teams Adaptive Cards.5. Experience Layero Power Apps admin console for search/review/override.o Power BI dashboards for trend & SLA tracking.o Copilot Studio assistant to “ask” about upcoming changes.6. Governance & Securityo Role based access to tables and flows, audit history, and data retention. based access to tables and flows, audit history, data retention.Technology and tools to be utilized: The technology stack involves Power Platform components, including AI and generative AI capabilities: • Power Automate • Dataverse • AI Builder • Power Apps • Power BI • MS Copilot StudioIf needed, the process can integrate signals from other Microsoft services (e.g., SharePoint, Azure DevOps or Teams).
Support offered by company:
- Consultations by an employee of the company.
- Supervision over the project by an employee of the company.
- Participation of a company employee in project meetings.
Accepted group size: 3 people, 4 people
Acceptable project language: English, Polish
Available groups: 1/1
Additional remarks:
(none)
vRozbudowa aplikacji "Technik w Terenie" – systemu klasy Field Service Management (FSM)
Technik w Terenie (https://technik-w-terenie.pl/) to istniejące, działające komercyjnie oprogramowanie dedykowane firmom serwisowym, instalacyjnym i technicznym. System pozwala na efektywne zarządzanie pracownikami mobilnymi, zlecanie zadań oraz monitorowanie postępów prac w czasie rzeczywistym.
W dobie cyfryzacji, firmy serwisowe odchodzą od papierowych protokołów na rzecz aplikacji mobilnych i webowych. Nasz projekt ma na celu wprowadzenie platformy na wyższy poziom poprzez dodanie zaawansowanych funkcji analitycznych, logistycznych i operacyjnych, które bezpośrednio przekładają się na realną wartość biznesową.
Głównym założeniem jest rozbudowa obecnej architektury o moduły wspierające optymalizację pracy i automatyzację oraz przygotowujące aplikację do wejścia na rynki zagraniczne.
Bardzo duży nacisk położony będzie na poprawę doświadczeń użytkownika (UX) zarówno dla koordynatorów w biurze, jak i techników w terenie (stąd w zespołach po stronie FE mile widziane będą osoby z doświadczeniem w projektowaniu użytecznych i czytelnych interfejsów użytkownika, a od strony BE doświadczone w pracy nad systemami o dużej skalowalności oraz z mocnym naciskiem na bezpieczeństwo projektowanych rozwiązań).
Zakładamy, że w ramach projektu wdrożymy jedno lub kilka funkcjonalności takich jak:
- Kartoteka klienta (CRM) z pełną historią interakcji i zleceń.
- Obsługa zadań wielodniowych oraz zadań cyklicznych
- Zarządzanie godzinami pracy oraz niedostępnością pracowników (urlopy, zwolnienia)
- Nowe typy widoków - listy, kalendarza
- Rozbudowana "Karta zadania" i obsługa wielu typów załączników (zdjęcia, PDF, dokumenty)
- Elektroniczne protokoły odbioru
- Automatyczne przypomnienia o wizycie
- Timeline z wizualizacją czasów dojazdów do klienta
- Multi-języczność aplikacji
Wszystkie wykonywane prace będą wymagały graficznego zaprojektowania zmian na FE, po akceptacji których prowadzone będą prace developerskie.
Aplikacja posiada nowoczesny stack technologiczny, co gwarantuje zdobycie komercyjnie cenionego doświadczenia:
- Frontend: JavaScript, React
- Backend: TypeScript, Node.js, Express.js.
- Baza danych: MongoDB
- Inne: REST API
Dlaczego warto wybrać ten projekt?
1. Realny produkt (Production-Ready): Nie budujecie projektu "do szuflady". Wasz kod może stać się częścią narzędzia używanego przez realne firmy i setki pracowników. To ogromny atut w CV.
2. Kompleksowość: Projekt dotyka wielu aspektów inżynierii oprogramowania – od skomplikowanej logiki biznesowej na backendzie, po zaawansowaną wizualizację danych na frontendzie.
3. Elastyczność współpracy: Zapraszamy grupy Full-stackowe, ale jesteśmy otwarci na współpracę dwóch wyspecjalizowanych grup (np. jedna FE, druga BE).
4. Wsparcie merytoryczne: Pracujecie na bazie istniejącego, działającego systemu, co eliminuje problem "czystej kartki" i pozwala skupić się na dostarczaniu konkretnych funkcjonalności.
Dołącz do projektu "Technik w Terenie" i stwórz z nami przyszłość zarządzania usługami terenowymi!
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby, 5 osób, 6 osób
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 2/2
Dodatkowe uwagi:
Realizacja tematu będzie wiązać się z wymogiem przekazania majątkowych praw autorskich i podpisania umowy o zachowaniu poufności (NDA)
vAgileLens - Gives the sense of “seeing Agile clearly”
Zespoły programistyczne korzystające z metodologii Agile często zmagają się z rozproszonym raportowaniem i brakiem jasności co do postępów prac. Narzędzia takie jak Azure DevOps zazwyczaj oferują jedynie podstawowe widżety oraz raporty, które nie posiadają funkcji interaktywnych ani możliwości zaawansowanej personalizacji.
Rozwiązaniem tego problemu jest stworzenie własnych intuicyjnych rozwiązań typu dashboardy/rozszerzenia, zaprojektowanych tak, aby dostarczać informacje o metrykach wydajności zespołów SCRUM i SAFe oraz wypełniać lukę poprzez dostarczenie czytelnych i łatwo konfigurowalnych wizualizacji, pomagających zespołom w inspekcji, adaptacji i ciągłym doskonaleniu.
Kluczowa funkcjonalność:
- obliczanie kluczowych metryk
- możliwość agregowania i filtrowania metryk/danych
- interaktywna wizualizacja KPI związanych z zespołami SCRUM / SAFe w czasie rzeczywistym
- konfigurowalne wykresy i widżety
- skalowalność dla wielu zespołów
- integracja z Azure DevOps
Wykorzystywane technologie: Angular/TypeScript, .NET/C#, REST API, MS SQL, Azure Cloud
Projekt wymaga podstawowej wiedzy z programowania w C#.
-------------------------------------------------------------------------------------------------
Dlaczego warto wybrać ten projekt?
- możliwość zapoznania się z metodologią Agile i prowadzenia projektów w dużej międzynarodowej firmie
- możliwość zapoznania się z nowoczesnymi technologiami i ich wykorzystaniu przy budowie platformy Industry 4.0
- możliwość tworzenia innowacyjnego projektu od podstaw ze wsparciem doświadczonych specjalistów
Planowane formy współpracy:
- Konsultacje merytoryczne ze strony pracownika firmy.
- Nadzór merytoryczny pracownika firmy nad całością lub fragmentami projektu.
- Udział pracownika firmy w spotkaniach projektowych.
Akceptowana wielkość grupy: 3 osoby, 4 osoby
Dopuszczalny język projektu: angielski, polski
Dostępna liczba grup: 1/1
Dodatkowe uwagi:
Projekt wymaga podpisania umowy o zachowaniu poufności
Projekt wymaga przekazania praw autorskich
Ostatnia aktualizacja: 2026-02-10T16:33:42.406412+01:00
