W dniu 27.06.2015 odbyło się V Seminarium Naukowe „Inżynierskie zastosowania technologii informatycznych”.
Organizatorzy:
• Net-art R&D
• Lubelski Inkubator Technologii Informatycznych
• Katedra Informatyki WSPA
• Zaoczne Studium Doktoranckie Instytutu Elektrotechniki w Warszawie
Miejsce:
Lubelski Inkubator Technologii Informatycznych, Lublin, ul. Związkowa 26
Agenda:
1. Jan Sikora: Analiza obszarów z niejednorodnością ciągłą metodą elementów brzegowych
W referacie porównano metodę elementów skończonych i metodę elementów brzegowych do analizy obszarów z niejednorodnością ciągłą. W literaturze przedmiotu wymieniane są trzy sposoby traktowania niejednorodności materiałowej w MEB: Modyfikacja funkcji Greena, Transformacja zmiennych, Liczenie całek obszarowych (co burzy samą ideę MEB).
2. Przemysław Adamkiewicz: Hybrydowy system lokalizacji wewnątrz budynków
W prezentacji została przedstawiona idea systemu nawigacji i lokalizacji wewnątrz budynków. Nawigacja satelitarna (GPS) w dzisiejszych czasach odgrywa znaczącą rolę, jednak technologia ta posiada swoje ograniczenia. Głównym ograniczeniem nawigacji (GPS) jest brak możliwości określenia pozycji w zamkniętych budynkach (galerie handlowe, lotniska, budynki użyteczności publicznej). Proponowane w projekcie rozwiązanie będzie umożliwiało określenie pozycji człowieka z niespotykaną dokładnością. Działanie takich systemów się w głównej mierze na sygnałach Bluetooth 4.0 LowEnergy zgodnie ze standardem Beacon. Jednocześnie hybrydowy inteligentny system może ustalać pozycję wykorzystując liczne źródła sygnału WiFi oraz dane dostarczone przez sensory obecne w smartphonach (żyroskop, akcelerometr, magnetometr).
3. Tomasz Rymarczyk: Prototyp aplikacji e-Medicus opartej na funkcjach zbiorów poziomicowych oraz algorytmach inteligencji obliczeniowej
Analiza zdjęć radiologicznych polega na ich obróbce, identyfikacji obrazów oraz segmentacji. Dzięki czemu możliwe jest śledzenie zmian stanu pacjenta w czasie, a sam proces analizy zdjęcia można zautomatyzować. Rozwiązania informatyczne w dziedzinie segmentacji obrazów oparto na algorytmach inteligencji obliczeniowej, odpowiednich modelach i teoriach matematycznych. Rejestracja i analiza obrazów medycznych pozwala na identyfikację zmian medycznych oraz prowadzenia odpowiedniej klasyfikacji danych.
4. Karol Duda: Sterowanie pomiarem pojemności – LabView
Prezentacja obejmuje przedstawienie postępu prac związanych z Elektryczną Tomografią Pojemnościową. Treść prezentacji skupia się na realizacji sterowania pomiarami i akwizycją pomiaru przez program wykonany w środowisku LabView. Przedstawione zostały algorytmy aplikacji płytki ewaluacyjnej przetwornika pojemność-cyfra firmy Analog Devices AD7746 oraz algorytmy stworzonego programu sterującego przełączaniem elektrod pomiarowych i akwizycją pomiaru. Zaprezentowano również wyniki zrealizowanych za pomocą wykonanego programu i dostępnych urządzeń pomiarów 16-sto elektrodowej sondy.
5. Tomasz Rymarczyk: Systemy logiki rozmytej – zastosowania
Logika rozmyta umożliwia budowę i działanie modelu, nawet jeśli wiedza leżąca u jego podstaw jest zbyt mało precyzyjna, aby można było ją odpowiednio sformalizować. Istnieje kilka sposobów wnioskowania rozmytego, które stosuje się w praktyce. Wiedza systemu zapisana jest w postaci reguł o charakterze symbolicznym, natomiast same procedury wnioskowania rozmytego działają na funkcjach przynależności zbiorów. Systemy z logika rozmytą reprezentowane są również w postaci modeli zbliżonych do sieci neuronowych. Umożliwia to łączenie sieci neuronowych i systemów rozmytych w tzw. modelowanie neuronowo – rozmyte.
6. Tomasz Rymarczyk: Algorytmy inteligencji obliczeniowej
W referacie omówiono wybrane algorytmy inteligencji obliczeniowej, takie jak sieci semantyczne, sieci Bayesa, algorytmy genetyczne i zbiory przybliżone.
Sieci semantyczne są ontologiczną metodą reprezentacji wiedzy (zbiorem obiektów powiązanych ze sobą różnymi relacjami). Aby sieci takie mogły funkcjonować konieczne wydaje się udostępnienie zarówno źródeł informacji o ściśle określonej strukturze, jak i systemów reguł, które pozwolą na automatyczne wyciąganie wniosków.
Sieci Bayesa wykorzystują teorię prawdopodobieństwa do określenia niepewności przez jawne reprezentowanie warunkowych zależności pomiędzy różnymi częściami wiedzy.
Algorytmy genetyczne są numerycznymi metodami optymalizacji, rozwiązującymi problem właściwego wyznaczenia dużej liczby parametrów systemu przy użyciu określonych operatorów generujących kolejne punkty w przestrzeni rozwiązań wykorzystując zasady analogiczne do właściwych zjawisk ewolucji i dziedziczności.
Teoria zbiorów przybliżonych polega na analizie danych „nieostrych” czyli danych dotyczących obiektów, zjawisk, których nie możemy jednoznacznie odróżnić, a możemy je tylko, na podstawie ich charakterystyk, zaklasyfikować do pewnych grup.