Działalność badawczo-rozwojowa


1. Działalność badawczo-rozwojowa

Zakres prac badawczych:
· segmentacja obrazów
· algorytmy inteligencji obliczeniowej:
- sieci neuronowych
- teorii zbiorów przybliżonych
- logiki rozmytej
· algorytmów genetycznych
· metod zbiorów poziomicowych
· sieci semantycznych,
· systemów ontologii informacji i obrazów
· agentów internetowych,
· algorytmów segmentujących,
· hurtownie baz danych,
· systemu wizualizacji,
· adaptacyjne interfejsu użytkownika.
· metody i modele eksploracji danych.
· modelowanie procesów biznesowych.

2. Algorytmy segmentacji obrazów

Metoda zbiorów poziomicowych (MZP) jest metodą umożliwiającą topologiczną zmianę kształtów figur oraz pozwalającą optymalizować wymiary i formę obiektów. Została ona przedstawiona przez  Oshera i Sethiana. Podstawową zaletą metody jest możliwość wykonywania obliczeń numerycznych związanych z krzywymi lub płaszczyznami w układzie kartezjańskim bez konieczności ich parametryzowania. W rozważaniach metody zbiorów poziomicowych uwzględniany jest pewien obszar Ω posiadający ruchomy brzeg Γ. Brzeg ten porusza się z wyznaczoną w kolejnych krokach prędkością ν, która może zależeć od pozycji, czasu, kształtu brzegu oraz warunków zewnętrznych. Idea zbiorów poziomicowych polega na zdefiniowaniu funkcji ϕ(x,t), która reprezentuje poruszający się brzeg.
Metoda zbiorów poziomicowych ze względu na swoje właściwości znajduje zastosowanie w segmentacji obrazów poprzez umiejętność wydzielenia poszczególnych obiektów oraz ich fragmentów. Ważne jest przy tym, aby segmentacja reprezentowała zamierzony poziom szczegółowości. Oddzielenie fragmentów obrazu o wspólnych cechach, pozwoliłoby określić precyzyjniej granice pomiędzy poszczególnymi tkankami i wykryć anomalie w obrębie samych tkanek. Proces komputerowej analizy obrazów rozpoczyna się na poziomie pikseli. Obraz reprezentowany jest w postaci dwuwymiarowej tablicy kolorów. Pojedynczy element tablicy odpowiada pojedynczemu pikselowi. Tablica dostarcza tylko informację o położeniu i kolorze poszczególnych punktów obrazu, natomiast nie zawiera informacji określającej, które piksele tworzą poszczególne obiekty. W celu dokonania analizy obrazu, trzeba przejść z poziomu pikseli na poziom obiektów.
Metoda zbiorów poziomicowych może segmentować obiekty obrazów otrzymane za pomocą impedancyjnej tomografii komputerowej obliczone metodami gradientowymi, jak również dokonywać wyodrębnienia poszukiwanych kształtów na obrazach wykonanych innymi metodami (np. zdjęć rentgenowskich).

a b      
     
         
c   d      
     
Segmentacja obrazu otrzymana metodą zbiorów poziomicowych.


Oryginalne obrazy i ich segmentacja po 200 iteracjach

Segmentacja obrazu otrzymana wariacyjną metodą zbiorów poziomicowyc.

3. Algorytmy inteligencji obliczeniowej

Inteligencja obliczeniowa (computational intelligence) obejmuje obecnie wiele dziedzin, które rozwinęły się bardzo szybko w ostatnich dziesięcioleciach. Inspiracje biologiczne dotyczące funkcjonowania układu nerwowego przyczyniły się do powstania sieci neuronowych, teoria ewolucji i genetyka zainspirowała powstanie algorytmów ewolucyjnych,  obserwacje etnologiczne doprowadziły do algorytmów rojowych i mrówkowych, a immunologia do powstania algorytmów wzorowanych na działaniu układu odpornościowego. Psychologia i lingwistyka przyczyniły się do powstania teorii logicznych, uwzględniających niepewność i nieprecyzyjne określenie informacji, takich jak logika rozmyta, logika przybliżona czy teoria posybilistyczna. Teorie wychodzące poza logikę dwuwartościową można określić jako „miękkie obliczeniowo”, dopuszczające stopniowanie wartości.

Algorytmy inteligencji obliczeniowej można sklasyfikować następująco:
· sieci neuronowe,
· logika rozmyta,
· algorytmy ewolucyjne,
· zbiory przybliżone,
· zmienne niepewne,
· metody probabilistyczne.

Sieci neuronowe

Zastosowanie sztucznych sieci neuronowych ma na celu uzyskanie oczekiwanego rozwiązania w bardzo krótkim czasie, praktycznie „on-line”. Metoda ta polega na wyborze odpowiedniej sieci neuronowej i zgromadzeniu danych do jej trenowania. SSN zachowują się jak układy aproksymujące i mają pewną zdolność do uogólniania informacji, którymi są uczone. W procesie uczenia sieci przygotowywane są próbki do trenowania, obejmujące całą badaną powierzchnię. Zdolność zlokalizowania obiektu w miejscu, które było użyte w procesie trenowania sieci, jest miarą zdolności sieci do zapamiętywania danych uczących. Miarą zdolności generalizacji sieci jest możliwość rozpoznawania położenia obiektu, którego sieć wcześniej nie widziała. Zwraca się tutaj szczególną uwagę na to, aby sieć neuronowa nie dopasowała się za bardzo do próbek uczących, ponieważ mogłaby wtedy stracić właściwości generalizacji rozwiązań, co zwiększałoby błędy rekonstrukcji obrazu. Z drugiej strony nie można stosować zbyt ubogiej struktury sieci, aby aproksymacja nie była zbyt pobieżna, a przez to niedokładna (zjawisko niedouczenia sieci).

Algorytmy genetyczne

Algorytmy genetyczne są programami, które w sposobie rozwiązywania problemów naśladują naturalny fenomen ewolucji. Przez długi okres wielkie populacje dokonywały naturalnej selekcji na drodze reprodukcji oraz mutacji. Idąc ich śladami, programy wykorzystujące algorytmy genetyczne tworzą populację z możliwych rozwiązań danego problemu. Następnie, przez kilkakrotne przeprowadzenie procesów przypadkowej selekcji i wariacji, stwarzane są kolejne generacje programu, z których każda charakteryzuje się zwiększeniem jakości rozwiązania. Algorytmy genetyczne sterują ewolucją rozwiązań za pomocą procesów genetycznych. W przeciwieństwie do ewolucji naturalnej, program komputerowy tworzy i ocenia tysiące generacji w kilka sekund. Zaletą algorytmów genetycznych jest zmniejszenie liczby operacji numerycznych przez eliminację obliczeń pochodnych funkcji celu oraz, co wydaje się bardziej istotne, dzięki przeszukiwaniu przestrzeni rozwiązań w różnych kierunkach możliwość znalezienia rozwiązania globalnego zagadnienia. Algorytmy genetyczne są reprezentantem probabilistycznych metod optymalizacji. Jednak, w odróżnieniu od metod typowo stochastycznych, elementy wyboru losowego stosowane są do przeszukiwania zakodowanej przestrzeni rozwiązań. Zasada działania algorytmu genetycznego polega na przeszukiwaniu pewnej populacji rozwiązań w celu znalezienia rozwiązania, które najlepiej spełnia zadane kryteria. Przydatność danego rozwiązania oceniana jest przez wartość funkcji przystosowania. Populacja rozwiązań podlega procesom ewolucji. Na każdym etapie poszczególne rozwiązania podlegają ocenie – relatywnie lepsze rozwiązania reprodukują się, natomiast rozwiązania gorsze zostają wyeliminowane.

Zbiory rozmyte

Na systemy rozmyte składają się te techniki i metody, które służą do obrazowania informacji nieprecyzyjnych, nieokreślonych bądź niekonkretnych. Pozwalają one opisywać zjawiska o charakterze wieloznacznym, których nie jest w stanie ująć teoria klasyczna i logika dwuwartościowa. Charakteryzują się tym, że wiedza jest przetwarzana w postaci symbolicznej i zapisywana w postaci rozmytych reguł. Systemy rozmyte znajdują zastosowanie tam, gdzie nie posiadamy wystarczającej wiedzy o modelu matematycznym rządzącym danym zjawiskiem oraz tam gdzie odtworzenie tegoż modelu staje się nieopłacalne lub nawet niemożliwe. Tak więc możemy je spotkać w bazach danych, sterowaniu oraz dziedzinach zajmujących się przetwarzaniem języka naturalnego. Zbiór rozmyty to obiekt matematyczny ze zdefiniowaną funkcją przynależności, która przybiera wartości z ciągłego przedziału <0, 1>. Natomiast przeciwdziedzina funkcji przynależności klasycznego zbioru ma jedynie dwie wartości {0,1}.

Zbiory przybliżone

Zbiory przybliżone są zbiorami określonymi na przestrzeni podzielonej w sposób dyskretny. Dyskretyzacja przestrzeni następuje poprzez określenie zbioru elementarnego, którego wielkość zależy od stopnia przybliżenia przestrzeni. Zbiory przybliżone mają tą ciekawą właściwość, że elementy znajdujące się w obszarze zbioru elementarne-go są między sobą nierozróżnialne i możemy o nich mówić jedynie tyle, że posiadają wartości wszystkich cech takie jak cały zbiór elementarny. Funkcja przynależności do zbioru przybliżonego przyjmuje wartości odpowiadające numerowi grupy do której dany element został przypisany 1 - gdy dany element należy do grupy 1, 2 - gdy dany element należy do grupy 2, i tak dalej, dodatkowo pojawia się tu wartość 0, która zostaje przyporządkowana do elementów niesklasyfikowanych, to znaczy takich, o których nie jesteśmy w stanie powiedzieć do której grupy należą.

Metody hybrydowe

Algorytmy hybrydowe łączą w sobie cechy różnych metod. Każda metoda ma swoje ograniczenia, natomiast łącząc kilka metod możemy wykorzystać najmocniejsze aspekty każdej z nich. Inteligentne systemy hybrydowe starają się integrować odmienne techniki sztucznej inteligencji. Powstały na bazie stwierdzenia, że metody te wzajemnie się uzupełniają, wady jednej są kompensowane zaletami innej.
Celem stosowania takich systemów jest:
· wykorzystanie całej dostępnej wiedzy na temat specyficznego problemu;
· możliwość skorzystania z wielu typów informacji (symbolicznej, numerycznej, nieścisłej, nieprecyzyjnej);
· zaoferowanie wielu różnych schematów rozumowania i bardziej trafnego wyszukiwania odpowiedzi na zadawane pytania;
· zwiększenie ogólnej efektywności systemu i eliminacja ujemnych stron pojedynczych metod;
· stworzenie wydajnych i potężnych systemów rozumowania.

Eksploracja danych(data mining) ma na celu pozyskanie wiedzy ukrytej w dużej ilości informacji. Oznacza ona procesy selekcji, eksploracji i modelowania, wykonane na dużej ilości danych, prowadzących do odkrycia dotychczas nieznanych wzorców biznesowych. Można ją zdefiniować jako proces wykrywania korelacji i trendów danych oraz dostarczania wiedzy za pomocą technik statystycznych, matematycznych i rozpoznawania wzorców. „Data mining” jest więc technologią pozyskiwania wiedzy poprzez stosowanie modeli sieci neuronowych i algorytmów genetycznych, drzew decyzyjnych, technik statystycznych, modeli fraktalnych, algorytmów segmentacji, itp.
Idea eksploracji danych polega na wykorzystaniu szybkości komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych zgromadzonych w hurtowniach danych. Istnieje wiele technik eksploracji danych, które wywodzą się z ugruntowanych dziedzin nauki takich jak statystyka (statystyczna analiza wielowymiarowa) i uczenie maszynowe. Techniki i metody służące eksploracji danych wywodzą się głównie z obszaru badań nad sztuczną inteligencją.

Proces „data mining” składa się również z pięciu głównych etapów:
· gromadzenie danych w hurtowni danych;
· gromadzenie i zarządzanie danymi w wielowymiarowych systemach baz danych;
· dostarczenie dostępnych danych do analizy biznesowej;
· analiza danych za pomocą zaawansowanych technik komputerowych;
· prezentacja danych w przystępnej formie, np. w postaci grafów lub tabeli;
 
4. Eksploracja zasobów internetowych

Do analizy danych zasobów WWW wykorzystane są sieci semantyczne, umożliwiają one formułowanie zapytań w języku naturalnych oraz generowanie dodatkowej wiedzy poprzez wnioskowanie logiczne. Zaawansowany system informacyjno-analityczny stanowiący połączenie aplikacji i technologii umożliwiających zbieranie, scalanie, gromadzenie, selekcję, analizę i czytelną prezentację pochodzącej z różnych źródeł informacji i wiedzy biznesowej na potrzeby konkretnej dziedziny działalności gospodarczej przedsiębiorstwa. Pozyskiwanie informacji niestrukturalizowanej z sieci WWW pozwala na wzbogaceniu wiedzy organizacji o informacje dotyczące jego otoczenia. Stwarza to możliwość podejmowania lepszych decyzji biznesowych. Ulepszanie procesów pobierania informacji z sieci polega na zastosowaniu technik automatycznej analizy tekstów, technologii internetowych agentów oraz sieci semantycznych.

Proces odkrywania wiedzy (formułowanie modeli biznesowych):
· gromadzenie danych,
· czyszczenie danych,
· łączenie danych z różnych źródeł,
· wybranie istotnych danych ze względu na analizowany problem,
· nadanie wyselekcjonowanym danym odpowiedniej prezentacji,
· wykorzystanie algorytmów przetwarzania danych do formułowania odpowiednich schematów i zależności (modeli danych),
· interpretacja oraz ocena danych i procesów biznesowych,
· zapisywanie wyników analizy w bazie wiedzy i prezentacja wiedzy.

Wynikiem eksploracji danych będą modele biznesowe sformułowane jako:
· schematy biznesowe,
· równania i wzorce,
· reguły,
· grafy,
· struktury drzewiaste.

Eksploracja danych jako odkrywanie nieznanych wcześniej wzorców oraz przewidywanie trendów i zachowań:
· modelowanie opisowe,
· modelowanie strukturalne,
· analiza danych,
· modelowanie przewidujące,
· odkrywanie wzorców i reguł,
· wyszukiwanie według określonego wzorca (tekstów, obrazów, szeregów czasowych, danych sekwencyjnych).

Sieci semantyczne

Największą zaletą WWW jest jego uniwersalność oraz prostota, gdzie za pomocą zwykłych linków hipertekstowych możliwe jest łączenie informacji oraz tworzenie rozbudowanej i skomplikowanej sieci danych. Informacje na internecie są ogromnie zróżnicowane, ale istnieje podstawowy podział jeśli chodzi o dane stworzone dla konsumpcji przez człowieka oraz dla przetwarzania przez maszyny. Z jednej strony mamy wszystko, od powiedzmy - 5 sekundowych reklam, do poezji, z drugiej natomiast - bazy danych, serwery aplikacji oraz przeróżnego typu sensory. W miarę rozwoju internetu oraz jego dynamicznej ekspansji, coraz większym problemem okazuje się  wyszukiwanie informacji. Za pomocą semantyki maszyny mogą samodzielnie wyszukiwać, tworzyć kompozycje usług oraz je wywoływać. Posługując się pojęciem bazy wiedzy jako zbioru stwierdzeń i relacji między nimi-  można utworzyć tzw. sieć stwierdzeń jako pewien graf, którego węzłami są stwierdzenia, a gałęziami relacje. Węzłom (podobnie jak gałęziom) mogą być przypisane wagi określające np. stopnie przekonania o słuszności tych stwierdzeń. Uogólnieniem koncepcji sieci twierdzeń są sieci semantyczne lub asocjacyjne. Uogólnienie polega na przyjęciu założenia, że węzły odpowiadają kompletnym opisom pojęć lub obiektów i nie są wyłącznie stwierdzeniami. Sieć semantyczna jest pewnego rodzaju logiką, gdzie relacje miedzy obiektami są przedstawione w postaci rysunku. Jest tu więc jak gdyby wyrysowany mechanizm dedukcji. Wnioskowanie odpowiada „poruszaniu się" po grafie. Na podstawie inspekcji sieci wyprowadza się różne konkluzje. Istotą sieci semantycznych jest graficzne ujęcie dwuargumentowych relacji pomiędzy obiektami nazywanymi węzłami. Każdy węzeł odpowiada typowi obiektu i może być związany z innymi obiektami za pomocą łuków skierowanych nazywanych też połączeniami.

Ontologia obrazów

Ontologie otrzymały rosnące zainteresowanie w społeczności informatycznej i ich korzyści zostały uznane w wielu dziedzinach. W projekcie rolą ontologii będzie ułatwienie dostępu do informacji z heterogenicznych źródeł danych i wiedzy poprzez wsparcie na poziomie procesów syntezy informacji. Ontologia obrazu umożliwiają klasyfikację obrazów, cech obrazu, interpretacje, korzystanie ze wspólnych relacji, w tym związków pomiędzy obrazami, kształtami i określonymi interpretacjami. W projektowanym systemie model ontologii będzie narzędziem do przetwarzania obrazu oraz będzie wspierał algorytmy siec semantycznych w procesie syntezy informacji.

Agenci

Idealny racjonalny agent powinien posiadać miarę oceny swojego działania z punktu widzenia stawianych przed nim celów. Wykorzystywać informację zawartą w nadchodzących postrzeganych danych tak, by optymalizować tą miarę w oparciu o dostępną wiedzę. Mając różne możliwości działania, należy wybrać (wyszukać) najlepszą z punktu widzenia celu.

 
5. Metody i modele eksploracji danych

Systemy ekspertowe

Systemem ekspertowym nazywa się program do rozwiązywania problemów zlecanych ekspertom, charakteryzujący się strukturą funkcjonalną, której podstawowymi elementami są:

  • Baza wiedzy, zawierająca wiedzę potrzebną do rozwiązywanych problemów, zwaną w dalszym ciągu wiedzą dziedzinową.
  • System wnioskujący, wyznaczający fakty wynikające z bazy wiedzy i z pewnego zbioru faktów początkowych, charakteryzujących problem będący przedmiotem wnioskowania.
  • Dynamiczna baza danych, służąca do przechowywania odpowiedzi użytkownika i wyników wnioskowania
  • Edytor bazy wiedzy, służący do czytania, formułowania i modyfikowania bazy wiedzy
  • Łącze użytkownika, umożliwiające użytkownikowi komunikowanie się z systemem wnioskującym i edytorem bazy wiedzy.
Przedmiotem systemów ekspertowych są takie zadania, których treść nie jest precyzyjnie sformułowana przez użytkowników systemu ekspertowego (nie są algorytmiczne). Przy rozwiązywaniu takich zadań SE może korzystać ze specjalistycznej wiedzy teoretycznej i empirycznej. Potrafią konstruować rozwiązania w warunkach wiedzy niepełnej, sprzecznej i obciążonej błędami. Posługują się logiką wielowartościową. Potrafią prowadzić z użytkownikiem dialog w języku naturalnym.
 
Podział systemów ekspertowych

Podział SE ze względu na sposób rozwiązywania problemu:
• Interpretujące – określają rodzaj zaistniałej sytuacji na podstawie danych sensorycznych
• Przewidujące – posiadają umiejętność wnioskowania o możliwych konsekwencjach wynikających z określonych sytuacji
• Diagnostyczne – wnioskują o nieprawidłowym funkcjonowaniu obiektów na podstawie obserwacji
• Projektujące – zajmują się konfiguracją obiektów według podanych zasad
• Planujące – zajmują się planowaniem akcji i określają warunki realizacji
• Śledzące – porównują bieżące obserwacje z zadanymi wzorcami
• Konsultacyjne – określają środki zaradcze w celu usunięcia nieprawidłowości
• Poprawiające – wykonują czynności, umożliwiające zastosowanie środków zaradczych
• Uczące – diagnozują i poprawiają użytkownika w trakcie uczenia
• Sterujące – interpretują, przewidują i śledzą zachowanie systemu
 
Eksploracja danych (data mining)

Data mining jest to inteligentna eksploracja danych mająca na celu pozyskanie wiedzy ukrytej w dużej ilości informacji. Oznacza ona procesy selekcji, eksploracji i modelowania, wykonane na dużej ilości danych, prowadzących do odkrycia dotychczas nieznanych wzorców biznesowych. Można ją zdefiniować jako proces wykrywania korelacji i trendów danych oraz dostarczania wiedzy za pomocą technik statystycznych, matematycznych i rozpoznawania wzorców. „Data mining” jest więc technologią pozyskiwania wiedzy poprzez stosowanie modeli sieci neuronowych i algorytmów genetycznych, drzew decyzyjnych, technik statystycznych, modeli fraktalnych, algorytmów segmentacji, itp.
Idea eksploracji danych polega na wykorzystaniu szybkości komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych zgromadzonych w hurtowniach danych. Istnieje wiele technik eksploracji danych, które wywodzą się z ugruntowanych dziedzin nauki takich jak statystyka (statystyczna analiza wielowymiarowa) i uczenie maszynowe. Techniki i metody służące eksploracji danych wywodzą się głównie z obszaru badań nad sztuczną inteligencją.

W przedsiębiorstwach „data mining” stosowane jest przede wszystkim do:
• zarządzania relacjami z klientem;
• segmentacji i profilowania klientów;
• analizy dochodowości;
• monitoringu relacji z klientem;
• zarządzania ofertą;
• zarządzania i optymalizacji kampanii marketingowych;
• zarządzania ryzykiem;
• wykrywania oszustw.
 
Proces „data mining” składa się również z pięciu głównych etapów:
• gromadzenie danych w hurtowni danych;
• gromadzenie i zarządzanie danymi w wielowymiarowych systemach baz danych;
• dostarczenie dostępnych danych do analizy biznesowej;
• analiza danych za pomocą zaawansowanych technik komputerowych;
• prezentacja danych w przystępnej formie, np. w postaci grafów lub tabeli;

Analizy przeprowadzane są przy wykorzystaniu zaawansowanych algorytmów obliczeniowych, takich jak np.:
• inteligentne sieci neuronowe,
• algorytmy genetyczne,
• drzewa decyzyjne,
• klastrowanie,
• zbiory rozmyte,
• zbiory przybliżone,
• metody hybrydowe.

Drzewa decyzyjne w uczeniu maszynowym służą do wyodrębniania wiedzy z zestawu danych. W teorii decyzji drzewo decyzyjne jest drzewem decyzji i ich możliwych konsekwencji (stanów natury). Zadaniem drzew decyzyjnych może być zarówno stworzenie planu, jak i rozwiązanie problemu decyzyjnego. Metoda drzew decyzyjnych jest szczególnie przydatna w problemach decyzyjnych z licznymi, rozgałęziającymi się wariantami oraz w przypadku podejmowania decyzji w warunkach ryzyka.
Klastrowanie klasyfikuje przypadki na odrębne grupy na podstawie zbiorów atrybutów.
Naiwny klasyfikator Bayesa wyraźnie przedstawia różnice w konkretnej zmiennej dla różnych elementów danych.
 
Sieci neuronowe
Zastosowanie sztucznych sieci neuronowych ma na celu uzyskanie oczekiwanego rozwiązania w bardzo krótkim czasie, praktycznie „on-line”. Metoda ta polega na wyborze odpowiedniej sieci neuronowej i zgromadzeniu danych do jej trenowania. SSN zachowują się jak układy aproksymujące i mają pewną zdolność do uogólniania informacji, którymi są uczone. W procesie uczenia sieci przygotowywane są próbki do trenowania, obejmujące całą badaną powierzchnię. Zdolność zlokalizowania obiektu w miejscu, które było użyte w procesie trenowania sieci, jest miarą zdolności sieci do zapamiętywania danych uczących. Miarą zdolności generalizacji sieci jest możliwość rozpoznawania położenia obiektu, którego sieć wcześniej nie widziała. Zwraca się tutaj szczególną uwagę na to, aby sieć neuronowa nie dopasowała się za bardzo do próbek uczących, ponieważ mogłaby wtedy stracić właściwości generalizacji rozwiązań, co zwiększałoby błędy rekonstrukcji obrazu. Z drugiej strony nie można stosować zbyt ubogiej struktury sieci, aby aproksymacja nie była zbyt pobieżna, a przez to niedokładna (zjawisko niedouczenia sieci).
 
Zbiory rozmyte
Na systemy rozmyte składają się te techniki i metody, które służą do obrazowania informacji nieprecyzyjnych, nieokreślonych bądź niekonkretnych. Pozwalają one opisywać zjawiska o charakterze wieloznacznym, których nie jest w stanie ująć teoria klasyczna i logika dwuwartościowa. Charakteryzują się tym, że wiedza jest przetwarzana w postaci symbolicznej i zapisywana w postaci rozmytych reguł. Systemy rozmyte znajdują zastosowanie tam, gdzie nie posiadamy wystarczającej wiedzy o modelu matematycznym rządzącym danym zjawiskiem oraz tam gdzie odtworzenie tegoż modelu staje się nieopłacalne lub nawet niemożliwe. Tak więc możemy je spotkać w bazach danych, sterowaniu oraz dziedzinach zajmujących się przetwarzaniem języka naturalnego. Zbiór rozmyty to obiekt matematyczny ze zdefiniowaną funkcją przynależności, która przybiera wartości z ciągłego przedziału <0, 1>. Natomiast przeciwdziedzina funkcji przynależności klasycznego zbioru ma jedynie dwie wartości {0,1}.
 
Metody hybrydowe
Algorytmy hybrydowe łączą w sobie cechy różnych metod. Każda metoda ma swoje ograniczenia, natomiast łącząc kilka metod możemy wykorzystać najmocniejsze aspekty każdej z nich. Inteligentne systemy hybrydowe starają się integrować odmienne techniki sztucznej inteligencji. Powstały na bazie stwierdzenia, że metody te wzajemnie się uzupełniają, wady jednej są kompensowane zaletami innej.
Celem stosowania takich systemów jest:
• wykorzystanie całej dostępnej wiedzy na temat specyficznego problemu;
• możliwość skorzystania z wielu typów informacji (symbolicznej, numerycznej, nieścisłej, nieprecyzyjnej);
• zaoferowanie wielu różnych schematów rozumowania i bardziej trafnego wyszukiwania odpowiedzi na zadawane pytania;
• zwiększenie ogólnej efektywności systemu i eliminacja ujemnych stron pojedynczych metod;
• stworzenie wydajnych i potężnych systemów rozumowania.
 
Hybrydowe systemy neuronowo-rozmyte
Systemy oparte na logice rozmytej, jak już wiemy, znajdują zastosowanie  szczególnie tam, gdzie trudno jest opisać model opisujący dane urządzenie. Niestety przy rosnącej złożoności modelowanych procesów rosną też problemy z układaniem rozmytych reguł i funkcji przynależności. Zaprowadziło to do powstania nowego podejścia - systemów neuronowo-rozmytych. Systemy rozmyte posiadają zdolność do radzenia sobie z nieprecyzyjnymi danymi, a sieci neuronowe mają zdolność uczenia się i tworzenia nowych reguł, które uzupełniłyby brakującą wiedzę eksperta, który projektował bazę reguł. Systemy te łączą cechy zarówno sieci neuronowych jak i systemów rozmytych, znalazły się więc współcześnie w głównym kręgu zainteresowań. Urządzenia zbudowane w oparciu o architekturę systemów neuronowo-rozmytych znalazły zastosowanie w szczególności w procesach sterowania.
 
Ontologie syntezy informacji
Ontologie otrzymały rosnące zainteresowanie w społeczności informatycznej i ich korzyści zostały uznane w wielu dziedzinach. W projekcie rolą ontologii będzie ułatwienie dostępu do informacji z heterogenicznych źródeł danych i wiedzy poprzez wsparcie na poziomie procesów syntezy informacji. W przedstawionym podejściu ontologie pomagają w semantycznej integracji informacji. W środowisku sztucznej inteligencji ontologie stanowią podstawę do projektowania systemów wiedzy lub inteligentnych agentów. Jedną z ich głównych ról jest umożliwienie budowania modeli wiedzy jako źródło ponownego ich wykorzystania.
 
6. Modelowanie procesów biznesowych

Proces biznesowy/gospodarczy to łańcuch przemian polegający na przekształcaniu wejść w wyjścia według określonych zasad prowadząc do osiągnięcia założonych celów przedsiębiorstwa. Pojedyncza przemiana występująca w procesie to funkcja. Dekompozycja funkcji powoduje przekształcenie jej w podproces.
Workflow to automatyzacja procesów biznesowych, w całości lub w części, podczas której dokumenty, informacje lub zadania są przekazywane od jednego uczestnika do następnego, według odpowiednich procedur zarządczych.
Ideą podejścia procesowego jest odejście od orientacji nastawionej na strukturę funkcjonalną, a skupienie się na wybranych procesach, szczególnie tych, które są związane z klientami oraz dostawcami zewnętrznymi. Drugim aspektem tego podejścia jest nacisk na znaczenie kultury organizacyjnej w funkcjonowaniu firmy. W przedsiębiorstwie nie opłaca się zarządzać wszystkimi procesami. Dlatego identyfikuje się najważniejsze procesy, które opłaca się  wyodrębnić i zaprojektować dla nich odrębny system zarządzający. To samo dotyczy procesów gospodarczych w przypadku organizacji nie biznesowych
Zarządzanie procesami to systematyczne analizowanie, usprawnianie i kontrolowanie działań w celu polepszenia jakości produktów i usług.

Zasady zarządzania procesami:
• Podstawowe procesy są udokumentowane i poddane analizie.
• Powiązania wewnątrz procesów analizowane są poprzez pryzmat potrzeb klienta.
• Powtarzalność, spójność i jakość rezultatów procesów zapewniają systemy i udokumentowane procedury.
• Podstawą określania celów i oceny rezultatów procesów jest pomiar działań.
• Zarządzanie procesami opiera się na ich ciągłym udoskonalaniu.
• Zarządzanie procesami jest podejściem do zmiany kultury organizacyjnej firmy.
 
Do modelowania procesów zostaną wykorzystane sieci Petriego. Sieć Petriego to matematyczna reprezentacja dyskretnych systemów rozproszonych. Wykorzystuje się je do modelowania synchronizacji i komunikacji procesów współbieżnych. W takim zastosowaniu miejsca sieci interpretuje się zazwyczaj jako warunki (lub stany) programu. Struktura sieci odwzorowuje wtedy strukturę programów, a ruch znaczników w sieci modeluje postępujące wykonanie procesów. Zastosowanie sieci Petriego nie jest jednak ograniczone do tej jednej dziedziny. Abstrakcyjna definicja sieci jest w pełni ogólna i może być wykorzystana do modelowania procesów zachodzących w innych dziedzinach. Sieć Petriego jest uznanym modelem przepływu sterowania w systemach współbieżnych.
Klasyczne sieci Petriego są modelem przepływu sterowania, pozbawionym możliwości opisu przetwarzania danych i wpływu wyników tego przetwarzania na przebieg procesu obliczeniowego. Kolorowane sieci Petriego rozszerzają zakres modelu wprowadzając do niego wartości, przypisane do krążących w sieci znaczników, oraz funkcje sterujące przepływem tych znaczników i obliczające nowe wartości. Kolorowana sieć Petriego (Coloured Petri Net) jest grafem złożonym z miejsc, tranzycji i łuków, w którym poruszają się znaczniki przenoszące wartości określonego typu. W każdym miejscu sieci może znajdować się wiele różnych znaczników, których typ musi być jednak zgodny z typem tego miejsca.
 
Proces w organizacji jest ciągiem czynności zaprojektowanych tak, aby w ich wyniku powstał produkt lub usługa.
Rodzaje procesów:
• Procesy podstawowe – w ich tworzone są oferowane na rynku zewnętrznemu klientowi.
• Procesy wspierające – ich efekty przekazywane są klientowi wewnętrznemu.
• Procesy zarządzania.

Relacje pomiędzy różnymi repozytoriami wiedzy

Baza wiedzy
Wiedza zewnętrzna
Najlepsze praktyki
Współdzielone bazy wiedzy
Wiedza o procesach

Modele procesów
i narzędzia modelowania
Logika procesów

Logika procesów,
dane,aplikacje

Efektem odkrywania automatycznego procesów biznesowych (zdarzeń, wiadomości, sterowania) jest jasny obraz jak procesy przebiegają wewnątrz i jak przejawiają się na zewnątrz. Odkrywanie umożliwia wspólne zrozumienie procesów i działania systemu w organizacji (jest kluczowym zagadnieniem w nowoczesnych systemach zarządzania procesami biznesowymi). Do analizy procesów zostaną użyte algorytmy eksploracji danych (m.in. sieci neuronowe, metoda zbiorów poziomicowych) oraz zostanie zbudowana hurtownia danych procesowych. Tego typu hurtownia uprasza i przyśpiesza zapytania potrzebne do tworzenia łańcuchów przyczynowo-skutkowych.
Dokładne monitorowanie i analizowanie wykonania procesów jest przejawem przesuwania się technologii modelowania procesów w kierunku śledzenia rozbieżności pomiędzy wzorcami, oraz ich stosowaniem i rzeczywistymi przebiegami procesów. Technologia natomiast przesuwa się w kierunku zwiększenia elastyczności, możliwości badania ewolucji wzorców oraz operowania na wyjątkach. Przy pomocy narzędzi analizy procesów można utworzyć pętlę sprzężenia zwrotnego w celu zmiany wzorca i poprawienia procesu.