Encyklopedia Zarządzania :: Komputerowe metody analizy i przetwarzania danych
Przeglądanie katalogu (kliknij)
Przeglądaj katalog alfabetyczny według autorów, tytułów lub słów kluczowych. Kliknij odpowiedni przycisk poniżej, a następnie wybierz pierwszą literę nazwiska, tytułu czy słowa kluczowego.
(cytat, str. 13) Modelowanie danych jest nierozerwalnie związane z procesem projektowania i rozwijania systemów zorientowanych na dane. Tworząc takie systemy, należy wziąć pod uwagę wszystkie informacje niezbędne do wsparcia różnorodnych procesów biznesowych w danej organizacji.
(cytat, str. 15) Modelowanie koncepcyjne jest modelowaniem na ogólnym, wysokim poziomie abstrakcji. Stanowi narzędzie komunikacji z grupą użytkowników. W modelu koncepcyjnym nie ma miejsca na struktury danych lub jakiekolwiek aspekty związane ze sprzętem czy silnikiem bazy danych. Co więcej, model koncepcyjny nie przesądza nawet o tym, czy zbudowana na jego podstawie baza danych będzie miała charakter relacyjny, czy jakiś inny. Niemniej model powinien być kompletny i zawierać wszystkie niezbędne elementy, by odzwierciedlać rzeczywiste wymagania danej organizacji.
(cytat, str. 19) Logiczny model danych stanowi kolejny, niższy poziom abstrakcji. Będąc etapem pośrednim pomiędzy modelem konceptualnym a fizycznym, zawiera on znacznie więcej szczegółów niż ten pierwszy, nie wchodząc jednak w szczegółowe zagadnienia technologiczne, jak ma to miejsce w przypadku ostatniego, fizycznego poziomu. W przypadku modelu logicznego niezbędne jest określenie rodzaju bazy danych, który będzie implementowany, np. czy będzie to baza hierarchiczna, sieciowa, obiektowa, czy relacyjna. W przypadku modelowania relacyjnej bazy danych model logiczny składać się będzie z dwuwymiarowych tabel - relacji, składających się z kolumn (odpowiadających atrybutom) oraz wierszy (odpowiadających egzemplarzom encji). Związki pomiędzy tabelami realizowane są poprzez mechanizm kluczy obcych.
(cytat, str. 20 - 21) Fizyczny model danych nie stanowi już środka komunikacji z użytkownikami - jest to najniższy z wykorzystywanych poziomów abstrakcji, zawierający dużą ilość złożonych, szczegółowych informacji nt. projektowanej bazy danych. Informacje zawarte w modelu fizycznym zazwyczaj wykraczają poza kompetencje użytkowników systemu - model zawiera zbyt wiele skomplikowanych szczegółów, włączając rozważania dotyczące poszczególnych systemów zarządzania bazą danych oraz środowiska sprzętowego dla niej.
(cytat, str. 34) Bill Inmon, jeden z pionierów w tej dziedzinie, definiuje hurtownię danych jako uporządkowany tematycznie (ang. subject oriented), zintegrowany (ang. integrated), zawierający wymiar czasowy (ang. time variant), nieulotny (ang. non volatile) zbiór danych wspomagający podejmowanie decyzji.
Słowa kluczowe:hurtownia danych Komentarze i źródła pierwotne: Inmon W.H. (1992), Building the Data Warehouse, Wiley
(cytat, str. 51) Pod pojęciem Elektronicznej wymiany danych (ang. Electronic Data Interchange) rozumie się ideę wymian informacji pomiędzy komputerami za pomocą ogólnie zaakceptowanych standardów. Praktyczna realizacja tej idei dokonuje się pomiędzy firmami, które zamiast przesyłać pomiędzy sobą dokumenty w formie papierowej przesyłają je drogą elektroniczną. Dodatkową korzyścią takiej formy wymiany dokumentów jest możliwość automatycznego uzupełniania baz danych firmy docelowej danymi znajdującymi się w dokumencie elektronicznym. Eliminuje się w ten sposób błędy, jakie mogłyby powstać podczas ręcznego uzupełniania baz danych danymi z dokumentów papierowych. Cały proces odbywa się również znacznie szybciej.
(cytat, str. 55) Ideą leżącą u podstaw stworzenia języka XML (ang. eXtensible Markup Language) jest opisywanie zawartości dokumentów elektronicznych, które z jednej strony będą czytelne dla człowieka (format tekstowy), z drugiej zaś będą mogły być przetwarzane przez urządzenia w sposób zdalny. Cechą charakterystyczną języka XML jest brak predefiniowanych znaczników (jak ma to miejsce np. w języku HTML) oraz restrykcyjna składnia. Ponadto jest on rozszerzalny, niezależny od platformy, łatwy w użyciu, umożliwia łatwe kodowanie znaków międzynarodowych oraz zapewnia oddzielnie treści (danych) od formy prezentacji. Ze względu na swe właściwości znalazł szerokie zastosowania.
(cytat, str. 67) Jedną z niewątpliwych zalet języka XML jest rozdział treści od sposobu jej prezentacji. W przypadku modelowania danych oraz ich wymiany, a zatem tam, gdzie nie jest istotny sposób ich wizualizacji, pozwala to skoncentrować się wyłącznie na warstwie informacyjnej. Natomiast w przypadku, gdy konieczna jest prezentacja rezultatów, możliwe jest zastosowanie narzędzi, które dane zawarte w dokumencie przedstawią w atrakcyjnej postaci. Takie możliwości daje, stworzony przez WWW Consortium, standard XSLT (ang. eXtensible StyleSheet Language Transformation) będący częścią obszerniejszej specyfikacji specyfikacji opartej na rozszerzalnym języku arkuszy stylów. Umożliwia on przekształcenie źródłowego dokumentu XML do postaci wynikowej, przy czym rezultatem przekształcenia (transformacji) może być dokument w formacie XML, HTML lub TXT.
Słowa kluczowe:dokument elektroniczny Komentarze i źródła pierwotne: Holzner S. (2002), XSLT. Vademecum profesjonalisty, Gliwice, Helion
(cytat, str. 76 - 77) Język XML i jego pochodne należą do podstawowych standardów opisu i przesyłania danych w systemach informatycznych. W Rozporządzeniu Rady Ministrów z dnia 11 października 2005 r. w sprawie minimalnych wymagań dla systemów teleinformatycznych określa się, że do definiowania układu informacji (czyli elementów informacyjnych oraz powiązań między nimi) powinno stosować się XML, XSD (XML Schema) oraz GML (język opisu danych geograficznych bazujący na XML), natomiast do przetwarzania dokumentów XML powinien być wykorzystywany XSL lub XSLT. W celu szyfrowania danych XML zaleca się natomiast używanie XMLenc (ang. XML Encryption Syntax and Processing), a podpis elektroniczny powinien zostać zrealizowany w formacie XMLsig (ang. XML - Signature Syntax and Processing).
(cytat, str. 84) Data mining to określenie grupy metod szeroko rozumianej analizy danych mających na celu identyfikację nieznanych wcześniej prawidłowości występujących w dużych zbiorach danych. Powstałe wyniki mają postać łatwą do interpretacji przez prowadzącego badania.
Słowa kluczowe:data mining Komentarze i źródła pierwotne: Gatnar E. (1998), SYmboliczne metody klasyfikacji danych, Warszawa, PWN
(cytat, str. 92) Sieci neuronowe są metodami obliczeniowymi, których działanie inspirowane jest sposobem funkcjonowania układów nerwowych organizmów żywych. Podobnie jak układ nerwowy składa się z komórek nerwowych zwanych neuronami, tak również wykorzystywane w analizie danych sztuczne sieci neuronowe składają się z elementów przetwarzających nazywanych sztucznymi neuronami.
(cytat, str. 94) Algorytm genetyczny przetwarza informacje przechowywane w postaci chromosomów (w praktyce są to wektory o wartościach binarnych). Dlatego też, chcąc rozwiązać za pomocą tej metody jakiekolwiek zadanie, musimy w pierwszej kolejności opracować metodę kodowania parametrów zadania w postaci chromosomu (i również odpowiednią metodę dekodującą). W trakcie działania algorytmu chromosomy poddawane są przekształceniom wzorowanym na tych, które zachodzą w trakcie ewolucji - selekcji, krzyżowaniu, inwersji czy mutacji.
(cytat, str. 98) Realizacja badań z wykorzystywaniem metod typu data mining jest procesem kilkuetapowym. Do zasadniczych jego elementów należy zaliczyć: - zdefiniowanie celu badań i określenie typu (typów) problemu badawczego, - utworzenie zbioru danych, - wstępna analiza i wstępne przetworzenie danych, - budowa modelu, - weryfikacja poprawności funkcjonowania modelu - interpretacja uzyskanych rezultatów i ich wykorzystanie w procesie decyzyjnym.
(cytat, str. 121) Sztuczna inteligencja (SI) jest dziedziną nauki zajmującą się implementacją naturalnej (ludzkiej) inteligencji w maszynach (w szczególności w maszynach cyfrowych) w celu stworzenia narzędzi do automatycznego rozwiązywania skomplikowanych problemów.
(cytat, str. 135) Sztuczne sieci neuronowe (SN) stanowią nieliniową technikę analizy danych przeznaczoną głównie do rozwiązywania problemów, dla których określenie a priori postaci modelu matematycznego jest niemożliwe lub bardzo trudne, natomiast dysponujemy duża liczbą obserwacji (wzorców) danego zjawiska. Obserwacje te są wykorzystywane podczas tworzenia modelu neuronowego - tzw. uczenia sieci, w trakcie którego następuje transfer do modelu wiedzy zawartej w tych wzorcach oraz jej zakodowanie w parametrach sieci (tzw. wagach). Proces ten jest analogiczny do naturalnego zdobywania wiedzy przez ludzi.
(cytat, str. 138) Proces uczenia sieci neuronowej stanowi etap jej konstrukcji. Podczas tego procesu sieć zdobywa wiedzę dotyczącą określonego zjawiska (modelowanego obiektu) w oparciu o zbiór przykładów zawartych w ciągu uczącym. Etap ten polega na odpowiednim dostrojeniu wartości wag sieci, zgromadzonych w zbiorze W.
(cytat, str. 141) Podczas procesu uczenia sieci neuronowe narażone są na wystąpienie tzw. efektu przeuczenia. Jest to zjawisko polegające na tym, że sieć uczy się generować idealne sygnały wyjściowe dla wzorców należących do ciągu uczącego, podczas gdy praktycznie nie jest w stanie właściwie reagować na inne wzorce, których nie widziała w fazie uczenia. W takiej sytuacji model neuronowy nie wykazuje zdolności do generalizacji (uogólniania) pozyskanej wiedzy. Występowanie efektu przeuczenia (czyli nadmiernego dopasowania modelu do przykładów uczących) eliminuje sieć praktycznych zastosowań, w których oczekujemy przecież właściwych reakcji (decyzji, prognoz) na nowe informacje wejściowe, pojawiające się podczas eksploatacji sieci.
(cytat, str. 163) Metody sztucznej inteligencji okazują się szczególnie przydatne w problemach, w rozwiązywaniu których nie istnieją ani skuteczne metody analityczne czy statystyczne, ani efektywne algorytmy komputerowe, a ponadto występują braki wiedzy na temat charakteru badanych zjawisk oraz duży poziom zakłóceń w dostępnych danych. (...) Oczywiście nietrudno wskazać tego typu zagadnienia także w obszarze ekonomii i zarządzania - są to chociażby problemy prognozowania zachowań różnych rynków (papierów wartościowych, surowców, nieruchomości, energii itd).
(cytat, str. 171) Decyzja podejmowana jest zawsze przez człowieka. Osoba podejmująca decyzję określana jest mianem decydenta. Każda decyzja rodzi pewne konsekwencje lub, inaczej mówiąc, skutki. Sytuacja, w której zachodzi potrzeba podjęcia decyzji nazywana jest problemem decyzyjnym.
(cytat, str. 175) Przez projekt rozumiemy zbiór powiązanych czynności, których realizacja zmierza do osiągnięcia określonego celu i powinna się zakończyć w określonym czasie. Czas potrzebny na realizację poszczególnych czynności wchodzących w skład projektu jest ustalony. Niektóre działania muszą być wykonane w pewnej sekwencji, natomiast inne mogą być realizowane równolegle.