Typowe podejście inżynierskie do rozwiązania problemu rzeczywistego, który z natury jest problemem stochastycznym (losowym) przedstawiono na rys.1. Systemy konstrukcyjne budowlane są wysokoniezawodne (rzędu 10-4) i zawierają wiele elementów (są duże). Z tych względów najczęściej wymagają zastosowania szybkich symulacji numerycznych (metody Monte Carlo z zastosowaniem redukcji wariancji, np poprzez losowanie warstwowe i hiperkostki łacińskiej). Szeroko stosowana jest również analiza niezawodności złożonych systemów technicznych z wykorzystaniem teorii nośności granicznej (plastycznej) wysokoniezawodnych budowlanych konstrukcji prętowych. Przybliżone analizy niezawodności wysokoniezawodnych systemów złożonych z elementów o ograniczonej niezawodności zapoczątkowali Moor i Schannon już w latach 60-tych [1]) a ich koncepcje zostały szczegółowo opracowane w kolejnych latach [2].,
Rys. 1. Typowe rozwiązanie inżynierskie: I – model fizyczny przyjmuje inżynier; II – Modelowanie matematyczne (identyfikacja układu, redukcja modelu ); III- estymacja, testowanie hipotez, symulacja (rozwiązanie) ; IVa odwrócony krok II, [3]
Rys. 2. Model układu rzeczywistego
Problem niezawodności konstrukcji budowlanych
Analiza układu rzeczywistego, przedstawionego na rys.2., a w szczególności dużego systemu konstrukcyjnego (DSK) jest prowadzana na kilku etapach:
Etap I: schematyzacja systemu, czyli dobór fizycznego („naturalnego”) modelu obiektu: przestrzeni X parametrów wejściowych (obciążeń) , przestrzeni parametrów wyjściowych (odpowiedzi) Y, a także operatora systemu K, to znaczy, który możemy zapisać symbolicznie [4]
$K y=x, \hspace{10px} y\in Y,\hspace{10px}x\in X$ | (1) |
W przypadku konstrukcji mamy na przykład : K- macierz sztywności, x– obciążenia , y – przemieszczenia,
Etap II -zidentyfikowanie zmiennych i redukcja zmiennych, tak aby analizować układ tylko ze zmiennymi istotnymi z punktu widzenia kryteriów , a także z takimi dla których posiadamy bazę z danymi statystycznymi.
Etap III – rozwiązanie układu w przestrzeni stanów w drodze analiz, najczęściej symulacyjnych modelu matematycznego zdefiniowanego na etapie II.
Etap IVa: zdefiniowanie przestrzeni jakości Q i obszaru Ω – zbioru stanów systemu, dopuszczalnych z punktu widzenia wymaganych kryteriów jakości. Wyboru dokonuje się z warunków ekonomicznych, ekologicznych oraz społecznych, z których najważniejsze są wymagania funkcjonalne oraz trwałości (wytrzymałości i stateczności). Nie można podać uniwersalnego algorytmu na zdefiniowanie przestrzeni Q , ponieważ definicja jest zależna od konkretnego rodzaju systemu i zadania.
Etap IV: Wyznaczenie funkcji niezawodności R, czyli prawdopodobieństwa tego , że system nie wyskoczy poza obszar dopuszczalny Ω w projektowym okresie użytkowania T.
W rzeczywistych systemach obciążenia X i operator K są losowe, więc losowe są więc również odpowiedzi: modelowe Y i obserwowane Z . Ponadto najczęściej mamy do czynienia z systemami, w których obciążenia są wieloparametrowe, a kryteria jakości sprowadzone na poziom elementu systemu, a systemy mają wiele elementów. Najczęściej dla każdego elementu układu należy spełnić kilka warunków (kryteriów) jakości.
W takim przypadku najlepiej równanie systemu (1) przekształcić do popstaci (2), tak by obszar dopuszczalny Ω oraz przestrzeń jakości budować w przestrzeni obciążeń X
$\lambda_{lim}=H(\lambda)$ | (2) |
gdzie H= K-1 jest operatorem odwrotnym do K, λ – mnożnikiem obciąźęń a λlim dopuszczalnymi wartościami mnożników obciążeń,definiującymi obszar jakości układu.
Przykładowo w przypadku konstrukcji prętowej złożonej z N prętów, można określić N-kryteriów jakości $E_i\geq E_{R_i}$ (siła Ei w pręcie i powinna być nie większa od nośności ERi tego pręta), czyli wektor λ=[E1,E2,..Ei,.. EN], λ lim=[ER1,ER2,..ERi,.. ERN]. Należy przy tym wskazać, że w przypadku pręta nośność ERi jest wynikiem interakcji kilku rodzajów sił prętowych: siły osiowej, momentu zginającego, siły poprzecznej, momentu skręcającego i bimomentu.
Na rys. 3a pokazano na przykładzie obciążenia dwuparametrowego [λ1, λ2] systemu , w którym zdefiniowano kilka (i, i+2, i+3) kryteriów jakości – krzywe graniczne (krzywe interakcji), wyznaczające dopuszczalne obszary dla każdego z tych kryteriów.
Rys. 3a. Obszar dopuszczalny dla 2-parametrowego obciążenia i kilku kryteriów jakości [5]
Iloczyn obszarów Ωi dla N-obszarów daje obszar dopuszczalny systemu (3) ze względu na wszystkie kryteria, w którym nie zajdzie żaden typ awarii.
$\Omega=\cap_{i=1}^N \; \; \Omega^{(i)}$ | (3) |
Obszary, w których zajdzie kilka typów awarii jednocześnie można określić z rachunku zbiorów. Na przykład obszar w którym zajdzie jednocześnie typ (i) oraz (i+1) wynosi $\bar{\Omega }^{(i, i+1)}=\Omega ^{(i+1)}- \Omega^i \cap \; \Omega ^{(i+1)}$ , a obszar, w którym zajdzie jednocześnie typ (i) oraz (i+2) wynosi $\bar{\Omega }^{(i, i+2)}=\Omega ^{(i)}- \Omega^i \cap \;\Omega^{(i+2)}$ .
Jeśli system składa się z wielu elementów , to można zbudować obszary dopuszczalne dla każdego elementu ze względu na dane kryterium jakości (i). Przekrój tych wszystkich obszarów jednostkowych będzie obszarem dopuszczalnym dla całego systemu, tak jak pokazano na rys. 3b .
Rys. 3b Obszar dopuszczalny dla systemu wieloelementowego i kryterium jakości (i) [5]
Podejście obciążeniowe (rozpatrywanie zagadnienia w przestrzeni obciążeń) daje możliwość wskazania istotnych,najbardziej znaczących kryteriów jakości (mechanizmów awarii) oraz istotnych elementów. Z rys. 1a wynika na przykład m, że istotnymi kryteriami są (i) oraz (i+1),a z rys, 1b wynika, ze istotnymi elementami są elementy (1) oraz (4). Losowość systemu jest skupiona w obszarze dopuszczalnym, co manifestuje się tym bardziej im bardziej niezawodny jest system, a z takimi systemami mamy do czynienia w budownictwie i architekturze. W takim przypadku popełnimy stosunkowo niewielki błąd odrzucając z analizy elementy i kryteria jkaości nie będące istotnymi jeszcze przed przystąpieniem do obliczania całki niezawodności.
Ponieważ we współczesnym podejściu zrównoważonym analizujemy systemy w całym cyklu „życia” o okresie eksploatacji T, więc nie możemy pominąć czynnika czasu t, wraz z upływem którego w rzeczywistym środowisku fizycznym i chemicznym konstrukcja starzeje się, czyli zmienia się jej jakość, wskutek czego zmianom ulega obszar dopuszczalny dla obciążeń.
W takim przypadku stochastyczną funkcję niezawodności R (t) w punkcie czasu t w projektowym okresie użytkowania T (τ jest bieżącym czasem, , a ω tymi elementami przestrzeni systemu które są istotnie losowe) można zapisać w postaci:
$R(t)=Pr[\lambda(\tau)\in \Omega (\tau|\; \omega),\; \; 0 \leq \tau \leq t]$ | (4) |
Wraz z jakością systemu zmienia się w czasie obszar dopuszczalny Ω. W przypadku „schodkowej” aproksymacji obszaru dopuszczalnego w czasie , a niezawodność starzejącego się systemu należy wyznaczać jak dla systemu szeregowego „schodków k-tych” w czasie. Jeśli przez Rk oznaczymy niezawodność systemu na k-tym odcinku czasu $[\tau_{k-1} \; ; \; \; \tau_k]$, to z fundamentalnych zależności teorii niezawodności dla systemu szeregowego losowo niezależnych n ogniw mamy [2]:
$R (t)=\prod \limits_{k=1}^n R_k=1-\sum \limits_{k=1}^{n}P_{fk}$ | (5) |
gdzie Pfk jest prawdopodobieństwem „zniszczenia, ang failure ” (wyjścia poza obszar dopuszczalny) systemu na odcinku czasu k.
W przypadku ogniw skorelowanych lub ogólniej losowo zależnych, należy stosować oszacowania granic niezawodności.
Ze względu na wielowymiarowość i uwikłanie zagadnień praktycznych, objawiający się na przykład: szybkim wzrostem rozmiaru zadania wraz ze zwiększaniem się liczby elementów, rozkład momentów funkcji niezawodności innym niż normalny czy potęgowy, często silnymi nieliniowościami – analizę niezawodnościową DSK można efektywnie prowadzić wyłącznie metodą Monte-Carlo [6]. W przypadku DSK inne metody w tym aproksymacyjne szeregami Taylora zawodzą, przede wszystkim ze względu na błędy pasożytnicze (maszynowe, procesora komputera), objawiające się szybkim zmniejszaniem dokładności rozwiązania wraz ze zwiększaniem rozmiaru zadania.
Przy założeniu niezależności poszczególnych symulowanych realizacji ocena (estymator) prawdopodobieństwa awarii DSK Pf w analizowanym okresie wynosi po prostu:
$P_f = \dfrac{n_f}{N}$ | (6) |
gdzie nf – jest liczbą realizacji spośród wszystkich N dla których system „wyskoczył” z obszaru dopuszczalnego w dowolnym miejscu (elemencie) i dla dowolnego kryterium jakości.
W celu otrzymania oszacowania Pf ze względnym błędem średniokwadratowym $\delta=\dfrac{\sigma_{p_f}}{p_f}$ należy przeprowadzić nie mniej realizacji niż wynika to z formuly (7):
$N = \dfrac{1-P_f}{P_f \cdot \delta^2}$ | (7) |
Przykładowo dla Pf= 10-4 (wymaganego dla konstrukcji budowlanych prawdopodobieństwa zniszczenia i dla błędu oszacowania 10% mamy N=106. W praktyce przeprowadzenie tak dużej liczby symulacji byłoby bardzo kosztowne i długotrwałe. Dlatego w analizie BSK ważne są szybkie algorytmy symulacji , pozwalające zmniejszyć wymaganą liczbę symulacji nawet o kilka rzędów.
Praktyczne zastosowanie metod szybkich symulacji
Wprowadzenie
Rozpatrzmy zastosowanie szybkich metod Monte Carlo do rozwiązania zadania optymalizacyjnego teorii niezawodności, czyli zadania projektowania konstrukcji budowlanych. Podczas projektowania konstrukcji duże znaczenie ma zbadanie wpływu poszczególnych elementów i ich grup na niezawodność całego systemu konstrukcyjnego, co pozwala ujawnić słabe miejsca konstrukcji i doprowadzić do wymaganej niezawodności systemu poprzez prawidłowe zaprojektowanie szczególnie tych miejsc.
Przyjmijmy, bez utraty ogólności, że system jest złożony z n grup jednakowych w każdej grupie elementów, a czas bezawaryjnej pracy elementów i-tej grupy (1≤i≤n) ma wykładniczy rozkład prawdopodobieństwa ze średnią τi . Bez konkretyzowania pozostałych parametrów rozkładu i w szczególności zbiór stanów dopuszczalnych konstrukcji , oznaczmy przez Pf (τ1,…,τn) prawdopodobieństwo zniszczenia systemu w okresie użytkowania T, czyli w okresie czasu [0,T] przy znanych τi (1≤i≤n). Stopień wpływu niezawodności poszczególnych grup elementów na niezawodność całego systemu (wrażliwość systemu) wyraża gradient:
$ \nabla P_f=\left [ \dfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_1} , …, \dfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_n} \right ]$ | (8) |
Zdefiniowana wrażliwość niezawodności charakteryzuje prędkość zmian niezawodności systemu przy zmianie niezawodności poszczególnych grup elementów. W praktyce projektowej nie można przestawić jawnych formuł na funkcje niezawodności Pf (τ1,…,τn) i wobec tego do poszukiwanie gradientu tej funkcji ∇ należy zastosować szybkie metody symulacji i oraz teoretycznych metod oceny dokładności rozwiązań, podanych na przykład w pracy [7]. Przedstawione metody pozwalają oszacować gradient stochastyczny,to jest wektor $\left [ \varphi_1 \tau_1 ,…, \tau_n), …, \varphi_n \tau_1 ,…, \tau_n \right ]$, taki, że [8]:
$E \gamma_i (\tau_1,…, \tau_n)=\dfrac{\partial P_f(\tau_1,…, \tau_n)} {\partial \tau_i}, 1\le i \le n,$ | (9) |
Ważną cechą metod szybkich symulacji jest to, że dla każdej realizacji i każdego elementu można ocenić jakość zbioru elementów, więc w trakcie prowadzenia symulacji można poprawiać proces i skupić się na elementach słabych, statystycznie istotnych cechach oraz kryteriach jakości. Można również ocenić „wkład” każdego elementu w niezawodność systemu.
Metody zmniejszenia dyspersji w zastosowaniu do wysokoniezawodnych systemów
Przyjmijmy, że jest dany jest probabilistyczny model funkcjonowania systemu i należy określić pewną średnią cechę μ . Model systemu definiuje stopień jakości (na przykład niezawodności) poprzez funkcję losowych wielkości ζ=f(ξ1, ξ2,…). Zmienne ξ1, ξ2 mają zwykle sens czasu bezawaryjnej pracy elementów systemu, czas naprawy, okresy przeglądów i remontów okresowych itp. Znając ich rozkłady prawdopodobieństwa, na podstawie ich realizacji można określić realizację ich funkcji ζ. Jeśli Ω jest przestrzenią możliwych wartości wektora losowego ξ=[ξ1, ξ2,…] , pξ(x) jest gęstością rozkładu prawdopodobieństwa tego wektora , to można zapisać
$N =\int \limits _\Omega f(x) p_\xi (x)dx $ | (10) |
Zastosowania teorii złożonych systemów niezawodnościowych
Konstrukcje budowlane są wysoko niezawodne, to znaczy charakteryzują się niewielkim prawdopodobieństwem awarii, rzędu pf= 10-4. To spostrzeżenie skutkuje większymi trudnościami w w oszacowaniu niezawodności.
Literatura
- Moore, E. F., & Shannon, C. E. (2003). Reliable circuits using less reliable re-lays. Journal of the Franklin Institute, 262(3), 191–208
- Barlow, R. E., Proschan, F. (1974), Statistical theory of reliability and life testing: probability models. Holt, Rinehart and Winston
- Schweppe, F. C. (1973). Uncertain dynamic systems. Prentice-Hall
- Bolotin V. V. (1968). Metody statystyczne w mechanice budowli, Wydawnictwo Arkady, Warszawa 1968. Arkady
- Timasev, S. A. (1982). Nadeznost bolsich mechaniceskich sistem. Izdatelstvo Nauka
- Buslenko, N. P. (1978). Modelirowanije zloznych sistem. Izdatelstvo Nauka
- Franken, P., Konig, D., Arndt, U., & Schmidt, V. (1982). Queues and point processes. Wiley
- Kovalenko, I. N., & Kuznetsov, N. I. (1988). Metody rascheta vysokonadezhnykh sistem (Nauch. izd). Radio i sviaz
________________________________