Niezawodność wysokoniezawodnych i dużych systemów

Typowe podejście inżynierskie do rozwiązania problemu rzeczywistego, który z natury jest problemem stochastycznym (losowym) przedstawiono na rys.1. Systemy konstrukcyjne budowlane są wysokoniezawodne (rzędu 10-4) i zawierają wiele elementów (są duże). Z tych względów najczęściej wymagają zastosowania szybkich symulacji numerycznych (metody Monte Carlo z zastosowaniem redukcji wariancji, np poprzez losowanie warstwowe i  hiperkostki łacińskiej). Szeroko stosowana jest również analiza niezawodności złożonych systemów technicznych z wykorzystaniem teorii nośności granicznej (plastycznej) wysokoniezawodnych budowlanych konstrukcji prętowych.  Przybliżone analizy niezawodności wysokoniezawodnych systemów złożonych z elementów o ograniczonej niezawodności zapoczątkowali Moor i Schannon już w latach 60-tych ((Moore, Shannon, 2003)) a ich koncepcje zostały  szczegółowo opracowane w kolejnych latach ((Barlow, Proschan, 1974)).

Schemat

Rys. 1. Typowe rozwiązanie inżynierskie: I – model fizyczny przyjmuje inżynier; II – Modelowanie matematyczne (identyfikacja układu, redukcja modelu ); III-  estymacja, testowanie hipotez, symulacja (rozwiązanie) ; IVa odwrócony krok II, (Schweppe, 1973)

Model układu

Rys. 2.  Model układu rzeczywistego

Problem niezawodności konstrukcji budowlanych

Analiza układu rzeczywistego, przedstawionego na rys.2., a w szczególności dużego systemu konstrukcyjnego (DSK)  jest prowadzana na kilku etapach:
Etap I:  schematyzacja systemu, czyli dobór fizycznego („naturalnego”) modelu obiektu: przestrzeni X parametrów wejściowych (obciążeń)  , przestrzeni parametrów wyjściowych (odpowiedzi) Y, a także operatora  systemu  K, to znaczy, który możemy zapisać  symbolicznie (Bolotin, 1968)

$K y=x, \hspace{10px} y\in Y,\hspace{10px}x\in X$  (1)

W przypadku konstrukcji mamy na przykład : K- macierz sztywności, x– obciążenia , y – przemieszczenia,
Etap II -zidentyfikowanie zmiennych i redukcja zmiennych, tak aby analizować układ tylko ze zmiennymi istotnymi z punktu widzenia kryteriów , a także z takimi  dla których posiadamy bazę z danymi statystycznymi.
Etap III  – rozwiązanie układu w przestrzeni stanów w drodze analiz, najczęściej symulacyjnych modelu matematycznego zdefiniowanego na etapie II.

Etap IVa: zdefiniowanie przestrzeni  jakości Q i obszaru  Ω –  zbioru stanów systemu, dopuszczalnych z punktu widzenia wymaganych kryteriów jakości. Wyboru dokonuje się z warunków  ekonomicznych, ekologicznych oraz społecznych, z których najważniejsze są wymagania funkcjonalne oraz trwałości (wytrzymałości i stateczności).  Nie można podać uniwersalnego algorytmu na zdefiniowanie przestrzeni Q , ponieważ definicja jest zależna od konkretnego rodzaju systemu i zadania.
Etap IV: Wyznaczenie funkcji niezawodności R, czyli prawdopodobieństwa tego , że system nie wyskoczy poza obszar dopuszczalny Ω w  projektowym okresie użytkowania T.

W rzeczywistych systemach obciążenia X i operator K są losowe, więc losowe są więc również odpowiedzi: modelowe Y i obserwowane Z . Ponadto najczęściej mamy do czynienia z systemami, w których obciążenia są wieloparametrowe, a kryteria jakości sprowadzone na poziom elementu systemu, a systemy mają wiele elementów. Najczęściej dla każdego  elementu układu  należy spełnić kilka warunków (kryteriów) jakości.

W takim przypadku najlepiej równanie systemu (1) przekształcić do popstaci (2), tak by obszar  dopuszczalny Ω oraz przestrzeń jakości budować w przestrzeni obciążeń  X

$\lambda_{lim}=H(\lambda)$  (2)

gdzie H= K-1 jest operatorem odwrotnym do K, λ – mnożnikiem obciąźęń a λlim dopuszczalnymi wartościami mnożników obciążeń,definiującymi obszar jakości układu.
Przykładowo w przypadku konstrukcji prętowej złożonej z N prętów, można określić N-kryteriów jakości  $E_i\geq E_{R_i}$ (siła   Ei w pręcie i powinna być nie większa od nośności ERi tego pręta), czyli wektor  λ=[E1,E2,..Ei,.. EN],  λ lim=[ER1,ER2,..ERi,.. ERN]. Należy przy tym wskazać, że w przypadku pręta nośność ERi jest wynikiem interakcji kilku rodzajów sił prętowych:  siły osiowej, momentu zginającego, siły poprzecznej, momentu skręcającego i bimomentu.

Na rys. 3a pokazano na przykładzie obciążenia dwuparametrowego [λ1, λ2] systemu , w którym zdefiniowano kilka (i, i+2, i+3) kryteriów jakości – krzywe graniczne (krzywe interakcji), wyznaczające dopuszczalne obszary dla każdego z tych kryteriów.

Rys. 1a. Obszar dopuszczalny dla 2-parametropwego obciążenia i kilku kryteriów jakości

Rys. 3a. Obszar dopuszczalny dla 2-parametrowego obciążenia i kilku kryteriów jakości  (Timasev, 1982)

Iloczyn obszarów Ωi dla N-obszarów daje obszar dopuszczalny systemu (3) ze względu na wszystkie kryteria, w którym nie zajdzie żaden typ awarii.

$\Omega=\cap_{i=1}^N \; \; \Omega^{(i)}$  (3)

Obszary, w których zajdzie kilka typów awarii jednocześnie można określić z rachunku zbiorów. Na przykład obszar w którym zajdzie jednocześnie typ (i) oraz (i+1) wynosi  $\bar{\Omega }^{(i, i+1)}=\Omega ^{(i+1)}- \Omega^i \cap \; \Omega ^{(i+1)}$ , a obszar, w którym zajdzie jednocześnie typ (i) oraz (i+2) wynosi $\bar{\Omega }^{(i, i+2)}=\Omega ^{(i)}- \Omega^i \cap \;\Omega^{(i+2)}$ .

Jeśli system składa się z wielu elementów , to można zbudować obszary dopuszczalne dla każdego elementu ze względu na dane   kryterium jakości (i). Przekrój tych wszystkich obszarów jednostkowych będzie obszarem dopuszczalnym dla całego systemu, tak jak pokazano na rys. 3b .

Rys. 2 Obszar dopuszczalny dlka systemu wieloelementowego i kryterium jakości (i)

Rys. 3b  Obszar dopuszczalny dla systemu wieloelementowego i kryterium jakości (i) (Timasev, 1982)

Podejście obciążeniowe (rozpatrywanie zagadnienia w przestrzeni obciążeń) daje możliwość wskazania istotnych,najbardziej  znaczących kryteriów jakości (mechanizmów awarii) oraz istotnych elementów. Z rys. 1a wynika na przykład m, że istotnymi kryteriami są (i) oraz (i+1),a z rys, 1b wynika, ze istotnymi elementami są elementy (1) oraz (4). Losowość systemu jest skupiona w obszarze dopuszczalnym, co manifestuje się tym bardziej im bardziej niezawodny jest system, a z takimi systemami mamy do czynienia w budownictwie i architekturze. W takim przypadku popełnimy stosunkowo niewielki błąd odrzucając z analizy elementy i kryteria jkaości nie będące istotnymi jeszcze przed przystąpieniem do obliczania całki niezawodności.

Ponieważ we współczesnym podejściu zrównoważonym analizujemy systemy w całym cyklu „życia” o okresie eksploatacji T, więc nie możemy pominąć czynnika czasu t, wraz z upływem którego w rzeczywistym środowisku fizycznym i chemicznym konstrukcja  starzeje się, czyli zmienia się jej jakość, wskutek czego zmianom ulega obszar dopuszczalny dla obciążeń.

W takim przypadku  stochastyczną funkcję niezawodności R (t)  w punkcie czasu t  w projektowym okresie użytkowania T (τ jest bieżącym czasem,  , a ω tymi elementami przestrzeni systemu które są istotnie losowe) można zapisać w postaci:

$R(t)=Pr[\lambda(\tau)\in \Omega (\tau|\; \omega),\; \; 0 \leq \tau \leq t]$  (4)

Wraz z jakością systemu zmienia się w czasie obszar dopuszczalny Ω.  W przypadku „schodkowej” aproksymacji obszaru dopuszczalnego w czasie , a niezawodność starzejącego się systemu należy wyznaczać jak dla systemu szeregowego „schodków k-tych” w czasie. Jeśli przez Rk oznaczymy niezawodność systemu na k-tym odcinku czasu $[\tau_{k-1} \; ; \; \; \tau_k]$, to z fundamentalnych zależności teorii niezawodności dla systemu szeregowego losowo niezależnych n ogniw mamy (Barlow, Proschan, 1974):

$R (t)=\prod \limits_{k=1}^n R_k=1-\sum \limits_{k=1}^{n}P_{fk}$  (5)

gdzie Pfk jest prawdopodobieństwem „zniszczenia, ang failure ” (wyjścia poza obszar dopuszczalny) systemu na odcinku czasu k.

W przypadku ogniw skorelowanych lub ogólniej losowo zależnych, należy stosować oszacowania granic niezawodności, np w sposób pokazany w pracy  .

Ze względu na wielowymiarowość i uwikłanie zagadnień praktycznych, objawiający się na przykład: szybkim wzrostem rozmiaru zadania wraz ze zwiększaniem się liczby elementów, rozkład momentów funkcji niezawodności innym niż normalny czy potęgowy, często silnymi nieliniowościami – analizę niezawodnościową DSK  można efektywnie prowadzić wyłącznie metodą Monte-Carlo (Buslenko, 1978). W przypadku DSK  inne metody w tym aproksymacyjne szeregami Taylora zawodzą, przede wszystkim ze względu na błędy pasożytnicze (maszynowe, procesora komputera), objawiające się szybkim zmniejszaniem dokładności rozwiązania wraz ze zwiększaniem rozmiaru zadania.

Przy założeniu niezależności poszczególnych symulowanych realizacji ocena (estymator) prawdopodobieństwa awarii DSK  Pf w analizowanym okresie wynosi po prostu:

$P_f = \dfrac{n_f}{N}$  (6)

gdzie nf – jest liczbą realizacji spośród wszystkich N  dla których system „wyskoczył” z obszaru dopuszczalnego w dowolnym miejscu (elemencie) i dla dowolnego kryterium jakości.
W celu otrzymania  oszacowania Pf ze względnym błędem średniokwadratowym $\delta=\dfrac{\sigma_{p_f}}{p_f}$ należy przeprowadzić nie mniej realizacji niż wynika to z formuly (7):

$N = \dfrac{1-P_f}{P_f \cdot \delta^2}$  (7)

Przykładowo dla Pf= 10-4 (wymaganego dla konstrukcji budowlanych prawdopodobieństwa zniszczenia   i dla błędu oszacowania 10% mamy N=106. W praktyce przeprowadzenie tak dużej liczby symulacji byłoby bardzo kosztowne i długotrwałe. Dlatego w analizie BSK ważne są szybkie algorytmy symulacji , pozwalające zmniejszyć wymaganą liczbę symulacji nawet o kilka rzędów.

Praktyczne zastosowanie metod szybkich symulacji

Wprowadzenie

Rozpatrzmy zastosowanie szybkich metod Monte Carlo do rozwiązania zadania optymalizacyjnego teorii niezawodności, czyli zadania   projektowania konstrukcji budowlanych. Podczas projektowania konstrukcji duże znaczenie ma zbadanie wpływu poszczególnych elementów i ich grup na niezawodność całego systemu konstrukcyjnego, co pozwala ujawnić słabe miejsca konstrukcji i doprowadzić do wymaganej niezawodności systemu poprzez  prawidłowe zaprojektowanie szczególnie tych miejsc.

Przyjmijmy, bez utraty ogólności, że system jest złożony z n grup jednakowych w każdej grupie elementów, a czas bezawaryjnej pracy elementów i-tej grupy (1≤i≤n) ma wykładniczy rozkład prawdopodobieństwa ze średnią τi .  Bez konkretyzowania pozostałych parametrów rozkładu i w szczególności zbiór stanów dopuszczalnych konstrukcji , oznaczmy przez Pf 1,…,τn) prawdopodobieństwo zniszczenia systemu w okresie użytkowania T, czyli w okresie czasu [0,T] przy znanych τi (1≤i≤n). Stopień wpływu niezawodności poszczególnych grup elementów na niezawodność całego systemu (wrażliwość systemu) wyraża gradient:

$ \nabla P_f=\left [ \dfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_1} , …, \dfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_n} \right ]$  (8)

Zdefiniowana wrażliwość niezawodności charakteryzuje prędkość zmian niezawodności systemu przy zmianie niezawodności poszczególnych grup elementów. W praktyce projektowej nie można przestawić jawnych formuł na funkcje niezawodności Pf 1,…,τn)  i wobec tego do poszukiwanie gradientu tej funkcji ∇ należy zastosować szybkie metody symulacji i oraz teoretycznych metod oceny dokładności rozwiązań, podanych na przykład w pracy (Franken, Konig, Arndt, Schmidt, 1982). Przedstawione metody pozwalają oszacować gradient stochastyczny,to jest wektor $\left [ \varphi_1 \tau_1 ,…, \tau_n), …, \varphi_n \tau_1 ,…, \tau_n \right ]$, taki, że (Kovalenko, Kuznetsov, 1988):

$E \gamma_i (\tau_1,…, \tau_n)=\dfrac{\partial P_f(\tau_1,…, \tau_n)} {\partial \tau_i}, 1\le i \le n,$  (9)

Ważną cechą metod szybkich symulacji jest to, że dla każdej realizacji i każdego  elementu można ocenić jakość zbioru elementów, więc w trakcie prowadzenia symulacji można poprawiać proces i skupić się na elementach słabych, statystycznie istotnych cechach oraz kryteriach jakości. Można również ocenić „wkład” każdego elementu w niezawodność  systemu.

Metody zmniejszenia dyspersji w zastosowaniu do wysokoniezawodnych systemów

Przyjmijmy, że jest dany jest probabilistyczny model funkcjonowania systemu i należy określić pewną średnią cechę μ . Model systemu  definiuje stopień jakości (na przykład niezawodności) poprzez funkcję losowych wielkości ζ=f(ξ1, ξ2,…). Zmienne ξ1, ξ2 mają zwykle sens czasu bezawaryjnej pracy elementów systemu, czas naprawy, okresy przeglądów i remontów okresowych itp. Znając ich rozkłady prawdopodobieństwa, na podstawie ich realizacji można określić realizację ich funkcji ζ.  Jeśli Ω jest przestrzenią możliwych wartości wektora losowego   ξ=[ξ1, ξ2,…] , pξ(x) jest gęstością rozkładu prawdopodobieństwa tego wektora , to można zapisać

$N =\int \limits _\Omega f(x) p_\xi (x)dx $  (10)

Zastosowania teorii złożonych systemów niezawodnościowych

Konstrukcje budowlane są wysoko niezawodne, to znaczy charakteryzują się niewielkim prawdopodobieństwem awarii, rzędu pf= 10-4. To spostrzeżenie skutkuje większymi trudnościami w w oszacowaniu niezawodności.

Literatura

Barlow, R. E., & Proschan, F. (1974). Statistical theory of reliability and life testing: probability models. New York: Holt, Rinehart and Winston.
Bolotin, V. V. (1968). Metody statystyczne w mechanice budowli, Wydawnictwo Arkady, Warszawa 1968. Warszawa: Arkady.
Buslenko, N. P. (1978). Modelirowanije zloznych sistem. Moskva: Izdatelstvo Nauka.
Franken, P., Konig, D., Arndt, U., & Schmidt, V. (1982). Queues and point processes. Chichester: Wiley.
Kovalenko, I. N., & Kuznetsov, N. I. (1988). Metody rascheta vysokonadezhnykh sistem (Nauch. izd). Moskva: Radio i sviaz.
Moore, E. F., & Shannon, C. E. (2003). Reliable circuits using less reliable relays. Journal of the Franklin Institute, 262(3), 191–208.
Schweppe, F. C. (1973). Uncertain dynamic systems. Englewood Cliffs, N.J: Prentice-Hall.
Timasev, S. A. (1982). Nadeznost bolsich mechaniceskich sistem. Izdatelstvo Nauka.

Related Hasła

Comments : 0
O autorze

* dr inż. Leszek Chodor. Architekt i Inżynier Konstruktor; Rzeczoznawca budowlany. Autor wielu projektów budowli, w tym nagrodzonych w konkursach krajowych i zagranicznych, a między innymi: projektu wykonawczego konstrukcji budynku głównego Centrum „Manufaktura” w Łodzi, projektu budowlanego konstrukcji budynku PSE w Konstancinie Bielawa, projektów konstrukcji „Cersanit” ( Starachowice, Wałbrzych, Nowograd Wołyński-Ukraina). Autor kilkudziesięciu prac naukowych z zakresu teorii konstrukcji budowlanych, architektury oraz platformy BIM w projektowaniu.

Wyślij

Translate »