Pytanie:
Dlaczego systemy danych statków kosmicznych są przestarzałe w momencie startu?
GreenMatt
2013-07-17 18:49:01 UTC
view on stackexchange narkive permalink

Można by pomyśleć, że statek kosmiczny byłby w czołówce technologii. Jednak patrząc na szczegóły statków kosmicznych, wydaje się, że ich systemy komputerowe są często bardzo spóźnione. Na przykład łazik Curiosity został uruchomiony w 2011 r., Kiedy konsumenckie komputery przenośne działały w GHz i miały GB pamięci. Procesor Curiosity działa z częstotliwością 132 MHz, a system ma tylko 256 MB pamięci RAM (źródło: http://en.wikipedia.org/wiki/Comparison_of_embedded_computer_systems_on_board_the_Mars_rovers). Zdaję sobie sprawę, że może wystąpić pewne opóźnienie w uzyskaniu części do statku kosmicznego, zanim zostanie zbudowany i ostatecznie wystrzelony, ale wydaje się to ekstremalne. Dlaczego statki kosmiczne nie mają bardziej aktualnych systemów danych?

nie nowatorski! = przestarzały.
@Chad: Prawda, ale 8-bitowy procesor jest starożytny, gdy 32-bitowe procesory są komercyjnym standardem dla systemów stacjonarnych.
@GreenMatt Curiosity (i łaziki MER) wykorzystuje 32-bitowe procesory
W rzeczywistości większość komputerów stacjonarnych (a nawet wiele laptopów) to obecnie systemy 64-bitowe.
@Donald.McLean: To prawda, ale to był tylko przykład (o którym wiedziałem z pierwszej ręki i który mnie zaskoczył, gdy się o tym dowiedziałem).
@GreenMatt Chodzi mi o to, że sformułowałeś jasne i konkretne stwierdzenie „32-bitowe procesory są standardem komercyjnym”. i kwestionuję to stwierdzenie. Tak, wydaje się dziwne, że wiele statków kosmicznych jest uruchamianych z przestarzałymi procesorami. W 1999 roku SM3A zastąpił oryginalny komputer Hubble'a 486 (sześć pełnych lat po wypuszczeniu Pentium). Jednak punkt widzenia Chada jest nadal aktualny.
@Donald.McLean: Kiedy przykład, do którego się odnosiłem, został uruchomiony, 32-bitowe procesory były normalne dla komputerów stacjonarnych. Jeśli chodzi o punkt widzenia Chada, kiedy Pentium były standardowymi procesorami w komputerach stacjonarnych, większość ludzi uważała 8086 za przestarzałe; co więcej, nie zapytałem: „Dlaczego statki kosmiczne nie używają najnowocześniejszych systemów danych?”
http://www.nasaspaceflight.com/2013/07/brains-sls-flight-computer-enters-build-phase/ to historia o tym, jak zaczęli budować komputer pokładowy dla SLS, teraz w 2013 roku. Więc wszystko został wybrany do użycia. Wyobraź sobie, jak pomyślimy, że jest przestarzały, gdy SLS zacznie działać. Albo dekadę jego działania.
„Można by pomyśleć, że statek kosmiczny byłby w czołówce technologii”. Jestem winny, że chcę więcej przyszłości w stylu "Gwiezdnych wojen", a mniej "2001". Ale nikt nie słyszy twojego krzyku w kosmosie ... Doskonałe pytanie +1
Dziewięć odpowiedzi:
#1
+52
Adam Wuerl
2013-07-19 10:32:51 UTC
view on stackexchange narkive permalink

Istnieje wiele powodów, dla których elektronika statków kosmicznych zwykle pozostaje w tyle w stosunku do tego, co jest dostępne w handlu o kilka lat.

Tolerancja na promieniowanie

Elektronika jest bardzo podatna na zjawisko promieniowania, które w dużej mierze dotyczy elektroniki naziemnej. chronione przez ziemską atmosferę i pole magnetyczne. Typowe mechanizmy awarii oparte na promieniowaniu to zdarzenie / zakłócenie pojedynczego zdarzenia (SEE / SEU) - najczęściej uważane za odwrócony bit, zatrzaskowy - gdzie bit utknie w określonym stanie, a część musi zostać wyłączona być zresetowane, wypalenie - gdzie cząstka o wysokiej energii (np. proton lub neutron) niszczy część, a całkowita dawka - gdzie długotrwała ekspozycja (a nie dziwne zdarzenie) degraduje część. W miarę jak chipy i obwody postępują, a tranzystory są ściślej upakowane, prawdopodobieństwo tych zdarzeń rośnie.

Istnieje kilka technik i metod testowania, które pozwalają wykazać, czy zespoły elektroniczne są wytrzymałe w środowiskach promieniowania kosmicznego, ale testy te są kosztowne. Tak więc po wykonaniu części, komponentu lub montażu, handel jest często zmuszany do życia z mniejszą wydajnością i oszczędza koszty ponownego testowania i unikania ryzyka całkowitej awarii misji.

Niezawodność

Konserwacja komputera naziemnego jest łatwiejsza, a koszty awarii są często znacznie niższe niż w przypadku statków kosmicznych. Systemy naziemne również nie mają takiej samej napiętej mocy, rozmiaru i budżetów masowych, jak systemy kosmiczne, co ogranicza liczbę wykonalnych redundancji. Rozwiązaniem jest dalsze używanie części, dla których wykazano wysoką niezawodność. Innym sposobem na zwiększenie niezawodności jest przeprowadzenie kontroli części i wykonanie wielu testów elektroniki (np. Wypalanie w celu wykrycia śmiertelności niemowląt, losowe testy wibracji w celu naśladowania środowisk startowych, testy wstrząsów w celu naśladowania zdarzeń pirotechnicznych, takich jak zrzuty owiewek) i testy próżni termicznej naśladować przestrzeń. Testowanie wymaga czasu i jest kosztowne. Samo opóźnienie powoduje, że większość systemów kosmicznych ma co najmniej jeden cykl prawny Moore'a za najnowszymi częściami konsumenckimi.

Czas budowy satelitów

Aby nie wspominając o awionice, budowa satelitów zajmuje dużo czasu. Nawet gdy komputery są gotowe, reszta pojazdu musi zostać zmontowana i przetestowana. W przypadku dużych statków kosmicznych może to zająć lata. Tymczasem komputer nie staje się młodszy a niechęć (często uzasadniona) do ryzyka oznacza, że ​​jego aktualizacja wymagałaby ponownego wykonania wielu z tych testów.

Zużycie energii

Z biegiem czasu prawo Moore'a pomaga chipom zwiększyć wydajność przetwarzania moc i spadek poboru mocy, ale ogólnie mówiąc, porównując współczesne części, mocniejsze chipy zużywają więcej energii. Statki kosmiczne są prawie powszechnie pozbawione mocy, więc nie ma zachęty do używania bardziej energochłonnego chipa, niż jest to absolutnie konieczne. Wszystko w statku kosmicznym jest kompromisem: wat mocy używany przez główny komputer pokładowy przenoszący niewykorzystane cykle to wat, którego nie można wykorzystać do komunikacji radiowej lub zasilania ładunku (gdy ten ładunek nie jest komunikacji) itp.

Dokumentacja

Dokumentacja i proces mogą być tak samo dominujące, jak inne przyczyny. Przemysł lotniczy jako historycznie wysoka bariera wejścia. Kiedyś powodem jest kapitał ludzki wymagany do budowy i wystrzeliwania statków kosmicznych, ale równie ważne jest kosmiczne dziedzictwo oprogramowania i komponentów, które do nich wchodzą. Środowiska kosmiczne są pod wieloma względami trudniejsze niż środowiska lądowe i często wymagają unikalnych rozwiązań (w przypadku awioniki dobrym przykładem jest oddawanie ciepła bez chłodzenia konwekcyjnego). Środowiska uruchamiania zostały omówione powyżej. Kwalifikacja komponentów to rzeczywiste zadanie skupione na sprzęcie, ale istnieje papierowy ślad, który potwierdza tę analizę i zapewnia klientom konstruktora statku kosmicznego i dostawcę startu, że pojazd będzie bezpieczny podczas wznoszenia i będzie działał w przestrzeń. Udowodniono to poprzez połączenie testów, analiz i demonstracji, ale większość osób, którym zależy, nie jest świadkiem ani nadzoruje tych działań bezpośrednio, więc polegają na doskonałej dokumentacji, aby zapewnić tę pewność. Kiedy już poradzisz sobie z uzyskaniem wpisowego na widget X - trudniej jest uzasadnić wysiłek związany z uzyskaniem wpisowego Δ dla widgetu Y, a nawet X +, jeśli starsza część nadal działa. Dostawcy lotnictwa i kosmonautyki (główni wykonawcy i całe łańcuchy dostaw) są również często zobowiązani do wprowadzenia rygorystycznych procesów jakościowych - tj. Większej liczby dokumentów i procesów. Wszystko to spowalnia tempo innowacji i zmian w zamian za przewidywalność.

Opóźnienia w wystrzeliwaniu

Następnie, gdy statek kosmiczny jest gotowy, musi zostać wystrzelony, a wystrzelenie może przemijać miesiące, jeśli nie lata.

Myślę, że przegapiłeś duży, jeśli chodzi o zużycie energii, mocniejsze chipy zużywają więcej energii.
I chyba najważniejszy powód: PAPIERNICTWO! Uzyskanie określonego sprzętu „klasy kosmicznej” zajmuje lata i mnóstwo dokumentów. Do czasu, gdy ten produkt jest przystosowany do kosmosu, powiązana z nim technologia konsumencka wyprzedza o lata świetlne ...
Co jest warte, pomimo powyższych powodów, myślę, że zmiana paradygmatu nadchodzi właśnie dlatego, że postęp w awionice sprawia, że ​​małe statki kosmiczne są mocniejsze i bardziej przystępne cenowo, które ze względu na ich rozmiar i złożoność są tańsze i szybsze w produkcji i łagodzeniu wielu problemów powyżej. Właściwie napisałem cały post o [Agile Aerospace] (http://wuerl.calepin.co/agile-aerospace.html).
Stare łącze jest martwe i [Agile Aerospace] (https://veridical.net/agile-aerospace.html) zostało przeniesione.
#2
+33
Undo
2013-07-17 18:59:39 UTC
view on stackexchange narkive permalink

Duża część to niezawodność. NASA mogłaby umieścić prawdopodobnie chip Intel Xeon wyprodukowany w 2012 roku, który ma szalenie wysoką moc obliczeniową.

Jednak chip, który był używany , RAD750, ma za sobą lata eksperymentów i zastosowań, takich jak używanie go w różnych statkach kosmicznych, w tym:

  • Kometa Deep Impact ścigająca statek kosmiczny, wystrzelona w styczniu 2005 roku - jako pierwsza użyj komputera RAD750.
  • XSS 11, mały eksperymentalny satelita, wystrzelony 11 kwietnia 2005 roku
  • Mars Reconnaissance Orbiter, wystrzelony 12 sierpnia 2005 roku.
  • WorldView- 1 satelita, wystrzelony 18 września 2007 r. - ma dwa RAD750.
  • Kosmiczny Teleskop Gamma-ray Fermi, dawniej GLAST, wystrzelony 11 czerwca 2008 r.
  • Kosmiczny teleskop Keplera wystrzelony w marcu 2009 .
  • Lunar Reconnaissance Orbiter, wystrzelony 18 czerwca 2009 r.
  • Wide-field Infrared Survey Explorer (WISE) wystrzelony 14 grudnia 2009 r.
  • Solar Dynamics Observatory, wystrzelił 11 lutego 2010
  • statek kosmiczny Juno, wystrzelił A ugust 5, 2011
  • łazik Curiosity, zwodowany 26 listopada 2011

Dzięki używaniu od 2005 roku NASA może być dość pewna, że ​​chip wygrał nie zawodzi z powodu problemów z promieniowaniem itp.

Dlaczego? Cóż, powiedziałbym, że odpowiedź Johna Besina podsumowała to całkiem dobrze i nie będę próbował tego przebijać:

Nie sądzę, że tak będzie sprawa w ogóle. Jeśli już, NASA chciałaby używać sprzętu (i oprogramowania), który był szeroko testowany przez lata użytkowania, zarówno w NASA, jak iw całym przemyśle. Ostatnią rzeczą, jakiej chce NASA, jest znalezienie błędu w systemie statku kosmicznego w nieodpowiednim momencie , a kiedy mówisz o urządzeniach, które muszą podróżować potencjalnie setki tysięcy mil w przestrzeni, jest wiele nieodpowiednich momentów .

Henry Spencer (dobrze znany z grup dyskusyjnych) skomentował, że ostrożnie można używać części nieprzestrzennych. Ale ta troska jest interesująca. Potrzebujesz nadmiarowości i możliwości szybkiego odzyskiwania po awarii. Co jest trudne. (Pracował na mikrosacie, używając tylko części komercyjnych, o ile pamiętam).
Tak. Wraca do władzy i złożoności projektu; coś potężniejszego, ale niesprawdzonego, wymaga systemu kopii zapasowych na wypadek awarii, w przeciwnym razie po prostu zmarnowałeś setki milionów dolarów na śmieci kosmiczne. Ta kopia zapasowa musi być w stanie w każdej chwili przejąć pełną kontrolę nad jednostką, więc musi być dobrze zintegrowana, co może stworzyć inne słabe punkty w projekcie, więc * te * muszą być zbędne; w końcu umieszczasz dwa komputery w jednym statku kosmicznym, każdy włączony, ale jeden tylko obserwuje drugi, a to luksus, biorąc pod uwagę systemy zasilania większości statków kosmicznych.
#3
+29
John Bensin
2013-07-17 18:59:54 UTC
view on stackexchange narkive permalink

Można by pomyśleć, że statek kosmiczny byłby w czołówce technologii.

W ogóle nie sądziłbym, że tak jest. Jeśli już, NASA chciałaby używać sprzętu (i oprogramowania), który był szeroko testowany przez lata użytkowania, zarówno w NASA, jak iw całym przemyśle. Ostatnią rzeczą, której chce NASA, jest znalezienie błędu w systemie statku kosmicznego w nieodpowiednim momencie, a kiedy mówisz o urządzeniach, które muszą podróżować potencjalnie setki tysięcy mil w kosmos, jest ich wiele nieodpowiednie momenty.

To pytanie w Programmers.SE może być również interesujące; dotyczy języków programowania, sprzętu itp. użytych do budowy łazika Mars Curiousity.

Wyobrażam sobie również, że sprzęt o niższej specyfikacji, którego używa NASA, ma mniejsze zapotrzebowanie na energię niż najnowocześniejszy sprzęt o dużej mocy . Na przykład, jeśli łazik nie potrzebuje szybszego procesora do działania, po co marnować miejsce i wagę zasilając taki procesor, skoro wystarczy procesor o niższej specyfikacji?

NASA (i większość innych agencji kosmicznych) ma system oceny - TRL (Technology Readiness Level), który pozwala na klasyfikację rzeczy, które są dobrze znane i przetestowane w locie, względem technologii eksperymentalnej. Jeśli zbudujesz misję wokół zbyt wielu niesprawdzonych technologii, ryzykujesz opóźnieniami, przekroczeniem kosztów itp.
Setki tysięcy mil? To przenosi cię na Księżyc, dawaj lub bierz. Niech to będzie raczej setki * milionów * mil; przynajmniej to doprowadzi cię na Marsa.
#4
+9
PearsonArtPhoto
2013-07-18 22:59:50 UTC
view on stackexchange narkive permalink

Kolejnym ważnym powodem jest to, że po prostu nie ma potrzeby robić nic potężniejszego. Istnieje wiele zastosowań na Ziemi, w których niezawodność jest ważniejsza niż prędkość. Na przykład automat sprzedający zawiera prosty komputer. Nie chcesz, żeby to się zawaliło i zabrało twoje pieniądze.

Zdecydowana większość przetwarzania używanego obecnie przez komputery odbywa się w interfejsie graficznym. Ponieważ nie ma satelity z interfejsem graficznym, nie robi to tak dużej różnicy.

Celem komputera satelity jest utrzymanie satelity przy życiu, skierowanie go we właściwym kierunku, zarządzanie moc i zbieraj dane do użytku naziemnego. W związku z tym nie muszą mieć procesorów gigahercowych, po prostu muszą być potokiem danych. Muszą to robić z dużą precyzją. Nie możesz iść i wcisnąć przycisku zasilania na statku kosmicznym, potrzebujesz, aby jego systemy działały bezbłędnie przez cały czas.

Na ISS regularnie korzystają astronauci, ale to nie krytyczne systemy. Szybkość ma znaczenie tylko wtedy, gdy komputer musi wykonać znaczące przetwarzanie danych, a poza pewną kompresją, większość tego nadal odbywa się na Ziemi. Co więcej, większość systemów z ładowanym obrazem ma niestandardowe chipy na pokładzie, które pomagają w szybszym przetwarzaniu obrazów, pozwalając na wykonanie mniejszej ilości pracy na głównym procesorze.

Oprócz kompresji cyfrowe przetwarzanie sygnału może korzystać ze znacznej mocy przetwarzania. Można to zrobić na specjalistycznym sprzęcie, ale nadal może się to liczyć jako część „komputera”.
Zastosowania dla większej mocy obliczeniowej i pamięci można łatwo znaleźć, nawet jeśli GUI nie stanowią problemu. Kompresja danych, ulepszona obsługa nieoczekiwanych warunków itp.
A także kamery i wizja komputerowa.
#5
+4
user39
2013-07-18 00:19:48 UTC
view on stackexchange narkive permalink

Istnieje anime „ Rocket Girls”, w którym bohaterka zadała to samo pytanie. Otrzymała odpowiedź, że używają tylko klasycznej technologii; technologia, która z biegiem czasu zyskała reputację sukcesu. Dotyczy to również medycyny i lotnictwa ogólnego. W rzeczywistości jest to prawdą w przypadku większości gałęzi inżynierii, głównie inżynierii oprogramowania, która korzysta z „najnowszych” rzeczy.

Ponadto CMOS jest bardziej podatny na promieniowanie niż TTL, więc jeśli wykonujesz hartowanie przed promieniowaniem, może być lepiej mieć wolny chip 100 MHz oparty na TTL niż szybki chip oparty na CMOS 3.4 Ghz.

RAD 750 jest zbudowany w technologii CMOS ...
#6
+3
Erik
2013-07-19 07:39:06 UTC
view on stackexchange narkive permalink

Kilka rzeczy, które mógłbym dodać do dobrych odpowiedzi już tutaj:

  • Ramy czasowe wyboru. Decyzję o tym, jakiego sprzętu użyć do pojazdu, podejmuje się na długo przed (lat?) Wprowadzeniem pojazdu na rynek. Dlatego w chwili uruchomienia jest prawdopodobnie przestarzały.
  • Hartowanie radiacyjne. Często te porównania koncentrują się na jednej lub dwóch specyfikacjach, które są interesujące dla zastosowań naziemnych: na przykład taktowanie procesora i pamięć RAM. Chociaż są one ważne, odporność na awarie w promieniowanym środowisku jest ważniejsza podczas lotu z Jowiszem niż podczas gry w Doom. Ta tolerancja tworzy kompromis, który nie pomaga innym specyfikacjom.
#7
+2
aramis
2013-07-21 05:14:34 UTC
view on stackexchange narkive permalink
  • Czas wyboru : statki kosmiczne są projektowane i budowane na wiele lat przed startem. Procesor wybrany w czasie kompilacji, nawet jeśli znajduje się na szczycie linii, zostanie przyćmiony przez czas uruchomienia.
  • Tolerancja na wibracje : wystrzelenie statku kosmicznego wymaga systemów komputerowych odpornych na wibracje; wiele nowszych procesorów nie zostało jeszcze ocenionych w czasie projektowania.
  • Odporność na promieniowanie : mniejsze obwody są bardziej narażone na błędy wywołane promieniowaniem niż obwody większe. większość bardziej zaawansowanych procesorów używa mniejszych obwodów, aby zmniejszyć koszty energii, obciążenia termiczne i czasy cykli pracy.
  • Cena : starsze procesory można kupić za znacznie mniej niż obecne wiodące procesory; ceny zauważalnie spadają po wygaśnięciu patentów.
  • brak potrzeby : nie wszystkie satelity wymagają wysoce niezawodnych rozwiązań przetwarzania.
    Cała misja Apollo była wykonywana z mocą obliczeniową odpowiednik kilku wysokiej klasy stacji roboczych z systemem Linux ... obejmuje to komputery typu mainframe w JSC i Cape Kenedy. Komputer pokładowy Apollo był tak potężny, jak wiele zegarków cyfrowych. (Całkowita pamięć 80kB; to 37kB słów po 2B na ROM, plus 2K słów w pamięci RAM). Pracował z częstotliwością 1 MHz, dość szybko jak na swoje czasy. Kupiłem kalkulatory o wartości 20 USD z lepszymi specyfikacjami niż AGC.
    Zadania większości satelitów można niezawodnie wykonywać na starszych procesorach bez kompromisów.
Cena £? W ramach całkowitego kosztu większości statków kosmicznych cena procesora (-ów) jest nieznaczna. Jak skomentowałem do innej odpowiedzi, zawsze można było znaleźć zastosowanie dodatkowej mocy obliczeniowej i pamięci.
@GreenMatt Niektóre projekty, zwłaszcza projekty NASA, muszą mieć kosztowne testy potwierdzające możliwości; czcigodne Zilog Z-80, Intel 8080 i Motorolla 68000 to dobrze znane mikrokontrolery do różnych zastosowań, które wiele lat temu przeszły klasyfikację misji w zakresie wibracji i promieniowania. Koszt misji oceniającej procesor, zakładając, że przeszedłby on testy wibracji i promieniowania, jest rzędu 100 000 dolarów, które ostatnio czytałem (a było to pod koniec lat dziewięćdziesiątych), tylko po to, aby wykonać testy niszczące. Korzystanie z już ocenionego procesora oszczędza koszty testowania.
Większość statków kosmicznych NASA kosztuje około setek milionów dolarów, a niektóre sięgają miliardów; W takim budżecie 100 000 dolarów to niewiele.
Oczywiście nigdy nie miałeś do czynienia z typami federalnych liczników fasoli. Będą walczyć o program o wartości 50 000 USD, jednocześnie zatwierdzając deskę sedesową za 30 000 USD.
Moje doświadczenie nie ma znaczenia dla tej dyskusji, ale skoro o tym wspomniałeś, ile masz doświadczenia z pierwszej ręki?
Byłem pracownikiem federalnym przez 3 lata (Archiwa Narodowe), a wcześniej przez 6 lat pracowałem dla stypendysty federalnego. DUŻO doświadczenia z federalnymi licznikami fasoli. Poza tym mój tata był kierownikiem projektu dla USAF (poziom GM16) ... Moje doświadczenia z NASA dotyczą wyłącznie tego, kto je śledzi, ale wzmianka o wydatkach na procesor była w rzeczywistości wspominana w kilku dokumentach projektowych w ciągu ostatnich 15 lat. Pamiętaj: procesor o wartości 10 USD, gdy jest oceniany na miejsce, jest bliski 10000 USD ... ponieważ mogą pobierać opłatę za te, które gwarantują, że przetrwają start.
Jest całkiem możliwe, aby pracować jako pracownik federalny i na stypendiach federalnych bez konieczności zajmowania się „typami z fasolą”. Podejrzewam również, że masz pewne uprzedzenia, przez które widzisz te „typy liczników fasoli”, które - w każdym razie z mojego doświadczenia - są błędne. Chociaż nigdy nie byłem pracownikiem federalnym, pracowałem nad kontraktami rządowymi - głównie projektami NASA - przez znacznie więcej niż łącznie 9 lat, o których cytujesz. NIGDY nie widziałem, aby analityk budżetowy przejeżdżał inżyniera lub naukowca, gdy chodziło o kluczowe elementy; jeśli brakuje środków finansowych, zazwyczaj próbują znaleźć sposób, aby wszystko działało.
Widziałem to udokumentowane w aktach Army Corps of Engineers. Widziałem to również wielokrotnie w dokumentach US Forest Service. I Biuro ds. Systemu Edukacyjnego do Spraw Indian. (Fajna rzecz w pracy archiwalnej - możesz przejrzeć akta w ramach swojej pracy.) Liczniki fasoli wybrały kilka najgłupszych rzeczy do usunięcia. W każdym razie wersje niedrogich produktów przystosowane do przestrzeni kosmicznej (lub nawet lotnicze), nawet jeśli nie różnią się, są zwykle znacznie droższe niż dostępne z półki, które nie są przystosowane do lotów.
@GreenMatt Pracuję dla dużej i znanej firmy, która zajmuje się prawie wyłącznie kontraktami rządowymi, w tym niektórymi projektami NASA, i zgadzam się z Aramisem, że obawy o koszty często pojawiają się w przypadku małych problemów związanych z liczeniem fasoli w projektach wartych miliardy dolarów. system może kosztować miliard dolarów, każdy system składa się z indywidualnych podsystemów i części, a każdy z nich ma osobny budżet. Małe (w porównaniu do całego miliarda) wydatki nie opuszczają radaru.
#8
+2
Anthony X
2013-08-07 04:56:18 UTC
view on stackexchange narkive permalink

W lotnictwie dzieje się to samo, co w przypadku technologii kosmicznej. Głównymi czynnikami byłyby niezawodność, „twardość” i ramy czasowe rozwoju, ale są też inne kwestie.

Każdy system krytyczny dla życia musi być godny zaufania, a kiedy nie możesz go naprawić, jeśli psuje się (jak zrobotyzowane sondy kosmiczne), niezawodność również staje się najważniejsza. Im dłużej coś istnieje i gromadzi doświadczenie, tym bardziej można jej ufać. Ponadto im bardziej złożony jest system, tym trudniejsze może być sprawdzenie, czy wszystkie „działające części” działają tak, jak powinny. Najnowsze technologie zawsze przekraczają granice w takiej czy innej formie, kwestionując granice tego, co można zrobić. To może postawić sprawę na skraju katastrofy - nie jest to dobre miejsce, gdy życie jest zagrożone. Nowsza technologia komputerowa jest zawsze bardziej wyrafinowana (bardziej złożona) niż to, co zastępuje, co utrudnia weryfikację / walidację.

Samoloty i rakiety działają w trudnych warunkach; same pojazdy tworzą trudne lub nawet ekstremalne warunki dla niektórych swoich komponentów. Trudno jest zbudować komponenty i układy elektroniczne, które mogą pracować w takich warunkach - temperatura, wstrząsy / wibracje, EMI, promieniowanie itp. Bez żadnego wyzwania dla niezawodności.

Zajmuje to dużo czasu (lata) na nowy statek powietrzny lub system kosmiczny, aby przejść od początkowego projektu do „pierwszego startu”, a także projektowanie podsystemów (w tym tych wykorzystujących komputery) musi zostać w pewnym momencie zamrożone. Technologia komputerowa porusza się znacznie szybciej, więc projekty zostają zamrożone przez to, co godne zaufania (być może już staje się przestarzałe), a technologia komputerowa posuwa się dalej, zanim samolot lub rakieta zacznie latać.

To naprawdę może nie być mądre próbować zrobić to w inny sposób. Kiedy twoje życie jest w równowadze, o wiele lepiej mieć stary, prymitywny, ale niezawodny system niż coś nowego i odlotowego, ale nie do końca sprawdzonego.

#9
+1
JohnEye
2017-12-07 05:03:47 UTC
view on stackexchange narkive permalink

Co ciekawe, nie dotyczy to wszystkich statków kosmicznych. Satelity Flock firmy Planet Labs są w rzeczywistości całkiem nowatorskie, jak stwierdził jeden z programistów w podcastie AmpHour. W rzeczywistości testowanie nowych projektów satelitów zostało spowolnione przez czas potrzebny do faktycznego wystrzelenia satelitów po ich wyprodukowaniu.

Sugeruję wysłuchanie podcastu, ten odcinek był dość interesujący.



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...