Microsoft toont mobiel Azure-datacenter met satellietconnectiviteit via Starlink

Microsoft heeft een 'modulair' datacenter getoond dat inzetbaar moet zijn op afgelegen plaatsen. Daarvoor werkt het bedrijf onder andere samen met SpaceX. Dat verleent Microsoft toegang tot zijn Starlink-satellietennetwerk.

Het Azure Modular Datacenter is opgebouwd in een soort container. Het datacenter wordt al gebruikt door 'private en defensie-organisaties'. Dergelijke MDC's kunnen volgens Microsoft op afgelegen locaties worden ingezet. De datacenters zijn geschikt voor operatie in 'een breed scala aan klimaten en zware omstandigheden', claimt het bedrijf. Klanten van Microsoft kunnen het datacenter naar eigen zeggen met een volledige netwerkverbinding gebruiken, bijvoorbeeld via glasvezelverbindingen of 'netwerken met lage bandbreedtes'.

Netwerkconnectiviteit kan ook geboden worden op plaatsen die normaliter off-grid zijn. Dat wordt volgens Microsoft gedaan met een 'satellieten-add-on'. Het bedrijf werkt onder andere samen met SpaceX, het ruimtevaartbedrijf van Elon Musk. Via SpaceX krijgt Microsoft in de toekomst toegang tot het Starlink-satellietennetwerk, schrijft het bedrijf. Microsoft werkt al samen met het Europese satellietbedrijf SES om zijn datacenterregio's en cloud edge-apparaten met elkaar te verbinden.

Microsoft Azure Modular DatacenterMicrosoft Azure Modular Datacenter

Het Azure Modular Datacenter. Afbeeldingen via Microsoft

De aankondiging van de MDC komt gelijk met de introductie van Azure Space, een clouddivisie van Microsoft die zich onder andere zal bezighouden met het aanbieden van diensten aan de ruimtevaartsector. Naast de MDC noemt Microsoft ook een Azure Orbital Emulator. Dit is een emulatieomgeving die gebruikt wordt om grootschalige simulaties van satellietconstellaties uit te voeren.

Volgens Microsoft kunnen satellietbouwers hiermee onder andere algoritmen en satellietnetwerken trainen en evalueren, zonder dat hiervoor daadwerkelijk satellieten gelanceerd moeten worden. Het bedrijf stelt dat Azure complete satellietnetwerken kan nabootsen, onder andere met scene generation op basis van vooraf verzamelde satellietbeelden. De Orbital Emulator wordt volgens Microsoft al gebruikt door 'klanten in de Azure Government-omgeving'.

Microsoft Azure Space
Afbeelding via Microsoft

Door Daan van Monsjou

Redacteur

21-10-2020 • 11:27

61 Linkedin Whatsapp

Submitter: FragFrog

Reacties (61)

61
61
24
3
1
32
Wijzig sortering
Als je een ubergeile satelliet-verbinding hebt, wat is dan nog het nut van een lokaal 'mobiel' datacenter?

Tenzij het echt gaat om hele grote hoeveelheden rauwe data, dan is het toch juist net zo makkelijk om de data over je verbinding naar een prachtig datacenter van Microsoft ergens in de Watergraafsmeer te sturen?

In mijn simpele gedachte: Of je hebt slechte connectiviteit, dus wilt een 'serieus' datacenter lokaal, of je hebt goede connectiviteit en hebt dus je datacenter where-ever voor Microsoft de stroom het goedkoopst is.

Overigens, leuk hoor, dat je dus ergens in een afgelegen gebied een container kunt droppen en connectiviteit hebt, maar waar haal je dan je stroom vandaan? Indien het antwoord is: generator. Ok, waar haal je dan je brandstof vandaan?.

Bottom line: ik zou investeren in de infra voor een goede verbinding, boven de infra voor lokale 'compute', dat lijkt me een simpelere en goedkopere oplossing. De situaties waarin dat niet opgaat, lijken me vrij niche.

[Reactie gewijzigd door Keypunchie op 21 oktober 2020 11:35]

Omdat men niet altijd alle data over hoeft te pompen en geen latency kan hebben? Ik kan me voorstellen dat dit interessant kan zijn voor een oplossing waarbij men veel data van sensoren binnen krijgt. Deze sensor data hoeft misschien niet eens opgeslagen (hoogst waarschijnlijk wel, want eventuele achteraf analyse) te worden maar wel realtime geanalyseerd worden. Gebaseerd op deze data acteert een bepaald proces. De internet toegang is dan bijv., alleen maar interessant voor het uitsturen van de uitkomst data i.p.v. alle losse sensor data, en mogelijk het extern volgen van het proces.
Inderdaad, het gaat hier vooral om filtering. Lokaal de data verwerken en daarna enkel de uitkomst doorsturen. Zo werkt bijvoorbeeld CERN met de LHC ook:
https://home.cern/science/computing/processing-what-record

In the first stage of the selection, the number of events is filtered from the 600 million or so per second picked up by detectors to 100,000 per second sent for digital reconstruction. In a second stage, more specialized algorithms further process the data, leaving only 100 or 200 events of interest per second. This raw data is recorded onto servers at the CERN Data Centre at a rate around 1.5 CDs per second (approximately 1050 megabytes per second). Physicists belonging to worldwide collaborations work continuously to improve detector-calibration methods, and to refine processing algorithms to detect ever more interesting events.
Een ander goed voorbeeld wat ik zo snel kan bedenken is bijv. een goudmijn. Meestal zijn dit niet per se de locaties waar men top internet heeft, of zelfs geen. Stroom is hier over het algemeen geen probleem, er zal ongetwijfeld al ergens een dieseltank en een generator op het terrein staan.

Lang leve Discovery Channel. Ik weet dat er bepaalde processen draaien die constant aan het berekenen zijn waar men hoogst waarschijnlijk het beste kan boren. Dit kan zelfs zo ver gaan dat er dus middels mega veel sensoren constant berekend wordt waar men moet boren en eventueel machines hierop kan bijsturen. Deze data hoeft echt niet perse overal naar toe geknalt te worden. Ook is het zo dat dit een te kort proces is om een lokaal datacenter te gaan bouwen voor dit.

Overigens is dit verder niet echte een vernieuwend iets er zijn al meerder van deze oplossingen. Zij het dat de satelliet verbinding en datacenter in een container door verschillende partijen geleverd word.
Dat lijkt me een goed voorbeeld dat je echt lokaal veel 'compute' nodig hebt, om al die sensoren te verwerken en je stroomvoorziening is uiteraard wel ok.

Maar dan weer de vraag, waar heb je dan die snelle internetverbinding voor nodig? Behalve dan dat sneller natuurlijk prettiger is dan langzaam, dus waarom niet.

Ik blijf de indruk krijgen dat je lokaal of 'compute', of 'connectiviteit' nodig hebt, maar (tenzij je zelf een 'echt' datacenter runt), nagenoeg nooit beide.
Sateliet verbinding is nog lang geen connectiviteit voor een datacenter... Ik zou eerder zeggen dat sateliet verbinding overeenkomt met een randstad-consumenten snelheid...

Alleen dan dus wel die snelheid overal ter wereld. En praktisch is er ook geen tussenmaat. Het is of sateliet of zo goed als niets.

En sowieso kan je hier ook simpelweg zwaar mee besparen op je 'echte' datacenter kosten, een 'echt' datacenter is en blijft duur. Terwijl dit eigenlijk alleen een stroomkabel en connectiviteit vereist en je kan het overal dumpen.

Ze hebben nu wat gehad en nu land, zou me niets verbazen als ze binnenkort gaan voorstellen om een zo'n concept als dit op de ijsmuur te plaatsen...
Ik denk in dit voorbeeld dat het vooral om de 'compute' gaat en 'connectiviteit' bijzaak is. Het gaat er dus niet per se om dat het snel of veel data aan kan, maar wel dat er data verstuurd kan worden.

Al met al zal de use case voor 'compute' of 'connectiviteit' al niet extreem hoog zijn vermoed ik, de combinatie van beide is inderdaad erg twijfelachtig. Er zal vast een keer een usecase voorbijkomen maar ongetwijfeld niet vaak.
Dit wordt ook wel Fog computing genoemd. Cloud computing = Hoog in de lucht. (Ergens in een datacenter.) Fog computing = Laag bij de grond. (Aan de edge van het netwerk.)

Dit kan je lokaal op een server doen, op een router, of in dit geval in een mini datacenter.
Zo zit er redelijk wat apparatuur in een windmolen, maar alleen de echt belangrijke informatie wordt via 4G verstuurd. De rest van de processing van data wordt lokaal gedaan.
Leuke (en logsiche) term. Kende hem niet thanks ;) Een windmolen is hier een goed voorbeeld van inderdaad. Naaste het feit van data en snelheid is er ergens ook wel iets voor te zeggen om dit soort dingen FOG te hebben. Zelfs als je internet down is maar je netwerk nog wel actief is, gaat het lokaal gedoe vrolijk verder.
Ben zelf IT architect dus begrijp het allemaal wel maar het begint wel een beetje idioot te worden met die buzzword termen. Nu spreekt men over edge computing alsof het iets super revolutionair is , niet dus, het is bijna exact wat we al die tijd voor de opkomst van de cloud deden.
Overigens, leuk hoor, dat je dus ergens in een afgelegen gebied een container kunt droppen en connectiviteit hebt, maar waar haal je dan je stroom vandaan? Indien het antwoord is: generator. Ok, waar haal je dan je brandstof vandaan?.
Wat dacht je van een tankwagen? Daar kun je wel een flinke hoeveelheid diesel mee aanvoeren, maar een voorraadje connectiviteit vervoeren in een vrachtwagen is wat lastiger.
Never underestimate the bandwith of a station wagon full of tapes hurlting down the highway
;)

https://what-if.xkcd.com/31/
Never underestimate the bandwidth of a "station wagon full of tapes hurtling down the highway."
Andrew Tanenbaum

[Reactie gewijzigd door LeFlavius op 21 oktober 2020 14:55]

maar een voorraadje connectiviteit vervoeren in een vrachtwagen is wat lastiger.
Hoeveel disken passen er in een vrachtwagen?

"Connetiviteit in een vrachtwagen" is de definitie van Sneakernet.

Je latency is wel beroerd, maar als je zoveel data hebt te verwerken is tijd vaak niet het meest kritische issue.

[Reactie gewijzigd door Keypunchie op 21 oktober 2020 12:28]

Je blijft maar doordrammen over hetzelfde. Leg je er gewoon bij neer dat die firma's wel weten wat ze doen en dat er wel vraag zal zijn naar zoiets.

En schijven vervoeren via een vrachtwagen? serieus? Je hebt bijvoorbeeld duizenden sensoren die data verzamelen. Ga je echt al die data kopiëren op schijven om die dan per vrachtwagen te transporteren om die dan op een andere locatie weer in te lezen? Met risico op ongevallen, kapotte schijven, ...

Ik zie je antwoord al op mijn opmerking van kapotte schijven. "Dan neem je toch gewoon ook een backup". Leuk, dan gaan we met twee vrachtwagens.

Je verzamelt de data van duizenden sensoren, je verwerkt die lokaal in dat datacenter en je stuurt de conclusie door via de satelliet verbinding. Je hebt niemand ter plaatse nodig want alles kan je remote doen.
Je blijft maar doordrammen over hetzelfde. Leg je er gewoon bij neer dat die firma's wel weten wat ze doen en dat er wel vraag zal zijn naar zoiets.
Sorry hoor, niemand dwingt je op mij te reageren?

Zelf vind ik deze discussie over de use case wel leuk, en bijvoorbeeld over die sensoren voor goudmijnen wist ik niet. Ik heb ook best interessante reacties gezien, zoals bijvoorbeeld van @FlyingDutchMen

Ik schiet overigens wel in een kramp als iemand roept "je weet niet waar je het over hebt" om vervolgens een argument te gebruiken dat ik in de tweede zin al als kanttekening zelf zet.

Hetzelfde voor "die grote firma's weten heus wel wat ze doen". Bij dat laatste moet je Microsoft eens naar hun project "Kin" vragen.

Kortom: vervelend voor je dat je me drammerig vind.

Inhoudelijk: schijven vervoeren met een vrachtwagen. Zekers te weten :-) Nou is de tijd dat ik zelf in de hostingwereld zat wel al flink wat jaren terug, maar destijds was data-overdracht tussen lokaties (bvb. vij wisselen van hoster of backups*) met behulp van schijven geen ongebruikelijke gebeurtenis (niet de standaard methode). Ook weet ik van videobewerkers die wel degelijk al hun ruwe materiaal gewoon op schijf verplaatsen.

Of uit de oude doos (dit is het niet helemaal geworden, overigens, maar ook zo'n niche geval. Er was ooit het plan voor de 'Data Scooter': nieuws: Bijna failliet IJsland heeft toekomst als datacentrumlocatie )

*En nog veel vroeger, toen Keypunchie zelf nog in de luiers zat, was 'taperunner' een beroep, heeft hij zich laten vertellen. Iemand wiens taak in het datacenter was om de juiste storage tapes voor het mainframe uit het archief te halen. Daar komt ook die term Sneakernet vandaan.

[Reactie gewijzigd door Keypunchie op 21 oktober 2020 15:16]

Tussen de regels door lees ik een beetje dat dit voor partijen is die liever hun data center op een niet zo opvallende plek willen hebben. Bij de boer naast de martelcontainer bijvoorbeeld. Maar dan zou ik ze wel beide in space grey willen hebben.
Als je een ubergeile satelliet-verbinding hebt, wat is dan nog het nut van een lokaal 'mobiel' datacenter?

Tenzij het echt gaat om hele grote hoeveelheden rauwe data, dan is het toch juist net zo makkelijk om de data over je verbinding naar een prachtig datacenter van Microsoft ergens in de Watergraafsmeer te sturen?

In mijn simpele gedachte: Of je hebt slechte connectiviteit, dus wilt een 'serieus' datacenter lokaal, of je hebt goede connectiviteit en hebt dus je datacenter where-ever voor Microsoft de stroom het goedkoopst is.

Overigens, leuk hoor, dat je dus ergens in een afgelegen gebied een container kunt droppen en connectiviteit hebt, maar waar haal je dan je stroom vandaan? Indien het antwoord is: generator. Ok, waar haal je dan je brandstof vandaan?.

Bottom line: ik zou investeren in de infra voor een goede verbinding, boven de infra voor lokale 'compute', dat lijkt me een simpelere en goedkopere oplossing. De situaties waarin dat niet opgaat, lijken me vrij niche.
[/quote]

je hebt dus duidelijk geen idee waar je over praat.
Stel dat je deze dingen gebruikt voor data-analyse bij wat voor zeer remote project dan ook, ik noem even wat, mijnbouw, oorlogsvoering, geografisch onderzoek etc.
hoe snel zit je dan aan petabytes aan data. en hoe snel is starlink nu echt?

je kunt zeggen dat je denkt dat de aanvoer van brandstof een issue is maar dat is dikke onzin je kunt die met het grootste gemak gewoon droppen vanuit vliegtuigen of met colones aanvoeren. meestal heb je daar toch al behoefte aan, want waar gewerkt of gevochten moet worden is hoe dan ook brandstof nodig.

nee, deze miniclouds zijn er vooral om het voorbereidend werk te doen.
wanneer een job zo klein is dat het zeer gemakkelijk via satelliet kan worden aangeboden dan zal dat zeker ook gebeuren want dit soort containers aanvoeren of invliegen is gewoon belachelijk duur. maar zodra dat niet kan, kun je een klein clustertje neerzetten die alvast de 80% aan nutteloze data weg filtert om alleen de nuttige berekeningen naar een centrale locatie te sturen waar een volledige analyse kan plaatsvinden. op andere momenten zal de latency (of beter: de tijd van het uploaden, verwerken en weer downloaden van de resultaten) zo groot zijn dat je liever lokale verwerking toepast, die externe sat verbinding is dan alleen maar goed voor het binnenhalen van externe informatie.

kortom reden genoeg om hierin te investeren.
hebt dus duidelijk geen idee waar je over praat.
Stel dat je deze dingen gebruikt voor data-analyse bij wat voor zeer remote project dan ook, ik noem even wat, mijnbouw, oorlogsvoering, geografisch onderzoek etc.
hoe snel zit je dan aan petabytes aan data. en hoe snel is starlink nu echt?
Letterlijk mijn tweede zin is
Tenzij het echt gaat om hele grote hoeveelheden rauwe data
Ik denk dat ik wel weet waar ik over praat. Het zou fijn zijn als je wat aandachtiger zou lezen.

[Reactie gewijzigd door Keypunchie op 21 oktober 2020 12:15]

Als jij in the middle of nowhere een legerbasis uit de grond stampt met een goed functionerende luchtbrug voor de toevoer van brandstof voor je voertuigen en generators, dan kan ik me voorstellen dat je satellietverbinding wel een soort flessenhals wordt. Dán wordt die Starlink optie wel interessant.

Er wordt overigens nergens gezegd dat dit geen niche product is. Binnen de niche "mobiele datacenters" is het zelfs een optie voor een niche binnen die niche.

@Dracula volgens mij staat ie op industrieterrein de Kooy in Den Helder.
Watergraafsmeer? Staat die niet in de Wieringermeer langs de A7
Geen idee waar ze staan, Microsoft is er bewust wat vaag over, maar ik geloof je direct. Het punt is dat het mij eigenlijk niet veel uitmaakt, zolang van de plek waar ik data genereer (huis, kantoor, mijn klanten) er maar een goeie internet-pijp ligt.
Data via een satelliet verbinding gaat aardig in de papieren lopen. Denk aan bedrag van makkelijk 20 EUR per MB. Met dat soort bedragen wil je niet de vele terabytes die deze container bevat over de satelliet gaan versturen. Ik zie voor het bedrijf waar wij werken wel nut voor zo'n container al zal de prijs van dit ding alsnog veels te duur zijn.

En waar je de brandstof vandaag haalt? Ik gok iets met vrachtwagens en/of de lokale ezel ;)
Dat is bij Starlink dus niet meer zo. Er komt een abonnementsvorm voor zo'n $ 100 per maand, waarschijnlijk wel met fair use policy. Voor gebruik zoals hier met een datacenter zullen wel andere afspraken en bedragen gaan gelden, maar zeker geen $ 20 per MB meer.
Door Starlink (en andere toekomstige low orbit aanbieders) zal een nieuw tijdperk van 2-weg satellietcommunicatie worden ingeslagen.
Via een traditionele satellietverbinding vroeger misschien wel, maar Starlink zou beduidend goedkoper worden dan dat. Exacte prijzen zijn nog niet bekend blijkbaar, maar er wordt verwacht dat ze flat rate internet gaan aanbieden voor prijzen onder de 100 dollar per maand.
k gok iets met vrachtwagens en/of de lokale ezel
Mijn gedachte daar is dan weer bij: ok, maar waarom kan die lokale ezel niet met een zak met disks naar de dichtsbijzijnde glasvezel-verbinding worden gestuurd.

Je komt uit op een use case die a) grote hoeveelheden data genereert, maar b) wel 'real-time' (of in ieder geval snel) verwerkt moet worden op een c) zeer slecht toegankelijke plek.

Dat is wel een uber-niche.
uber-niche
Mijnbouw.
Exploratie.
Seismologie.
Moet bij exploratie de data snel verwerkt worden? Oprechte vraag. Wat is het tijd-kritische aspect.

De seismologie moet je even toelichten. In de Bilt hebben ze een seismologie-station. Dat is geen slecht toegankelijke plek.
Denk dat de inzet na overstromingen etc. ook wel handig kan zijn. Moet je er alleen een noodmast mobiele communicatie bij zetten. Na overstroming en aardbeving is de normale infrastructuur weg en zijn datacenters soms wel handig om zaken te coordineren. Die lokale data kan dan 1x per dag over satelliet naar de niet getroffen wereld worden gestuurd die daar dan weer zaken mee kan gaan doen.

Enige probleem wat ik er mee heb. Hoe krijg je zo'n mobiel datacenter op een plek die lastig te bereiken valt?
A en B ja.
C vaak
maar vergeet ook D niet als alternatief : tijdelijk
en E : onmiddelijk inzetbaar

Aflevermogelijkheden (op punt C dus): per vrachtvliegtuig tot aan dichtsbijzijnde vliegveld of per schip tot aan de kust. En van daar per vrachtwagen. Of eventueel per helicopter indien nodig/gewenst.
Locale datacentertje kan ter plaatse ook nog verzet worden naar wens.

Voordeel installatie (C+D) : ipv heel je team technici wekenlang te expatrieren, kan alle techniciteit (kabeling, ...) kan thuis gebeuren. Op locatie enkel inpluggen en klaar.

Enkele andere ideen (naast mijnbouw, exploratie, seismologie, reeds hierboven vermeld)
- rampgebied ("vaste infrastructuur" is immers weg)
- eender waar een permanent centrum niet interessant/mogelijk is
-- antarctica of siberie (smeltende ondergrond)
-- eilanden
-- op een schip in het midden van de zee
Omdat 90% van de bevolking (buiten nl dan) nog steeds slecht internet heeft of ver van datacenters wonen.
Microsoft is een softwareboer en wilt graag geen xbox hardware meer verkopen, maar wel xCloud overal stabiel kunnen draaien. Ook hebben satellieten een limiet aan de bandbreedte per km2, het verspreiden van datacenters zal helpen om iedereen dezelfde ervaring kunnen bieden.

[Reactie gewijzigd door PrismSub7 op 21 oktober 2020 11:51]

Als je een ubergeile satelliet-verbinding hebt, wat is dan nog het nut van een lokaal 'mobiel' datacenter?
Er zijn altijd bedrijven die een reden hebben om zoiets te gebruiken. Microsoft zou het niet ontwikkelen als er geen vraag naar was, of ze die vraag gaan verwachten.

Mijnbouw, olievelden, rampgebieden, er is altijd wel ergens een afgelegen gebied met slecht internet waar je infra nodig hebt om data te verwerken of analyseren.

Offgrid power-container ernaast en je hebt ook maar zeer beperkte hoeveelheden brandstof nodig.
Veel 'survey' data gaat om enorme hoeveelheden data, je wil niet petabytes aan data over je satelliet verbinding heen gooien. Zelfs met vaste glasvezel lijnen, ipv. al die data syncen, pakte je een een (berg) servers en syncte je die lokaal om vervolgens met een auto naar bv. Duitsland te rijden. Daarna werden alleen wijzigingen gesynct, maar dat gebeurde natuurlijk amper op de originele data.

Ik kan me verschillende situaties indenken waarbij deze oplossing super handig/wenselijk is, maar dat zijn echt geen situaties die je veel tegen zal komen en ik verwacht al helemaal amper in Nederland.
Dit zou ook gebruik kunnen worden in gebieden met een zware crisis, dan heb je geen infra meer en het aanleggen hiervan is ook niet zo simpel. Stroom met een diesel generator is niet zo lastig, kun je altijd nog meenemen samen met de container.
voorbereiding voor een dc op de maan of mars? of roep ik nu iets heel gek?
want als ik iets van Musk hoor denk ik meteen door over zijn Mars wens
Mogelijk valt de data die je in het datacenter hebt opgeslagen onder de wetgeving van de locatie van het datacenter. Zeker met gevoelige data is dit niet altijd wenselijk. Dan is een lokaal datacenter een uitkomst.

[Reactie gewijzigd door db_killer op 21 oktober 2020 13:12]

Ik zie hier wel vraag in van onderzoekers en het leger.
Als je ergens lang bent gestationeerd en veel gebruik wil maken van berekeningen en je die snel wilt hebben, dan is zo'n container vlakbij ideaal.
Wereldwijd hetzelfde ingericht d.m.v. Azure, maar het merendeel van de berekeningen worden dan lokaal gedaan en heb je dus minder last van je beperkte satelietverbinding.
Microsoft toont mobiel Azure-datacenter met satellietconnectiviteit via Starlink
Via SpaceX krijgt Microsoft in de toekomst toegang tot het Starlink-satellietennetwerk, schrijft het bedrijf. Microsoft werkt al samen met het Europese satellietbedrijf SES om zijn datacenterregio's en cloud edge-apparaten met elkaar te verbinden.
De titel wekt de indruk dat het speciaal met Starlink samenwerkt maar het is dus gewoon één van de ondersteunde satelliet opties.
Voor het mobiele datacenter werkt Microsoft (in ieder geval volgens het persbericht) specifiek samen met SpaceX. De SES-samenwerking bestond dus al en wordt gebruikt voor de onderlinge verbinding van datacenterregio's en cloud edge-apparaten, zoals ook in de tekst staat. Uit het persbericht van Microsoft:
- Our new partnership with SpaceX Starlink will provide high-speed, low-latency satellite broadband for the new Azure Modular Datacenter (MDC)

- Building on our existing Azure Orbital partnership with SES, we will support its O3B Medium Earth Orbit (MEO) constellation O3b MEO, to extend connectivity between our cloud datacenter regions and cloud edge devices.

[Reactie gewijzigd door AverageNL op 21 oktober 2020 11:42]

Dit is voor SpaceX natuurlijk niet alleen een mooi samenwerkingsverband met Microsoft maar ook een steek richting Amazon's Project Kuiper:
nieuws: Amazon wil wereldwijd internet aanbieden via 3236 satellieten

Twee vliegen in 1 klap dus.

Verdere info:
https://www.teslarati.com...rosoft-azure-partnership/

[Reactie gewijzigd door Anoniem: 1322 op 21 oktober 2020 11:58]

Zodra Amazon's systeem operationeel is, zal die communicatie-optie natuurlijk ook aangeboden worden. Misschien met wat beperkingen.
Yep, maar dat duurt nog heel erg lang gezien hun Glen rakket niet gebouwd is voor cargo en slechts 100km hoog gaat. De volgende versie (new glen) zal het grootste bulkwerk moeten uitvoeren maar hun huidige raket is dus nog niet eens in productie..
Ik vind je toch echt een baas als je zelf (met medewerkers) een vervolg geeft na het succesvol lanceren van rakketten door satellieten de lucht in te schieten en de grote jongens als klant te verkrijgen. Bijzonder om te zien dat het dadelijk ook ineens randvoorwaardelijk wordt voor de grote jongens.
Superscale Edge computing eigenlijk...

Mooi om AI / analytics te hebben op locaties die totaal niet bereikbaar zijn. Ik denk aan mijnbouw, gas / olie boringen, maar ook natuur onderzoek (bvb oceanen) en oorlogsgebied..
Hoe wil je zo'n datacenter beveiligen dan. Als zelfs olieleidingen al afgetapt wordt in nigeria bijvoorbeeld wat betekend het dan van zo'n datacenter in container?

Wel mooi om te zien dat starlink nu echt al mooie toepassingen heeft.
Als je er van uitgaat dat het datacenter fysiek niet beveiligd is dan zit je in de minset om andere maatregelen te nemen.

Multi factor authenticatie, data encryptie, transit encryptie...
Zo'n datacenter is één vaste locatie. Dat is niet lastig te beveiligen, je zet er gewoon een paar beveiligers omheen.
Een olieleiding van honderden of duizenden kilometers lang is een heel ander verhaal. Je kunt niet elke 10 meter een beveiliger neer zetten. Kan theoretisch misschien wel (de massale inhuur van beveiligers lost het ook meteen het armoedeprobleem op waardoor de olieleidingen worden afgetapt), maar dan zijn je kosten hoger dan de door de pijplijn vervoerde olie waard is.
Ik heb me niet verdiept in Starlink, maar wat is de bandbreedte van dat netwerk? Het lijkt me dat pakketten tig routes kunnen kiezen over al die satellieten, maar ergens houdt het op lijkt me? Datacenters verstoken potentieel enorm veel data. Normaal kan je vezels bijtrekken, maar dat is met Starlink toch anders. Gevoelsmatig lijkt het me niet heel goed voor zo'n netwerk om er gelijk van die grootverbruikers op te zetten. Then again, mooie vuurproef :-)
Dus is dit vooral een oplossing wanneer je veel verwerkingscapaciteit nodig hebt in-the-middle-of-nowhere, maar je behoefte aan bandbreedte minder groot is.
Of wanneer je juist door lokale verwerking van gegevens genoeg hebt aan weinig bandbreedte.
Leuk om je Plex server op vakantie mee te nemen.
Off-topic: ik zie een nieuwe manier om een flinke bak uhhh container bedrijfsgegevens kwijt te raken. Straks gaan hackers nog aan de gang met vrachtwagens. “never underestimate the bandwidth of a truck full of tapes” wordt dan wel heel letterlijk.
Op alle diensten van Azure kun je je eigen encryptie toevoegen bovenop die van Azure zelf, die van Azure zorgt ervoor dat op gedeelde hardware alleen jij je data kan zien, mocht je Microsoft niet vertrouwen dan kun je ook nog eens versleutelen met je eigen key, dit laatste is vooral handig als Microsoft gedwongen zou worden om toegang te geven, dan zegt MS: Prima, hier is de data, alleen jammer dat de klant het versleutelt heeft.
Straks ook nog co location in space. Lekker koel en energy via zonnepanelen. Het zou wel es interessant zijn om te weten wat het maximum aan breedband is die ze door zo een klein schoteltje van spacex kunnen pompen moesten ze het toelaten. Ik hoorde een Amerikaan op een forum zeggen dat ze ook gewoon contracten zouden afsluiten met isp's. Puur voor backbone spelen. de grondstations zullen dan vermoedelijk iets groter zijn. Eigenlijk best zot dat dit er gewoon aankomt!
Warmte gedraagt zich heel anders in een vacuüm. Als er geen materie is dan zal het EM straling nergens heen kunnen.
Ook is een Solar array bij lange na niet genoeg om een "server park" te voorzien.
MS is daarentegen al wel jaren bezig met onderwater server containers. De water stroming is ideal om warmte af te stoten en energie mee op te wekken.
En als laatste voordeel heb je een boot nodig ipv een spaceshuttle voor onderhoud.
Als er geen materie is, is EM straling juist de enige manier om warmte kwijt te kunnen. Je kunt de warme alleen niet door lucht of water af laten voeren. Maar dat is voor een datacenter in de ruimte geen probleem. Je hebt alleen een paar flinke radiatoren nodig die snel genoeg de opgewekte warmte kwijt kunnen raken door het als infrarood straling uit te zenden.
Ook energievoorziening is in principe geen probleem, zolang je zonnepanelen maar groot genoeg zijn.
Praktisch is het mogelijk. De vraag is alleen of het geheel dan niet zo groot en zwaar wordt dat het gewon te duur is.
Zelfs als er wel materie is, is EM straling de enige manier om warmte kwijt te raken. In een vacuum is dat alleen mogelijk in de vorm van licht maar je zit dus juist het warmte op te sluiten in en "gesloten blik". Het is niet onmogelijk maar effe simpel denken dat de ruimte is koud dus kan je makkelijk je energie dumpen is niet juist.
Heatsinks e.d werken helemaal niet. Het is eigenlijk best indrukwekkend hoe men de computers koel houden in de oude en huidige generatie ruimte voertuigen.
Effe een blik tot de nok toe vullen met een server cluster is heel wat andere koek.
Je kunt warmte ook overbrengen door contact met bv. lucht of water en dat weg te laten stromen.
In de ruimte kan je warmte alleen kwijt door het weg te stralen. Dat gebeurt al sinds het begin van de ruimtevaart met radiatoren, daar is niets indrukwekkends aan.
Kijk bv. eens hoe ze dat bij het ISS hebben geregeld.
Sinds het begin was het langzamer als een huidige generatie rekenmachine en nu is het heel wat meer geworden.
Maar nu wil je dus dat energie verbruik x 1000+ doen en dan kan je aardig gaan twijfelen of vapor chambers en IR radiatoren voldoende zijn.
Zo simpel is het gewoon niet.
En in het begin verbrandde al die apparatuur behoorlijk meer energie en produceerde behoorlijk meer warmte dan de laptop waar ik dit bericht op aan het typen ben.

En ja, so simpel is het: bij meer warmte heb je alleen een groter oppervlak aan radiatoren nodig om dat kwijt te raken. Ook in de ruimte. De vraag is alleen of de constructie die je nodig hebt dan niet te groot en te duur wordt om een datacenter in de ruimte te kunnen rechtvaardigen.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee