<div dir="ltr"><div>My present understanding is that starlink satellites with lasers are not designed to communicate inter-plane. Each launch of starlink satellites is put into exactly the same orbital inclination (53.2 degrees or the more rare near polar orbits now launched from Vandenberg). <br></div><div><br></div><div>In the weeks and months following their launch they spread out into an extended line all following each other in the same plane. Plane change maneuvers are extremely expensive in delta-v for any satellite and are generally avoided unless absolutely necessary. Best conjecture is that starlink satellites' on board propellant for hall effect or ion thrusters (or whatever they're using that has an ISP above 3000) is used almost exclusively for thrusting prograde to maintain altitude. <br></div><div><br></div><div>If you view a launch of 45 or 50 starlink satellites in a live animated satellite tracking application, based on their TLE orbital data, they all follow each other in a line. Satellites in the same line may be using inter-satellite lasers to speak to the unit immediately in front of it, and immediately behind it, forming a conga-line like network of linked satellites until they get to one that is generally above a starlink earth station/terrestrial network facility. At which point the traffic is transferred.</div><div><br></div><div>Starlink has recently made service available for purchase in Nunavut and all of the other high-latitude areas of northern Canada, which means that they clearly think they have sufficient (82 degree plus) inclination sets of satellites <b>and</b> inter-satellite links working to provide service in an area that definitely has no terrestrial fiber or starlink earth stations.</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jan 23, 2023 at 11:29 AM Thomas Bellman <<a href="mailto:bellman@nsc.liu.se">bellman@nsc.liu.se</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 2023-01-23 19:08, I wrote:<br>
<br>
> I get that for 1310 nm light, the doppler shift would be just under<br>
> 0.07 nm, or 12.2 GHz:<br>
> [...]<br>
> In the ITU C band, I get the doppler shift to be about 10.5 GHz (at<br>
> channel 72, 197200 GHz or 1520.25 nm).<br>
> [...]<br>
> These shifts are noticably less than typical grid widths used for<br>
> DWDM (±50 GHz for the standard spacing), so it seems unlikely to me<br>
> that the doppler shift would be a problem.<br>
<br>
And as I was bicycling home, I of course thought of another aspect<br>
of the doppler shift: the timing between the symbols in the signal,<br>
or in other words the baud rate.  There will be something like a<br>
phase-locked loop (PLL) in the receiver in order to know when one<br>
symbol ends and the next one starts, and that PLL can only deal<br>
with a certain amount of baud rate shift.<br>
<br>
But we can use the same formula.  And in general, the doppler shift<br>
for 16 km/s is about 53 parts per million.  So e.g. a 112 Gbaud signal<br>
would be received as 6 Mbaud faster or slower than it was sent at.<br>
And here I have to confess that I don't know how generous typical<br>
receiver PLL:s in network equipment are.<br>
<br>
<br>
Another potential aspect might be the decoding of phase-shift keying,<br>
i.e. when phase modulation is used for the signal.  My *very*vague*<br>
understanding is that the typical way to decode a phase-modulated<br>
signal, is to mix the incoming signal with a reference carrier wave,<br>
generated locally by the receiver, and the interference between the<br>
two gives you the actual signal.  But to do that, the reference must<br>
have the same frequency as the received wave, and, I guess, must<br>
match very closely.  Can they adapt to an incoming wave that is 53 ppm<br>
offset from what it should be?<br>
<br>
Or have I misunderstood this?  Analogue signals is very much *NOT*<br>
my forte...<br>
<br>
<br>
        /Bellman<br>
<br>
</blockquote></div>