Die Vereinigten Staaten von Amerika waren, sind und bleiben der wichtigste Verbündete Deutschlands außerhalb Europas.