Die Vereinigten Staaten von Amerika waren, sind und bleiben der wichtigste Verbündete Deutschlands außerhalb Europas.
    • Melden
    • Einbetten
    • Teilen