Hallo zusammen, ich (kein ITler) suche eine gute und günstige Lösung ca. 50 GB an Daten irgendwo in die Cloud abzulegen um mit einer API darauf zu zugreifen.Traffic sind ein paar MB am Tag. Da ich mich mit IT-Sicherheit nicht gut auskenne und der Datensatz öffentlichk verfügbare (aufbereitete) Datensätze beinhaltet, suche ich nach einer SaaS Lösung, bei der sich andere sich um Sicherheit und Serverwartung kümmern.

Was könnt ihr mir empfehlen?

Edit: Daten schonmal für die zahlreichen Antworten. Hier noch mehr Informationen zum Unterfangen:

Die Datenbank liegt jetzt als CSV vor. Die Datei wird am Ende ca 50GB haben, derzeit ca 3 GB. Enthalten sind Daten von Tieren und deren Eigenschaften. Ich möchte mit n8n (Automatisierung wie Zapier) ein Tier abfragen und Farbe, Lebensraum etc als Antwort erhalten. Es sind <100 Anfragen am Tag und die Datenbank soll nicht groß bearbeitet werden. Wenn, dann lade ich weitere CSVs hoch um sie zu erweitern.

  • scherzerl@feddit.deOP
    link
    fedilink
    arrow-up
    3
    ·
    1 year ago

    Das wär mein Favourit gewesen und hatte ich schon am laufen. Limitgröße für CSV-upload: 5 MB :/

    • philpo@feddit.de
      link
      fedilink
      arrow-up
      4
      ·
      1 year ago

      Per Script splitten? Ich meine 3GB läd man ja auch bei anderen DBs ungern in einem Stück hoch.