this post was submitted on 17 Jul 2023
9 points (100.0% liked)

de_EDV

3805 readers
1 users here now

Ableger von r/de_EDV auf Lemmy.

News, Diskussionen und Hilfestellung zu Hard- und Software

Diese Community dient als Anlaufstelle für alle IT-Interessierten, egal ob Profi oder blutiger Anfänger. Stellt eure Fragen und tauscht euch aus!

Weitere IT Communitys:

[email protected]

[email protected]

[email protected]

[email protected]

founded 1 year ago
MODERATORS
 

Hallo zusammen, ich (kein ITler) suche eine gute und günstige Lösung ca. 50 GB an Daten irgendwo in die Cloud abzulegen um mit einer API darauf zu zugreifen.Traffic sind ein paar MB am Tag. Da ich mich mit IT-Sicherheit nicht gut auskenne und der Datensatz öffentlichk verfügbare (aufbereitete) Datensätze beinhaltet, suche ich nach einer SaaS Lösung, bei der sich andere sich um Sicherheit und Serverwartung kümmern.

Was könnt ihr mir empfehlen?

Edit: Daten schonmal für die zahlreichen Antworten. Hier noch mehr Informationen zum Unterfangen:

Die Datenbank liegt jetzt als CSV vor. Die Datei wird am Ende ca 50GB haben, derzeit ca 3 GB. Enthalten sind Daten von Tieren und deren Eigenschaften. Ich möchte mit n8n (Automatisierung wie Zapier) ein Tier abfragen und Farbe, Lebensraum etc als Antwort erhalten. Es sind <100 Anfragen am Tag und die Datenbank soll nicht groß bearbeitet werden. Wenn, dann lade ich weitere CSVs hoch um sie zu erweitern.

top 19 comments
sorted by: hot top controversial new old
[–] [email protected] 4 points 1 year ago (1 children)

Was soll die API denn können? Um Deine aktuelle Anforderung zu erfüllen, könnte man sagen: schmeiß die Datei(en) auf irgendeinen Webserver, und die API findet sich im RFC für HTTP. Du möchtest was ändern? Lade die Datei(en) neu hoch, oder lade zusätzliche Dateien hoch.

[–] [email protected] 3 points 1 year ago* (last edited 1 year ago) (1 children)

Nichts besonderes. Nur Werte auslesen. Aber jedes mal 50 GB hoch laden wenn sich was ändert wär schon heftig

[–] [email protected] 1 points 1 year ago

jedes mal 50 GB hoch laden

ich denke die Idee wäre jeden datensatz in eine eigene Datei zu stecken. Dann muss man zum hinzufügen von datensätzen nur neue dateien hochladen.

Wenn du jedoch eine Eigenschaft zu jedem Datensatz hinzufügen möchtest, müsstest alle Dateien nochmal hochladen. Falls das öfter passiert, wäre das also keine gute lösung

[–] [email protected] 4 points 1 year ago

suchst du nach einer relationalen Datenbank (mysql,postgres,...) oder einfach nach einem Datenspeicher? In deinem Titel steht Datenbank, aber nach dem Text hört es sich eher an, dass du nach einfachem cloud-speicher suchst. Also sowas wie amazon S3. Da gibt es auch etliche kompatible Alternativanbieter.

[–] [email protected] 3 points 1 year ago (3 children)

Was sind das denn für Daten? Evtl kommt ja Excel 365 in Frage...

[–] [email protected] 9 points 1 year ago

Ein Excelfile mit 50 GB?

[–] [email protected] 6 points 1 year ago

bester witz des tages.

ich wette im heise forum gibts n irren der das geschafft hat ...entgegen jeder vernunft.

[–] [email protected] 2 points 1 year ago
[–] [email protected] 2 points 1 year ago

Ich habe mehrere kostenlose Sachen gefunden, vielleicht ist das ja was gutes.

https://products.groupdocs.cloud/de/viewer/php/csv/

[–] [email protected] 2 points 1 year ago

Wenn Du eh n8n lokal (?) installiert hast, könntest Du eine Postgresql-Datenbank zusätzlich auf demselben Server installieren. Die läuft auch auf einem Mini-Rechner wie Raspberry Pi.

[–] [email protected] 2 points 1 year ago (1 children)

Schau dir mal NoCode DBs wie NocoDB,etc. an.

[–] [email protected] 3 points 1 year ago (1 children)

Das wär mein Favourit gewesen und hatte ich schon am laufen. Limitgröße für CSV-upload: 5 MB :/

[–] [email protected] 4 points 1 year ago

Per Script splitten? Ich meine 3GB läd man ja auch bei anderen DBs ungern in einem Stück hoch.

load more comments
view more: next ›