DSA / Moderation

Informationen zur Moderation und zum Meldeverfahren gemäß Digital Services Act (DSA). Stand: [TT.MM.JJJJ]

Kurzüberblick: TRAIL stellt Funktionen bereit, mit denen Nutzer Inhalte veröffentlichen und mit anderen Nutzern interagieren können (z.B. veröffentlichte Strategien, Kommentare, Reactions). Diese Inhalte sind in der Regel nur für eingeloggte Nutzer sichtbar.

1. Anbieter & Kontaktstellen

Anbieter: [Unternehmensname / Rechtsform], [Adresse], [Land]

  • Kontaktstelle für Nutzer (Support/Moderation): [support@deine-domain.tld]
  • Kontaktstelle für Behörden (DSA): [dsa@deine-domain.tld]

Sprache(n) für Kontakt: Deutsch (DE); optional Englisch (EN).

2. Welche Inhalte sind betroffen?

Unter „Inhalten“ verstehen wir insbesondere:

  • Veröffentlichte Strategien (inkl. Snapshot/Metadaten)
  • Kommentare und Antworten
  • Reactions (z.B. Like/Dislike)
  • Meldungen/Reports zu Inhalten

3. Melden von Inhalten („Notice & Action“)

Wenn du Inhalte für rechtswidrig oder regelwidrig hältst, kannst du sie melden. Wir bieten dazu in der Anwendung ein Meldeformular (Report‑Funktion) an.

Typische Meldegründe in unserem System:

  • Spam
  • Beleidigung/Belästigung
  • Betrug/Scam
  • Urheberrechtsverletzung
  • Datenschutz / personenbezogene Daten
  • Sonstiges

Hilfreiche Angaben: Link/ID des Inhalts, Begründung, ggf. Nachweise. Je genauer die Meldung, desto schneller können wir prüfen.

4. Prüfung & mögliche Maßnahmen

Nach Eingang einer Meldung prüfen wir den Sachverhalt. Abhängig vom Ergebnis können wir z.B. folgende Maßnahmen ergreifen:

  • Entfernung oder Einschränkung von Inhalten (z.B. Kommentar löschen, Veröffentlichung zurücknehmen)
  • Verwarnung (In‑App‑Hinweis): Wir können eine einmalige Warn‑Nachricht an einen Nutzer ausspielen. Diese Warnung muss vom Nutzer aktiv mit „Verstanden“ bestätigt werden, bevor sie verschwindet. Verwarnungen dienen der Aufklärung und Missbrauchsprävention (z.B. Erstverstoß).
  • Ausschluss vom Social-/Community‑System (temporär oder dauerhaft) bei wiederholten oder schweren Verstößen: Der Nutzer kann dann z.B. keine Community‑Inhalte mehr sehen, keine Strategien veröffentlichen und nicht mehr kommentieren/reagieren. Wichtig: Dies ist keine generelle „Kontosperre“ der gesamten Anwendung, sondern eine Einschränkung der Social‑Funktionen.

Wir dokumentieren Moderationshandlungen im erforderlichen Umfang (Audit‑Trail) zur Nachvollziehbarkeit und zur Missbrauchsprävention.

5. Begründung von Moderationsentscheidungen

Wenn wir Maßnahmen gegen Inhalte oder Accounts ergreifen, stellen wir betroffenen Nutzern auf Anfrage eine Begründung bereit (z.B. betroffener Inhalt, Grund der Maßnahme, Zeitpunkt, und – sofern sinnvoll – Hinweise zur Abhilfe). In der Regel erfolgt die Kommunikation über die im Konto hinterlegte E‑Mail‑Adresse oder über den Support‑Kontakt.

6. Beschwerde/Einspruch

Wenn dein Zugang zum Social-/Community‑System eingeschränkt wurde (z.B. Social‑Sperre), kannst du dagegen eine Beschwerde einreichen. Die Beschwerde bezieht sich in unserem System auf den konkreten Report, der zur Maßnahme geführt hat.

  • In‑App‑Beschwerde: Im Sperr‑Popup steht – sofern technisch möglich – ein Formular „Beschwerde einreichen“ zur Verfügung.
  • Support‑Kontakt (Alternative): [Support Mail] (bitte mit Nutzername und möglichst Datum/Bezug).

Ablauf: Wir prüfen die Beschwerde und entscheiden, ob die Sperre bestehen bleibt oder aufgehoben wird. Du erhältst eine Antwort als In‑App‑Popup, das du aktiv mit „Verstanden“ bestätigst.

7. Aufbewahrung (Retention) moderationsrelevanter Daten

Moderationsrelevante Daten (z.B. Reports, Audit‑Logs, Snapshots) werden nur so lange gespeichert, wie dies für Moderation, Sicherheit und Rechtsdurchsetzung erforderlich ist. In unserem System gelten u.a. folgende Zeiträume:

Bereich Daten Speicherdauer
content_report Offene Reports (open/triaged) 6 Monate (Auto‑Löschung bei Inaktivität)
content_report Abgeschlossene Reports (resolved/rejected) 8 Monate ab updated_at
content_report_snapshot_archive Snapshots (Beweis‑Momentaufnahme) 12 Monate ab updated_at des Reports
moderation_audit_log Audit‑Trail 12 Monate ab created_at
Users Social‑Sperr‑Metadaten (suspended_*) Bis Ende der Sperre + 12 Monate
user_warning Verwarnungen (In‑App‑Warn‑Nachricht) 8 Monate (analog zu abgeschlossenen Reports; ab Erstellung/Bestätigung)
content_report_appeal Beschwerden gegen Reports (Einspruch gegen Sperre) 12 Monate nach Entscheidung (resolved_at)

8. Transparenz

Wir halten interne Statistiken über Moderationsmaßnahmen (z.B. Anzahl Meldungen, Kategorien, Maßnahmen), um Missbrauch zu verhindern und Prozesse zu verbessern. Aggregierte Informationen stellen wir auf Anfrage bereit.


Zur Anwendung

DSA / Moderation

Information about moderation and the notice & action process under the Digital Services Act (DSA). Version date: [DD.MM.YYYY]

Quick overview: TRAIL provides features that allow users to publish content and interact with other users (e.g. published strategies, comments, reactions). This content is generally only visible to logged-in users.

1. Provider & contact points

Provider: [Company name / Legal form], [Address], [Country]

  • User contact point (support/moderation): [support@deine-domain.tld]
  • Authority contact point (DSA): [dsa@deine-domain.tld]

Contact language(s): German (DE); optionally English (EN).

2. What content is covered?

“Content” includes in particular:

  • Published strategies (incl. snapshot/metadata)
  • Comments and replies
  • Reactions (e.g. like/dislike)
  • Reports about content

3. Reporting content (“Notice & Action”)

If you believe content is unlawful or violates rules, you can report it. We provide a reporting form (report feature) within the application.

Typical report reasons in our system:

  • Spam
  • Insults/harassment
  • Fraud/scam
  • Copyright infringement
  • Privacy / personal data
  • Other

Helpful information: link/ID of the content, reasoning, evidence if applicable. The more precise the report, the faster we can review it.

4. Review & possible actions

After receiving a report, we review the circumstances. Depending on the outcome, we may take actions such as:

  • Removal or restriction of content (e.g. deleting a comment, unpublishing content)
  • Warning (in-app notice): We may display a one-time warning message to a user. The user must actively confirm it with “Understood” before it disappears. Warnings serve education and abuse prevention (e.g. first violation).
  • Exclusion from the social/community system (temporary or permanent) in case of repeated or severe violations: The user may then no longer see community content, publish strategies, or comment/react. Important: This is not a full account suspension of the entire application, but a restriction of social features.

We document moderation actions to the extent necessary (audit trail) for traceability and abuse prevention.

5. Reasons for moderation decisions

If we take measures against content or accounts, we provide affected users with a rationale upon request (e.g. affected content, reason for the action, time, and—where appropriate—guidance on remediation). Communication typically occurs via the email address associated with the account or via support contact.

6. Complaint/appeal

If your access to the social/community system has been restricted (e.g. social suspension), you can submit a complaint. In our system, the complaint relates to the specific report that led to the measure.

  • In-app complaint: If technically possible, the suspension popup provides a “Submit complaint” form.
  • Support contact (alternative): [Support Mail] (please include username and, if possible, date/context).

Process: We review the complaint and decide whether the suspension remains in place or is lifted. You will receive a response via an in-app popup which you must actively confirm with “Understood”.

7. Retention of moderation-relevant data

Moderation-relevant data (e.g. reports, audit logs, snapshots) is stored only as long as required for moderation, security and enforcement. In our system, the following periods apply, among others:

Area Data Retention
content_report Open reports (open/triaged) 6 months (auto-deletion upon inactivity)
content_report Closed reports (resolved/rejected) 8 months from updated_at
content_report_snapshot_archive Snapshots (evidence snapshot) 12 months from the report’s updated_at
moderation_audit_log Audit trail 12 months from created_at
Users Social suspension metadata (suspended_*) Until the end of the suspension + 12 months
user_warning Warnings (in-app warning message) 8 months (analogous to closed reports; from creation/confirmation)
content_report_appeal Complaints about reports (appeal against suspension) 12 months after the decision (resolved_at)

8. Transparency

We maintain internal statistics about moderation actions (e.g. number of reports, categories, actions) to prevent abuse and improve processes. We provide aggregated information upon request.