13. Juli 2019, 13:00 Uhr | Lesezeit: 2 Minuten
Gerade junge Menschen nutzen Instagram, um sich digital auszutauschen. Leider steht dabei oft auch Mobbing auf der Tagesordnung. Mit einer neuen Funktion will der Plattformanbieter nun dagegen vorgehen.
Verletzende Beiträge sind in sozialen Netzwerken an der Tagesordnung. Besonders um jüngere Nutzer zu schützen, will Instagram deshalb künftig den Inhalt von Posts automatisch auswerten.
Außerdem soll die Plattform Alarm schlagen, wenn es sich um Hässlichkeiten, Beleidigungen oder Mobbing-Attacken handelt, wie die Facebook-Tochter mitteilt. Der Verfasser sieht dann die Frage „Bist du sicher, dass du das posten willst?“ und kann per Klick auf einen „Rückgängig“-Schriftzug das Geschriebene zurückziehen.
„Shadow-Banning“-Bug Hier finden Sie heraus, ob Instagram Ihre Posts unabsichtlich blockiert
Altlasten entsorgen So löschen Sie Social-Media-Sünden aus der Vergangenheit
Neue Funktion Facebook macht das Löschen alter Beiträge leichter
Instagram testet verschiedene Filter-Funktionen aus
Wann genau die neue Funktion für Nutzer in Deutschland eingeführt wird, teilte Instagram zunächst nicht mit. In einem weiteren Schritt will das soziale Netzwerk mit einer neuen Funktion namens Restrict experimentieren. Damit lässt sich die Sichtbarkeit von Kommentaren anderer Nutzer, die einen möglicherweise belästigen, in der allgemeinen Sichtbarkeit einschränken und nur dann gezielt für die Augen Dritter freigeben, wenn sie in Ordnung sind.
Nutzer, deren Kommentare man eingeschränkt hat, sollen auch nicht mehr sehen können, wann man bei Instagram aktiv ist oder Direktnachrichten von ihnen gelesen hat.