2017年,洛克威的科普蘭中學,一名12歲的新澤西女孩在遭受了同學數月的網絡霸凌后結束了自己的生命。這并不是個例。根據bullyingstatisTIcs.org調查顯示,超過一半的成年人和青少年都曾遭受過網絡霸凌,超半數也的人曾參與過網絡霸凌。
對于那些每天在學?;蚓W上被欺負的青少年來說,造成的影響可能是毀滅性的。由于青少年急于尋求身份認同,他們通常很容易受到影響。每天持續(xù)遭受欺凌如同在中央情報局的酷刑室受到精神折磨,可能會導致焦慮、抑郁甚至引發(fā)自殺行為。
網絡霸凌正波及整個網絡根據皮尤研究中心,75%的美國成年人身邊曾發(fā)生過網絡霸凌。其中40%的美國公民親自經歷過某種形式的網絡騷擾。
網絡霸凌引發(fā)的社會問題網絡霸凌不僅僅影響人們的網絡體驗。許多情況下,還會演變?yōu)楝F實生活中的發(fā)生跟蹤和騷擾事件。佛羅里達大西洋大學(Florida AtlanTIc University)對高中生進行的一項研究表明,83%曾遭受網絡霸凌的人也曾在現實生活中受到欺凌。學校通常會對學區(qū)隱瞞這些事件。除非造成人身傷害,否則警方在幫助逮捕和起訴欺凌者方面往往無能為力。
霸凌者和受害者同樣痛苦受害者容易患上焦慮和抑郁等精神疾病。但是,霸凌者也容易產生導致人格障礙的反社會行為。如果每次發(fā)生霸凌事件,霸凌者的行為得不到懲戒,最終霸凌者就會感到有“權利”,由此助長下次霸凌的發(fā)生。正是這種“權利”導致了網絡生活和現實生活中各種細化的反社會行為。自戀型人格障礙、邊緣性人格障礙都是與反社會行為相關的精神疾病。近年來,社會中精神疾病的增加并不意外。
網絡霸凌影響了人們對互聯網和科技的信任互聯網使社會受益匪淺。幾十年來,技術進步使人們的工作愈加高效。網絡惡性貼文對人們的網絡體驗造成消極影響,還影響人們利用網絡進行高效工作。這些情況讓新一代用戶認為這些技術是不良的工具,打擊人們將技術融入生活的積極性。
網絡霸凌難以預防和阻止網絡霸凌與現實生活中的霸凌不同。網絡霸凌獨有的特點使其難以被阻止。
· 網絡欺凌難以察覺——通常,欺凌者披上幽默的外衣,巧妙地譏諷受害者。
· 屏蔽他人只會助長霸凌——社交媒體群中,想要屏蔽掉霸凌者幾乎是不可能的。特別是當對象是學生時,在一個為滿足教育需求創(chuàng)立的學習論壇中屏蔽某個學生是不可能的,而霸凌者也在其中。
· 網絡欺凌的受害者很難被發(fā)現 - 通常,受害者對他們遭受的霸凌持有疑問。由于欺凌者隱藏在幽默和虛假的網名背后,受害者常常覺得他們應該受到指責,或者他們是那些無中生有的人。
網絡欺凌為人工智能提供了一個亟待解決的問題識別網絡霸凌異常困難為那些試圖保護自己的在線社交媒體社區(qū)的公司帶來了獨特的挑戰(zhàn)。通常這種大海撈針的問題,最適合采用機器學習來解決。AI可以識別語言的細微差別,在人類無能為力的大數據分析領域有效的對語言進行分類。 當算法了解愈多的欺凌者的網絡活動時,還可以調整和提高識別網絡欺凌的準確性。
2016年,IdenTIty Guard與Megan Meier FoundaTIon合作,使用IBM Watson技術,使自然語言處理(NLP)和自然語言分類器(NLC)可以識別網絡欺凌或自我傷害。父母會收到在識別案例中生成的警報。然后,可以采取措施為孩子的網絡體驗把關。
2016年6月,Facebook推出DeepText作為“基于深度學習的文本理解引擎,能夠以近乎真人的精確度理解每秒數千個帖子的文本內容。不久,Instagram開始使用DeepText消除其平臺上的垃圾郵件。最近,Instagram開始使用技術來對抗網絡惡性貼文和騷擾。Facebook擁有一個內容管理團隊,該團隊將與人工智能技術相結合,在線識別騷擾,監(jiān)控和刪除虛假賬戶。
Twitter還使用人工智能技術發(fā)現垃圾郵件并識別負面互動。Twitter通過在用戶的提要上展示最佳,積極的體驗,幫助用戶營造自己的網絡生活。如果您在Twitter上屏蔽某人,那么來自同一個人的類似帳戶將不會顯示在您的Twitter Feed上。
谷歌和Jigsaw開發(fā)了人工智能調節(jié)工具Perspective,根據與人類評論家歸類為“有害”的評論的相似性對評論進行評分。Youtube使用此工具來對抗其平臺上的在線騷擾。
人工智能和機器學習并不完美與人為干預相結合才能將人工智能和機器學習用于鑒別網絡惡性貼文和騷擾的功能發(fā)揮到極致。無論是AI系統(tǒng)用作訓練數據的人類數據,還是用于驗證AI系統(tǒng)提供的結果準確性的內容審閱者,一些人工干預都有助于AI系統(tǒng)產生更準確的結果。在Instagram上,圖像分類和文本分類呈現出更復雜的識別在線騷擾的案例。具有特殊語境意義的中性文本的使用也為AI系統(tǒng)鑒別特定類型文本造成阻礙。
大眾必須幫助AI Systems提高效率,保護在線社區(qū)
技術和人一樣高效。如今的95后比他們的父母更加了解科技,這意味著我們在網絡上花費的時間也就越多。作為人,必須更明確地了解自身的在線行為。在現實生活中,我們的行為準則通常會被所居住的社區(qū)所強化。在網絡生活中,也需要有在線社區(qū)成員所執(zhí)行的那種行為準則。躲在電腦屏幕后面,感覺“有權”說出自己的感受和行為只會導致網絡論壇的混亂。相反,我們應該對現實生活中的行為負責。
保護網絡社區(qū)的措施:· 一旦看到惡性貼文,立馬舉報。若對惡性貼文視而不見,那么最終你也會成為惡性貼文的受害者。在任何社交媒體社區(qū),都可以通過按一個按鈕來舉報違規(guī)帳戶。
· 了解孩子的在線活動。與孩子交談,了解他們的在線活動。與他們討論潛在的騷擾和欺凌行為。告訴他們適當的網絡禮儀,正如你教導他們在生活中要講禮貌一樣。
· 了解工具并使用它們。在每個社交媒體平臺上,都有舉報和屏蔽用戶的工具。無需舉報或屏蔽同一個用戶的多個不當行為——只需舉報或屏蔽一次就行。
· 了解并設置隱私邊界。網絡活動可以快速設置為個人可見。為了保護自己,設置個人網絡生活的私密程度。不要張貼你知道可能令人尷尬多年的照片。 同時,請不要向他人索取私人信息,畢竟己所不欲,勿施于人。
· 記錄騷擾行為。通過拍攝證據來記錄您收到的每一次騷擾。發(fā)帖者或騷擾者可能會刪除帖子,為方便調查建議保留副本。
· 相信自己的直覺。作為人類,要相信自己的直覺。產生這些感覺是有原因的。我們的體會告訴自己感受如何,反過來警告潛在的危險。如果你覺得某人的評論是“關閉”,那可能就是。在你把它歸結為你的錯之前,先和別人談談以獲得中立的意見??赡苠e并不在你。
網絡霸凌每天發(fā)生,每個人都有責任保護自己的在線體驗。人工智能可以在社交媒體幫助我們標記和監(jiān)管在線活動。但是,就像現實生活中的警察一樣,第三方也就只能做到這兒了。
為彌補技術不足提高準確性,需要大眾參與當我們通過學習,實施和建模適當的網絡禮儀參與其中,AI系統(tǒng)將更容易發(fā)現異常現象。當我們屏蔽并舉報用戶的不當網絡行為時AI系統(tǒng)可以獲得更準確數據。 當我們相信自己的直覺并主動采取行動阻止他人的惡性貼文和騷擾時,我們就是在表明立場 如果我們聯合起來對任何形式的欺凌說“不”,那么欺凌者和惡意發(fā)帖者就更難滋長。
請記住,網絡生活就像現實生活一樣?;ヂ摼W社區(qū)就像現實社區(qū)一樣。我們正在建設世界。在這些世界中,擔負的責任與現實生活中的同樣沉重。





