]> git.mxchange.org Git - fba.git/blob - fba/networks/mastodon.py
Continued:
[fba.git] / fba / networks / mastodon.py
1 # Fedi API Block - An aggregator for fetching blocking data from fediverse nodes
2 # Copyright (C) 2023 Free Software Foundation
3 #
4 # This program is free software: you can redistribute it and/or modify
5 # it under the terms of the GNU Affero General Public License as published
6 # by the Free Software Foundation, either version 3 of the License, or
7 # (at your option) any later version.
8 #
9 # This program is distributed in the hope that it will be useful,
10 # but WITHOUT ANY WARRANTY; without even the implied warranty of
11 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12 # GNU Affero General Public License for more details.
13 #
14 # You should have received a copy of the GNU Affero General Public License
15 # along with this program.  If not, see <https://www.gnu.org/licenses/>.
16
17 import logging
18 import validators
19
20 import bs4
21
22 from fba import csrf
23
24 from fba.helpers import config
25 from fba.helpers import domain as domain_helper
26 from fba.helpers import tidyup
27
28 from fba.http import network
29
30 from fba.models import blocks
31 from fba.models import instances
32
33 logging.basicConfig(level=logging.INFO)
34 logger = logging.getLogger(__name__)
35
36 # Language mapping X -> English
37 language_mapping = {
38     # English -> English
39     "Silenced instances"            : "Silenced servers",
40     "Suspended instances"           : "Suspended servers",
41     "Limited instances"             : "Limited servers",
42     "Filtered media"                : "Filtered media",
43     # Mappuing German -> English
44     "Gesperrte Server"              : "Suspended servers",
45     "Gefilterte Medien"             : "Filtered media",
46     "Stummgeschaltete Server"       : "Silenced servers",
47     # Japanese -> English
48     "停止済みのサーバー"            : "Suspended servers",
49     "制限中のサーバー"              : "Limited servers",
50     "メディアを拒否しているサーバー": "Filtered media",
51     "サイレンス済みのサーバー"      : "Silenced servers",
52     # ??? -> English
53     "שרתים מושעים"                  : "Suspended servers",
54     "מדיה מסוננת"                   : "Filtered media",
55     "שרתים מוגבלים"                 : "Silenced servers",
56     # French -> English
57     "Serveurs suspendus"            : "Suspended servers",
58     "Médias filtrés"                : "Filtered media",
59     "Serveurs limités"              : "Limited servers",
60     "Serveurs modérés"              : "Limited servers",
61 }
62
63 def fetch_blocks_from_about(domain: str) -> dict:
64     logger.debug("domain='%s' - CALLED!", domain)
65     domain_helper.raise_on(domain)
66
67     logger.debug("Fetching mastodon blocks from domain='%s'", domain)
68     doc = None
69     for path in ["/about/more", "/about"]:
70         try:
71             logger.debug("Fetching path='%s' from domain='%s' ...", path, domain)
72             doc = bs4.BeautifulSoup(
73                 network.fetch_response(
74                     domain,
75                     path,
76                     network.web_headers,
77                     (config.get("connection_timeout"), config.get("read_timeout"))
78                 ).text,
79                 "html.parser",
80             )
81
82             if len(doc.find_all("h3")) > 0:
83                 logger.debug("path='%s' had some headlines - BREAK!", path)
84                 break
85
86         except network.exceptions as exception:
87             logger.warning("Cannot fetch from domain='%s',exception='%s'", domain, type(exception))
88             instances.set_last_error(domain, exception)
89             break
90
91     blocklist = {
92         "Suspended servers": [],
93         "Filtered media"   : [],
94         "Limited servers"  : [],
95         "Silenced servers" : [],
96     }
97
98     logger.debug("doc[]='%s'", type(doc))
99     if doc is None:
100         logger.warning("Cannot fetch any /about pages for domain='%s' - EXIT!", domain)
101         return list()
102
103     for header in doc.find_all("h3"):
104         header_text = tidyup.reason(header.text)
105
106         logger.debug("header_text='%s'", header_text)
107         if header_text in language_mapping:
108             logger.debug("Translating header_text='%s' ...", header_text)
109             header_text = language_mapping[header_text]
110         else:
111             logger.warning("header_text='%s' not found in language mapping table", header_text)
112
113         if header_text in blocklist or header_text.lower() in blocklist:
114             # replaced find_next_siblings with find_all_next to account for instances that e.g. hide lists in dropdown menu
115             for line in header.find_all_next("table")[0].find_all("tr")[1:]:
116                 blocklist[header_text].append({
117                     "domain": tidyup.domain(line.find("span").text),
118                     "hash"  : tidyup.domain(line.find("span")["title"][9:]),
119                     "reason": tidyup.reason(line.find_all("td")[1].text),
120                 })
121         else:
122             logger.warning("header_text='%s' not found in blocklist()=%d", header_text, len(blocklist))
123
124     logger.debug("Returning blocklist for domain='%s' - EXIT!", domain)
125     return {
126         "reject"        : blocklist["Suspended servers"],
127         "media_removal" : blocklist["Filtered media"],
128         "followers_only": blocklist["Limited servers"] + blocklist["Silenced servers"],
129     }
130
131 def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
132     logger.debug("domain='%s',nodeinfo_url='%s' - CALLED!", domain, nodeinfo_url)
133     domain_helper.raise_on(domain)
134
135     if not isinstance(nodeinfo_url, str):
136         raise ValueError(f"Parameter nodeinfo_url[]='{type(nodeinfo_url)}' is not of type 'str'")
137     elif nodeinfo_url == "":
138         raise ValueError("Parameter 'nodeinfo_url' is empty")
139
140     # Init block list
141     blocklist = list()
142
143     # No CSRF by default, you don't have to add network.api_headers by yourself here
144     headers = tuple()
145
146     try:
147         logger.debug("Checking CSRF for domain='%s'", domain)
148         headers = csrf.determine(domain, dict())
149     except network.exceptions as exception:
150         logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s)", type(exception), __name__)
151         instances.set_last_error(domain, exception)
152
153         logger.debug("Returning empty list ... - EXIT!")
154         return list()
155
156     try:
157         # json endpoint for newer mastodongs
158         logger.debug("Querying API domain_blocks: domain='%s'", domain)
159         data = network.get_json_api(
160             domain,
161             "/api/v1/instance/domain_blocks",
162             headers,
163             (config.get("connection_timeout"), config.get("read_timeout"))
164         )
165         rows = list()
166
167         logger.debug("data[]='%s'", type(data))
168         if "error_message" in data:
169             logger.debug("Was not able to fetch domain_blocks from domain='%s': status_code=%d,error_message='%s'", domain, data['status_code'], data['error_message'])
170             instances.set_last_error(domain, data)
171             return blocklist
172         elif "json" in data and "error" in data["json"]:
173             logger.warning("JSON API returned error message: '%s'", data["json"]["error"])
174             instances.set_last_error(domain, data)
175             return blocklist
176         else:
177             # Getting blocklist
178             rows = data["json"]
179
180             logger.debug("Marking domain='%s' as successfully handled ...", domain)
181             instances.set_success(domain)
182
183         logger.debug("rows[%s]()=%d", type(rows), len(rows))
184         if len(rows) == 0:
185             logger.debug("domain='%s' has returned zero rows, trying /about/more page ...", domain)
186             rows = fetch_blocks_from_about(domain)
187
188         logger.debug("rows[%s]()=%d", type(rows), len(rows))
189         if len(rows) > 0:
190             logger.debug("Checking %d entries from domain='%s' ...", len(rows), domain)
191             for block in rows:
192                 # Check type
193                 logger.debug("block[]='%s'", type(block))
194                 if not isinstance(block, dict):
195                     logger.debug("block[]='%s' is of type 'dict' - SKIPPED!", type(block))
196                     continue
197                 elif "domain" not in block:
198                     logger.warning("block()=%d does not contain element 'domain' - SKIPPED!", len(block))
199                     continue
200                 elif "severity" not in block:
201                     logger.warning("block()=%d does not contain element 'severity' - SKIPPED!", len(block))
202                     continue
203                 elif block["severity"] in ["accept", "accepted"]:
204                     logger.debug("block[domain]='%s' has unwanted severity level '%s' - SKIPPED!", block["domain"], block["severity"])
205                     continue
206                 elif "digest" in block and validators.hashes.sha256(block["digest"]):
207                     logger.warning("block[domain]='%s' has invalid block[digest]='%s' - SKIPPED!", block["domain"], block["digest"])
208                     continue
209
210                 reason = tidyup.reason(block["comment"]) if "comment" in block and block["comment"] is not None and block["comment"] != "" else None
211
212                 logger.debug("Appending blocker='%s',blocked='%s',reason='%s',block_level='%s'", domain, block["domain"], reason, block["severity"])
213                 blocklist.append({
214                     "blocker"    : domain,
215                     "blocked"    : block["domain"],
216                     "hash"       : block["digest"] if "digest" in block else None,
217                     "reason"     : reason,
218                     "block_level": blocks.alias_block_level(block["severity"]),
219                 })
220         else:
221             logger.debug("domain='%s' has no block list", domain)
222
223     except network.exceptions as exception:
224         logger.warning("domain='%s',exception[%s]='%s'", domain, type(exception), str(exception))
225         instances.set_last_error(domain, exception)
226
227     logger.debug("blocklist()=%d - EXIT!", len(blocklist))
228     return blocklist