]> git.mxchange.org Git - fba.git/blob - fba/http/federation.py
f04fd3fe2f42deab6de2135d6b52f7aa4fcd7eec
[fba.git] / fba / http / federation.py
1 # Copyright (C) 2023 Free Software Foundation
2 #
3 # This program is free software: you can redistribute it and/or modify
4 # it under the terms of the GNU Affero General Public License as published
5 # by the Free Software Foundation, either version 3 of the License, or
6 # (at your option) any later version.
7 #
8 # This program is distributed in the hope that it will be useful,
9 # but WITHOUT ANY WARRANTY; without even the implied warranty of
10 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11 # GNU Affero General Public License for more details.
12 #
13 # You should have received a copy of the GNU Affero General Public License
14 # along with this program.  If not, see <https://www.gnu.org/licenses/>.
15
16 import logging
17
18 from urllib.parse import urlparse
19
20 import bs4
21 import requests
22 import validators
23
24 from fba.helpers import blacklist
25 from fba.helpers import config
26 from fba.helpers import cookies
27 from fba.helpers import domain as domain_helper
28 from fba.helpers import software as software_helper
29 from fba.helpers import tidyup
30 from fba.helpers import version
31
32 from fba.http import csrf
33 from fba.http import network
34 from fba.http import nodeinfo
35
36 from fba.models import blocks
37 from fba.models import instances
38
39 from fba.networks import lemmy
40 from fba.networks import misskey
41 from fba.networks import peertube
42
43 # Depth counter, being raised and lowered
44 _DEPTH = 0
45
46 # API paths
47 _api_paths = [
48     "/api/v1/instance/peers",
49     "/api/v3/site",
50 ]
51
52 logging.basicConfig(level=logging.INFO)
53 logger = logging.getLogger(__name__)
54
55 def fetch_instances(domain: str, origin: str, software: str, command: str, path: str = None):
56     global _DEPTH
57     logger.debug("domain='%s',origin='%s',software='%s',command='%s',path='%s',_DEPTH=%d - CALLED!", domain, origin, software, command, path, _DEPTH)
58     domain_helper.raise_on(domain)
59
60     if blacklist.is_blacklisted(domain):
61         raise Exception(f"domain='{domain}' is blacklisted but function was invoked")
62     elif not isinstance(origin, str) and origin is not None:
63         raise ValueError(f"Parameter origin[]='{type(origin)}' is not of type 'str'")
64     elif not isinstance(command, str):
65         raise ValueError(f"Parameter command[]='{type(command)}' is not of type 'str'")
66     elif command == "":
67         raise ValueError("Parameter 'command' is empty")
68     elif command in ["fetch_blocks", "fetch_cs", "fetch_bkali", "fetch_relays", "fetch_fedipact", "fetch_joinmobilizon", "fetch_joinmisskey", "fetch_joinfediverse", "fetch_relaylist"] and origin is None:
69         raise ValueError(f"Parameter command='{command}' but origin is None, please fix invoking this function.")
70     elif not isinstance(path, str) and path is not None:
71         raise ValueError(f"Parameter path[]='{type(path)}' is not of type 'str'")
72     elif path is not None and not path.startswith("/"):
73         raise ValueError(f"path='{path}' does not start with a slash")
74     elif _DEPTH > 0 and instances.is_recent(domain, "last_instance_fetch"):
75         raise ValueError(f"domain='{domain}' has recently been fetched but function was invoked")
76     elif software is None and not instances.is_recent(domain, "last_nodeinfo"):
77         try:
78             logger.debug("Software for domain='%s',path='%s' is not set, determining ...", domain, path)
79             software = determine_software(domain, path)
80         except network.exceptions as exception:
81             logger.warning("Exception '%s' during determining software type", type(exception))
82             instances.set_last_error(domain, exception)
83
84         logger.debug("Determined software='%s' for domain='%s'", software, domain)
85     elif software is None:
86         logger.debug("domain='%s' has unknown software or nodeinfo has recently being fetched", domain)
87     elif not isinstance(software, str):
88         raise ValueError(f"Parameter software[]='{type(software)}' is not of type 'str'")
89
90     # Increase depth
91     _DEPTH = _DEPTH + 1
92
93     logger.debug("Checking if domain='%s' is registered ...", domain)
94     if not instances.is_registered(domain):
95         logger.debug("Adding new domain='%s',origin='%s',command='%s',path='%s',software='%s'", domain, origin, command, path, software)
96         instances.add(domain, origin, command, path, software)
97
98         logger.debug("software='%s'", software)
99         if software_helper.is_relay(software):
100             logger.debug("software='%s' is a relay software - EXIT!", software)
101             _DEPTH = _DEPTH - 1
102             return
103
104     logger.debug("Updating last_instance_fetch for domain='%s' ...", domain)
105     instances.set_last_instance_fetch(domain)
106
107     peerlist = list()
108     logger.debug("software='%s'", software)
109     if software is not None:
110         logger.debug("Fetching instances for domain='%s',software='%s',origin='%s'", domain, software, origin)
111         peerlist = fetch_peers(domain, software, origin)
112
113     logger.debug("peerlist[]='%s'", type(peerlist))
114     if isinstance(peerlist, list):
115         logger.debug("Invoking instances.set_total_peerlist(%s,%d) ...", domain, len(peerlist))
116         instances.set_total_peers(domain, peerlist)
117
118     logger.debug("Invoking cookies.clear(%s) ...", domain)
119     cookies.clear(domain)
120
121     logger.debug("peerlist[]='%s'", type(peerlist))
122     if peerlist is None:
123         logger.warning("Cannot fetch peers: domain='%s',software='%s'", domain, software)
124         if instances.has_pending(domain):
125             logger.debug("Flushing updates for domain='%s' ...", domain)
126             instances.update(domain)
127
128         _DEPTH = _DEPTH - 1
129         logger.debug("EXIT!")
130         return
131     elif len(peerlist) == 0:
132         logger.info("domain='%s' returned an empty peer list.", domain)
133         if instances.has_pending(domain):
134             logger.debug("Flushing updates for domain='%s' ...", domain)
135             instances.update(domain)
136
137         _DEPTH = _DEPTH - 1
138         logger.debug("domain='%s',software='%s' has an empty peer list returned - EXIT!", domain, software)
139         return
140
141     logger.info("Checking %d instance(s) from domain='%s',software='%s',depth=%d ...", len(peerlist), domain, software, _DEPTH)
142     for instance in peerlist:
143         logger.debug("instance[%s]='%s'", type(instance), instance)
144         if instance in [None, ""]:
145             logger.debug("instance[%s]='%s' is either None or empty - SKIPPED!", type(instance), instance)
146             continue
147
148         logger.debug("instance='%s' - BEFORE!", instance)
149         instance = tidyup.domain(instance) if isinstance(instance, str) and instance != "" else None
150         logger.debug("instance='%s' - AFTER!", instance)
151
152         if instance in [None, ""]:
153             logger.warning("instance='%s' is empty after tidyup.domain(), domain='%s'", instance, domain)
154             continue
155         elif ".." in instance:
156             logger.warning("instance='%s' contains double-dot, removing ...", instance)
157             instance = instance.replace("..", ".")
158
159         logger.debug("instance='%s' - BEFORE!", instance)
160         instance = instance.encode("idna").decode("utf-8")
161         logger.debug("instance='%s' - AFTER!", instance)
162
163         if not domain_helper.is_wanted(instance):
164             logger.debug("instance='%s' is not wanted - SKIPPED!", instance)
165             continue
166         elif instance.find("/profile/") > 0 or instance.find("/users/") > 0 or (instances.is_registered(instance.split("/")[0]) and instance.find("/c/") > 0):
167             logger.debug("instance='%s' is a link to a single user profile - SKIPPED!", instance)
168             continue
169         elif instance.find("/tag/") > 0:
170             logger.debug("instance='%s' is a link to a tag - SKIPPED!", instance)
171             continue
172         elif not instances.is_registered(instance):
173             logger.debug("Checking if domain='%s' has pending updates ...", domain)
174             if instances.has_pending(domain):
175                 logger.debug("Flushing updates for domain='%s' ...", domain)
176                 instances.update(domain)
177
178             logger.debug("instance='%s',origin='%s',_DEPTH=%d reached!", instance, origin, _DEPTH)
179             if _DEPTH <= config.get("max_crawl_depth") and len(peerlist) >= config.get("min_peers_length"):
180                 logger.debug("Fetching instance='%s',origin='%s',command='%s',path='%s',_DEPTH=%d ...", instance, domain, command, path, _DEPTH)
181                 fetch_instances(instance, domain, None, command, path)
182             else:
183                 logger.debug("Adding instance='%s',domain='%s',command='%s',_DEPTH=%d ...", instance, domain, command, _DEPTH)
184                 instances.add(instance, domain, command)
185
186     logger.debug("Checking if domain='%s' has pending updates ...", domain)
187     if instances.has_pending(domain):
188         logger.debug("Flushing updates for domain='%s' ...", domain)
189         instances.update(domain)
190
191     _DEPTH = _DEPTH - 1
192     logger.debug("EXIT!")
193
194 def fetch_peers(domain: str, software: str, origin: str) -> list:
195     logger.debug("domain='%s',software='%s',origin='%s' - CALLED!", domain, software, origin)
196     domain_helper.raise_on(domain)
197
198     if blacklist.is_blacklisted(domain):
199         raise Exception(f"domain='{domain}' is blacklisted but function was invoked")
200     elif not isinstance(software, str) and software is not None:
201         raise ValueError(f"Parameter software[]='{type(software)}' is not of type 'str'")
202     elif isinstance(software, str) and software == "":
203         raise ValueError("Parameter 'software' is empty")
204     elif software_helper.is_relay(software):
205         raise ValueError(f"domain='{domain}' is of software='{software}' and isn't supported here.")
206     elif not isinstance(origin, str) and origin is not None:
207         raise ValueError(f"Parameter origin[]='{type(origin)}' is not of type 'str'")
208     elif isinstance(origin, str) and origin == "":
209         raise ValueError("Parameter 'origin' is empty")
210
211     if software == "misskey":
212         logger.debug("Invoking misskey.fetch_peers(%s) ...", domain)
213         return misskey.fetch_peers(domain)
214     elif software == "lemmy":
215         logger.debug("Invoking lemmy.fetch_peers(%s,%s) ...", domain, origin)
216         return lemmy.fetch_peers(domain, origin)
217     elif software == "peertube":
218         logger.debug("Invoking peertube.fetch_peers(%s) ...", domain)
219         return peertube.fetch_peers(domain)
220
221     # No CSRF by default, you don't have to add network.api_headers by yourself here
222     headers = tuple()
223
224     try:
225         logger.debug("Checking CSRF for domain='%s'", domain)
226         headers = csrf.determine(domain, dict())
227     except network.exceptions as exception:
228         logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s)", type(exception), __name__)
229         instances.set_last_error(domain, exception)
230
231         logger.debug("Returning empty list ... - EXIT!")
232         return list()
233
234     # Init peers variable
235     peers = list()
236
237     logger.debug("Checking %d API paths ...", len(_api_paths))
238     for path in _api_paths:
239         logger.debug("Fetching path='%s' from domain='%s',software='%s' ...", path, domain, software)
240         data = network.get_json_api(
241             domain,
242             path,
243             headers=headers,
244             timeout=(config.get("connection_timeout"), config.get("read_timeout"))
245         )
246
247         logger.debug("data(%d)[]='%s'", len(data), type(data))
248         if "error_message" in data:
249             logger.debug("Was not able to fetch peers from path='%s',domain='%s' ...", path, domain)
250             instances.set_last_error(domain, data)
251         elif "json" in data and len(data["json"]) > 0:
252             logger.debug("Querying API path='%s' was successful: domain='%s',data[json][%s]()=%d", path, domain, type(data['json']), len(data['json']))
253             peers = data["json"]
254
255             logger.debug("Marking domain='%s' as successfully handled ...", domain)
256             instances.set_success(domain)
257             break
258
259     if not isinstance(peers, list):
260         logger.warning("peers[]='%s' is not of type 'list', maybe bad API response?", type(peers))
261         peers = list()
262
263     logger.debug("Invoking instances.set_total_peers(%s,%d) ...", domain, len(peers))
264     instances.set_total_peers(domain, peers)
265
266     logger.debug("peers()=%d - EXIT!", len(peers))
267     return peers
268
269 def fetch_generator_from_path(domain: str, path: str = "/") -> str:
270     logger.debug("domain='%s',path='%s' - CALLED!", domain, path)
271     domain_helper.raise_on(domain)
272
273     if blacklist.is_blacklisted(domain):
274         raise Exception(f"domain='{domain}' is blacklisted but function was invoked")
275     elif not isinstance(path, str):
276         raise ValueError(f"path[]='{type(path)}' is not of type 'str'")
277     elif path == "":
278         raise ValueError("Parameter 'path' is empty")
279     elif not path.startswith("/"):
280         raise ValueError(f"path='{path}' does not start with / but should")
281
282     software = None
283
284     logger.debug("Fetching path='%s' from domain='%s' ...", path, domain)
285     response = network.fetch_response(
286         domain,
287         path,
288         headers=network.web_headers,
289         timeout=(config.get("connection_timeout"), config.get("read_timeout")),
290         allow_redirects=True
291     )
292
293     logger.debug("response.ok='%s',response.status_code=%d,response.text()=%d", response.ok, response.status_code, len(response.text))
294     if ((response.ok and response.status_code == 200) or response.status_code == 410) and response.text.find("<html") > 0 and domain_helper.is_in_url(domain, response.url):
295         logger.debug("Parsing response.text()=%d Bytes ...", len(response.text))
296         doc = bs4.BeautifulSoup(response.text, "html.parser")
297
298         logger.debug("doc[]='%s'", type(doc))
299         platform  = doc.find("meta", {"property": "og:platform"})
300         generator = doc.find("meta", {"name"    : "generator"})
301         site_name = doc.find("meta", {"property": "og:site_name"})
302         app_name  = doc.find("meta", {"name"    : "application-name"})
303
304         logger.debug("generator[]='%s',site_name[]='%s',platform[]='%s',app_name[]='%s'", type(generator), type(site_name), type(platform), type(app_name))
305         if isinstance(platform, bs4.element.Tag) and isinstance(platform.get("content"), str) and platform.get("content") != "":
306             logger.debug("Found property=og:platform, domain='%s'", domain)
307             software = tidyup.domain(platform.get("content"))
308             logger.debug("software[%s]='%s' after tidyup.domain() ...", type(software), software)
309
310             if software is not None and software != "":
311                 logger.debug("domain='%s' has og:platform='%s' - Setting detection_mode=PLATFORM ...", domain, software)
312                 instances.set_detection_mode(domain, "PLATFORM")
313         elif isinstance(generator, bs4.element.Tag) and isinstance(generator.get("content"), str) and generator.get("content") != "":
314             logger.debug("Found generator meta tag: domain='%s'", domain)
315             software = tidyup.domain(generator.get("content"))
316
317             logger.debug("software[%s]='%s'", type(software), software)
318             if software is not None and software != "":
319                 logger.info("domain='%s' is generated by software='%s' - Setting detection_mode=GENERATOR ...", domain, software)
320                 instances.set_detection_mode(domain, "GENERATOR")
321         elif isinstance(app_name, bs4.element.Tag) and isinstance(app_name.get("content"), str) and app_name.get("content") != "":
322             logger.debug("Found property=og:app_name, domain='%s'", domain)
323             software = tidyup.domain(app_name.get("content"))
324
325             logger.debug("software[%s]='%s'", type(software), software)
326             if software is not None and software != "":
327                 logger.debug("domain='%s' has application-name='%s' - Setting detection_mode=app_name ...", domain, software)
328                 instances.set_detection_mode(domain, "APP_NAME")
329         elif isinstance(site_name, bs4.element.Tag) and isinstance(site_name.get("content"), str) and site_name.get("content") != "":
330             logger.debug("Found property=og:site_name, domain='%s'", domain)
331             software = tidyup.domain(site_name.get("content"))
332
333             logger.debug("software[%s]='%s'", type(software), software)
334             if software is not None and software != "":
335                 logger.debug("domain='%s' has og:site_name='%s' - Setting detection_mode=SITE_NAME ...", domain, software)
336                 instances.set_detection_mode(domain, "SITE_NAME")
337     elif not domain_helper.is_in_url(domain, response.url):
338         logger.warning("domain='%s' doesn't match response.url='%s', maybe redirect to other domain?", domain, response.url)
339
340         components = urlparse(response.url)
341         domain2 = components.netloc.lower().split(":")[0]
342
343         logger.debug("domain2='%s'", domain2)
344         if not domain_helper.is_wanted(domain2):
345             logger.debug("domain2='%s' is not wanted - EXIT!", domain2)
346             return None
347         elif not instances.is_registered(domain2):
348             logger.info("components.netloc='%s' is not registered, adding ...", components.netloc)
349             instances.add(domain2, domain, "redirect_target")
350
351         message = f"Redirect from domain='{domain}' to response.url='{response.url}'"
352         instances.set_last_error(domain, message)
353         instances.set_software(domain, None)
354         instances.set_detection_mode(domain, None)
355         instances.set_nodeinfo_url(domain, None)
356
357         raise requests.exceptions.TooManyRedirects(message)
358
359     logger.debug("software[]='%s'", type(software))
360     if isinstance(software, str) and software == "":
361         logger.debug("Corrected empty string to None for software of domain='%s'", domain)
362         software = None
363     elif isinstance(software, str) and ("." in software or " " in software):
364         logger.debug("software='%s' may contain a version number, domain='%s', removing it ...", software, domain)
365         software = version.remove(software)
366
367     logger.debug("software[%s]='%s'", type(software), software)
368     if isinstance(software, str) and "powered by " in software:
369         logger.debug("software='%s' has 'powered by' in it", software)
370         software = version.remove(software_helper.strip_powered_by(software))
371     elif isinstance(software, str) and " hosted on " in software:
372         logger.debug("software='%s' has 'hosted on' in it", software)
373         software = version.remove(software_helper.strip_hosted_on(software))
374     elif isinstance(software, str) and " by " in software:
375         logger.debug("software='%s' has ' by ' in it", software)
376         software = software_helper.strip_until(software, " by ")
377     elif isinstance(software, str) and " see " in software:
378         logger.debug("software='%s' has ' see ' in it", software)
379         software = software_helper.strip_until(software, " see ")
380
381     logger.debug("software[%s]='%s' - EXIT!", type(software), software)
382     return software
383
384 def determine_software(domain: str, path: str = None) -> str:
385     logger.debug("domain='%s',path='%s' - CALLED!", domain, path)
386     domain_helper.raise_on(domain)
387
388     if blacklist.is_blacklisted(domain):
389         raise Exception(f"domain='{domain}' is blacklisted but function was invoked")
390     elif not isinstance(path, str) and path is not None:
391         raise ValueError(f"Parameter path[]='{type(path)}' is not of type 'str'")
392     elif path is not None and not path.startswith("/"):
393         raise ValueError(f"path='{path}' does not start with a slash")
394
395     logger.debug("Fetching nodeinfo from domain='%s',path='%s' ...", domain, path)
396     data = nodeinfo.fetch(domain, path)
397     software = None
398
399     logger.debug("data[%s]='%s'", type(data), data)
400     if "exception" in data:
401         # Continue raising it
402         logger.debug("data()=%d contains exception='%s' - raising ...", len(data), type(data["exception"]))
403         raise data["exception"]
404     elif "error_message" in data:
405         logger.debug("Returned error_message during fetching nodeinfo: '%s',status_code=%d", data['error_message'], data['status_code'])
406         software = fetch_generator_from_path(domain)
407         logger.debug("Generator for domain='%s' is: '%s'", domain, software)
408     elif "json" in data:
409         logger.debug("domain='%s',path='%s',data[json] found ...", domain, path)
410         data = data["json"]
411     else:
412         logger.debug("Auto-detection for domain='%s' was failing, fetching / ...", domain)
413         software = fetch_generator_from_path(domain)
414         logger.debug("Generator for domain='%s' is: '%s'", domain, software)
415
416     if "status" in data and data["status"] == "error" and "message" in data:
417         logger.warning("JSON response is an error: '%s' - Resetting detection_mode,nodeinfo_url ...", data["message"])
418         instances.set_last_error(domain, data["message"])
419         instances.set_detection_mode(domain, None)
420         instances.set_nodeinfo_url(domain, None)
421         software = fetch_generator_from_path(domain)
422         logger.debug("Generator for domain='%s' is: '%s'", domain, software)
423     elif "software" in data and "name" in data["software"]:
424         logger.debug("Found data[json][software][name] in JSON response")
425         software = data["software"]["name"]
426         logger.debug("software[%s]='%s' - FOUND!", type(software), software)
427     elif "message" in data:
428         logger.warning("JSON response contains only a message: '%s' - Resetting detection_mode,nodeinfo_url ...", data["message"])
429         instances.set_last_error(domain, data["message"])
430         instances.set_detection_mode(domain, None)
431         instances.set_nodeinfo_url(domain, None)
432
433         logger.debug("Invoking fetch_generator_from_path(%s) ...", domain)
434         software = fetch_generator_from_path(domain)
435         logger.debug("Generator for domain='%s' is: '%s'", domain, software)
436     elif "server" in data and "software" in data["server"]:
437         logger.debug("Found data[server][software]='%s' for domain='%s'", data["server"]["software"].lower(), domain)
438         software = data["server"]["software"].lower()
439         logger.debug("Detected software for domain='%s' is: '%s'", domain, software)
440     elif "software" not in data or "name" not in data["software"]:
441         logger.debug("JSON response from domain='%s' does not include [software][name] - Resetting detection_mode,nodeinfo_url ...", domain)
442         instances.set_detection_mode(domain, None)
443         instances.set_nodeinfo_url(domain, None)
444
445         logger.debug("Invoking fetch_generator_from_path(%s) ...", domain)
446         software = fetch_generator_from_path(domain)
447         logger.debug("Generator for domain='%s' is: '%s'", domain, software)
448
449     logger.debug("software[%s]='%s'", type(software), software)
450     if software in [None, ""]:
451         logger.debug("Returning None - EXIT!")
452         return None
453
454     logger.debug("software='%s'- BEFORE!", software)
455     software = software_helper.alias(software)
456     logger.debug("software['%s']='%s' - AFTER!", type(software), software)
457
458     if str(software) == "":
459         logger.debug("software for domain='%s' was not detected, trying generator ...", domain)
460         software = fetch_generator_from_path(domain)
461     elif len(str(software)) > 0 and ("." in software or " " in software):
462         logger.debug("software='%s' may contain a version number, domain='%s', removing it ...", software, domain)
463         software = version.remove(software)
464
465     logger.debug("software[]='%s'", type(software))
466     if isinstance(software, str) and "powered by" in software:
467         logger.debug("software='%s' has 'powered by' in it", software)
468         software = version.remove(software_helper.strip_powered_by(software))
469
470     software = software.strip()
471
472     logger.debug("software[%s]='%s' - EXIT!", type(software), software)
473     return software
474
475 def find_domains(tag: bs4.element.Tag) -> list:
476     logger.debug("tag[]='%s' - CALLED!", type(tag))
477     if not isinstance(tag, bs4.element.Tag):
478         raise ValueError(f"Parameter tag[]='{type(tag)}' is not type of bs4.element.Tag")
479     elif len(tag.select("tr")) == 0:
480         raise KeyError("No table rows found in table!")
481
482     domains = list()
483     for element in tag.select("tr"):
484         logger.debug("element[]='%s'", type(element))
485         if not element.find("td"):
486             logger.debug("Skipping element, no <td> found")
487             continue
488
489         domain = tidyup.domain(element.find("td").text)
490         reason = tidyup.reason(element.findAll("td")[1].text)
491
492         logger.debug("domain='%s',reason='%s'", domain, reason)
493
494         if not domain_helper.is_wanted(domain):
495             logger.debug("domain='%s' is blacklisted - SKIPPED!", domain)
496             continue
497         elif domain == "gab.com/.ai, develop.gab.com":
498             logger.debug("Multiple gab.com domains detected in one row")
499             domains.append({
500                 "domain": "gab.com",
501                 "reason": reason,
502             })
503             domains.append({
504                 "domain": "gab.ai",
505                 "reason": reason,
506             })
507             domains.append({
508                 "domain": "develop.gab.com",
509                 "reason": reason,
510             })
511             continue
512         elif not validators.domain(domain.split("/")[0]):
513             logger.warning("domain='%s' is not a valid domain - SKIPPED!", domain)
514             continue
515
516         logger.debug("Adding domain='%s',reason='%s' ...", domain, reason)
517         domains.append({
518             "domain": domain,
519             "reason": reason,
520         })
521
522     logger.debug("domains()=%d - EXIT!", len(domains))
523     return domains
524
525 def add_peers(rows: dict) -> list:
526     logger.debug("rows[]='%s' - CALLED!", type(rows))
527     if not isinstance(rows, dict):
528         raise ValueError(f"Parameter rows[]='{type(rows)}' is not of type 'dict'")
529
530     peers = list()
531     for key in ["linked", "allowed", "blocked"]:
532         logger.debug("key='%s'", key)
533         if key not in rows or rows[key] is None:
534             logger.debug("Cannot find key='%s' or it is NoneType - SKIPPED!", key)
535             continue
536
537         logger.debug("Adding %d peer(s) to peers list ...", len(rows[key]))
538         for peer in rows[key]:
539             logger.debug("peer[%s]='%s' - BEFORE!", type(peer), peer)
540             if peer in [None, ""]:
541                 logger.debug("peer is empty - SKIPPED")
542                 continue
543             elif isinstance(peer, dict) and "domain" in peer:
544                 logger.debug("peer[domain]='%s'", peer["domain"])
545                 peer = tidyup.domain(peer["domain"])
546             elif isinstance(peer, str):
547                 logger.debug("peer='%s'", peer)
548                 peer = tidyup.domain(peer)
549             else:
550                 raise ValueError(f"peer[]='{type(peer)}' is not supported,key='{key}'")
551
552             logger.debug("peer[%s]='%s' - AFTER!", type(peer), peer)
553             if not domain_helper.is_wanted(peer):
554                 logger.debug("peer='%s' is not wanted - SKIPPED!", peer)
555                 continue
556
557             logger.debug("Appending peer='%s' ...", peer)
558             peers.append(peer)
559
560     logger.debug("peers()=%d - EXIT!", len(peers))
561     return peers
562
563 def fetch_blocks(domain: str) -> list:
564     logger.debug("domain='%s' - CALLED!", domain)
565     domain_helper.raise_on(domain)
566
567     if not instances.is_registered(domain):
568         raise Exception(f"domain='{domain}' is not registered but function is invoked.")
569     elif blacklist.is_blacklisted(domain):
570         raise Exception(f"domain='{domain}' is blacklisted but function was invoked")
571
572     # Init block list
573     blocklist = list()
574
575     # No CSRF by default, you don't have to add network.api_headers by yourself here
576     headers = tuple()
577
578     try:
579         logger.debug("Checking CSRF for domain='%s'", domain)
580         headers = csrf.determine(domain, dict())
581     except network.exceptions as exception:
582         logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s)", type(exception), __name__)
583         instances.set_last_error(domain, exception)
584
585         logger.debug("Returning empty list ... - EXIT!")
586         return list()
587
588     try:
589         # json endpoint for newer mastodongs
590         logger.info("Fetching domain_blocks from domain='%s' ...", domain)
591         data = network.get_json_api(
592             domain,
593             "/api/v1/instance/domain_blocks",
594             headers=headers,
595             timeout=(config.get("connection_timeout"), config.get("read_timeout"))
596         )
597         rows = list()
598
599         logger.debug("data(%d)[]='%s'", len(data), type(data))
600         if "error_message" in data:
601             logger.debug("Was not able to fetch domain_blocks from domain='%s': status_code=%d,error_message='%s'", domain, data['status_code'], data['error_message'])
602             instances.set_last_error(domain, data)
603
604             logger.debug("blocklist()=%d - EXIT!", len(blocklist))
605             return blocklist
606         elif "json" in data and "error" in data["json"]:
607             logger.warning("JSON API returned error message: '%s'", data["json"]["error"])
608             instances.set_last_error(domain, data)
609
610             logger.debug("blocklist()=%d - EXIT!", len(blocklist))
611             return blocklist
612         else:
613             # Getting blocklist
614             rows = data["json"]
615
616             logger.debug("Marking domain='%s' as successfully handled ...", domain)
617             instances.set_success(domain)
618
619         logger.debug("rows(%d)[]='%s'", len(rows), type(rows))
620         if len(rows) > 0:
621             logger.debug("Checking %d entries from domain='%s' ...", len(rows), domain)
622             for block in rows:
623                 # Check type
624                 logger.debug("block[]='%s'", type(block))
625                 if not isinstance(block, dict):
626                     logger.debug("block[]='%s' is of type 'dict' - SKIPPED!", type(block))
627                     continue
628                 elif "domain" not in block:
629                     logger.warning("block()=%d does not contain element 'domain' - SKIPPED!", len(block))
630                     continue
631                 elif "severity" not in block:
632                     logger.warning("block()=%d does not contain element 'severity' - SKIPPED!", len(block))
633                     continue
634                 elif block["severity"] in ["accept", "accepted"]:
635                     logger.debug("block[domain]='%s' has unwanted severity level '%s' - SKIPPED!", block["domain"], block["severity"])
636                     continue
637                 elif "digest" in block and not validators.hashes.sha256(block["digest"]):
638                     logger.warning("block[domain]='%s' has invalid block[digest]='%s' - SKIPPED!", block["domain"], block["digest"])
639                     continue
640
641                 reason = tidyup.reason(block["comment"]) if "comment" in block and block["comment"] is not None and block["comment"] != "" else None
642
643                 logger.debug("Appending blocker='%s',blocked='%s',reason='%s',block_level='%s' ...", domain, block["domain"], reason, block["severity"])
644                 blocklist.append({
645                     "blocker"    : domain,
646                     "blocked"    : block["domain"],
647                     "digest"     : block["digest"] if "digest" in block else None,
648                     "reason"     : reason,
649                     "block_level": blocks.alias_block_level(block["severity"]),
650                 })
651         else:
652             logger.debug("domain='%s' has no block list", domain)
653
654     except network.exceptions as exception:
655         logger.warning("domain='%s',exception[%s]='%s'", domain, type(exception), str(exception))
656         instances.set_last_error(domain, exception)
657
658     logger.debug("blocklist()=%d - EXIT!", len(blocklist))
659     return blocklist