]> git.mxchange.org Git - fba.git/blob - fba/networks/mastodon.py
Continued:
[fba.git] / fba / networks / mastodon.py
1 # Fedi API Block - An aggregator for fetching blocking data from fediverse nodes
2 # Copyright (C) 2023 Free Software Foundation
3 #
4 # This program is free software: you can redistribute it and/or modify
5 # it under the terms of the GNU Affero General Public License as published
6 # by the Free Software Foundation, either version 3 of the License, or
7 # (at your option) any later version.
8 #
9 # This program is distributed in the hope that it will be useful,
10 # but WITHOUT ANY WARRANTY; without even the implied warranty of
11 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12 # GNU Affero General Public License for more details.
13 #
14 # You should have received a copy of the GNU Affero General Public License
15 # along with this program.  If not, see <https://www.gnu.org/licenses/>.
16
17 import logging
18 import validators
19
20 import bs4
21
22 from fba.helpers import blacklist
23 from fba.helpers import config
24 from fba.helpers import domain as domain_helper
25 from fba.helpers import tidyup
26
27 from fba.http import network
28
29 from fba.models import blocks
30 from fba.models import instances
31
32 logging.basicConfig(level=logging.INFO)
33 logger = logging.getLogger(__name__)
34
35 # Language mapping X -> English
36 language_mapping = {
37     # English -> English
38     "Silenced instances"            : "Silenced servers",
39     "Suspended instances"           : "Suspended servers",
40     "Suspended servers"             : "Suspended servers",
41     "Limited instances"             : "Limited servers",
42     "Filtered media"                : "Filtered media",
43     # Mappuing German -> English
44     "Gesperrte Server"              : "Suspended servers",
45     "Gefilterte Medien"             : "Filtered media",
46     "Stummgeschaltete Server"       : "Silenced servers",
47     # Japanese -> English
48     "停止済みのサーバー"            : "Suspended servers",
49     "制限中のサーバー"              : "Limited servers",
50     "メディアを拒否しているサーバー": "Filtered media",
51     "サイレンス済みのサーバー"      : "Silenced servers",
52     # ??? -> English
53     "שרתים מושעים"                  : "Suspended servers",
54     "מדיה מסוננת"                   : "Filtered media",
55     "שרתים מוגבלים"                 : "Silenced servers",
56     # French -> English
57     "Serveurs suspendus"            : "Suspended servers",
58     "Médias filtrés"                : "Filtered media",
59     "Serveurs limités"              : "Limited servers",
60     "Serveurs modérés"              : "Limited servers",
61 }
62
63 def fetch_blocks_from_about(domain: str) -> dict:
64     logger.debug("domain='%s' - CALLED!", domain)
65     domain_helper.raise_on(domain)
66
67     if blacklist.is_blacklisted(domain):
68         raise Exception(f"domain='{domain}' is blacklisted but function is invoked.")
69     elif not instances.is_registered(domain):
70         raise Exception(f"domain='{domain}' is not registered but function is invoked.")
71
72     # Init variables
73     doc = None
74
75     logger.info("Fetching mastodon blocks from domain='%s'", domain)
76     for path in ["/about/more", "/about"]:
77         try:
78             logger.debug("Fetching path='%s' from domain='%s' ...", path, domain)
79             doc = bs4.BeautifulSoup(
80                 network.fetch_response(
81                     domain,
82                     path,
83                     network.web_headers,
84                     (config.get("connection_timeout"), config.get("read_timeout"))
85                 ).text,
86                 "html.parser",
87             )
88
89             if len(doc.find_all("h3")) > 0:
90                 logger.debug("path='%s' had some headlines - BREAK!", path)
91                 break
92
93         except network.exceptions as exception:
94             logger.warning("Cannot fetch from domain='%s',exception='%s'", domain, type(exception))
95             instances.set_last_error(domain, exception)
96             break
97
98     blocklist = {
99         "Suspended servers": [],
100         "Filtered media"   : [],
101         "Limited servers"  : [],
102         "Silenced servers" : [],
103     }
104
105     logger.debug("doc[]='%s'", type(doc))
106     if doc is None:
107         logger.warning("Cannot fetch any /about pages for domain='%s' - EXIT!", domain)
108         return list()
109
110     for header in doc.find_all("h3"):
111         header_text = tidyup.reason(header.text)
112
113         logger.debug("header_text='%s'", header_text)
114         if header_text in language_mapping:
115             logger.debug("Translating header_text='%s' ...", header_text)
116             header_text = language_mapping[header_text]
117         else:
118             logger.warning("header_text='%s' not found in language mapping table", header_text)
119
120         if header_text in blocklist or header_text.lower() in blocklist:
121             # replaced find_next_siblings with find_all_next to account for instances that e.g. hide lists in dropdown menu
122             for line in header.find_all_next("table")[0].find_all("tr")[1:]:
123                 domain = line.find("span").text
124                 reason = line.find_all("td")[1].text
125
126                 logger.debug("domain='%s',reason='%s' - BEFORE!", domain, reason)
127                 domain = tidyup.domain(domain) if domain != "" else None
128                 reason = tidyup.reason(reason) if reason != "" else None
129                 logger.debug("domain='%s',reason='%s' - AFTER!", domain, reason)
130
131                 digest = line.find("span")["title"][9:]
132
133                 logger.debug("digest='%s' - BEFORE!", digest)
134                 if not validators.hashes.sha256(digest):
135                     logger.warning("domain='%s' has invalid digest='%s' - Setting to None ...", domain, digest)
136                     digest = None
137                 logger.debug("digest='%s' - AFTER!", digest)
138
139                 logger.debug("domain[]='%s'", type(domain))
140                 if domain in [None, ""]:
141                     logger.warning("domain='%s' is empty,line='%s' - SKIPPED!", domain, line)
142                     continue
143
144                 logger.debug("Appending domain='%s',digest='%s',reason='%s' to blocklist header_text='%s' ...", domain, digest, reason, blocklist)
145                 blocklist[header_text].append({
146                     "domain": domain,
147                     "digest": digest,
148                     "reason": reason,
149                 })
150         else:
151             logger.warning("header_text='%s' not found in blocklist()=%d", header_text, len(blocklist))
152
153     logger.debug("Returning blocklist for domain='%s' - EXIT!", domain)
154     return {
155         "reject"        : blocklist["Suspended servers"],
156         "media_removal" : blocklist["Filtered media"],
157         "followers_only": blocklist["Limited servers"] + blocklist["Silenced servers"],
158     }
159
160 def fetch_blocks(domain: str) -> list:
161     logger.debug("domain='%s' - CALLED!", domain)
162     domain_helper.raise_on(domain)
163
164     if blacklist.is_blacklisted(domain):
165         raise Exception(f"domain='{domain}' is blacklisted but function is invoked.")
166     elif not instances.is_registered(domain):
167         raise Exception(f"domain='{domain}' is not registered but function is invoked.")
168
169     # Init variables
170     blocklist = list()
171
172     logger.debug("Invoking fetch_blocks_from_about(%s) ...", domain)
173     rows = fetch_blocks_from_about(domain)
174
175     logger.debug("rows[%s]()=%d", type(rows), len(rows))
176     if len(rows) > 0:
177         logger.debug("Checking %d entries from domain='%s' ...", len(rows), domain)
178         for block_level in rows:
179             blocklists = rows[block_level]
180
181             logger.debug("block_level='%s',blocklists()=%d", block_level, len(blocklists))
182             for block in blocklists:
183                 # Check type
184                 if not isinstance(block, dict):
185                     logger.debug("block[]='%s' is of type 'dict' - SKIPPED!", type(block))
186                     continue
187                 elif not domain_helper.is_wanted(block["domain"]):
188                     logger.debug("block[domain]='%s' is not wanted - SKIPPED!", block["domain"])
189                     continue
190                 elif block_level in ["accept", "accepted"]:
191                     logger.debug("block[domain]='%s' has unwanted severity level '%s' - SKIPPED!", block["domain"], block_level)
192                     continue
193                 elif "digest" in block and not block["digest"] is None and not validators.hashes.sha256(block["digest"]):
194                     logger.warning("block[domain]='%s' has invalid block[digest]='%s' - SKIPPED!", block["domain"], block["digest"])
195                     continue
196
197                 reason = tidyup.reason(block["reason"]) if "reason" in block and block["reason"] is not None and block["reason"] != "" else None
198
199                 logger.debug("Appending blocker='%s',blocked='%s',reason='%s',block_level='%s' ...", domain, block["domain"], reason, block_level)
200                 blocklist.append({
201                     "blocker"    : domain,
202                     "blocked"    : block["domain"],
203                     "digest"     : block["digest"] if "digest" in block else None,
204                     "reason"     : reason,
205                     "block_level": blocks.alias_block_level(block_level),
206                 })
207     else:
208         logger.debug("domain='%s' has no block list", domain)
209
210     logger.debug("blocklist()=%d - EXIT!", len(blocklist))
211     return blocklist