]> git.mxchange.org Git - friendica.git/blobdiff - src/Util/ParseUrl.php
Merge pull request #9186 from annando/valid-posts
[friendica.git] / src / Util / ParseUrl.php
index 4590f39a99cfa83aa813199619ce0323eff8d47f..01ad79d4f114128d092c1eaec32d3853d2a59427 100644 (file)
@@ -1,8 +1,24 @@
 <?php
 /**
- * @file src/Util/ParseUrl.php
- * @brief Get informations about a given URL
+ * @copyright Copyright (C) 2020, Friendica
+ *
+ * @license GNU AGPL version 3 or any later version
+ *
+ * This program is free software: you can redistribute it and/or modify
+ * it under the terms of the GNU Affero General Public License as
+ * published by the Free Software Foundation, either version 3 of the
+ * License, or (at your option) any later version.
+ *
+ * This program is distributed in the hope that it will be useful,
+ * but WITHOUT ANY WARRANTY; without even the implied warranty of
+ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+ * GNU Affero General Public License for more details.
+ *
+ * You should have received a copy of the GNU Affero General Public License
+ * along with this program.  If not, see <https://www.gnu.org/licenses/>.
+ *
  */
+
 namespace Friendica\Util;
 
 use DOMDocument;
@@ -11,15 +27,27 @@ use Friendica\Content\OEmbed;
 use Friendica\Core\Hook;
 use Friendica\Core\Logger;
 use Friendica\Database\DBA;
-use Friendica\Object\Image;
+use Friendica\DI;
 
 /**
- * @brief Class with methods for extracting certain content from an url
+ * Get information about a given URL
+ *
+ * Class with methods for extracting certain content from an url
  */
 class ParseUrl
 {
        /**
-        * @brief Search for chached embeddable data of an url otherwise fetch it
+        * Maximum number of characters for the description
+        */
+       const MAX_DESC_COUNT = 250;
+
+       /**
+        * Minimum number of characters for the description
+        */
+       const MIN_DESC_COUNT = 100;
+
+       /**
+        * Search for chached embeddable data of an url otherwise fetch it
         *
         * @param string $url         The url of the page which should be scraped
         * @param bool   $no_guessing If true the parse doens't search for
@@ -28,14 +56,13 @@ class ParseUrl
         *                            to avoid endless loops
         *
         * @return array which contains needed data for embedding
-        *    string 'url' => The url of the parsed page
-        *    string 'type' => Content type
-        *    string 'title' => The title of the content
-        *    string 'text' => The description for the content
-        *    string 'image' => A preview image of the content (only available
-        *                if $no_geuessing = false
-        *    array'images' = Array of preview pictures
-        *    string 'keywords' => The tags which belong to the content
+        *    string 'url'      => The url of the parsed page
+        *    string 'type'     => Content type
+        *    string 'title'    => (optional) The title of the content
+        *    string 'text'     => (optional) The description for the content
+        *    string 'image'    => (optional) A preview image of the content (only available if $no_geuessing = false)
+        *    array  'images'   => (optional) Array of preview pictures
+        *    string 'keywords' => (optional) The tags which belong to the content
         *
         * @throws \Friendica\Network\HTTPException\InternalServerErrorException
         * @see   ParseUrl::getSiteinfo() for more information about scraping
@@ -60,7 +87,7 @@ class ParseUrl
                DBA::insert(
                        'parsed_url',
                        [
-                               'url' => Strings::normaliseLink($url), 'guessing' => !$no_guessing,
+                               'url' => substr(Strings::normaliseLink($url), 0, 255), 'guessing' => !$no_guessing,
                                'oembed' => $do_oembed, 'content' => serialize($data),
                                'created' => DateTimeFormat::utcNow()
                        ],
@@ -71,7 +98,7 @@ class ParseUrl
        }
 
        /**
-        * @brief Parse a page for embeddable content information
+        * Parse a page for embeddable content information
         *
         * This method parses to url for meta data which can be used to embed
         * the content. If available it prioritizes Open Graph meta tags.
@@ -88,14 +115,13 @@ class ParseUrl
         * @param int    $count       Internal counter to avoid endless loops
         *
         * @return array which contains needed data for embedding
-        *    string 'url' => The url of the parsed page
-        *    string 'type' => Content type
-        *    string 'title' => The title of the content
-        *    string 'text' => The description for the content
-        *    string 'image' => A preview image of the content (only available
-        *                if $no_geuessing = false
-        *    array'images' = Array of preview pictures
-        *    string 'keywords' => The tags which belong to the content
+        *    string 'url'      => The url of the parsed page
+        *    string 'type'     => Content type
+        *    string 'title'    => (optional) The title of the content
+        *    string 'text'     => (optional) The description for the content
+        *    string 'image'    => (optional) A preview image of the content (only available if $no_guessing = false)
+        *    array  'images'   => (optional) Array of preview pictures
+        *    string 'keywords' => (optional) The tags which belong to the content
         *
         * @throws \Friendica\Network\HTTPException\InternalServerErrorException
         * @todo  https://developers.google.com/+/plugins/snippet/
@@ -113,29 +139,28 @@ class ParseUrl
         */
        public static function getSiteinfo($url, $no_guessing = false, $do_oembed = true, $count = 1)
        {
-               $siteinfo = [];
-
                // Check if the URL does contain a scheme
                $scheme = parse_url($url, PHP_URL_SCHEME);
 
                if ($scheme == '') {
-                       $url = 'http://' . trim($url, '/');
+                       $url = 'http://' . ltrim($url, '/');
                }
 
+               $url = trim($url, "'\"");
+
+               $url = Network::stripTrackingQueryParams($url);
+
+               $siteinfo = [
+                       'url' => $url,
+                       'type' => 'link',
+               ];
+
                if ($count > 10) {
                        Logger::log('Endless loop detected for ' . $url, Logger::DEBUG);
                        return $siteinfo;
                }
 
-               $url = trim($url, "'");
-               $url = trim($url, '"');
-
-               $url = Network::stripTrackingQueryParams($url);
-
-               $siteinfo['url'] = $url;
-               $siteinfo['type'] = 'link';
-
-               $curlResult = Network::curl($url);
+               $curlResult = DI::httpRequest()->get($url);
                if (!$curlResult->isSuccess()) {
                        return $siteinfo;
                }
@@ -337,41 +362,12 @@ class ParseUrl
                        $siteinfo['type'] = 'link';
                }
 
-               if (empty($siteinfo['image']) && !$no_guessing) {
-                       $list = $xpath->query('//img[@src]');
-                       foreach ($list as $node) {
-                               $img_tag = [];
-                               if ($node->attributes->length) {
-                                       foreach ($node->attributes as $attribute) {
-                                               $img_tag[$attribute->name] = $attribute->value;
-                                       }
-                               }
-
-                               $src = self::completeUrl($img_tag['src'], $url);
-                               $photodata = Image::getInfoFromURL($src);
-
-                               if (($photodata) && ($photodata[0] > 150) && ($photodata[1] > 150)) {
-                                       if ($photodata[0] > 300) {
-                                               $photodata[1] = round($photodata[1] * (300 / $photodata[0]));
-                                               $photodata[0] = 300;
-                                       }
-                                       if ($photodata[1] > 300) {
-                                               $photodata[0] = round($photodata[0] * (300 / $photodata[1]));
-                                               $photodata[1] = 300;
-                                       }
-                                       $siteinfo['images'][] = [
-                                               'src'    => $src,
-                                               'width'  => $photodata[0],
-                                               'height' => $photodata[1]
-                                       ];
-                               }
-                       }
-               } elseif (!empty($siteinfo['image'])) {
+               if (!empty($siteinfo['image'])) {
                        $src = self::completeUrl($siteinfo['image'], $url);
 
                        unset($siteinfo['image']);
 
-                       $photodata = Image::getInfoFromURL($src);
+                       $photodata = Images::getInfoFromURLCached($src);
 
                        if (($photodata) && ($photodata[0] > 10) && ($photodata[1] > 10)) {
                                $siteinfo['images'][] = ['src' => $src,
@@ -380,47 +376,15 @@ class ParseUrl
                        }
                }
 
-               if ((@$siteinfo['text'] == '') && (@$siteinfo['title'] != '') && !$no_guessing) {
-                       $text = '';
-
-                       $list = $xpath->query('//div[@class="article"]');
-                       foreach ($list as $node) {
-                               if (strlen($node->nodeValue) > 40) {
-                                       $text .= ' ' . trim($node->nodeValue);
-                               }
-                       }
-
-                       if ($text == '') {
-                               $list = $xpath->query('//div[@class="content"]');
-                               foreach ($list as $node) {
-                                       if (strlen($node->nodeValue) > 40) {
-                                               $text .= ' ' . trim($node->nodeValue);
-                                       }
-                               }
-                       }
-
-                       // If none text was found then take the paragraph content
-                       if ($text == '') {
-                               $list = $xpath->query('//p');
-                               foreach ($list as $node) {
-                                       if (strlen($node->nodeValue) > 40) {
-                                               $text .= ' ' . trim($node->nodeValue);
-                                       }
-                               }
-                       }
-
-                       if ($text != '') {
-                               $text = trim(str_replace(["\n", "\r"], [' ', ' '], $text));
-
-                               while (strpos($text, '  ')) {
-                                       $text = trim(str_replace('  ', ' ', $text));
-                               }
-
-                               $siteinfo['text'] = trim(html_entity_decode(substr($text, 0, 350), ENT_QUOTES, 'UTF-8') . '...');
+               if (!empty($siteinfo['text']) && mb_strlen($siteinfo['text']) > self::MAX_DESC_COUNT) {
+                       $siteinfo['text'] = mb_substr($siteinfo['text'], 0, self::MAX_DESC_COUNT) . '…';
+                       $pos = mb_strrpos($siteinfo['text'], '.');
+                       if ($pos > self::MIN_DESC_COUNT) {
+                               $siteinfo['text'] = mb_substr($siteinfo['text'], 0, $pos + 1);
                        }
                }
 
-               Logger::log('Siteinfo for ' . $url . ' ' . print_r($siteinfo, true), Logger::DEBUG);
+               Logger::info('Siteinfo fetched', ['url' => $url, 'siteinfo' => $siteinfo]);
 
                Hook::callAll('getsiteinfo', $siteinfo);
 
@@ -428,7 +392,7 @@ class ParseUrl
        }
 
        /**
-        * @brief Convert tags from CSV to an array
+        * Convert tags from CSV to an array
         *
         * @param string $string Tags
         * @return array with formatted Hashtags
@@ -445,9 +409,9 @@ class ParseUrl
        }
 
        /**
-        * @brief Add a hasht sign to a string
+        * Add a hasht sign to a string
         *
-        *  This method is used as callback function
+        * This method is used as callback function
         *
         * @param string $tag The pure tag name
         * @param int    $k   Counter for internal use
@@ -459,7 +423,7 @@ class ParseUrl
        }
 
        /**
-        * @brief Add a scheme to an url
+        * Add a scheme to an url
         *
         * The src attribute of some html elements (e.g. images)
         * can miss the scheme so we need to add the correct