]> sipb.mit.edu Git - ikiwiki.git/blobdiff - doc/bugs/Error:_no_text_was_copied_in_this_page_--_missing_page_dependencies.mdwn
Fix some more links.
[ikiwiki.git] / doc / bugs / Error:_no_text_was_copied_in_this_page_--_missing_page_dependencies.mdwn
index 356f9155afe01f6e50feeb467d81324378ca0594..0082eed4d11d23c7184e6231798b894f0bb287c4 100644 (file)
@@ -2,7 +2,7 @@ That one has bitten me for some time; here is the minimal testcase.  There is
 also an equivalent (I suppose) problem when using another plugin, but I hope
 it's enough to track it down for this one.
 
-    $ tar -xj < [bug-dep_order.tar.bz2](http://www.thomas.schwinge.homeip.net/tmp/bug-dep_order.tar.bz2)
+    $ tar -xj < [bug-dep_order.tar.bz2](http://schwinge.homeip.net/~thomas/tmp/bug-dep_order.tar.bz2)
     $ cd bug-dep_order/
     $ ./render_locally
     [...]
@@ -24,3 +24,23 @@ This error shows up only for *news.html*, but not in *news/2010-07-31* or for
 the aggregation in *index.html* or its RSS and atom files.
 
 --[[tschwinge]]
+
+> So the cutpaste plugin, in order to support pastes
+> that come before the corresponding cut in the page,
+> relies on the scan hook being called for the page
+> before it is preprocessed.
+> 
+> In the case of an inline, this doesn't happen, if
+> the page in question has not changed.
+> 
+> Really though it's not just inline, it's potentially anything
+> that preprocesses content. None of those things guarantee that
+> scan gets re-run on it first. 
+> 
+> I think cutpaste is going beyond the intended use of scan hooks,
+> which is to gather link information, not do arbitrary data collection.
+> Requiring scan be run repeatedly could be a lot more work.
+> 
+> Using `%pagestate` to store the cut content when scanning would be 
+> one way to fix this bug. It would mean storing potentially big chunks 
+> of page content in the indexdb. [[done]] --[[Joey]]