目次
要点
ブログを自作した。欲しかったのは以下だ:
- 自由
- 管理しやすさ
- 高速性・拡張性
- 無広告
自由
外部サービスに書くということは自らを明示的に見世物にするということにほかならない。どうせインターネットに上げれば同じ、というのは誤りで、Note やはてブの投稿はピックアップされ、サジェストされ、誰かの画面に躍り出る。これら閲覧を支援する機構(舞台装置だ!)は書き手を舞台の上に連れ出し、スポットライトの存在を嫌でも意識させる。そして本来なら触れるはずもなかった観客と向かい合わせる。
一方、個人ブログに辿り着くのはあえて勧められてもいないリンクを踏んだ人間だけだ。なんでこんなの読んでるんですか? 検索エンジンもサイトと読者を引き合わせる役割を持つが、そこには偶然性の占める割合が大きく、結果として外部サービスに書かれたものより明らかに到達コストは高くなる。
重要なのはここだ。到達コストのかかる場所に置かれるものは、公衆の目に触れるか否か不確かになる。買い物メモレベルの俗さから始まって、ただ書いておくという事実のためだけに言語化された感情、果ては延々と専門事項が書き連ねられた SSL 未対応のサイトまで、あえて演者としての露出を偶然性に委ねながら書かれたテクストには、それ自体独特の風味がある。広告資本主義のおこがましさがないのはもちろん、ある意味では読まれるために書かれたもの以上の真正性すら感じさせる。そしてこの性質は、明確な書き手として場に固定されれば消えてしまう種類のものだ。
ここで私は書き手が視線に晒されること自体を糾弾しているのではない。書き手と読み手という一方性が定式化されて提供され、舞台装置によって増幅されることで失われるものを考えている。書くことは広く伝えること、という刷り込みは極めて強力だが、必ずしも表現を拡張するものではない。読み手からしても、なげやりに打ち出された吐露、あるいは限られた対象にのみ向けられた事実をほとんど窃視のような形で目にするほうがより愉快であることも当然ある。そしてこういうものは、書き手が各人の自由なシマを持っていなければ難しいことだ。「公開されているが公開されているわけではない」このゆるやかな断絶を実現できるのは、個人ブログくらいしかないのではないかとすら思う。
管理しやすさ
記事
われわれには先人の記憶というものがあり、すなわちこの手のサイトは記事管理が億劫になった時点でエタる。放置された「〇〇の部屋」、消えて還らない借りドメイン、むなしく刻む入室カウンターたちを眺めるたびに、せめて記事くらいは慣れたファイル形式で楽に扱いたいと思うようになった。そういうわけで Markdown(内容管理) + tsx(テンプレートエンジン)。Markdown ならそう簡単には廃れないだろうし、いつか別サービスにも投げ込める安心感がある。
Markdown の処理系には remark / rehype を選択した。unifiedの API が使えて、後述の豊富なプラグイン群が揃っているのが理由だ。その反面、同じことを実装するのにも選択肢が複数ある。たとえば今回のように Markdown から Next.js の ページを生成するだけでも、以下の五種類(以上)から選ぶことになる。
unified
上で実行するものremark-parse
+remark-rehype
+rehype-stringify
remark-parse
+remark-rehype
+rehype-react
- そうでないもの(上の処理が複合されたプラグイン)
remark
+remark-html
react-remark
react-markdown
自分は柔軟にプラグインを組み合わせ、React コンポーネントとも融和させたかったため、このうち上から二番目を採った(後述するが、rehype-react
がかなり魅力的だ)。
CI・ビルド・ホスティング
テストとプレビューを GitHub Actions、ライブラリ更新を renovate で自動化している。これが全部無料で回るのだから本当に頭が上がらない。ホスティングは素直に Vercel に投げたが、とくに拘りはないので Cloudflare Pages あたりに変えても良いかもしれない。ちなみに Vercel 側のビルド回数を抑えるため、デフォルトのレポジトリ連携は切り、CI で念入りにテストしてから Vercel CLI 経由でのデプロイを行うようにしてある(vercel-action)。せめてもの配慮(?)だ。
高速性・拡張性
パフォーマンスが良いらしいと聞いて Next.js の SSG を選択した。SSG とはいいながら、ページ遷移のたびに JS が走るので動きはなめらかだ(言い方を変えれば、ピュアではない)。画像最適化やルーティングの抽象化も向こうでやってくれる。かといって Gatsby みたいにプラグインでガチガチに固める感じでもないので、引っ張ってきたライブラリや自作の処理も素直に持ち込めるのが良いと思った。
無広告
この記事からわかるように、広告の遍在に対して個人的な憎悪を燃やしているため、このサイトには一切置いていない。あるのは Vercel が(おそらく)行っているアナリティクスだけだ。
機能
以下では具体的に実装できた機能と、使ったライブラリを書く。
Frontmatter
Markdown 冒頭に記事のメタデータを記載し、grey-matter
で取り出している(これは unified の処理ではない)。
---
slug: "blog-renewal"
title: "Next.jsでブログをつくった"
date: "20220326"
tags: ["tech", "web", "nextjs"]
---
GitHub Flavored Markdown
remark-gfm
で対応。
| 表を | 作る |
| -------- | ---------- |
| たとえば | このように |
| 要素を | 増やす |
https://www.haxibami.net
みたいな生のリンクも置けるし
- こうやって
- リストが書ける。さらに、[^1]
[^1]: 脚注も使える
表を | 作る |
---|---|
たとえば | このように |
要素を | 増やす |
みたいな生のリンクも置けるし
- こうやって
- リストが書ける。さらに、1
絵文字
remark-gemoji
で変換。
:v:
が ✌️ になる。
数式
remark-math
とrehype-katex
を噛ませる。
> $$
> ( \sum_{k=1}^{n} a_k b_k )^2 \leq ( \sum_{k=1}^{n} {a_k}^2 ) ( \sum_{k=1}^{n} {b_k}^2 )
> $$
のようなインライン数式もいける。
フォントの設置は必要なく、スタイルシートを読ませればよい。
// pages/blog/posts/[slug].tsx
const AllBlog: NextPage<Props> = ({ metaprops, post, content }) => {
return (
<div id={Styles.Wrapper}>
<div id={Styles.Container}>
<MyHead {...metaprops} />
<Head>
<link
rel="stylesheet"
href="https://cdn.jsdelivr.net/npm/katex@0.15.3/dist/katex.min.css"
integrity="sha384-KiWOvVjnN8qwAZbuQyWDIbfCLFhLXNETzBQjA/92pIowpC0d2O3nppDGQVgwd2nB"
crossOrigin="anonymous"
/>
</Head>
// (略)
ルビ
remark-rubyというパッケージがルビを実装しているが、依存関係と API が古くなっていたため、ほぼフォークのような形で別パッケージ(remark-jaruby
)を実装した。
パーサ部分(micromark-extension-jaruby)、構文木操作部分(mdast-util-jaruby)の拡張機能に分割し、これらをremark-jaruby
から参照している。
> 昨日午後、{†聖剣†}^(エクスカリバー)を振り回す{全裸中年男性}^(無敵の人)が出現し……
昨日午後、†聖剣†を振り回す全裸中年男性が出現し……
ページ内リンク・目次
rehype-slug
、rehype-autolink-headings
、remark-toc
で実現。
heading に slug を振ってくれるそうな。
内容プレビュー
トップの記事一覧には内容のプレビューを表示している。このために生の Markdown を流し込むのも気が引けたので、なんとかして plaintext 形式に変換できないかと考えていたら、strip-markdown
というのがあった。これで<h1>
, <blockquote>
等を除去し、冒頭 200 字を抽出している。
Mermaid のサポート
remark-mermaidは古く、remark-mermaidjsは API が unified のものではなかったため、後者をベースにしつつ手元で実装した。裏でヘッドレス Chromium を立ち上げて SVG を生成しているとは思えないほど高速だ。
```mermaid
sequenceDiagram
Alice->>John: Hello John, how are you?
loop Healthcheck
John->>John: Fight against hypochondria
end
Note right of John: Rational thoughts!
John-->>Alice: Great!
John->>Bob: How about you?
Bob-->>John: Jolly good!
```
```mermaid
pie
"Dogs" : 386
"Cats" : 85
"Rats" : 15
```
シンタックスハイライト
最初はprism.jsを使っていたが、使えるカラースキームがあまりに少なかったためshikiに変更した。公式サイトにある通り、こちらは VSCode のカラースキームファイルが流用できる。せっかくなので自作のurara-vscodeを使用してみた。
リンクカード
外部リンクをカードに変換するやつ。
👆 を参考にしつつ、unified の Transformer プラグインとして実装した。文書中のリンク(Paragraph
ノードかつ、子要素が単一のLink
ノードであるもの)を取得し、適当な独自要素(<extlink>
)に置き換えたのち、リンク先にアクセスして得たメタ情報(title、description、OGP 画像 URL 等)を挿入している。これをrehype-react
のcomponents
オプションを使ってカスタムコンポーネントに変換することで、任意のスタイルでカードが表示できる。
// lib/remark-link-widget.ts
import type { Plugin, Transformer } from "unified";
import type { Node, Parent } from "unist";
import type { VFileCompatible } from "vfile";
import { visit } from "unist-util-visit";
import type { Paragraph, Link, Literal } from "mdast";
import { isParent, isLink, isParagraph } from "./mdast-util-node-is";
import type { H } from "mdast-util-to-hast";
import getMetadata from "metadata-scraper";
interface ExtLink extends Literal {
type: "extlink";
url: string;
meta: LinkWidgetMeta;
}
interface LinkWidgetMeta {
url: string;
title: string;
description: string;
image: string;
icon: string;
}
function isExtLink(node: unknown): node is Paragraph {
if (!isParagraph(node)) {
return false;
}
const { children } = node;
if (children.length != 1) {
return false;
}
const singleChild = children[0];
if (!(isLink(singleChild) && singleChild.children[0].type == "text")) {
return false;
}
return true;
}
function fetchMeta(url: string) {
const metas = getMetadata(url).then((data) => {
const metaData: LinkWidgetMeta = {
url: url,
title: data.title ?? "",
description: data.description ?? "",
image: data.image ?? "",
icon: data.icon ?? "",
};
return metaData;
});
return metas;
}
export const remarkLinkWidget: Plugin = function extLinkTrans(): Transformer {
return async (tree: Node, _file: VFileCompatible) => {
const promises: any[] = [];
visit(tree, isExtLink, visitor);
await Promise.all(promises.map((t) => t()));
function visitor(
node: Paragraph,
index: number,
parent: Parent | undefined
) {
if (!isParent(parent)) {
return;
}
if (parent.type === "listItem") {
return;
}
const child = node.children[0] as Link;
promises.push(async () => {
const data = await fetchMeta(child.url);
parent.children[index] = {
type: "extlink",
url: child.url,
meta: data,
} as ExtLink;
});
}
};
};
export function extLinkHandler(_h: H, node: ExtLink) {
return {
type: "element",
tagName: "extlink",
children: [{ type: "text", value: JSON.stringify(node.meta) }],
};
}
メタ情報の取得には、metadata-scraper
という便利なライブラリを使った。
なお、内部でfetch
を行っている都合上、作成したプラグインは非同期プラグインとなることに留意。具体的には unified でprocessSync
が使えなくなる。
キャプション・画像・リンク処理
Markdown で挿入した画像は通常の<img>
タグに変換されるため、そのままでは Next.js の画像最適化の対象にはならない。が、これもrehype-react
のcomponents
オプションで独自のコンポーネントに置換することで解決できる。たとえば以下のような関数コンポーネントを作れば、画像にリンクを付加し、alt
テキストをキャプションとして追記できる。同様のことがリンク(<a>
タグ →<Link>
)についても可能。
// components/NextImage.tsx
import React from "react";
import Image from "next/image";
import Link from "next/link";
import Styles from "./style.module.scss";
export type NextImageProps = {
src: string;
alt?: string;
};
const NextImage: React.FC<NextImageProps> = (props) => {
const { src, alt } = props;
return alt !== "asciicast" ? (
<figure className={Styles.Figure}>
<div className={Styles.ImgBox}>
<Link href={src} scroll={false}>
<a>
<Image
className={Styles.Img}
src={src}
alt={alt || src}
layout="fill"
objectFit="contain"
/>
</a>
</Link>
</div>
<figcaption>{alt}</figcaption>
</figure>
) : (
<div className={Styles.ImgBox}>
<Image
className={Styles.Img}
src={src}
alt={alt}
layout="fill"
objectFit="contain"
/>
</div>
);
};
export default NextImage;
以上を合わせたremark-parse
/ remark-rehype
まわりのメソッドチェーンが下の通り。2
// lib/parser.ts
// Markdown parser on "Server" side. Never include frontend code (including rehype-react).
import { join } from "path";
import { unified } from "unified";
import remarkParse from "remark-parse";
import remarkGfm from "remark-gfm";
import remarkGemoji from "remark-gemoji";
import remarkMath from "remark-math";
import remarkJaruby from "remark-jaruby";
import remarkUnwrapImages from "remark-unwrap-images";
import remarkToc from "remark-toc";
import remarkMermaid from "./remark-mermaid";
import remarkRehype from "remark-rehype";
import type { Options as RemarkRehypeOptions } from "remark-rehype";
import rehypeKatex from "rehype-katex";
import * as shiki from "shiki";
import rehypeShiki from "@leafac/rehype-shiki";
import rehypeSlug from "rehype-slug";
import rehypeAutolinkHeadings from "rehype-autolink-headings";
import rehypeStringify from "rehype-stringify";
import stripMarkdown from "strip-markdown";
import remarkStringify from "remark-stringify";
import { remarkLinkWidget, extLinkHandler } from "./remark-link-widget";
// Get shiki theme file (`src/styles/shiki/${themename}.json`) full path
const getThemePath = (themename: string) =>
join(process.cwd(), "src/styles/shiki", `${themename}.json`);
// Convert Markdown to HTML
export const MdToHtml = async (md: string) => {
const myShikiTheme = await shiki.loadTheme(getThemePath("urara-color-theme"));
const result = await unified()
.use(remarkParse)
.use(remarkGfm)
.use(remarkGemoji)
.use(remarkMath)
.use(remarkJaruby)
.use(remarkLinkWidget)
.use(remarkUnwrapImages)
.use(remarkToc, {
heading: "目次",
tight: true,
})
.use(remarkMermaid, {
launchOptions: {
args: ["--no-sandbox", "--disable-setuid-sandbox"],
},
wrap: true,
classname: ["mermaid"],
})
.use(remarkRehype, {
handlers: {
extlink: extLinkHandler,
},
} as RemarkRehypeOptions)
.use(rehypeKatex)
.use(rehypeShiki, {
highlighter: await shiki.getHighlighter({ theme: myShikiTheme }),
})
.use(rehypeSlug)
.use(rehypeAutolinkHeadings, {
behavior: "wrap",
})
.use(rehypeStringify)
.process(md);
return result.toString();
};
// Convert Markdown to plaintext: for preview in top pages
export const MdStrip = async (md: string) => {
const result = unified()
.use(remarkParse)
.use(stripMarkdown, {
remove: ["heading", "list", "blockquote", "code", "image"],
})
.use(remarkStringify)
.processSync(md);
return result.toString();
};
また、rehype-react
関連の処理は以下のようになる。
// lib/rehype-react.ts
// HTML parser on "Client" side. Never include backend code (including remark).
import { unified } from "unified";
import rehypeParse from "rehype-parse";
import rehypeReact from "rehype-react";
import type { Options as RehypeReactOptions } from "rehype-react";
import React from "react";
import MyLink from "components/MyLink";
import type { MyLinkProps } from "components/MyLink";
import LinkWidget from "components/LinkWidget";
import type { LinkWidgetProps } from "components/LinkWidget";
import NextImage from "components/NextImage";
import type { NextImageProps } from "components/NextImage";
// Convert HTML to React Component
export const HtmlToReact = (html: string) => {
const result = unified()
.use(rehypeParse, {
fragment: true,
})
.use(rehypeReact, {
createElement: React.createElement,
components: {
a: (props: MyLinkProps) => {
return MyLink(props);
},
img: (props: NextImageProps) => {
return NextImage(props);
},
extlink: (props: LinkWidgetProps) => {
return LinkWidget(props);
},
},
} as RehypeReactOptions)
.processSync(html);
return result.result;
};
以上で、はてブや Qiita、Zenn あたりと似た書き心地になった。
ダークモード
外部ライブラリを使用。
動的 OGP 画像の自動生成
Vercel のサーバレス関数機能を使い、
- ヘッドレス Chromium(playwright)を起動
- クエリパラメータに応じた内容の React コンポーネントを生成
renderToStaticMarkup
で静的 HTML 化- 表示してスクリーンショットを撮影
する API を設置して実現した。表示する内容を手元で書けるぶん、他の手法と比べてデザインの自由度が高い。
Chromium バイナリにはplaywright-aws-lambdaを使った。chrome-aws-lambdaより容量が小さくバージョンも新しいため、こちらを使わない手はない。
// pages/api/ogp.tsx
import * as chromium from "playwright-aws-lambda";
import React from "react";
import type { NextApiRequest, NextApiResponse } from "next";
import ReactDomServer from "react-dom/server";
import path from "path";
import fs from "fs";
import OgpImage, { OgpInfo } from "components/OgpImage";
// full path resolve
const baseFullPath = path.resolve("./");
// image paths
const iconPath = path.join(baseFullPath, "public/icon_ange_glasses_192.webp");
const icon: string = fs.readFileSync(iconPath, "base64");
// font paths
const monopath = path.join(
baseFullPath,
"public/fonts/RobotoMono-Medium.woff2"
);
const mono = fs.readFileSync(monopath).toString("base64");
const notopath = path.join(
baseFullPath,
"public/fonts/NotoSansCJKjp-Bold.woff2"
);
const noto = fs.readFileSync(notopath).toString("base64");
const style = `
@font-face {
font-family: "Noto Sans CJK JP";
font-style: normal;
font-weight: bold;
src: url(data:font/woff2;charset=utf-8;base64,${noto}) format("woff2");
font-display: swap;
}
@font-face {
font-family: "Roboto Mono";
font-style: normal;
font-weight: 500;
src: url(data:font/woff2;charset=utf-8;base64,${mono}) format("woff2");
font-display: swap;
}
/*@import url('https://fonts.googleapis.com/css2?family=Noto+Sans+JP&display=swap');*/
/*@import url('https://fonts.googleapis.com/css2?family=Roboto+Mono:wght@500&display=swap');*/
* {
margin: 0;
padding: 0;
}
html, body {
width: 100%;
height: 100%;
background: #292433;
font-family: "Noto Sans CJK JP", "Noto Sans JP", sans-serif;
font-size: 125%;
color: #d2ced9;
}
body {
display: flex;
justify-content: center;
align-items: center;
background: linear-gradient(to right bottom, #d9989c, #a6b4de);
}
#Wrapper {
margin: 50px;
background: white;
grid-gap: 30px;
border-radius: 30px;
background: #1c1921;
box-shadow: 10px 10px 20px #1c192166, -10px -10px 20px #1c192166;
padding: 50px;
display: grid;
grid-template-rows: 280px 100px;
grid-template-columns: 700px 250px;
grid-template-areas: "Title Title" "Name Date";
}
#Wrapper #Title {
font-size: 60px;
grid-area: Title;
display: flex;
justify-content: center;
align-items: center;
overflow: hidden;
}
#Wrapper #Title p {
max-height: 100%;
overflow-wrap: anywhere;
}
#Wrapper #Name {
grid-area: Name;
display: flex;
align-items: center;
gap: 20px;
}
#Wrapper #Name img {
border-radius: 50%;
}
#Wrapper #Date {
grid-area: Date;
display: flex;
align-items: center;
justify-content: flex-end;
font-family: "Roboto Mono", monospace;
}
`;
const OgpGen = async (req: NextApiRequest, res: NextApiResponse) => {
try {
const playwrightArgs = {
production: {
args: chromium.getChromiumArgs(true),
},
development: {
executablePath: "/opt/google/chrome/google-chrome",
headless: true,
args: chromium.getChromiumArgs(false),
},
test: {},
}[process.env.NODE_ENV];
const viewport = { width: 1200, height: 630 };
const browser = await chromium.launchChromium(playwrightArgs);
const context = await browser.newContext({ viewport: viewport });
const page = await context.newPage();
await page.setExtraHTTPHeaders({
"Accept-Language": "ja-JP",
});
const longtitle =
typeof req.query.title !== "undefined" ? req.query.title.toString() : "";
const date =
typeof req.query.date !== "undefined" ? req.query.date.toString() : "";
const ogpinfo: OgpInfo = {
title: longtitle,
date: date,
icon: icon,
style: style,
};
const markup = ReactDomServer.renderToStaticMarkup(
<OgpImage {...ogpinfo} />
);
const html = `<!doctype html>${markup}`;
await page.setContent(html, { waitUntil: "networkidle" });
const image = await page.screenshot({ type: "png" });
await browser.close();
res.setHeader("Cache-Control", "s-maxage=5256000, stale-while-revalidate");
res.setHeader("Content-Type", "image/png");
res.end(image);
} catch (error) {
console.error("[Error]: ", error);
res.status(404).json({ message: "cannot render og-image" });
}
};
export default OgpGen;
以上でこんな 👆 感じのものがつくれる。
レスポンス改善を期待してフォントはローカル(/public/fonts
以下)に設置した。ログを見た感じかなり容量がギリギリだが、普通に動いている。なお、ローカルフォントを読み込む際には base64 エンコードしたものを CSS に渡す必要があるため注意。Vercel 公式のog-imageあたりの実装が参考になるだろう。
サイトマップ生成
next-sitemapを使ったところ、<lastmod>
がすべて最終ビルド時を示していて発狂しかけた。この挙動はある意味正しく、なぜなら自分が触れていないページでもビルドするたびに静的アセットの slug 名が変わってしまうためである。仕方がないのでこのへんを参考にしつつ書いた。npm scripts を活用し、
- ビルド前に
share/index.json
に記事のインデックスを作成 - ビルド後にインデックスに基づいて
public/sitemap.xml
とpublic/robots.txt
を生成
するようにしてある。
// hooks/scripts/sitemap.mjs
import fs from "fs";
import prettier from "prettier";
import { globby } from "globby";
// variables
const HOST = "https://www.haxibami.net";
const XMLFILE = "sitemap.xml";
// Article index file
const indexFile = fs.readFileSync("src/share/index.json", "utf-8");
const index = JSON.parse(indexFile);
// formatted xml
const formatted = (sitemap) => prettier.format(sitemap, { parser: "html" });
const sitemapGenerator = async () => {
const solidPaths = await globby(
["src/pages/*.tsx", "src/pages/blog/*.tsx", "src/pages/grad_essay/*.tsx"],
{ ignore: ["src/pages/_*.tsx", "src/pages/404.tsx"] }
);
const solidInfos = solidPaths.map((filePath) => {
const solidInfo = {
relpath: filePath
.replace("src/pages/", "")
.replace(".tsx", "")
.replace("index", ""),
lastmod: new Date().toISOString(),
};
return solidInfo;
});
const allBlogs = index.articles.blog;
const allGrads = index.articles.grad_essay;
const dateConverter = (date) => {
return date.slice(0, 4) + "-" + date.slice(4, 6) + "-" + date.slice(6);
};
const blogInfos = allBlogs.map((item) => {
const blogInfo = {
relpath: `blog/posts/${item.slug}`,
lastmod: dateConverter(item.date),
};
return blogInfo;
});
const gradInfos = allGrads.map((item) => {
const gradInfo = {
relpath: `grad_essay/posts/${item.slug}`,
lastmod: dateConverter(item.date),
};
return gradInfo;
});
const sitemapInfos = solidInfos.concat(blogInfos, gradInfos);
const pagesSitemap = `
${sitemapInfos
.map((info) => {
return `
<url>
<loc>${HOST}/${info.relpath}</loc>
<lastmod>${info.lastmod}</lastmod>
</url>
`;
})
.join("")}
`;
const generatedSitemap = `
<?xml version="1.0" encoding="UTF-8"?>
<urlset
xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9 http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd"
>
${pagesSitemap}
</urlset>
`;
const robots = `# *
User-agent: *
Allow: /
# Host
Host: https://www.haxibami.net
# Sitemaps
Sitemap: https://www.haxibami.net/sitemap.xml
`;
fs.writeFileSync(`public/${XMLFILE}`, formatted(generatedSitemap));
fs.writeFileSync("public/robots.txt", robots);
};
export default () => {
return new Promise(async (resolve) => {
sitemapGenerator();
resolve();
});
};
フィード対応
Feed
というライブラリを使った。上と同じ要領で、ビルド時に/public/rss
以下に RSS、Atom、JSON Feed 用のファイル三種を吐かせている。
// hooks/scripts/feed.mjs
import fs from "fs";
import { Feed } from "feed";
import { readYaml, getAllPosts, MdToHtml, dateConverter } from "./lib.mjs";
// variables
const HOST = "https://www.haxibami.net";
const meta = readYaml("meta.yaml");
const genRssFeed = () => {
const author = {
name: "haxibami",
email: "contact@haxibami.net",
link: HOST,
};
const date = new Date();
const feed = new Feed({
title: meta.siteinfo.blog.title,
description: meta.siteinfo.blog.description,
id: HOST,
link: HOST,
language: "ja",
image: `${HOST}/favicon.png`,
copyright: `All rights reserved ${date.getFullYear()}, ${author.name}`,
updated: date,
feedLinks: {
rss2: `${HOST}/rss/feed.xml`,
json: `${HOST}/rss/feed.json`,
atom: `${HOST}/rss/atom.xml`,
},
author: author,
});
const allBlogs = getAllPosts(["slug", "title", "date", "content"], "blog");
allBlogs.forEach((post) => {
const url = `${HOST}/blog/posts/${post.slug}`;
feed.addItem({
title: post.title,
description: `<p>${MdToHtml(post.content).substring(0, 300)}</p>`,
id: url,
link: url,
date: new Date(dateConverter(post.date)),
});
});
fs.mkdirSync("public/rss", { recursive: true });
fs.writeFileSync("public/rss/feed.xml", feed.rss2());
fs.writeFileSync("public/rss/atom.xml", feed.atom1());
fs.writeFileSync("public/rss/feed.json", feed.json1());
};
export default genRssFeed;
感想
いい感じ〜 😎
Next.js の抽象化と、unified はじめ充実した外部処理系に助けられてかなり簡単に動いた。デベロッパーに五体投地しつつ、改修・保守をやっていく。
TODO
- ルビの実装(2022/03/06)
- フィード(RSS, Atom)対応(2022/03/10)
- 外部リンクのカード化(2022/03/15)
- ダークモードのサポート(2022/03/22)
- Mermaid のサポート(2022/03/26)
- Twitter コンテンツの静的埋め込み