スマホでAmazonのサイト(アプリ版じゃない方)を表示するとメニューなどが英語表示されていることが最近よくあります。
対処方法を記載したのでご参考になれば幸いです。
動作環境
- iPhone12 ver 15.4.1
本日、amazonで年一度のプライムデーが開催されています。
筆者本人は今年が初参加となるため、チェックしている商品がプライムデー前後でどの程度価格がお得なのか比較してみました。
普段prime会員の人はタイムセールに普段欲しい商品が対象になってない場合はあまりお得感はないという印象でしょうか┌(┌^o^)┐
今回価格比較対象商品は下記となります。
何十万、何百万行ものデータの中から重複行を削除する場合、Excelでは「重複行の削除」機能はありますが大量データの処理には向きません(そもそも何十万件ものデータを処理させようとすると重い><)。何とか手っ取り早く処理出来る方法がないかと調べてたらサクラエディタでたった3コマンド実行するだけで重複行削除が可能ですのでその方法をご紹介します。
たったこれだけで完了♪便利すぎる。。。
重複行を削除する手順は非常にシンプルですが、ファイル行数が何十万行、あるいはそれを超えるような巨大なテキストの場合、ソートやマージ処理でメモリを大量に消費する可能性があります。特にPCのリソース(RAM, CPU)が不足していると応答が遅くなったり最悪クラッシュしたりすることもあります。
→ 大容量ファイルでは、事前にバックアップを取っておくことを強く推奨します。
ファイルが UTF-8、Shift_JIS、EUC-JP など異なる文字コードで保存されていたり、改行コードが CR+LF(Windows)、LF(Unix)など混在していると、見た目は同じ行でも “重複行” として認識されない場合があります。ソート・マージの前に、同一の文字コード・改行形式に統一しておくと安全です。
単純に “行全体” を対象に重複を判断する方法が記事で紹介されていますが、もし CSV やタブ区切りファイルのように “特定のカラムだけ重複チェックしたい” 場合は、サクラエディタのみではやや扱いにくくなります。その場合は以下のツールや方法を併用するのも有効です:
Excel や LibreOffice Calc の重複除去機能
AWK や Python、Perl などスクリプト言語で該当カラムをキーに重複行を抽出/削除
専用テキスト処理ツール(例えば “TextPipe” や “GrepWin” など)
もし頻繁に同じ種類のファイルで重複行処理をするなら、次のようなバッチスクリプト/PowerShell スクリプトで自動化するのもおすすめです:
こうしたスクリプトを定期的に実行できるようにしておけば、サクラエディタを手で開かずとも重複除去処理が可能になります。
よく画像をサイトに登録するとURLがかなり長くなってコピペする際不便に感じる事が結構あります。
そういう時に短縮URLを登録しておくと便利です。今回はGoogleで提供されている無料短縮URLの登録機能「Google URL Shortener」の使用方法をご紹介します。